JP3916934B2 - Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus - Google Patents

Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus Download PDF

Info

Publication number
JP3916934B2
JP3916934B2 JP2001361052A JP2001361052A JP3916934B2 JP 3916934 B2 JP3916934 B2 JP 3916934B2 JP 2001361052 A JP2001361052 A JP 2001361052A JP 2001361052 A JP2001361052 A JP 2001361052A JP 3916934 B2 JP3916934 B2 JP 3916934B2
Authority
JP
Japan
Prior art keywords
vector
codebook
code
stage
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001361052A
Other languages
Japanese (ja)
Other versions
JP2002221998A (en
Inventor
一則 間野
祐介 日和▲崎▼
宏幸 江原
和敏 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Nippon Telegraph and Telephone Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Nippon Telegraph and Telephone Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Nippon Telegraph and Telephone Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001361052A priority Critical patent/JP3916934B2/en
Publication of JP2002221998A publication Critical patent/JP2002221998A/en
Application granted granted Critical
Publication of JP3916934B2 publication Critical patent/JP3916934B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize vector encoding/decoding having low quality degradation of LSP parameters in a silence interval or a steady state noise interval. SOLUTION: While conducting vector encoding/decoding of LSP parameters of moving average type voice, a vector of the spectrum equivalent to a steady noise interval or a vector from which beforehand obtained average value vector of a voice interval is subtracted, is stored as one vector C0 of a vector coding table 14A and a spectrum equivalent to a silence interval or a steady noise is outputted as one of the coded vectors.

Description

【0001】
【発明の属する技術分野】
この発明は、音声信号や音楽信号などの音響信号を符号化して伝送する移動通信システムやインターネット等における低ビットレート音響信号符号化、復号化方法及び装置、これらに適用する音響パラメータ符号化、復号化方法及装置、及びこれら方法をコンピュータで実施するプログラムに関する。
【0002】
【従来の技術】
ディジタル移動通信や音声蓄積の分野においては、電波や記憶媒体の有効利用のために、音声情報を圧縮し、高能率で符号化する音声符号化装置が用いられている。このような音声符号化装置は、低ビットレートでも高い品質の音声信号を表現できるように、音声信号を表現するのに適したモデルを用いた方式を用いている。例えば4kbit/s〜8kbit/sのビットレートにおいて広く実用化されている方式として、CELP(Code Excited Linear Prediction:符号励振線形予測符号化)方式が挙げられる。CELPの技術については、M.R.Schroeder and B.S.Atal: "Code-Excited Linear Prediction (CELP):High-quality Speech at Very Low Bit Rates",Proc.ICASSP-85, 25.1.1, pp.937-940, 1985" に示されている。
【0003】
CELP型音声符号化方式は、人間の発声機構に対応する音声合成モデルに基づいており、声道特性を表す線形予測係数で表現されるフィルタと、このフィルタを駆動する励振信号とから、音声信号を合成する。具体的には、ディジタル化された音声信号をある一定のフレーム長(5ms〜50ms程度)毎に区切り、フレーム毎に音声信号の線形予測を行い、線形予測による予測残差(励振信号)を既知の波形からなる適応符号ベクトルと固定符号ベクトルを用いて符号化するものである。適応符号ベクトルは、過去に生成した駆動音源信号を表すベクトルとして適応符号帳に格納されており、音声信号の周期成分を表現するために用いられる。固定符号ベクトルは固定符号帳に予め用意された定められた数の波形を有するベクトルとして格納されており、適応符号帳では表現できない非周期的成分を主として表現するために用いられる。固定符号帳に格納されるベクトルには、ランダムな雑音系列から成るベクトルや、何本かのパルスの組み合わせによって表現されるベクトルなどが用いられる。
【0004】
数本のパルスの組み合わせによって前記固定符号ベクトルを表現する固定符号帳の代表的なものの一つに代数的固定符号帳がある。代数的固定符号帳については「ITU-T勧告G.729」などに具体的内容が示されている。
従来の音声符号化システムにおいて、音声の線形予測係数は、偏自己相関(PARCOR)係数や、線スペクトル対(LSP:Line Spectrum Pairs、線スペクトル周波数ともいわれる)などのパラメータに変換され、更に量子化されて、ディジタル符号に変換された後、記憶、または伝送される。これらの方法の詳細は、例えば、古井貞煕著、"ディジタル音声処理"(東海大学出版会)に記載されている。
【0005】
この線形予測係数の符号化において、LSPパラメータの符号化方法としては、過去の1以上のフレームにおいてベクトル符号帳から出力された符号ベクトルに重み係数符号帳から選択した重み係数を乗じた重みつきベクトル、あるいは、このベクトルに、予め求めておいた音声信号全体のLSPパラメータの平均ベクトルを加えたベクトルによって、現在のフレームの量子化パラメータを表現し、この量子化パラメータの、入力音声から求められたLSPパラメータに対する歪み、即ち量子化歪が最小または十分小になるように、前記ベクトル符号帳が出力すべき符号ベクトルと重み係数符号帳が出力すべき重み係数セットを選択し、それらをLSPパラメータの符号として出力する。
【0006】
これは、一般に、重み付きベクトル量子化あるいは、重み係数を過去からの予測係数と考えれば、移動平均(MA: Moving Average)予測ベクトル量子化といわれる。
復号側では、受け取ったベクトル符号と重み係数符号から、現フレームの符号ベクトルと過去の符号ベクトルに重み係数を乗じ、あるいは、さらに、予め求めておいた音声信号全体のLSPパラメータの平均ベクトルを加えたベクトルによって、現在のフレームの量子化ベクトルとして出力する。
【0007】
各フレームの符号ベクトルを出力するベクトル符号帳としては、基本的な1段のベクトル量子化器、ベクトルの次元を分割した分割ベクトル量子化器、2段あるいはそれ以上の多段ベクトル量子化器、又は、多段と分割ベクトル量子化器を組み合わせた、多段・分割ベクトル量子化器といった構成が可能である。
【0008】
【発明が解決しようとする課題】
上記従来のLSPパラメータ符号器・復号器では、無音区間及び定常雑音区間において、フレーム数が多いため、また符号化処理、復号化処理が多段構成であるため、無音区間や定常雑音区間に対応して合成したパラメータが必ずしもスムーズに変化するようにベクトルを出力することができなかった。なぜならば、符号化に用いられるベクトル符号帳は、通常学習によって求められるが、この学習においては学習音声中に無音区間や定常雑音区間が十分な量が含まれていないため、無音区間あるいは定常雑音区間に相当するベクトルを、必ずしも十分反映させて学習させることができなかったり、また、量子化器に与えられるビット数が少ないとこれら、非音声区間に対応する量子化ベクトルを十分含んだ符号帳を設計することはできなかった。
【0009】
このようなLSPパラメータ符号器・復号器では、実際の通信時の符号化において、非音声区間の量子化性能を十分に発揮できず、再生音として品質の劣化がさけられなかった。またこのような問題は音声信号のスペクトル包絡を表わす線形予測係数と等価な音響パラメータの符号化のみならず、音楽信号に対する同様な符号化の場合も生じていた。
この発明の目的は、かかる点に鑑みてなされたものであり、従来の音響信号のスペクトル包絡を表わす線形予測係数と等価な音響パラメータの符号化・復号において、無音区間および定常雑音区間に相当するベクトルを出力しやすくすることにより、これらの区間での品質劣化の少ない音響パラメータ符号化・復号化方法及びその装置、これらを用いた音響信号符号化・復号化方法及び装置、及びこれらの方法をコンピュータで実施するプログラムを提供することにある。
【0010】
【課題を解決するための手段】
この発明は、音響信号のスペクトル包絡を表わす線形予測係数と等価な音響パラメータ、つまりLSPパラメータ、αパラメータ、パーコールパラメータなどのパラメータ(以下単に音響パラメータと記す)の符号化・復号において、本来符号帳の学習によって得られない、無音区間あるいは定常雑音区間に相当するほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルを符号ベクトルを符号帳に加えておき、選択可能にしたことを1つの特徴とする。従来の技術とは、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを予め計算によって求めて、ベクトル符号帳の一つのベクトルとして格納しておくこと、及び、多段ベクトル量子化構成や分割ベクトル量子化構成において、前記符号ベクトルを出力させる構成にしたことが異なる。
【0011】
この発明による音響パラメータ符号化方法は、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを一定時間長のフレーム毎に算出するステップと、
(b) 複数の符号ベクトルを、それらを代表するインデックスに対応して格納したベクトル符号帳から、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルと、現フレームにおいて選択された符号ベクトルに対し、1セット以上の重み係数をそれらを代表するインデックスに対応して格納した係数符号帳から選択したセットの重み係数をそれぞれ乗算して加え合わせて重み付きベクトルを生成し、上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として求めるステップと、
(c) 上記量子化音響パラメータの候補の、上記算出した音響パラメータに対する歪みが最小となるように基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳の重み係数のセットを決定し、それら決定した符号ベクトル及び重み係数のセットを表すインデックスを上記音響パラメータの量子化符号と決定して出力するステップ、
とを含み、
上記ベクトル符号帳は格納されている符号ベクトルの1つとして、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを含む。
【0012】
この発明による音響パラメータ復号化方法は、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳とから、フレームごとに入力された符号が表すインデックスに対応する符号ベクトルと1セットの重み係数を出力するステップと、
(b) 最も近い過去の少なくとも1つのフレームにおいて上記ベクトル符号帳から出力された上記符号ベクトルと、現フレームにおいて上記ベクトル符号帳から出力された符号ベクトルとにそれぞれ上記出力されたセットの重み係数を乗算して加え合わせて重み付きベクトルを生成し、その重み付きベクトルの成分を含むベクトルを現在のフレームの復号された量子化ベクトルとして出力するステップ、
とを含み、
上記ベクトル符号帳は格納されている符号ベクトルの1つとして、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを含む。
【0013】
この発明による音響パラメータ符号化装置は、
入力音響信号をフレームごとに分析し音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを算出するパラメータ算出手段と、
複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳と、
上記ベクトル符号帳から出力された現フレームに対する符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに対し、上記係数符号帳から選択したセットの重み係数のそれぞれとを乗算して加え合わせて重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として出力する量子化パラメータ生成手段と、
上記量子化音響パラメータの、上記パラメータ算出手段で算出された音響パラメータに対する歪みを計算する歪み計算部と、
上記歪みが最小になるように基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳のセットの重み係数を決定し、それら決定された符号ベクトル及び重み係数のセットをそれぞれ代表するインデックスを上記音響パラメータの符号として出力する符号帳検索制御部、
とを含み、
上記ベクトル符号帳は、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを1つの符号ベクトルとして含むように構成されている。
【0014】
この発明による音響パラメータ復号化装置は、
音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらを代表するインデックスと対応して格納した係数符号帳と、
フレームごとに入力される符号が表すインデックスに応じて上記ベクトル符号帳から1つの符号ベクトルを出力させ、上記係数符号帳からセットの重み係数を出力させ、現フレームで出力された上記符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに上記現フレームで出力されたセットの重み係数をそれぞれ乗算して加え合わせた重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを現フレームの復号された量子化音響パラメータとして出力する量子化パラメータ生成手段、
とを含むように構成され、
上記ベクトル符号帳には、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが符号ベクトルの1つとして格納されている。
【0015】
この発明による入力音響信号を符号化する音響信号符号化装置は、
上記音響パラメータ符号化方法を用いて、入力音響信号のスペクトル特性を符号化する手段と、
上記入力音響信号の周期成分を表す適応符号ベクトルを保持した適応符号帳と、
複数の固定ベクトルを格納した固定符号帳と、
上記適応符号帳からの適応符号ベクトルと上記固定符号帳からの固定ベクトルとに基づいて生成された音源ベクトルを励振信号として入力し、上記量子化音響パラメータに基づいたフィルタ係数を用いて合成音響信号を合成するフィルタ手段と、
上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固定符号帳と上記適応符号帳から選択する適応符号ベクトルと固定ベクトルを決定し、決定された上記適応符号ベクトル及び固定ベクトルにそれぞれ対応する適応符号と固定符号を出力する手段、
とを含むように構成される。
【0016】
この発明による入力符号を復号して音響信号を出力する音響信号復号化装置は、
上記音響パラメータ復号化方法を用いて、入力された符号からスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号する手段と、
複数の固定ベクトルを格納した固定符号帳と、
合成音響信号の周期成分を示す適応符号ベクトルを保持した適応符号帳と、
入力された適応符号及び固定符号により、上記固定符号帳から対応する固定ベクトルを取り出し、上記適応符号帳から対応する適応符号ベクトルを取出し、これらをベクトル合成して励振ベクトルを生成する手段と、
上記音響パラメータに基づいたフィルタ係数が設定され、上記励振ベクトルにより音響信号を再生するフィルタ手段、
とを含むように構成される。
【0017】
この発明による入力音響信号を符号化する音響信号符号化方法は、
(A) 上記音響パラメータ符号化方法を用いて、入力音響信号のスペクトル特性を符号化するステップと、
(B) 入力音響信号の周期成分を示す適応符号ベクトルを保持した適応符号帳からの適応符号ベクトルと、複数の固定ベクトルを格納した固定符号帳からの固定ベクトルとに基づいて生成された音源ベクトルを励振信号として使用し、上記量子化音響パラメータに基づいたフィルタ係数により合成フィルタ処理して合成音響信号を生成するステップと、
(C) 上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固定符号帳と上記適応符号帳から選択する適応符号ベクトルと固定ベクトルを決定し、それら決定された適応符号ベクトルと固定ベクトルにそれぞれ対応する適応符号と固定符号を出力するステップ、
とを含む。
【0018】
この発明による入力符号を復号して音響信号を出力する音響信号復号化方法は、
(A) 上記音響パラメータ復号化方法を用いて、入力された符号からスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号するステップと、
(B) 入力された適応符号及び固定符号により、入力音響信号の周期成分を表す適応符号ベクトルを保持した適応符号帳から適応符号ベクトルを取出し、複数の固定ベクトルを格納した固定符号帳から対応する固定ベクトルを取り出し、これら適応符号ベクトルと固定ベクトルをベクトル合成して励振ベクトルを生成するステップと、
(C) 上記音響パラメータに基づいたフィルタ係数を使って上記励振ベクトルを合成フィルタ処理して合成音響信号を再生するステップ、
とを含む。
【0019】
上述のこの発明は、コンピュータで実施可能なプログラムの形態で提供することが出来る。
この発明によれば、重み付きベクトル量子化器(あるいは、MA予測ベクトル量子化器)において、ベクトル符号帳の符号ベクトルとして、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを予め求めて格納しているので、対応する無音区間、あるいは,定常雑音区間に相当する音響パラメータに相当する量子化ベクトルを出力することができる。
【0020】
また、この発明の他の実施形態によれば、音響パラメータ符号化装置・復号化装置のもつベクトル符号帳の構成として、多段ベクトル符号帳を使用する場合は、その1つの段の符号帳に、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを格納しておき、他の段の符号帳には、零ベクトルを格納しておくことにより、対応する無音区間、あるいは,定常雑音区間に相当する音響パラメータに相当する量子化ベクトルを出力することができる。
零ベクトルは必ずしも格納しないでもよい。零ベクトルを格納しない場合は、1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが選択されたときには、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルのみを現フレームの符号ベクトル候補として出力すればよい。
【0021】
またベクトル符号帳を分割ベクトル符号帳で構成する場合は、ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルの次元が分割された複数の分割ベクトルを用い、これらの分割ベクトルをそれぞれ複数の分割ベクトル符号帳に1つづつ分配格納しておくことにより、各分割ベクトル符号帳の探索ではそれぞれの分割ベクトルが選択され、それを統合したベクトルを対応する無音区間、あるいは,定常雑音区間に相当する音響パラメータに相当する量子化ベクトルとして出力することができる。
【0022】
さらに、ベクトル量子化器を多段・分割ベクトル量子化構成とし、上記多段ベクトル量子化構成と分割ベクトル量子化構成の技術を組み合わせることにより、対応する無音区間、あるいは,定常雑音区間に相当する音響パラメータに相当する量子化ベクトルとして出力することができる。
符号帳を多段構成とする場合には、1段目の符号帳の各符号ベクトルに対応して、2段目以降の符号帳のそれぞれに対するスケーリング係数を、スケーリング係数符号帳として設け、1段目符号帳の選択した符号ベクトルに対応するスケーリング係数をそれぞれのスケーリング係数符号帳から読み出し、2段目符号帳からそれぞれ選択した符号ベクトルに乗算することにより、量子化歪のより小さい符号化が実現できる。
【0023】
このように、この発明の目的である、上記区間での品質劣化の少ない音響パラメータ符号化・復号化方法及びその装置を提供することができる。
この発明の音響信号符号化装置は、その線形予測係数の量子化において、線形予測係数と等価な音響パラメータ領域において、前記パラメータ符号化装置の何れかが用いられる。この構成によれば、上記いずれかと同様の作用効果を得ることができる。
この発明の音響信号復号化装置は、その線形予測係数の復号において、線形予測係数と等価な音響パラメータ領域において、前記パラメータ復号装置の何れかが用いられる。この構成によれば、上記いずれかと同様の作用効果を得ることができる。
【0024】
【発明の実施の形態】
実施例1
次に図面を参照して、この発明の実施例について説明する。
図1は、この発明による線形予測パラメータ符号化法を適用した、一実施例の音響パラメータ符号化装置の構成例を示すブロック図である。この符号化装置は線形予測分析部12と、LSPパラメータ算出部13と、及びパラメータ符号化部10を構成する符号帳14、量子化パラメータ生成部15、歪計算部16、符号帳検索制御部17とから構成されている。図において、入力端子T1からは、例えばディジタル化された一連の音声信号サンプルが入力される。線形予測分析部12では、内部のバッファに蓄えられた1フレーム毎の音声信号サンプルに対して、線形予測分析を行い、一組の線形予測係数を算出する。以下の説明では、下線をつけた記号はベクトルをあらわすものとする。今、線形予測分析の次数をp次とすると、LSPパラメータ算出部13では、p次の線形予測係数から、等価なp次のLSP(線スペクトル対)パラメータを算出する。これらの処理方法の詳細は、前述の古井の著書に記載されている。このp個のLSPパラメータを
f(n) = (f1(n), f2(n), ..., fp(n)) (1)のようにベクトルとして表現する。ここで、整数nは、あるフレームの番号nを示し、その時のフレームをフレームnと呼ぶことにする。
【0025】
符号帳14には、学習により求めたLSPパラメータベクトルを代表するN個の符号ベクトルが格納されたベクトル符号帳14Aと、K個の重み係数セットが格納された係数符号帳14Bとが設けられており、符号ベクトルを指定するインデックスIx(n)と、重み係数符号を指定するインデックスIw(n)によって、それぞれ対応する符号ベクトルx(n)と、重み係数セット(w0, w1, ..., wm)を出力する。量子化パラメータ生成部15は直列に接続されたm個のバッファ部15B1,..., 15Bm、m+1個の乗算器15A0,15A1,...,15Am、レジスタ15C、ベクトル加算器15Dからなる。ベクトル符号帳14Aから候補の1つとして選択された現在フレームnの符号ベクトルx(n)と、バッファ部15B1〜15Bmに蓄えられている過去のフレームn-1,...,n-mに対し確定された符号ベクトルx(n-1),...,x(n-m)との符号ベクトルとにそれぞれ乗算器15A0,...,15Amで選択されたセットの重み係数w0, ...,wmがそれぞれ乗算され、これら乗算結果が加算器15Dで加算され、さらに、予め求めておいた音声信号全体のLSPパラメータの平均ベクトルy aveがレジスタ15Cから加算器15Dに加えられる。このようにして加算器15Dから量子化ベクトルの候補、即ちLSPパラメータの候補y(n)が生成される。平均ベクトルy aveとしては、有声部の平均ベクトルを使用してもよいし、後述のように零ベクトルを使用してもよい。
【0026】
現在のフレームnに対しベクトル符号帳14Aから選択する符号ベクトルx(n)を
x(n) = (x1(n), x2(n), ..., xp(n)) (2)
とおき、同様に、1フレーム前の確定された符号ベクトルをx(n-1)、2フレーム前の確定された符号ベクトルをx(n-2)、mフレーム前の確定された符号ベクトルをx(n-m)とおくと、現在のフレームの量子化ベクトル候補
y(n) = (y1(n), y2(n), ..., yp(n)) (3)は、
y(n)=w0x(n)+Σj=1 m wjx(n-j)+y ave (4)で表される。ここで、mの値は、大きいほど量子化効率は良いが、符号誤りが生じた時の影響がmフレーム後まで及ぶ他、符号化して蓄積した音声を途中から再生する場合にも、mフレーム過去に遡る必要があるため、mは必要に応じて適切に選択される。音声通信用としては、1フレーム20ms程度の場合、mの値は、6以下で十分であり、1〜3といった値でも良い。このmを移動平均予測の次数とも呼ぶ。
【0027】
こうして得られた量子化ベクトルの候補y(n)は、歪み計算部16に送られ、LPSパラメータ算出部13で算出したLSPパラメータf(n)に対する量子化歪みを計算する。歪みdは、例えば、以下のような重み付きユークリッド距離で定義される。
d=Σi=1 pri(fi(n)−yi(n))2 (5)
ただし、ri,i=1,…, pは、LSPパラメータf(n)より求められる重み係数で、スペクトルのホルマント周波数付近を重視するような重みにすると性能が良い。
【0028】
符号帳検索部17は、符号帳14に与えるインデックスIx(n)とIw(n)の組を順次変更し、それぞれの組のインデックスについて上述のようにして式(5)の歪dの計算を繰り返すことにより符号帳14中のベクトル符号帳14Aの符号ベクトルと係数符号帳14Bの重み係数セットの中から、歪み計算部16の出力である歪みdを最小、あるいは、十分小にするものを検索し、それらのインデックスIx(n), Iw(n)を、入力LSPパラメータの符号として端子T2から送出する。端子T2から送出された符号Ix(n), Iw(n)は、伝送路を通じて復号器に送られるか、記憶装置に記憶される。
【0029】
現在のフレームの出力符号ベクトルx(n)が決定されると、バッファ部15Bjの過去のフレーム(n-j)の符号ベクトルx(n-j), j=1,...,m-1は、順次、次のバッファ部15Bj+1に送られ、現フレームnの符号ベクトルx(n)はバッファ部15B1へ入力される。
この発明の特徴は、上記のようなLSPパラメータの重み付きベクトル量子化、あるいは、移動平均ベクトル量子化による符号化において使用されるベクトル符号帳14Aに格納しておく1つの符号ベクトルとして、前述の平均ベクトルy aveが零である場合には、無音区間あるいは定常雑音区間に相当するLSPパラメータベクトルFを、あるいは、y aveが零でない場合には、そのLSPパラメータベクトルFからy aveを差し引いたベクトルC 0を格納しておくことである。即ち、y aveが零でない場合は、無音区間あるいは定常雑音区間に相当するLSPパラメータベクトルを、
=(F1, F2, ..., Fp)
とすると、図1のベクトル符号帳14Aに格納すべき符号ベクトルC 0は、
C 0y ave
として計算する。無音区間、あるいは、定常雑音区間での移動平均予測による符号化において、符号ベクトルとして、mフレームにわたって連続してC 0が選択されるとすると、量子化ベクトルy(n)は、

Figure 0003916934
となる。ここで、w0からwmまでの重み係数の和を1あるいは、それに近い値であるとすると、y(n)は、C 0+y ave、すなわち、無音区間のLSPパラメータから求めたF、あるいはそれに近いベクトルを量子化ベクトルとして出力できるようになり、無音区間あるいは、定常雑音区間における符号化性能を高くすることができる。上述のような構成により、ベクトル符号帳14Aには1つの符号ベクトルとしてベクトルFの成分を含むベクトルが格納されることになる。このベクトルFの成分を含む符号ベクトルとしては、量子化パラメータ生成部15が平均ベクトルy aveの成分を含む量子化ベクトルy(n)を生成する場合には、ベクトルFから平均ベクトルy aveを減算したものを用い、平均ベクトルy aveの成分を含まない量子化ベクトルy(n)を生成する場合は、ベクトルFそのものを用いる。
【0030】
図2は、この発明の実施例を適用した復号化装置の構成例であり、符号帳24と量子化パラメータ生成部25とから構成されている。これら符号帳24と量子化パラメータ生成部25は図1の符号化装置における符号帳14と量子化パラメータ生成部15とそれぞれ同様に構成されている。図1の符号化装置より送られたパラメータ符号としてのインデックスIx(n), Iw(n)が入力され、インデックスIx(n)に対応する符号ベクトルx(n)がベクトル符号帳24Aより出力され、また、インデックスIw(n)に対応する重み係数セットw0,w1,...,wmが、係数符号帳24Bより出力される。ベクトル符号帳24Aからフレームごとに出力された符号ベクトルx(n)は直列接続されたバッファ部25B1,...,25Bmに順次入力される。現フレームnの符号ベクトルx(n)と、バッファ部25B1,...,25Bmの1,...,mフレーム過去の符号ベクトルx(n-1),...,x(n-m)とに重み係数w0,w1,...,wmを乗算器25A0,25A1,...,25Amで乗算し、これら乗算結果を加算器25Dで加算し、さらに、レジスタ25Cに予め保持された音声信号全体のLSPパラメータの平均ベクトルy aveを加算器25Dに加えることにより得られた量子化ベクトルy(n)を復号LSPパラメータとして出力する。y aveは、有声部の平均ベクトルあるいは、零ベクトルzとしておくことも可能である。
【0031】
この発明ではこの復号化装置においても、図1に示した符号化装置と同じく、ベクトルC 0をその一符号ベクトルとしてベクトル符号帳24Aに格納しておくことにより、音響信号の無音区間あるいは、定常雑音区間で求めたLSPパラメータベクトルFを出力することができる。
図1中の加算器15D、図2中の加算器25Dで平均ベクトルy aveを加算しない(零ベクトルとする)場合は、ベクトル符号帳14A、24Aに無音区間あるいは定常雑音区間に相当するLSPパラメータベクトルFがベクトルC 0の代わりに一つの符号ベクトルとして格納される。以下の説明においては各ベクトル符号帳14A、24Aに格納するLSPパラメータベクトルF又はベクトルC 0を代表してベクトルC 0として表記する。
【0032】
図3に、図1中のベクトル符号帳14A、あるいは、図2中のベクトル符号帳24Aの構成例をベクトル符号帳4Aとして示す。この例は1段のベクトル符号帳41を用いた場合であり、ベクトル符号帳41には、N個の符号ベクトルx 1,...,x Nがそのまま格納されており、入力されたインデックスIx(n)に応じて、N個の符号ベクトル中のいずれかが選択され出力される。この発明では、その中の1つの符号ベクトルxとして前記符号ベクトルC 0が用いられている。ベクトル符号帳41のN個の符号ベクトルは例えば従来と同様に学習により作られるが、この発明では、その内のベクトルC 0に最も類似した(歪の小さい)1個のベクトルがC0でおきかえられるか、あるいは単に追加される。
【0033】
ベクトルC 0を求めるにはいくつかの方法がある。1つとして、通常、無音区間あるいは定常雑音区間においては、入力音響信号のスペクトル包絡が平坦になるので、例えばp次のLSPパラメータベクトルFの場合、0〜πをp+1等分してπ/(1+p), 2π/(1+p), ..., π/(1+p)のように大きさがほぼ等間のp個の値をLSPパラメータベクトルとして使用してもよい。あるいは、無音区間、定常雑音区間の実際のLSPパラメータベクトルFからC 0=F-y aveにより求める。あるいは、白色雑音又はHoth雑音を入力してそのLSPパラメータを求め、パラメータベクトルFとして使用し、C 0=F-y aveを求めてもよい。なお音声信号全体のLSPパラメータの平均ベクトルy aveは、一般にはベクトル符号帳41の符号ベクトルxを学習する際に、全学習用ベクトルの平均ベクトルとして求めておく。
音響パラメータとしてp=10次のLSPパラメータを使用し、無音区間又は定常雑音区間のLSPパラメータを0〜πの間の値に正規化した10次元のベクトルC 0, y ave 及びの例を次の表1に示す。
【0034】
【表1】
Figure 0003916934
ベクトルFはこの発明により符号帳に書き込まれる無音区間・定常雑音区間を代表するLSPパラメータの符号ベクトルの例である。このベクトルの要素の値はほぼ一定の間隔で増加しており、これは周波数スペクトラムがほぼ平坦なことを意味している。
実施例2
図4は、図1のLSPパラメータ符号器のベクトル符号帳14A、あるいは、図2のLSPパラメータ復号化装置のベクトル符号帳24Aの他の構成例を符号帳4Aとして2段のベクトル符号帳を用いた場合である。1段目の符号帳41にはN個のp次元符号ベクトルx 11,...,x 1Nが格納されており、2段目の符号帳42にはN'個のp次元符号ベクトルx 21,...,x 2N'が格納されている。
【0035】
まず、符号ベクトルを指定するインデックスIx(n)が入力されると、符号解析部43でそのインデックスIx(n)を解析して、第1段目の符号ベクトルを指定するインデックスIx(n)1と、第2段目の符号ベクトルを指定するインデックスIx(n)2を得る。そして、各段のインデックスIx(n)1,Ix(n)2にそれぞれ対応するi番目及びi'番目の符号ベクトルx 1i, x 2i'を1段目符号帳41、及び2段目符号帳42より読み出し、加算部44にて、両符号ベクトルを加算し、加算結果を符号ベクトルx(n)として出力する。
【0036】
この2段構成のベクトル符号帳の場合、符号ベクトル探索は、まず1段目の符号帳41のみを使って量子化歪が最小のものから順に所定数の候補符号ベクトルまで行う。この探索は、図1で示した係数符号帳14Bの重み係数セットとの組み合わせで行う。次に、各候補の1段目符号ベクトルと2段目符号帳のそれぞれの符号ベクトルとの組み合わせについて量子化歪が最小となる符号ベクトルの組み合わせを探索する。
このように1段目符号帳41を優先して符号ベクトルの探索を行う場合は、多段ベクトル符号帳4Aの1段目符号帳41内の1つの符号ベクトルとして前記符号ベクトルC 0(又はF)を予め格納しておき、かつ、2段目の符号帳42内の1つの符号ベクトルとして、零ベクトルzを予め格納しておく。これにより、符号帳41から符号ベクトルC 0が選択された場合に、符号帳42から零ベクトルzが選択され、その結果、加算器44から符号帳4Aの出力として、無音区間や、定常雑音区間に相当する場合の符号ベクトルC 0を出力できるような構成を実現している。零ベクトルzを格納しておかず、符号帳41から符号ベクトルC 0が選択された場合には符号帳42からの選択加算を行わないように構成してもよい。
【0037】
1段目符号帳41の各符号ベクトルと、2段目符号帳の各符号ベクトルのすべての組み合わせについて探索を行う場合は、符号ベクトルC 0と零ベクトルzは互いに別の符号帳であればどちらの符号帳に格納してもよい。符号ベクトルC 0と零ベクトルzは無音区間や定常雑音区間では同時に選択される可能性が高いが、計算誤差その他の関係でこれらは必ずしも同時に選択されない場合もある。各段の符号帳において符号ベクトルC 0や零ベクトルzは他の符号ベクトルの選択と同様に1つの符号ベクトルとして選択対象になる。
【0038】
2段目符号帳42に零ベクトルを格納しないでもよい。その場合、1段目符号帳41からベクトルC 0が選択されたときは、符号帳42から符号ベクトルの選択を行わず、加算器44から符号帳41の符号C 0をそのまま出力すればよい。
図4のように符号帳4Aを多段の符号帳で構成することにより、選択可能な符号ベクトルの組み合わせ数だけ符号ベクトルを設けたことと実効的に同じであり、従って、図3のような1段の符号帳のみの場合と比べ、符号帳のサイズ(ここでは符号ベクトルの総数)を小さくすることができる利点がある。図4では2段のベクトル符号帳41、42で構成した場合を示したが、段数が3以上の場合は単に追加段数だけ符号帳を追加し、それぞれの段に対するインデックスによりそれぞれの段の符号帳から符号ベクトルを選択し、それらをベクトル合成するだけなので、容易に拡張可能である。
実施例3
図5は、図4の実施例のベクトル符号帳4Aにおいて、1段目符号帳41の各符号ベクトルに対し、予め決めたスケーリング係数を2段目符号帳42から選択される符号ベクトルに対し乗算して、1段目符号帳41からの符号ベクトルに加算して出力する場合である。スケーリング係数符号帳45が設けられ、1段目符号帳41のそれぞれの符号ベクトルx 11,...,C 0,...,x 1Nに対応して予め学習により決めた例えば0.5〜2程度のスケーリング係数s1,...,sNが格納されており、1段目符号帳41と共通のインデックスIx(n)1によりアクセスされる。
【0039】
まず、符号ベクトルを指定するインデックスIx(n)が入力されると、符号解析部43でそのインデックスIx(n)を解析して、第1段目の符号ベクトルを指定するインデックスIx(n)1と、第2段目の符号ベクトルを指定するインデックスIx(n)2を得る。インデックスIx(n)1に対応する符号ベクトルx 1iを1段目符号帳41から読み出す。また、スケーリング係数符号帳45から、そのインデックスIx(n)1に対応したスケーリング係数siが読み出される。次に、インデックスIx(n)2に対応する符号ベクトルx 2i'を2段目符号帳42から読み出し、スケーリング係数siを乗算器46において、2段目符号帳42からの符号ベクトルx 2i'に乗算する。乗算により得られたベクトルと、1段目符号帳41からの符号ベクトルx 1iを加算部44で加算し、加算結果を符号帳4Aからの符号ベクトルx(n)として出力する。
【0040】
この実施例においても、符号ベクトルの探索は、まず、1段目符号帳41のみを使用して量子化歪が最小のものから順に所定数の候補符号ベクトルを探索する。次に、各候補符号ベクトルと、2段目符号帳42のそれぞれの符号ベクトルとの組み合わせについて量子化歪が最小となる組を探索する。この場合、スケーリング係数付き多段ベクトル符号帳4Aに対して、1段目符号帳41内の1つの符号ベクトルとして前記ベクトルC 0を予め格納しておき、かつ、2段目の符号帳42の1つの符号ベクトルとして、零ベクトルzを予め格納しておく。図4の場合と同様に、2つの符号帳41、42の符号ベクトル間の全組み合わせについて探索を行うのであれば、符号ベクトルC 0と零ベクトルzは互いに別々の符号帳に格納するのであればどちらに格納してもよい。あるいは、前述の実施例と同様に零ベクトルzを符号帳に格納しなくてもよい。格納しない場合は、符号ベクトルC 0が選択されたときには符号帳42からの選択加算を行わない。
【0041】
このようにして、無音区間や、定常雑音区間に相当する場合の符号ベクトルを出力することができる。符号ベクトルC 0と零ベクトルzは無音区間や定常雑音区間では同時に選択される可能性が高いが計算誤差その他の関係でこれらは必ずしも同時に選択されない場合もある。各段の符号帳において、符号ベクトルC 0や零ベクトルzは他の符号ベクトルの選択と同様に1つの符号ベクトルとして選択対象になる。図5の実施例のように、スケーリング係数符号帳45を使用することにより、スケーリング係数の数Nだけ2段目符号帳を設けたことと実効的に同じであり、従って、より量子化歪の小さい符号化が実現できる利点がある。
実施例4
図6は、図1のパラメータ符号化装置のベクトル符号帳14A、あるいは、図2のパラメータ復号化装置のベクトル符号帳24Aを分割ベクトル符号帳4Aとして構成しこの発明を適用した場合を示す。図6は2分割のベクトル符号帳で構成したが、分割数が3以上の場合も同様に拡張可能であるので、ここでは、分割数2の場合の実現について述べる。
【0042】
この符号帳4Aでは、N個の低次符号ベクトルx L1,...,x LNを格納した低次ベクトル符号帳41Lと、N'個の高次符号ベクトルx H1,...,x HN'を格納した高次ベクトル符号帳41Hを備える。出力符号ベクトルをx(n)とすると、低次及び高次ベクトル符号帳41L,41Hは、p次のうち、1〜k次までを低次、k+1〜p次までを高次として、それぞれの次元数のベクトルからなる符号帳を構成する。即ち、低次ベクトル符号帳41Lのi番目のベクトルは、
x Li = (xLi1, xLi2, ..., xLik) (9)
で表され、高次ベクトル符号帳41Hのi'番目のベクトルは、
x Hi' = (xHi'k+1, xHi'k+2, ..., xHi'p) (10)
で表される。入力されたインデックスIx(n)は解析部43でIx(n)LとIx(n)Hに分けられ、これらIx(n)LとIx(n)Hに応じて各符号帳41L,41Hより、それぞれ低次と高次の分割ベクトルx Li, x Hi'が選択され、統合部47でこれら分割ベクトルx Li, x Hi'が統合されて、出力符号ベクトルx(n)を生成する。即ち、統合部47から出力される符号ベクトルをx(n)とすると、
x(n)=(xLi1, xLi2, ..., xLik | xHi'k+1, xHi'k+2, ..., xHi'p)
となる。
【0043】
この実施例では、低次ベクトルの符号帳41Lの1つのベクトルとして前記ベクトルC 0の低次ベクトルC 0Lを格納し、かつ、高次ベクトルの符号帳41Hの1つのベクトルとして、前記ベクトルC 0の高次ベクトルC 0Hを格納する。このようにして、無音区間や、定常雑音区間に相当する場合の符号ベクトルとして、
C 0=(C 0L|C 0H)
を出力できる構成を実現している。しかも場合によっては、C 0Lと他の高次ベクトルの組合せ、あるいは他の低次ベクトルとC 0Hの組合せとして出力されることもある。図6のように分割ベクトル符号帳41L、41Hを設ければ、2つの分割ベクトルの組み合わせの数だけ符号ベクトルを設けたことと等価なので、それぞれの分割ベクトル符号帳のサイズを小さくすることができる利点がある。
実施例5
図7は、図1の音響パラメータ符号化装置のベクトル符号帳14A、あるいは、図2の音響パラメータ復号化装置のベクトル符号帳24Aの更に他の構成例を示し、符号帳4Aを多段・分割ベクトル符号帳として構成した場合である。この符号帳4Aは、図4の符号帳4Aにおいて2段目の符号帳42を図6と同様の2分割のベクトル符号帳で構成したものである。
【0044】
1段目符号帳41にはN個の符号ベクトルx 11,...,x 1Nが格納されており、2段目低次符号帳42LにはN'個の分割ベクトルx 2L1,...,x 2LN'が格納されており、2段目高次符号帳42HにはN"個の分割ベクトルx 2H1,...,x 2HN"が格納されている。
入力されたインデックスIx(n)は符号解析部431にて、1段目の符号ベクトルを指定するインデックスIx(n)1と、2段目の符号ベクトルを指定するインデックスIx(n)2とに解析される。1段目のインデックスIx(n)1に対応するi番目の符号ベクトルx 1iを1段目符号帳41より読み出す。また、2段目のインデックスIx(n)2は解析部432でIx(n)2LとIx(n)2Hに解析され、これらIx(n)2L,Ix(n)2Hにより2段目低次分割ベクトル符号帳42Lと、2段目高次分割ベクトル符号帳42Hのそれぞれi'番目及びi"番目の分割ベクトルx 2Li'及びx 2Hi"を選択し、これら選択された分割ベクトルが統合部47でベクトル統合され、2段目の符号ベクトルx 2i'i"が生成される。加算部44にて、1段目の符号ベクトルx 1iと2段目の統合ベクトルx 2i'i"が加算され、符号ベクトルx(n)として出力される。
【0045】
この実施例では、図4及び5の実施例と同様に、1段目の符号帳41の1つの符号ベクトルとして前記ベクトルC 0を格納し、かつ、2段目の分割ベクトル符号帳42の低次分割ベクトル符号帳42L、高次分割ベクトル符号帳42Hのそれぞれ1つずつの分割ベクトルとして、分割零ベクトルz L, z Hを格納しておく。このようにすることにより、無音区間や、定常雑音区間に相当する場合の符号ベクトルを出力する構成を実現している。符号帳の段数は3以上でもよい。また分割ベクトル符号帳は任意の段に対して用いてもよく、また1段当りの分割ベクトル符号帳の数も2に限らない。分割する段数も1以上でもよい。更に、1段目符号帳41と2段目符号帳42L、42H間のすべての組の符号ベクトルについて探索を行うのであれば、ベクトルC 0及び分割零ベクトルz L, z Hは、互いに異なる段のどの符号帳に格納してもよい。あるいは、実施例2及び3と同様に分割零ベクトルを符号帳に格納しなくてもよい。格納しない場合は、ベクトルC 0が選択されたときに符号帳42L, 42Hからの選択加算を行わない。
実施例6
図8は、図7の実施例のベクトル符号帳4Aにおける分割ベクトル符号帳42の低次符号帳42Lと高次符号帳42Hに対し、図5の実施例におけるスケーリング係数符号帳45と同様のスケーリング係数符号帳45Lと45Hを設けた、スケーリング係数付き多段・分割ベクトル符号帳4Aに、本発明を適用した例である。低次と高次の分割ベクトルにそれぞれ乗じるための係数として、低次スケーリング係数符号帳45Lと高次スケーリング係数符号帳45Hには、それぞれN個の値が例えば約0.5〜2程度の係数を格納しておく。
【0046】
入力されたインデックスIx(n)は、解析部431で、1段目の符号ベクトルを指定するインデックスIx(n)1と、2段目の符号ベクトルを指定するインデックスIx(n)2とに解析される。まず、インデックスIx(n)1に対応する符号ベクトルx 1iを1段目符号帳41から求める。また、インデックスIx(n)1に対応して低次スケーリング係数符号帳45Lと高次スケーリング係数符号帳45Hとから、それぞれ低次スケーリング係数sLiと高次スケーリング係数sHiが読み出される。次に、インデックスIx(n)2は、解析部432で、インデックスIx(n)2LとIx(n)2Hに解析され、これら、Ix(n)2LとIx(n)2Hにより2段目低次分割ベクトル符号帳42Lと2段目高次分割ベクトル42Hのそれぞれの分割ベクトルx 2Li', x 2Hi"を選択する。それら選択した分割ベクトルに対し、乗算器46L、46Hにおいて低次と高次のスケーリング係数sLi, sHiを乗じて得られたベクトルを統合部47で統合し、2段目の符号ベクトルx 2i'i"が生成される。加算部44にて、1段目の符号ベクトルx 1iと2段目の統合ベクトルx 2i'i"を加算し、加算結果は符号ベクトルx(n)として出力される。
【0047】
この実施例のスケーリング係数付き多段・分割ベクトル符号帳4Aでは、1段目符号帳41内の1つの符号ベクトルとして前記ベクトルC 0を格納し、かつ、2段目の分割ベクトル符号帳の低次分割ベクトル符号帳42L、高次分割ベクトル符号帳42Hに分割ベクトルとして分割零ベクトルz L, z Hをそれぞれ格納する。こうすることにより、無音区間や定常雑音区間に相当する場合の符号ベクトルを出力する構成を実現している。符号帳の段数は3つ以上でもよい。その場合、2段目以降の2つ以上の段をそれぞれ分割ベクトル符号帳で構成してもよい。また、いずれの場合も1段当りの分割ベクトル符号帳の数に限らない。
実施例7
図9は、図1の音響パラメータ符号化装置のベクトル符号帳4A、あるいは、図2の音響パラメータ復号化装置のベクトル符号帳24Aの更に別の構成例を示し、図7の実施例における1段目符号帳41についても図6の実施例と同様の分割ベクトル符号帳により構成した場合である。この実施例では、1段目低次符号帳41LにはN個の低次分割ベクトルx 1L1,...,x 1LNが格納され、1段目高次符号帳41HにはN'個の高次分割ベクトルx 1H1,...,x HN'が格納され、2段目低次符号帳42LにはN"個の低次分割ベクトルx 2L1,...,x 2LN"が格納され、2段目高次符号帳42HにはN'"個の高次分割ベクトルx 2H1,...,x 2HN'"が格納されている。
【0048】
入力されたインデックスIx(n)は符号解析部43にて、1段目のベクトルを指定するインデックスIx(n)1と、2段目のベクトルを指定するインデックスIx(n)2とに解析される。1段目のインデックスIx(n)1に対応するベクトルを、1段目低次分割ベクトル符号帳41L、及び1段目高次分割ベクトル符号帳41Hのそれぞれi番目及びi'番目の分割ベクトルx 1Li, x 1Hi'を選択し、これらを統合部471で統合して1段目の統合ベクトルx 1ii'を生成する。
また、2段目のインデックスIx(n)2も1段目と同様に、2段目低次分割ベクトル符号帳42Lと、2段目高次分割ベクトル符号帳42Hのそれぞれi"番目及びi'"番目の分割ベクトルx 2Li", x 2Hi'"を選択し、これらを統合部472で統合して2段目の統合ベクトルx 2i"i'"を生成する。加算部44にて、1段目の統合ベクトルx 1ii'と2段目の統合ベクトルx 2i"i'"を加算し、加算結果を符号ベクトルx(n)として出力する。
【0049】
この実施例では、1段目においては、図6の分割ベクトル符号帳構成と同様に、1段目の低次ベクトルの符号帳41Lの1つの符号ベクトルとして前記ベクトルC 0の低次分割ベクトルC 0Lを格納し、かつ、1段目の高次ベクトルの符号帳41Hの1つの分割ベクトルとして、前記ベクトルC 0の高次分割ベクトルC 0Hを格納し、かつ、2段目の分割ベクトル符号帳42の低次分割ベクトル符号帳42L、2段目の高次分割ベクトル符号帳42Hのそれぞれ1つずつのベクトルとして、分割零ベクトルz L, z Hを格納する。この構成により無音区間や、定常雑音区間に相当する場合の符号ベクトルを出力できる構成を実現している。この場合も、多段の数は2に限らず、1段当りの分割ベクトル符号帳の数も2に限らない。
実施例8
図10は、この発明を適用した音声信号送信装置および受信装置の構成を示すブロック図である。
【0050】
音声信号101は、入力装置102によって電気的信号に変換されA/D変換装置103に出力される。A/D変換装置103は入力装置102から出力された(アナログ)信号をディジタル信号に変換し音声符号化装置104へ出力する。音声符号化装置104はA/D変換装置103から出力されたディジタル音声信号を後述する音声符号化方法を用いて符号化し、符号化情報をRF変調装置105へ出力する。RF変調装置105は音声符号化装置104から出力された音声符号化情報を電波等の伝播媒体に載せて送出するための信号に変換し送信アンテナ106へ出力する。送信アンテナ106はRF変調装置105から出力された出力信号を電波(RF信号)107として送信する。以上が音声信号送信装置の構成および動作である。
【0051】
送信された電波(RF信号)108は受信アンテナ109によって受信され、RF復調装置110へ出力される。なお、図中の電波(RF信号)108は受信側から見た電波(RF信号)107のことであり、伝播路において信号の減衰や雑音の重畳がなければ電波(RF信号)107と全く同じものとなる。RF復調装置110は受信アンテナ109から出力されたRF信号から音声符号化情報を復調して音声復号化装置111へ出力する。音声復号化装置111はRF復調装置110から出力された音声符号化情報から後述する音声復号化方法を用いて音声信号を復号してD/A変換装置112へ出力する。D/A変換装置112は音声復号化装置111から出力されたディジタル音声信号をアナログの電気的信号に変換して出力装置113へ出力する。出力装置113は電気的信号を空気の振動に変換し音波114として人間の耳に聴こえるように出力する。以上が音声信号受信装置の構成および動作である。
【0052】
上記のような音声信号送信装置および受信装置の少なくとも一方を備えることにより、移動通信システムにおける基地局装置および移動端末装置を構成することができる。
前記音声信号送信装置は、音声符号化装置104にその特徴を有する。図11は音声符号化装置104の構成を示すブロック図である。
入力音声信号は図10のA/D変換装置103から出力される信号であり、前処理部200に入力される。前処理部200ではDC成分を取り除くハイパスフィルタ処理や後続する符号化処理の性能改善につながるような波形整形処理やプリエンファシス処理を行い、その処理された信号XinをLPC分析部201および加算器204およびパラメータ決定部212に出力する。LPC分析部201は、Xinについて線形予測分析を行い、分析結果(線形予測係数)をLPC量子化部202へ出力する。LPC量子化部202は、LSPパラメータ算出部13と、パラメータ符号化部10と、復号部18と、パラメータ変換部19とから構成されている。パラメータ符号化部10は、図3〜9のいずれかの実施例によるこの発明のベクトル符号帳が適用された図1におけるパラメータ符号化部10と同様の構成とされている。また、復号部18も図3〜9のいずれかの符号帳が適用された図2の復号化装置と同様の構成とされている。
【0053】
LPC分析部201から出力された線形予測係数(LPC)は、LSPパラメータ算出部13でLSPパラメータに変換され、得られたLSPパラメータはパラメータ符号化部10で図1を参照して説明したように符号化される。符号化して得た符号Ix(n), Iw(n)、即ち、量子化LPCを表す符号Lは多重化部213へ出力されると共に、それらの符号Ix(n), Iw(n)を復号部18で復号して量子化されたLSPパラメータを得て、それをパラメータ変換部19で再びLPCパラメータに変換し、その得られた量子化LPCパラメータを合成フィルタ203に与える。合成フィルタ203は、前記量子化LPCをフィルタ係数とし、加算器210から出力される駆動音源信号に対してフィルタ処理により音響信号を合成し、合成信号を加算器204へ出力する。
【0054】
加算器204は前記Xinと前記合成信号との誤差信号εを算出し、聴覚重み付け部211へ出力する。聴覚重み付け部211は、加算器204から出力された誤差信号εに対して聴覚的な重み付けをおこない、聴覚重み付け領域での前記Xinに対する前記合成信号の歪みを算出し、パラメータ決定部212へ出力する。パラメータ決定部212は、聴覚重み付け部211から出力された前記符号化歪みが最小となるように、適応符号帳205と固定符号帳207と量子化利得生成部206とから生成されるべき信号を決定する。なお、聴覚重み付け部211から出力される符号化歪みの最小化だけでなく、前記Xinを用いた別の符号化歪み最小化方法を併用して前記3つの手段から生成されるべき信号を決定することにより、さらに符号化性能を改善することもできる。
【0055】
適応符号帳205は、前記歪みが最小化された時の過去に加算器210によって出力された直前フレームn-1の音源信号をバッファリングしており、そのパラメータ決定部212から出力された適応ベクトル符号Aによって特定される位置から音源ベクトルを切り出し、それを1フレーム長になるまで繰り返し繋いで所望の周期成分を含む適応ベクトルを生成し、乗算器208へ出力する。固定符号帳207には複数の1フレーム長の固定ベクトルが固定ベクトル符号に対応して格納されており、パラメータ決定部212から出力された固定ベクトル符号Fによって特定される形状を有する固定ベクトルを乗算器209へ出力する。
【0056】
量子化利得生成部206は、パラメータ決定部212から出力された利得符号Gによって特定される適応ベクトルと固定ベクトルに対する量子化適応ベクトル利得gAと量子化固定ベクトル利得gFをそれぞれ乗算器208と209に与える。乗算器208は、量子化利得生成部206から出力された量子化適応ベクトル利得gAを、適応符号帳205から出力された適応ベクトルに乗じて、加算器210へ出力する。乗算器209は、量子化利得生成部206から出力された量子化固定ベクトル利得gFを、固定ベクトル符号帳207から出力された固定ベクトルに乗じて、加算器210へ出力する。
【0057】
加算器210は、利得乗算後の適応ベクトルと固定ベクトルとをベクトル加算して合成フィルタ203および適応符号帳205へ出力する。最後に多重化部213は、LPC量子化部202から量子化LPCを表す符号Lを、パラメータ決定部212から適応ベクトルを表す適応ベクトル符号Aおよび固定ベクトルを表す固定ベクトル符号Fおよび量子化利得を表す利得符号Gを、それぞれ入力し、これらの符号を多重化して符号化情報として伝送路へ出力する。
図12は、図10中の音声復号化装置111の構成を示すブロック図である。
【0058】
図において、RF復調部110から出力された符号化情報は、多重化分離部1301によって多重化されている符号化情報を個々の符号L.A,F,Gに分離される。分離されたLPC符号LはLPC復号化部1302に与えられ、分離された適応ベクトル符号Aは適応符号帳1305に与えられ、分離された利得符号Gは量子化利得生成部1306に与えられ、分離された固定ベクトル符号Fは固定符号帳1307へ与えられる。LPC復号化部1302は図2と同様に構成された復号部1302Aと、パラメータ変換部1302Bとから構成されている。多重化分離部1301から与えられた符号L=(Ix(n), Iw(n))は復号部1302Aで、図2に示したように、LSPパラメータ領域で復号し、それをLPCに変換し、合成フィルタ1303に出力する。
【0059】
適応符号帳1305は、多重化分離部1301から出力された適応ベクトル符号Aで指定される位置から適応ベクトルを取り出して乗算器1308へ出力する。固定符号帳1307は、多重化分離部1301から出力された固定ベクトル符号Fで指定される固定ベクトルを生成し、乗算器1309へ出力する。量子化利得生成部1306は、多重化分離部1301から出力された利得符号Gで指定される適応ベクトル利得gAと固定ベクトル利得gFを復号し乗算器1308および1309へそれぞれ出力する。乗算器1308は、前記適応符号ベクトルに前記適応符号ベクトル利得gAを乗算して、加算器1310へ出力する。乗算器1309は、前記固定符号ベクトルに前記固定符号ベクトル利得gFを乗算して、加算器1310へ出力する。加算器1310は、加算器1308 及び1309から出力された利得乗算後の適応ベクトルと固定ベクトルの加算を行い、合成フィルタ1303へ出力する。合成フィルタ1303は、加算器1310から出力されたベクトルを駆動音源信号として、LPC復号化部1302によって復号されたフィルタ係数を用いて、フィルタ合成を行い、合成した信号を後処理部1304へ出力する。後処理部1304は、ホルマント強調やピッチ強調といったような音声の主観的な品質を改善する処理や、定常雑音の主観的品質を改善する処理などを施した上で、最終的な復号音声信号として出力する。
【0060】
上述では音声信号のスペクトル包絡を表わす線形予測係数と等価なパラメータとしてLSPパラメータを用いたが、他のパラメータ、例えばαパラメータ、パーコール係数などを用いてもよい。これらを用いた場合も、無音区間や定常雑音区間においてはスペクトラム包絡が平坦になるため、この区間でのパラメータの計算は容易に行うことができ、例えばp次のαパラメータの場合は0次を1.0, 1〜p次を0.0とすればよい。その他の音響パラメータを使用する場合でも、ほぼ平坦なスペクトラム包絡を表すように決めた音響パラメータのベクトルであればよい。なおLSPパラメータは量子化効率が良い点から実用的である。
【0061】
上述において、ベクトル符号帳として、多段構成する場合は、ベクトルC 0を例えばC 0C 01C 02と二つの合成ベクトルで表わし、C 01C 02を互いに異なる段の符号帳に格納してもよい。
更にこの発明は音声信号の符号化、復号化のみならず音楽信号など一般の音響信号の符号化、復号化にも適用できる。
また、この発明の装置はコンピュータによりプログラムを実行させて音響信号の符号化及び復号化を行うこともできる。図13は図3〜9のいずれかのこの発明による符号帳を使用した、図1及び2の音響パラメータ符号化装置及び復号化装置、更にその符号化方法及び復号化方法を適用した図11及び12の音響信号符号化装置及び復号化装置をコンピュータで実行する実施形態を示す。
【0062】
この発明を実施するコンピュータは通信網に接続されたモデム410、音響信号の入出力を行う入出力インタフェース420、ディジタル音響信号あるいは音響信号符号を一時的に蓄積するバッファメモリ430、符号化及び復号化処理をそこで実行するランダムアクセスメモリ(RAM)440、データの入出力及びプログラム実行の制御を行う中央処理装置(CPU)450、符号化及び復号化プログラムが格納されたハードディスク460、記録媒体470Mを駆動する駆動装置470から構成され、これらは互いに共通のバス480で接続されている。
【0063】
記録媒体470Mとしては、コンパクトディスクCD,ディジタルビデオディスクDVD,磁気光学ディスクMO,メモリカード、その他どのような種類の記録媒体を使用してもよい。ハートディスク460には、図11及び12の音響信号符号化装置及び復号化装置において実施する符号化方法及び復号化方法をコンピュータによる処理手順で表したプログラムが格納されている。そのプログラムは、サブルーチンとして図1及び2の音響パラメータ符号化及び復号化を実行するプログラムを含む。
【0064】
入力音響信号を符号化する場合は、CPU450はハードディスク460から音響信号符号化プログラムをRAM440に読み込み、入出力インタフェース420を介してバッファメモリ430に取り込んだ音響信号をフレームごとにRAM440内で符号化プログラムに従って処理を行うことにより符号化し、得られた符号を符号化音響信号データとして、例えばモデム410を介して通信網に送出する。あるいは一時的にハードディスク460に保存する。あるいは記録媒体駆動装置470により記録媒体470Mに書き込む。
【0065】
入力符号化音響信号データを復号する場合は、CPU450はハードディスク460から復号プログラムをRAM440に読み込む。音響符号データがモデム410を介して通信網からバッファメモリ430にダウンロードされるか、あるいは記録媒体470Mから駆動装置470によりバッファメモリ430に読み込まれる、CPU440はフレームごとに音響符号データをRAM440において復号プログラムに従って処理し、得られた音響信号データを入出力インタフェース420から出力する。
【0066】
【発明の効果】
図14の表1に、効果を表す例として、この発明により符号帳に無音区間のベクトルC 0と零ベクトルzを埋め込んだ場合と、従来のように符号帳にベクトルC 0を埋め込まない場合の音響パラメータ符号化装置の量子化性能について示す。表1において、縦軸は、ケプストラム歪みであり、これは、対数スペクトル歪みに相当するものであり、デシベル(dB)表示としている。ケプストラム歪みの小さいほど量子化性能が良い事を示す。また、歪みを計算する音声区間として、すべての区間での平均(Total)、無音区間・音声の定常区間以外の区間(Mode 0)、及び音声の定常区間( Mode 1)で、平均歪みを求めた。無音区間の存在するのは、Mode 0 であり、そこでの歪みは、提案符号帳の方が0.11dB低く、無音及び零ベクトルを挿入する効果が有ることがわかる。また、Totalでのケプストラム歪みも提案符号帳を使った場合に低くなっており、音声定常区間でも劣化がないことから、この発明による符号帳の有効性が明らかである。
【0067】
このように、この発明では、現在のフレームの符号ベクトルと過去に出力された符号ベクトルの重み付き和、あるいは、それに予め求めておいた平均ベクトルを加えたベクトルにより線形予測係数と等価なパラメータを量子化する符号化において、ベクトル符号帳に格納されているベクトルとして、無音区間あるいは定常雑音区間に相当するパラメータベクトル、あるいは、そのパラメータベクトルから前記平均ベクトルを差し引いたベクトルを符号ベクトルとして選択し、その符号を出力することを可能にしているので、これらの区間での品質劣化の少ない符号化・復号化方法及びその装置を提供できる。
【図面の簡単な説明】
【図1】この発明による符号帳が適用された音響パラメータ符号化装置の機能構成を示すブロック図。
【図2】この発明による符号帳が適用された音響パラメータ復号化装置の機能構成を示すブロック図。
【図3】 LSPパラメータ符号化及び復号化のためのこの発明によるベクトル符号帳の構成例を示す図。
【図4】多段構成とした場合のこの発明によるベクトル符号帳の構成例を示す図。
【図5】分割ベクトル符号帳で構成した場合のこの発明によるベクトル符号帳の構成例を示す図。
【図6】多段ベクトル符号帳にスケーリング係数を適用した場合のこの発明によるベクトル符号帳の構成例を示す図。
【図7】2段目符号帳を分割ベクトル符号帳で構成した場合のこの発明によるベクトル符号帳の構成例を示す図。
【図8】図7の符号帳における2つの分割ベクトル符号帳に対しそれぞれスケーリング係数を適用した場合のベクトル符号帳の構成例を示す図。
【図9】図4の多段ベクトル符号帳の各段を分割ベクトル符号帳とした場合のベクトル符号帳の構成例を示す図。
【図10】Aはこの発明による符号化方法が適用された音声信号伝送装置の構成例を示すブロック図、Bはこの発明による復号化方法が適用された音声信号受信装置の構成例を示すブロック図。
【図11】この発明による符号化方法が適用された音声信号符号化装置の機能構成を示す図。
【図12】この発明による復号化方法が適用された音声信号復号化装置の機能構成を示す図。
【図13】この発明による符号化装置及び復号化装置をコンピュータで実施する場合の構成例を示す図。
【図14】この発明の効果を説明するためのグラフ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a low bit rate audio signal encoding / decoding method and apparatus in a mobile communication system or the Internet for encoding and transmitting an audio signal such as an audio signal or a music signal, and an audio parameter encoding / decoding applied to them. The present invention relates to a computerization method and apparatus, and a program for executing these methods on a computer.
[0002]
[Prior art]
In the fields of digital mobile communication and voice storage, voice coding apparatuses that compress voice information and encode it with high efficiency are used in order to effectively use radio waves and storage media. Such a speech coding apparatus uses a method using a model suitable for representing a speech signal so that a high-quality speech signal can be represented even at a low bit rate. For example, a CELP (Code Excited Linear Prediction) method is a widely used method at a bit rate of 4 kbit / s to 8 kbit / s. For the CELP technology, see M.R.Schroeder and B.S.Atal: "Code-Excited Linear Prediction (CELP): High-quality Speech at Very Low Bit Rates", Proc. ICASSP-85, 25.1.1, pp.937-940, 1985 ".
[0003]
The CELP speech coding method is based on a speech synthesis model corresponding to a human speech mechanism, and a speech signal is obtained from a filter expressed by a linear prediction coefficient representing vocal tract characteristics and an excitation signal that drives the filter. Is synthesized. Specifically, the digitized speech signal is divided into certain frame lengths (about 5 ms to 50 ms), the speech signal is linearly predicted for each frame, and the prediction residual (excitation signal) by linear prediction is known. The encoding is performed using an adaptive code vector and a fixed code vector consisting of the waveform. The adaptive code vector is stored in the adaptive codebook as a vector representing a drive excitation signal generated in the past, and is used to represent a periodic component of the speech signal. The fixed code vector is stored as a vector having a predetermined number of waveforms prepared in advance in the fixed codebook, and is mainly used to express aperiodic components that cannot be expressed in the adaptive codebook. As a vector stored in the fixed codebook, a vector composed of a random noise sequence, a vector expressed by a combination of several pulses, or the like is used.
[0004]
An algebraic fixed codebook is one of the typical fixed codebooks that express the fixed code vector by a combination of several pulses. Specific contents of the algebraic fixed codebook are shown in “ITU-T Recommendation G.729” and the like.
In conventional speech coding systems, speech linear prediction coefficients are converted into parameters such as partial autocorrelation (PARCOR) coefficients and line spectrum pairs (also called line spectrum pairs (LSP)), and further quantized. After being converted into a digital code, it is stored or transmitted. Details of these methods are described in, for example, Sadaaki Furui, “Digital Audio Processing” (Tokai University Press).
[0005]
In the encoding of the linear prediction coefficient, the LSP parameter encoding method includes a weighted vector obtained by multiplying the code vector output from the vector codebook in the past one or more frames by the weighting coefficient selected from the weighting coefficient codebook. Alternatively, the quantization parameter of the current frame is expressed by a vector obtained by adding the average vector of the LSP parameters of the entire speech signal obtained in advance to this vector, and the quantization parameter is obtained from the input speech. The code vector to be output by the vector codebook and the weighting coefficient set to be output by the weighting coefficient codebook are selected so that the distortion with respect to the LSP parameter, that is, the quantization distortion is minimized or sufficiently small, and these are selected as the LSP parameter. Output as a code.
[0006]
This is generally referred to as weighted vector quantization or moving average (MA) prediction vector quantization if the weight coefficient is considered as a prediction coefficient from the past.
On the decoding side, from the received vector code and weighting coefficient code, the code vector of the current frame and the past code vector are multiplied by the weighting coefficient, or the average vector of the LSP parameters of the entire speech signal obtained in advance is added. Output as a quantized vector of the current frame.
[0007]
The vector codebook that outputs the code vector of each frame includes a basic one-stage vector quantizer, a divided vector quantizer obtained by dividing the vector dimension, a multistage vector quantizer having two or more stages, or A multistage / divided vector quantizer, which combines a multistage and a divided vector quantizer, is possible.
[0008]
[Problems to be solved by the invention]
In the above conventional LSP parameter encoder / decoder, the number of frames is large in the silent section and the stationary noise section, and the encoding process and the decoding process are multistage configurations. Thus, it was impossible to output a vector so that the synthesized parameters changed smoothly. This is because the vector codebook used for encoding is usually obtained by learning, but in this learning, there is no sufficient amount of silent intervals or stationary noise intervals in the learning speech. If the vector corresponding to the interval is not necessarily reflected and learned, or if the number of bits given to the quantizer is small, these codebooks contain sufficient quantization vectors corresponding to the non-speech interval. Could not be designed.
[0009]
In such an LSP parameter encoder / decoder, the quantization performance in the non-speech interval cannot be sufficiently exhibited in the encoding at the time of actual communication, and the quality of the reproduced sound cannot be avoided. Such a problem has occurred not only in the encoding of acoustic parameters equivalent to the linear prediction coefficient representing the spectral envelope of the audio signal, but also in the same encoding for music signals.
The object of the present invention has been made in view of the above points, and corresponds to a silence interval and a stationary noise interval in encoding / decoding of an acoustic parameter equivalent to a linear prediction coefficient representing a spectrum envelope of a conventional acoustic signal. By making it easier to output vectors, an acoustic parameter encoding / decoding method and apparatus with little quality degradation in these sections, an acoustic signal encoding / decoding method and apparatus using these, and these methods are provided. The object is to provide a computer-implemented program.
[0010]
[Means for Solving the Problems]
The present invention is originally intended for encoding / decoding acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope of acoustic signals, that is, parameters such as LSP parameters, α parameters, and Percoll parameters (hereinafter simply referred to as acoustic parameters). One feature is that an acoustic parameter vector representing a substantially flat spectrum envelope corresponding to a silent section or a stationary noise section, which is not obtained by learning, is added to the codebook so that it can be selected. In the conventional technique, a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope is calculated in advance and stored as one vector of a vector codebook, and a multistage vector quantization configuration, In the divided vector quantization configuration, the code vector is output.
[0011]
An acoustic parameter encoding method according to the present invention includes:
(a) calculating an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic of an acoustic signal for each frame of a certain time length;
(b) From a vector codebook that stores a plurality of code vectors corresponding to indexes representing them, code vectors output in at least one previous past frame and code vectors selected in the current frame On the other hand, a weighted vector is generated by multiplying and adding each of the weighting coefficients of a set selected from the coefficient codebook that stores one or more sets of weighting coefficients corresponding to the indexes representing them. Obtaining a vector including a component as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
(c) A set of code vectors of the vector codebook and a set of weighting coefficients of the coefficient codebook is determined using a criterion so that distortion of the quantized acoustic parameter candidates with respect to the calculated acoustic parameter is minimized. Determining and outputting an index representing a set of the determined code vector and weight coefficient as a quantization code of the acoustic parameter;
Including
The vector codebook includes a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope as one of stored code vectors.
[0012]
An acoustic parameter decoding method according to the present invention includes:
(a) a vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of an acoustic signal in correspondence with indexes representing them, and one or more sets of weighting coefficients Outputting a code vector corresponding to an index represented by a code input for each frame and a set of weighting coefficients from a coefficient codebook stored corresponding to an index representing the set;
(b) The weight coefficient of the set output to the code vector output from the vector codebook in the nearest past frame and the code vector output from the vector codebook in the current frame, respectively. Multiplying and adding to generate a weighted vector and outputting a vector containing the components of the weighted vector as a decoded quantized vector of the current frame;
Including
The vector codebook includes a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope as one of stored code vectors.
[0013]
The acoustic parameter encoding device according to the present invention is:
A parameter calculating means for analyzing the input acoustic signal for each frame and calculating an acoustic parameter equivalent to a linear prediction coefficient representing the spectral envelope characteristics of the acoustic signal;
A vector codebook that stores a plurality of code vectors corresponding to indexes representing them;
A coefficient codebook that stores one or more sets of weighting coefficients in correspondence with indexes representing those sets;
The code vector for the current frame output from the vector code book and the code vector output from the nearest past at least one frame are multiplied by each of the set of weight coefficients selected from the coefficient code book. A quantization parameter generating means for generating a weighted vector by adding together and outputting a vector including the generated component of the weighted vector as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
A distortion calculation unit that calculates distortion of the quantized acoustic parameter with respect to the acoustic parameter calculated by the parameter calculation unit;
Indexes representing the code vectors of the vector codebook and the set of coefficient codebooks are determined using a standard so that the distortion is minimized, and the set of the determined code vector and the set of weighting coefficients is respectively represented Codebook search control unit for outputting as a code of the acoustic parameters,
Including
The vector codebook is configured to include a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope as one code vector.
[0014]
The acoustic parameter decoding device according to the present invention is:
A vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of the acoustic signal in correspondence with indexes representing them;
A coefficient codebook storing one or more sets of weighting coefficients in correspondence with indexes representing them;
One code vector is output from the vector codebook according to an index represented by a code input for each frame, a set weight coefficient is output from the coefficient codebook, and the code vector output in the current frame; A weighted vector is generated by multiplying the code vector output in the nearest past frame by the weight coefficient of the set output in the current frame, and adding them together, and the components of the generated weight vector Quantization parameter generating means for outputting a vector including a decoded quantized acoustic parameter of the current frame,
And is configured to include
In the vector codebook, a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope is stored as one of the code vectors.
[0015]
An acoustic signal encoding apparatus for encoding an input acoustic signal according to the present invention includes:
Means for encoding the spectral characteristics of the input acoustic signal using the acoustic parameter encoding method;
An adaptive codebook holding an adaptive code vector representing a periodic component of the input acoustic signal;
A fixed codebook storing a plurality of fixed vectors; and
A sound source vector generated based on the adaptive code vector from the adaptive code book and the fixed vector from the fixed code book is input as an excitation signal, and a synthesized acoustic signal is used using a filter coefficient based on the quantized acoustic parameter. Filter means for synthesizing
An adaptive code vector and a fixed vector selected from the fixed codebook and the adaptive codebook are determined so that distortion of the synthesized acoustic signal with respect to the input acoustic signal is reduced, and the determined adaptive code vector and fixed vector are respectively determined. Means for outputting corresponding adaptive and fixed codes;
And is configured to include.
[0016]
An acoustic signal decoding apparatus that decodes an input code according to the present invention and outputs an acoustic signal,
Means for decoding an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic from an input code using the acoustic parameter decoding method;
A fixed codebook storing a plurality of fixed vectors; and
An adaptive codebook holding an adaptive code vector indicating the periodic components of the synthesized acoustic signal;
Means for taking out the corresponding fixed vector from the fixed codebook by the input adaptive code and fixed code, taking out the corresponding adaptive code vector from the adaptive codebook, and combining them to generate an excitation vector;
Filter means for setting a filter coefficient based on the acoustic parameter and reproducing an acoustic signal by the excitation vector;
And is configured to include.
[0017]
An acoustic signal encoding method for encoding an input acoustic signal according to the present invention includes:
(A) encoding the spectral characteristics of the input acoustic signal using the acoustic parameter encoding method;
(B) A sound source vector generated based on an adaptive code vector from an adaptive code book that holds an adaptive code vector indicating a periodic component of the input acoustic signal and a fixed vector from a fixed code book that stores a plurality of fixed vectors And generating a synthesized acoustic signal by synthesizing and filtering with a filter coefficient based on the quantized acoustic parameter,
(C) The adaptive code vector and fixed vector to be selected from the fixed codebook and the adaptive codebook are determined so that the distortion of the synthesized sound signal with respect to the input sound signal is reduced, and the determined adaptive code vector and the fixed codebook are fixed. Outputting an adaptive code and a fixed code corresponding to each vector,
Including.
[0018]
An acoustic signal decoding method for decoding an input code according to the present invention and outputting an acoustic signal is as follows:
(A) using the acoustic parameter decoding method, decoding an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic from an input code;
(B) Based on the input adaptive code and fixed code, the adaptive code vector is extracted from the adaptive code book holding the adaptive code vector representing the periodic component of the input acoustic signal, and the fixed code book corresponding to the plurality of fixed vectors is stored. Extracting a fixed vector and combining the adaptive code vector and the fixed vector to generate an excitation vector;
(C) reconstructing a synthesized acoustic signal by synthesizing and filtering the excitation vector using a filter coefficient based on the acoustic parameter;
Including.
[0019]
The present invention described above can be provided in the form of a computer-executable program.
According to the present invention, in a weighted vector quantizer (or MA prediction vector quantizer), a vector including an acoustic parameter vector component representing a substantially flat spectrum envelope is obtained in advance as a code vector of a vector codebook. Therefore, the quantization vector corresponding to the acoustic parameter corresponding to the corresponding silent section or stationary noise section can be output.
[0020]
According to another embodiment of the present invention, when a multistage vector codebook is used as the configuration of the vector codebook of the acoustic parameter encoding apparatus / decoding apparatus, By storing a vector containing acoustic parameter vector components representing a substantially flat spectrum envelope, and by storing a zero vector in the codebook of the other stage, the corresponding silent section or stationary noise section A quantization vector corresponding to the acoustic parameter corresponding to can be output.
The zero vector is not necessarily stored. When the zero vector is not stored, when a vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the codebook of one stage, the acoustic parameter vector component representing the substantially flat spectrum envelope is selected. Only the vector including the symbol may be output as the code vector candidate of the current frame.
[0021]
When the vector codebook is composed of divided vector codebooks, a plurality of divided vectors obtained by dividing the vector dimension including the acoustic parameter vector components representing a substantially flat spectrum envelope are used. By dividing and storing one by one in the divided vector codebook, each divided vector codebook is selected in the search of each divided vector codebook, and the vector obtained by integrating the divided vectors is assigned to the corresponding silent section or stationary noise section. A quantization vector corresponding to the corresponding acoustic parameter can be output.
[0022]
Furthermore, the vector quantizer has a multistage / divided vector quantization configuration, and by combining the technology of the multistage vector quantization configuration and the divided vector quantization configuration, acoustic parameters corresponding to the corresponding silent section or stationary noise section Can be output as a quantization vector corresponding to.
When the codebook has a multistage configuration, a scaling coefficient for each of the second and subsequent codebooks is provided as a scaling coefficient codebook corresponding to each code vector of the first stage codebook. By reading the scaling coefficient corresponding to the code vector selected in the code book from each scaling coefficient code book and multiplying the code vector selected from the second stage code book, encoding with smaller quantization distortion can be realized. .
[0023]
As described above, it is possible to provide an acoustic parameter encoding / decoding method and apparatus with little quality deterioration in the section, which is an object of the present invention.
In the acoustic signal encoding device according to the present invention, any one of the parameter encoding devices is used in an acoustic parameter region equivalent to the linear prediction coefficient in quantizing the linear prediction coefficient. According to this configuration, the same effect as any of the above can be obtained.
In the acoustic signal decoding device according to the present invention, any one of the parameter decoding devices is used in the acoustic parameter region equivalent to the linear prediction coefficient in decoding the linear prediction coefficient. According to this configuration, the same effect as any of the above can be obtained.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Example 1
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of an acoustic parameter encoding apparatus according to an embodiment to which the linear prediction parameter encoding method according to the present invention is applied. This encoding apparatus includes a linear prediction analysis unit 12, an LSP parameter calculation unit 13, and a code book 14, a quantization parameter generation unit 15, a distortion calculation unit 16, and a code book search control unit 17 that constitute the parameter encoding unit 10. It consists of and. In the figure, a series of digitized audio signal samples, for example, are input from an input terminal T1. The linear prediction analysis unit 12 performs linear prediction analysis on the audio signal samples for each frame stored in the internal buffer, and calculates a set of linear prediction coefficients. In the following description, the underlined symbol represents a vector. Now, assuming that the order of the linear prediction analysis is p-order, the LSP parameter calculation unit 13 calculates an equivalent p-order LSP (line spectrum pair) parameter from the p-order linear prediction coefficient. Details of these treatment methods are described in the book of Furui described above. The p LSP parameters
f(n) = (f1(n), f2(n), ..., fp(n)) Express as a vector as in (1). Here, the integer n indicates the number n of a certain frame, and the frame at that time is called a frame n.
[0025]
The codebook 14 is provided with a vector codebook 14A in which N code vectors representing the LSP parameter vector obtained by learning are stored, and a coefficient codebook 14B in which K weight coefficient sets are stored. The code vector corresponding to the index Ix (n) specifying the code vector and the index Iw (n) specifying the weight coefficient codex(n) and the weight coefficient set (w0, w1, ..., wm) Is output. The quantization parameter generation unit 15 includes m buffer units 15B connected in series.1, ..., 15Bm, M + 1 multiplier 15A0, 15A1, ..., 15Am, A register 15C and a vector adder 15D. Code vector of current frame n selected as one of candidates from vector codebook 14Ax(n) and buffer 15B1~ 15BmCode vectors established for past frames n-1, ..., n-m stored inx(n-1), ...,xMultiplier 15A for each (n-m) code vector0, ..., 15AmThe weighting factor w of the set selected in0, ..., wmAre multiplied by the adder 15D, and the average vector of the LSP parameters of the entire audio signal obtained in advance is added.y aveIs added from the register 15C to the adder 15D. In this way, a candidate for a quantization vector, that is, a candidate for an LSP parameter, from the adder 15D.y(n) is generated. Mean vectory aveFor example, an average vector of the voiced part may be used, or a zero vector may be used as described later.
[0026]
Code vector selected from the vector codebook 14A for the current frame nx(n)
x(n) = (x1(n), x2(n), ..., xp(n)) (2)
Similarly, the code vector determined one frame before isx(n-1) The code vector determined two frames beforex(n-2), the code vector determined m frames agoxIf (n-m) is set, quantization vector candidates for the current frame
y(n) = (y1(n), y2(n), ..., yp(n)) (3) is
y(n) = w0x(n) + Σj = 1 mwjx(n-j) +y ave             It is expressed by (4). Here, the larger the value of m, the better the quantization efficiency, but the influence when a code error occurs extends to after m frames. Since m needs to be traced back to the past, m is appropriately selected as necessary. For voice communication, in the case of about 20 ms per frame, the value of m is 6 or less, and may be a value of 1 to 3. This m is also called a moving average prediction order.
[0027]
Quantization vector candidates obtained in this wayy(n) is sent to the distortion calculation unit 16 and the LSP parameter calculated by the LPS parameter calculation unit 13fCompute the quantization distortion for (n). The distortion d is defined by, for example, the following weighted Euclidean distance.
d = Σi = 1 pri(fi(n) −yi(n))2                          (Five)
Where ri, I = 1, ..., p are LSP parametersfWhen the weighting coefficient obtained from (n) is set so as to emphasize the vicinity of the formant frequency of the spectrum, the performance is good.
[0028]
The codebook search unit 17 sequentially changes the set of indexes Ix (n) and Iw (n) to be given to the codebook 14, and calculates the distortion d of Expression (5) as described above for each set of indexes. By repeating, the code vector of the vector code book 14A in the code book 14 and the weight coefficient set of the coefficient code book 14B are searched for those that minimize or sufficiently reduce the distortion d, which is the output of the distortion calculation unit 16. Then, these indices Ix (n) and Iw (n) are transmitted from the terminal T2 as the sign of the input LSP parameter. The codes Ix (n) and Iw (n) sent from the terminal T2 are sent to the decoder through the transmission path or stored in the storage device.
[0029]
Output code vector of the current framexWhen (n) is determined, the buffer unit 15BjCode vector of past frame (n-j)x(n-j), j = 1, ..., m-1 are sequentially the next buffer unit 15Bj + 1The code vector of the current frame nx(n) is the buffer unit 15B1Is input.
A feature of the present invention is that, as one code vector stored in the vector codebook 14A used in the weighted vector quantization of the LSP parameter as described above or the coding by moving average vector quantization, Mean vectory aveLSP parameter vector corresponding to silence or stationary noiseFOry aveIf is not zero, its LSP parameter vectorFFromy aveVector minusC 0Is to store. That is,y aveIf is not zero, the LSP parameter vector corresponding to the silence interval or stationary noise interval is
F= (F1, F2, ..., Fp)
Then, the code vector to be stored in the vector codebook 14A of FIG.C 0Is
C 0=Fy ave
Calculate as In coding by moving average prediction in a silent section or a stationary noise section, as a code vector, continuously over m framesC 0Is selected, the quantization vectory(n) is
Figure 0003916934
It becomes. Where w0To wmIf the sum of the weighting factors is 1 or close to it,y(n) isC 0+y aveThat is, calculated from the LSP parameter of the silent sectionFAlternatively, a vector close to it can be output as a quantization vector, and the encoding performance in a silent section or a stationary noise section can be improved. With the configuration as described above, the vector codebook 14A has a vector as one code vector.FWill be stored. As a code vector including the component of this vector F, the quantization parameter generation unit 15 uses an average vector.y aveQuantization vector containing components ofyWhen generating (n), a vectorFMean vectory aveIs the average vectory aveQuantization vector that does not containyWhen generating (n), vectorFUse itself.
[0030]
FIG. 2 shows an example of the configuration of a decoding apparatus to which the embodiment of the present invention is applied, and includes a codebook 24 and a quantization parameter generation unit 25. The code book 24 and the quantization parameter generation unit 25 are configured in the same manner as the code book 14 and the quantization parameter generation unit 15 in the encoding apparatus of FIG. The index vectors Ix (n) and Iw (n) as the parameter codes sent from the encoding device in FIG. 1 are input, and the code vector corresponding to the index Ix (n)x(n) is output from the vector codebook 24A, and the weight coefficient set w corresponding to the index Iw (n)0, w1, ..., wmIs output from the coefficient codebook 24B. Code vector output for each frame from the vector codebook 24Ax(n) is the buffer unit 25B connected in series.1, ..., 25BmAre sequentially input. Code vector of current frame nx(n) and buffer unit 25B1, ..., 25Bm1, ..., m frame past sign vectorx(n-1), ...,x(n-m) and weighting factor w0, w1, ..., wmThe multiplier 25A0, 25A1, ..., 25AmAnd the multiplication results are added by the adder 25D, and the average vector of the LSP parameters of the entire audio signal held in the register 25C in advance.y aveQuantized vector obtained by adding to the adder 25Dy(n) is output as a decryption LSP parameter.y aveIs the mean vector of the voiced part or the zero vectorzIt is also possible to leave
[0031]
In the present invention, in this decoding apparatus as well as the encoding apparatus shown in FIG.C 0Is stored as one code vector in the vector codebook 24A, so that the LSP parameter vector obtained in the silent section or stationary noise section of the acoustic signal is stored.FCan be output.
The adder 15D in FIG. 1 and the adder 25D in FIG.y aveIs not added (zero vector), the LSP parameter vector corresponding to the silent section or the stationary noise section is added to the vector codebooks 14A and 24A.FIs a vectorC 0Is stored as a single code vector. In the following description, LSP parameter vectors stored in the respective vector codebooks 14A and 24AFOr vectorC 0On behalf of vectorC 0It describes as.
[0032]
FIG. 3 shows a configuration example of the vector codebook 14A in FIG. 1 or the vector codebook 24A in FIG. 2 as a vector codebook 4A. In this example, a single-stage vector codebook 41 is used, and the vector codebook 41 includes N code vectors.x 1, ...,x NAre stored as they are, and one of the N code vectors is selected and output according to the input index Ix (n). In the present invention, one of the code vectorsxAs the sign vectorC 0Is used. The N code vectors of the vector codebook 41 are created by learning, for example, as in the prior art.C 0One vector (small distortion) most similar to is C0Replaced by or simply added.
[0033]
vectorC 0There are several ways to find out. For example, since the spectral envelope of the input acoustic signal is usually flat in a silent section or a stationary noise section, for example, a p-order LSP parameter vectorFIn the case of 0 to π, p + 1 is divided equally and the sizes are approximately equal, such as π / (1 + p), 2π / (1 + p), ..., π / (1 + p) May be used as the LSP parameter vector. Alternatively, the actual LSP parameter vector in the silent section and stationary noise sectionFFromC 0=F-y aveAsk for. Alternatively, input white noise or hot noise to find the LSP parameter, and use the parameter vectorFUse asC 0=F-y aveYou may ask for. The average vector of LSP parameters for the entire audio signaly aveIs generally a code vector of the vector codebook 41xIs learned as an average vector of all learning vectors.
A 10-dimensional vector using the L = 10th order LSP parameter as the acoustic parameter and normalizing the LSP parameter in the silent section or stationary noise section to a value between 0 and π.C 0,y ave as well asFAn example of this is shown in Table 1 below.
[0034]
[Table 1]
Figure 0003916934
vectorFIs an example of a code vector of an LSP parameter that represents a silent section and a stationary noise section written in the codebook according to the present invention. The value of this vector element increases at almost constant intervals, which means that the frequency spectrum is substantially flat.
Example 2
FIG. 4 uses a two-stage vector codebook as the codebook 4A as another example of the vector codebook 14A of the LSP parameter encoder of FIG. 1 or the vector codebook 24A of the LSP parameter decoder of FIG. This is the case. The first-stage codebook 41 has N p-dimensional code vectorsx 11, ...,x 1NAre stored in the second-stage codebook 42.x twenty one, ...,x 2N 'Is stored.
[0035]
First, when an index Ix (n) that designates a code vector is input, the code analyzer 43 analyzes the index Ix (n), and an index Ix (n) that designates the first-stage code vector.1And an index Ix (n) that specifies the second-stage code vector2Get. And each stage index Ix (n)1, Ix (n)2I-th and i'-th code vectors corresponding respectively tox 1i,x 2i 'Are read out from the first-stage codebook 41 and the second-stage codebook 42, the adder 44 adds both code vectors, and the addition result is the code vector.xOutput as (n).
[0036]
In the case of this two-stage vector codebook, first, the code vector search is performed using only the first-stage codebook 41 to the predetermined number of candidate code vectors in order from the one with the smallest quantization distortion. This search is performed in combination with the weighting coefficient set of the coefficient codebook 14B shown in FIG. Next, a combination of code vectors that minimizes the quantization distortion is searched for a combination of each candidate first-stage code vector and each code vector of the second-stage codebook.
When the code vector search is performed with priority given to the first-stage codebook 41 in this way, the code vector as one code vector in the first-stage codebook 41 of the multistage vector codebook 4A.C 0(OrF) And a zero vector as one code vector in the second-stage codebook 42zIs stored in advance. As a result, the code vector from the codebook 41C 0Is selected from codebook 42zAs a result, as an output from the adder 44 to the codebook 4A, a code vector corresponding to a silent section or a stationary noise sectionC 0Is realized. Zero vectorzStored in the codebook 41C 0It may be configured not to perform selective addition from the codebook 42 when is selected.
[0037]
When searching for all combinations of each code vector of the first stage codebook 41 and each code vector of the second stage codebook, the code vectorC 0And zero vectorzMay be stored in either codebook as long as they are different codebooks. Sign vectorC 0And zero vectorzAre likely to be selected at the same time in a silent section or a stationary noise section, but these may not always be selected at the same time due to calculation errors and other relationships. Code vector in each stage codebookC 0Or zero vectorzIs selected as one code vector in the same manner as other code vectors.
[0038]
The zero vector may not be stored in the second stage codebook 42. In that case, the vector from the first stage codebook 41C 0Is selected, the code vector is not selected from the code book 42, and the code of the code book 41 is added from the adder 44.C 0Can be output as is.
By configuring the codebook 4A with a multistage codebook as shown in FIG. 4, it is effectively the same as providing code vectors for the number of selectable code vector combinations. There is an advantage that the size of the code book (here, the total number of code vectors) can be reduced compared to the case of only the stage code book. Although FIG. 4 shows the case of the two-stage vector codebooks 41 and 42, when the number of stages is three or more, the codebook is simply added by the number of additional stages, and the codebook of each stage is determined by the index for each stage Since the code vectors are simply selected from these and the vectors are synthesized, they can be easily expanded.
Example 3
FIG. 5 is a diagram illustrating multiplication of the code vector selected from the second-stage codebook 42 by a predetermined scaling coefficient for each code vector of the first-stage codebook 41 in the vector codebook 4A of the embodiment of FIG. In this case, the code vector from the first-stage codebook 41 is added and output. A scaling coefficient codebook 45 is provided, and each code vector of the first-stage codebook 41x 11, ...,C 0, ...,x 1NFor example, a scaling factor s of about 0.5 to 2 determined in advance by learning.1, ..., sNIs stored, and the index Ix (n) common to the first-stage codebook 41 is stored.1Accessed by.
[0039]
First, when an index Ix (n) that designates a code vector is input, the code analyzer 43 analyzes the index Ix (n), and an index Ix (n) that designates the first-stage code vector.1And an index Ix (n) that specifies the second-stage code vector2Get. Index Ix (n)1Sign vector corresponding tox 1iAre read from the first-stage codebook 41. Also, from the scaling coefficient codebook 45, its index Ix (n)1Scaling factor corresponding toiIs read out. Next, index Ix (n)2Sign vector corresponding tox 2i 'Is read from the second-stage codebook 42 and the scaling coefficient siIn the multiplier 46, the code vector from the second-stage codebook 42x 2i 'Multiply by. Vector obtained by multiplication and code vector from first stage codebook 41x 1iAre added by the adder 44, and the addition result is a code vector from the codebook 4A.xOutput as (n).
[0040]
Also in this embodiment, the code vectors are searched for a predetermined number of candidate code vectors in order from the smallest quantization distortion using only the first-stage codebook 41. Next, a set that minimizes the quantization distortion is searched for a combination of each candidate code vector and each code vector of the second-stage codebook 42. In this case, with respect to the multistage vector codebook 4A with a scaling coefficient, the vector is used as one code vector in the first stage codebook 41.C 0Are stored in advance, and a zero vector is used as one code vector of the codebook 42 in the second stage.zIs stored in advance. As in the case of FIG. 4, if the search is performed for all combinations between the code vectors of the two codebooks 41 and 42, the code vectorC 0And zero vectorzMay be stored in either one of them if they are stored in different codebooks. Alternatively, as in the previous embodiment, the zero vectorzMay not be stored in the codebook. Code vector if not storedC 0When is selected, the selective addition from the code book 42 is not performed.
[0041]
In this way, it is possible to output a code vector corresponding to a silent section or a stationary noise section. Sign vectorC 0And zero vectorzAre likely to be selected at the same time in a silent section or a stationary noise section, but these may not always be selected at the same time due to calculation errors and other relationships. In each stage codebook, code vectorC 0Or zero vectorzIs selected as one code vector in the same manner as other code vectors. The use of the scaling coefficient codebook 45 as in the embodiment of FIG. 5 is effectively the same as providing the second-stage codebook by the number N of scaling coefficients. There is an advantage that a small encoding can be realized.
Example 4
FIG. 6 shows a case where the vector codebook 14A of the parameter encoding device of FIG. 1 or the vector codebook 24A of the parameter decoding device of FIG. 2 is configured as a divided vector codebook 4A and the present invention is applied. Although FIG. 6 is composed of a two-divided vector codebook, it can be similarly expanded when the number of divisions is 3 or more, so here, the implementation when the number of divisions is 2 will be described.
[0042]
In this codebook 4A, N low-order code vectorsx L1, ...,x LNLow-order vector codebook 41 storingLAnd N 'higher-order code vectorsx H1, ...,x HN 'High-order vector codebook 41HIs provided. Output code vectorxIf (n), the low-order and high-order vector codebook 41L, 41HConstitutes a codebook composed of vectors of respective dimensionalities, with the 1st to kth order being the lower order and the k + 1 to pth order being the higher order among the pth order. That is, the low-order vector codebook 41LI-th vector is
x Li = (xLi1, xLi2, ..., xLik(9)
The high-order vector codebook 41HThe i'th vector of
x Hi ' = (xHi'k + 1, xHi'k + 2, ..., xHi'p) (Ten)
It is represented by The input index Ix (n) is converted into Ix (n) by the analysis unit 43.LAnd Ix (n)HThese Ix (n)LAnd Ix (n)HEach codebook 41 according toL, 41HLower and higher order split vectors, respectivelyx Li,x Hi 'Is selected, and the integration unit 47 selects these divided vectors.x Li,x Hi 'Are integrated into the output code vectorxGenerate (n). That is, the code vector output from the integration unit 47 isx(n)
x(n) = (xLi1, xLi2, ..., xLik | xHi'k + 1, xHi'k + 2, ..., xHi'p)
It becomes.
[0043]
In this embodiment, a low-order vector codebook 41 is used.LVector as a vector ofC 0Low-order vectorC 0LAnd a high-order vector codebook 41HAs a vector, the vectorC 0Higher order vectorC 0HIs stored. In this way, as a code vector when it corresponds to a silent section or a stationary noise section,
C 0= (C 0L|C 0H)
Is realized. In some cases,C 0LAnd other higher-order vectors or other lower-order vectorsC 0HMay be output as a combination. The divided vector codebook 41 as shown in FIG.L, 41HIs equivalent to providing as many code vectors as the number of combinations of two divided vectors, and there is an advantage that the size of each divided vector codebook can be reduced.
Example 5
FIG. 7 shows still another configuration example of the vector codebook 14A of the acoustic parameter encoding device of FIG. 1 or the vector codebook 24A of the acoustic parameter decoding device of FIG. This is a case where it is configured as a codebook. This codebook 4A is configured by configuring the second-stage codebook 42 in the codebook 4A of FIG. 4 with a two-part vector codebook similar to FIG.
[0044]
The first codebook 41 has N code vectors.x 11, ...,x 1NAre stored, and the second-stage low-order codebook 42 is stored.LContains N 'partition vectorsx 2L1, ...,x 2LN 'Are stored, and the second-stage higher-order codebook 42 is stored.HContains N "split vectorsx 2H1, ...,x 2HN "Is stored.
The input index Ix (n) is the code analysis unit 43.1At index Ix (n) that specifies the first-stage code vector1And index Ix (n) that specifies the second-stage code vector2And analyzed. First level index Ix (n)1I-th code vector corresponding tox 1iAre read from the first-stage codebook 41. The second index Ix (n)2The analysis unit 432At Ix (n)2LAnd Ix (n)2HAnd these Ix (n)2L, Ix (n)2HBy the second stage low-order divided vector codebook 42LAnd the second-stage higher-order divided vector codebook 42HI'th and i "th partition vectors, respectivelyx 2Li 'as well asx 2Hi "These divided vectors are vector-integrated by the integration unit 47, and the second stage code vectorx 2i'i "Is generated. In addition unit 44, the first-stage code vectorx 1iAnd second-stage integration vectorx 2i'i "Are added to the sign vectorxOutput as (n).
[0045]
In this embodiment, as in the embodiments of FIGS. 4 and 5, the vector is used as one code vector of the first-stage codebook 41.C 0And the low-order divided vector codebook 42 of the divided vector codebook 42 in the second stageL, High-order division vector codebook 42HAs a split vector for each of, split zero vectorz L,z HIs stored. In this way, a configuration for outputting a code vector in a case corresponding to a silent section or a stationary noise section is realized. The number of codebook stages may be three or more. The divided vector codebook may be used for an arbitrary stage, and the number of divided vector codebooks per stage is not limited to two. The number of stages to be divided may be one or more. Further, the first-stage codebook 41 and the second-stage codebook 42L, 42HIf you want to search for all pairs of code vectorsC 0And split zero vectorz L,z HMay be stored in any codebook in different stages. Alternatively, the divided zero vector may not be stored in the codebook as in the second and third embodiments. If not, vectorC 0Codebook 42 when is selectedL, 42HSelective addition from is not performed.
Example 6
FIG. 8 shows a low-order codebook 42 of the divided vector codebook 42 in the vector codebook 4A of the embodiment of FIG.LAnd high-order codebook 42HIn contrast, the scaling coefficient codebook 45 similar to the scaling coefficient codebook 45 in the embodiment of FIG.LAnd 45HThis is an example in which the present invention is applied to a multistage / divided vector codebook 4A with a scaling coefficient. A low-order scaling coefficient codebook 45 is used as a coefficient for multiplying the low-order and high-order divided vectors respectively.LAnd higher-order scaling coefficient codebook 45HEach stores a coefficient having N values of about 0.5 to 2, for example.
[0046]
The input index Ix (n) is obtained from the analysis unit 43.1And index Ix (n) that specifies the first-stage code vector1And index Ix (n) that specifies the second-stage code vector2And analyzed. First, index Ix (n)1Sign vector corresponding tox 1iIs obtained from the first-stage codebook 41. Also, index Ix (n)1Corresponding to the low-order scaling coefficient codebook 45LAnd higher-order scaling coefficient codebook 45HAnd low-order scaling factor sLiAnd higher-order scaling factor sHiIs read out. Next, index Ix (n)2The analysis unit 432And index Ix (n)2LAnd Ix (n)2HAnd these, Ix (n)2LAnd Ix (n)2HBy the second stage low-order divided vector codebook 42LAnd the second-stage higher-order division vector 42HEach split vector ofx 2Li ',x 2Hi "Select. The multiplier 46 is used for the selected divided vectors.L, 46HLow and high order scaling factors atLi, sHiThe vectors obtained by multiplying by are integrated by the integration unit 47 and the second stage code vectorx 2i'i "Is generated. In addition unit 44, the first-stage code vectorx 1iAnd second-stage integration vectorx 2i'i "And the addition result is the sign vectorxOutput as (n).
[0047]
In the multistage / divided vector codebook 4A with scaling coefficients of this embodiment, the vector is used as one code vector in the first stage codebook 41.C 0And the low-order divided vector codebook 42 of the second-stage divided vector codebookL, High-order division vector codebook 42HSplit zero vector as split vectorz L,z HIs stored respectively. In this way, a configuration for outputting a code vector corresponding to a silent section or a stationary noise section is realized. The number of codebook stages may be three or more. In that case, two or more stages after the second stage may be configured by a divided vector codebook. In any case, the number of divided vector codebooks per stage is not limited.
Example 7
FIG. 9 shows still another configuration example of the vector codebook 4A of the acoustic parameter encoding device of FIG. 1 or the vector codebook 24A of the acoustic parameter decoding device of FIG. The eye codebook 41 is also configured by a divided vector codebook similar to the embodiment of FIG. In this embodiment, the first-stage low-order codebook 41LContains N low-order split vectorsx 1L1, ...,x 1LNAre stored, and the first-stage higher-order codebook 41 is stored.HContains N 'higher-order split vectorsx 1H1, ...,x HN 'Are stored, and the second-stage low-order codebook 42 is stored.LContains N "low-order split vectorsx 2L1, ...,x 2LN "Are stored, and the second-stage higher-order codebook 42 is stored.HContains N '"higher-order split vectorsx 2H1, ...,x 2HN '"Is stored.
[0048]
The input index Ix (n) is an index Ix (n) that designates the first-stage vector in the code analysis unit 43.1And index Ix (n) that specifies the second vector2And analyzed. First level index Ix (n)1, The first-stage low-order divided vector codebook 41L, And first-stage higher-order divided vector codebook 41HI-th and i'-th partition vectors, respectivelyx 1Li,x 1Hi 'Are selected and these are integrated.1Integration vector of the first stage by integrating withx 1ii 'Is generated.
The second index Ix (n)2Similarly to the first stage, the second stage low-order divided vector codebook 42LAnd the second-stage higher-order divided vector codebook 42HI "th and i '" th partition vectors, respectivelyx 2Li ",x 2Hi '"Are selected and these are integrated.2Integration vector of the second stage by integrating withx 2i "i '"Is generated. In the addition unit 44, the first-stage integrated vectorx 1ii 'And second-stage integration vectorx 2i "i '"And add the result to the sign vectorxOutput as (n).
[0049]
In this embodiment, in the first stage, as in the divided vector codebook configuration of FIG.LThe vector as one sign vector ofC 0Low-order splitting vectorC 0LAnd the codebook 41 of the first-order higher-order vectorHAs one split vector ofC 0Higher-order splitting vectorC 0HAnd the low-order divided vector codebook 42 of the divided vector codebook 42 in the second stageLSecond-stage higher-order divided vector codebook 42HAs a vector of one eachz L,z HIs stored. With this configuration, a configuration capable of outputting a code vector in a case corresponding to a silent interval or a stationary noise interval is realized. Also in this case, the number of multistages is not limited to two, and the number of divided vector codebooks per stage is not limited to two.
Example 8
FIG. 10 is a block diagram showing the configuration of an audio signal transmitting apparatus and receiving apparatus to which the present invention is applied.
[0050]
The audio signal 101 is converted into an electrical signal by the input device 102 and output to the A / D conversion device 103. The A / D conversion device 103 converts the (analog) signal output from the input device 102 into a digital signal and outputs it to the speech encoding device 104. The audio encoding device 104 encodes the digital audio signal output from the A / D conversion device 103 using an audio encoding method described later, and outputs the encoded information to the RF modulation device 105. The RF modulation device 105 converts the speech coding information output from the speech coding device 104 into a signal for transmission on a propagation medium such as a radio wave and outputs the signal to the transmission antenna 106. The transmission antenna 106 transmits the output signal output from the RF modulation device 105 as a radio wave (RF signal) 107. The above is the configuration and operation of the audio signal transmitting apparatus.
[0051]
The transmitted radio wave (RF signal) 108 is received by the receiving antenna 109 and output to the RF demodulator 110. The radio wave (RF signal) 108 in the figure is the radio wave (RF signal) 107 viewed from the receiving side, and is exactly the same as the radio wave (RF signal) 107 unless there is signal attenuation or noise superposition in the propagation path. It will be a thing. The RF demodulator 110 demodulates speech coding information from the RF signal output from the receiving antenna 109 and outputs the demodulated speech information to the speech decoder 111. The voice decoding device 111 decodes a voice signal from the voice coding information output from the RF demodulation device 110 using a voice decoding method described later and outputs the decoded voice signal to the D / A conversion device 112. The D / A converter 112 converts the digital audio signal output from the audio decoder 111 into an analog electrical signal and outputs it to the output device 113. The output device 113 converts an electrical signal into air vibration and outputs it as a sound wave 114 so that it can be heard by the human ear. The above is the configuration and operation of the audio signal receiving apparatus.
[0052]
By including at least one of the above-described audio signal transmitting apparatus and receiving apparatus, a base station apparatus and a mobile terminal apparatus in a mobile communication system can be configured.
The voice signal transmitting apparatus is characterized by the voice encoding apparatus 104. FIG. 11 is a block diagram showing a configuration of speech encoding apparatus 104.
The input audio signal is a signal output from the A / D conversion device 103 in FIG. 10 and is input to the preprocessing unit 200. The pre-processing unit 200 performs waveform shaping processing and pre-emphasis processing that leads to performance improvement of high-pass filter processing for removing DC components and subsequent encoding processing, and the processed signal Xin is processed by an LPC analysis unit 201 and an adder 204. And output to the parameter determination unit 212. The LPC analysis unit 201 performs linear prediction analysis on Xin and outputs the analysis result (linear prediction coefficient) to the LPC quantization unit 202. The LPC quantization unit 202 includes an LSP parameter calculation unit 13, a parameter encoding unit 10, a decoding unit 18, and a parameter conversion unit 19. The parameter encoding unit 10 has the same configuration as the parameter encoding unit 10 in FIG. 1 to which the vector codebook of the present invention according to any one of the embodiments of FIGS. The decoding unit 18 has the same configuration as that of the decoding device in FIG. 2 to which any of the codebooks in FIGS.
[0053]
The linear prediction coefficient (LPC) output from the LPC analysis unit 201 is converted into an LSP parameter by the LSP parameter calculation unit 13, and the obtained LSP parameter is explained by the parameter encoding unit 10 with reference to FIG. Encoded. The codes Ix (n) and Iw (n) obtained by encoding, that is, the code L representing the quantized LPC is output to the multiplexing unit 213 and the codes Ix (n) and Iw (n) are decoded. An LSP parameter decoded and quantized by the unit 18 is obtained, converted into an LPC parameter again by the parameter converting unit 19, and the obtained quantized LPC parameter is given to the synthesis filter 203. The synthesis filter 203 uses the quantized LPC as a filter coefficient, synthesizes an acoustic signal by filter processing with respect to the driving sound source signal output from the adder 210, and outputs the synthesized signal to the adder 204.
[0054]
The adder 204 calculates an error signal ε between the Xin and the combined signal and outputs the error signal ε to the auditory weighting unit 211. The auditory weighting unit 211 performs auditory weighting on the error signal ε output from the adder 204, calculates the distortion of the synthesized signal with respect to the Xin in the auditory weighting region, and outputs the distortion to the parameter determination unit 212. . The parameter determination unit 212 determines a signal to be generated from the adaptive codebook 205, the fixed codebook 207, and the quantization gain generation unit 206 so that the coding distortion output from the auditory weighting unit 211 is minimized. To do. In addition to minimizing the coding distortion output from the auditory weighting unit 211, a signal to be generated from the three means is determined by using another coding distortion minimizing method using the Xin. As a result, the encoding performance can be further improved.
[0055]
The adaptive codebook 205 buffers the excitation signal of the immediately preceding frame n−1 output by the adder 210 in the past when the distortion is minimized, and the adaptive vector output from the parameter determination unit 212 A sound source vector is cut out from the position specified by the code A, and is repeatedly connected until it becomes one frame length to generate an adaptive vector including a desired periodic component, which is output to the multiplier 208. Fixed codebook 207 stores a plurality of one-frame-length fixed vectors corresponding to the fixed vector code, and multiplies the fixed vector having a shape specified by fixed vector code F output from parameter determination unit 212. Output to the device 209.
[0056]
The quantization gain generation unit 206 is a quantization adaptive vector gain g for the adaptive vector and the fixed vector specified by the gain code G output from the parameter determination unit 212.AAnd quantized fixed vector gain gFAre fed to multipliers 208 and 209, respectively. Multiplier 208 performs quantization adaptive vector gain g output from quantization gain generation section 206.AIs multiplied by the adaptive vector output from the adaptive codebook 205 and output to the adder 210. The multiplier 209 receives the quantized fixed vector gain g output from the quantized gain generator 206.FIs multiplied by the fixed vector output from the fixed vector codebook 207 and output to the adder 210.
[0057]
Adder 210 adds the adaptive vector after gain multiplication and the fixed vector, and outputs the result to synthesis filter 203 and adaptive codebook 205. Finally, the multiplexing unit 213 receives the code L representing the quantized LPC from the LPC quantizing unit 202, the adaptive vector code A representing the adaptive vector, the fixed vector code F representing the fixed vector, and the quantization gain from the parameter determining unit 212. Representing gain codes G are respectively input, these codes are multiplexed, and output to the transmission line as encoded information.
FIG. 12 is a block diagram showing a configuration of speech decoding apparatus 111 in FIG.
[0058]
In the figure, the encoded information output from the RF demodulator 110 includes the encoded information multiplexed by the demultiplexer 1301 as individual codes L.P. Separated into A, F, and G. The separated LPC code L is given to the LPC decoding unit 1302, the separated adaptive vector code A is given to the adaptive codebook 1305, and the separated gain code G is given to the quantization gain generating unit 1306, The fixed vector code F is given to the fixed codebook 1307. The LPC decoding unit 1302 includes a decoding unit 1302A configured in the same manner as in FIG. 2, and a parameter conversion unit 1302B. The code L = (Ix (n), Iw (n)) given from the demultiplexing unit 1301 is decoded by the decoding unit 1302A in the LSP parameter region as shown in FIG. 2, and converted into LPC. And output to the synthesis filter 1303.
[0059]
The adaptive codebook 1305 extracts an adaptive vector from the position specified by the adaptive vector code A output from the demultiplexing unit 1301 and outputs it to the multiplier 1308. Fixed codebook 1307 generates a fixed vector designated by fixed vector code F output from demultiplexing section 1301, and outputs the fixed vector to multiplier 1309. The quantization gain generation unit 1306 is an adaptive vector gain g designated by the gain code G output from the demultiplexing unit 1301.AAnd fixed vector gain gFAre output to multipliers 1308 and 1309, respectively. The multiplier 1308 adds the adaptive code vector gain g to the adaptive code vector.AAnd output to the adder 1310. The multiplier 1309 adds the fixed code vector gain g to the fixed code vector.FAnd output to the adder 1310. Adder 1310 adds the gain-multiplied adaptive vector and fixed vector output from adders 1308 and 1309 and outputs the result to synthesis filter 1303. Synthesis filter 1303 uses the vector output from adder 1310 as a driving excitation signal, performs filter synthesis using the filter coefficients decoded by LPC decoding unit 1302, and outputs the synthesized signal to post-processing unit 1304 . The post-processing unit 1304 performs processing for improving the subjective quality of speech such as formant emphasis and pitch emphasis, processing for improving the subjective quality of stationary noise, and the like as a final decoded speech signal. Output.
[0060]
In the above description, the LSP parameter is used as a parameter equivalent to the linear prediction coefficient representing the spectral envelope of the speech signal. However, other parameters such as an α parameter and a Percoll coefficient may be used. Even when these are used, the spectrum envelope is flat in the silent section and the stationary noise section, so that the parameter calculation in this section can be easily performed. 1.0, 1 ~ p order should be 0.0. Even when other acoustic parameters are used, any acoustic parameter vector determined so as to represent a substantially flat spectrum envelope may be used. The LSP parameter is practical from the viewpoint of good quantization efficiency.
[0061]
In the above, when the multi-stage configuration is used as the vector codebook,C 0For exampleC 0=C 01+C 02And two composite vectors,C 01,C 02May be stored in different codebooks.
Furthermore, the present invention can be applied not only to encoding and decoding of audio signals but also to encoding and decoding of general acoustic signals such as music signals.
In addition, the apparatus of the present invention can execute a program by a computer to encode and decode an acoustic signal. FIG. 13 shows the acoustic parameter encoding apparatus and decoding apparatus of FIGS. 1 and 2 using the code book according to the present invention of any of FIGS. 3 to 9, and FIG. 11 and FIG. 11 to which the encoding method and decoding method are applied. 12 shows an embodiment in which twelve acoustic signal encoding apparatuses and decoding apparatuses are executed by a computer.
[0062]
A computer embodying the present invention includes a modem 410 connected to a communication network, an input / output interface 420 for inputting and outputting audio signals, a buffer memory 430 for temporarily storing digital audio signals or audio signal codes, and encoding and decoding Drives random access memory (RAM) 440 for executing processing, central processing unit (CPU) 450 for controlling data input / output and program execution, hard disk 460 storing encoding and decoding programs, and recording medium 470M These are connected to each other by a common bus 480.
[0063]
As the recording medium 470M, a compact disk CD, a digital video disk DVD, a magneto-optical disk MO, a memory card, or any other type of recording medium may be used. The heart disk 460 stores a program representing the encoding method and the decoding method implemented in the acoustic signal encoding device and the decoding device of FIGS. The program includes a program for executing the acoustic parameter encoding and decoding shown in FIGS. 1 and 2 as a subroutine.
[0064]
When encoding the input acoustic signal, the CPU 450 reads the acoustic signal encoding program from the hard disk 460 into the RAM 440, and the acoustic signal fetched into the buffer memory 430 via the input / output interface 420 is encoded in the RAM 440 for each frame. The obtained code is transmitted as encoded sound signal data to the communication network via the modem 410, for example. Alternatively, it is temporarily stored in the hard disk 460. Alternatively, the data is written on the recording medium 470M by the recording medium driving device 470.
[0065]
When decoding input encoded acoustic signal data, the CPU 450 reads a decoding program from the hard disk 460 into the RAM 440. The acoustic code data is downloaded from the communication network via the modem 410 to the buffer memory 430 or read from the recording medium 470M into the buffer memory 430 by the driving device 470. The CPU 440 decodes the acoustic code data in the RAM 440 for each frame. The obtained acoustic signal data is output from the input / output interface 420.
[0066]
【The invention's effect】
As an example showing the effect, Table 1 in FIG.C 0And zero vectorzAnd embedded in the codebook as beforeC 0The quantization performance of the acoustic parameter encoding apparatus when no symbol is embedded will be described. In Table 1, the vertical axis represents cepstrum distortion, which corresponds to logarithmic spectral distortion and is expressed in decibels (dB). The smaller the cepstrum distortion, the better the quantization performance. In addition, the average distortion in all sections, total silence, sections other than the silent section / speech steady section (Mode 0), and speech steady section (Mode 1) are obtained as the speech sections for which distortion is calculated. It was. The silent section exists in Mode 0. The distortion in the proposed codebook is 0.11 dB lower, and it can be seen that there is an effect of inserting silence and zero vectors. Further, the cepstrum distortion in Total is low when the proposed codebook is used, and there is no deterioration even in the steady speech section, so the effectiveness of the codebook according to the present invention is clear.
[0067]
As described above, according to the present invention, a parameter equivalent to the linear prediction coefficient is obtained by a weighted sum of the code vector of the current frame and the code vector output in the past, or a vector obtained by adding a previously obtained average vector. In the encoding to be quantized, as a vector stored in the vector codebook, a parameter vector corresponding to a silent interval or a stationary noise interval, or a vector obtained by subtracting the average vector from the parameter vector is selected as a code vector, Since it is possible to output the code, it is possible to provide an encoding / decoding method and apparatus with little quality deterioration in these sections.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an acoustic parameter encoding apparatus to which a codebook according to the present invention is applied.
FIG. 2 is a block diagram showing a functional configuration of an acoustic parameter decoding apparatus to which a codebook according to the present invention is applied.
FIG. 3 is a diagram showing a configuration example of a vector codebook according to the present invention for LSP parameter encoding and decoding.
FIG. 4 is a diagram showing a configuration example of a vector codebook according to the present invention in a multi-stage configuration.
FIG. 5 is a diagram showing a configuration example of a vector codebook according to the present invention when configured with a divided vector codebook.
FIG. 6 is a diagram showing a configuration example of a vector codebook according to the present invention when a scaling coefficient is applied to a multistage vector codebook.
FIG. 7 is a diagram showing a configuration example of a vector codebook according to the present invention when the second-stage codebook is configured by a divided vector codebook.
8 is a diagram showing a configuration example of a vector codebook when scaling coefficients are applied to two divided vector codebooks in the codebook of FIG.
FIG. 9 is a diagram showing a configuration example of a vector codebook when each stage of the multistage vector codebook in FIG. 4 is a divided vector codebook.
FIG. 10A is a block diagram showing a configuration example of a speech signal transmission apparatus to which the encoding method according to the present invention is applied, and B is a block diagram showing a configuration example of a speech signal receiving apparatus to which the decoding method according to the present invention is applied. Figure.
FIG. 11 is a diagram showing a functional configuration of a speech signal encoding apparatus to which the encoding method according to the present invention is applied.
FIG. 12 is a diagram showing a functional configuration of an audio signal decoding apparatus to which a decoding method according to the present invention is applied.
FIG. 13 is a diagram showing a configuration example when the encoding device and the decoding device according to the present invention are implemented by a computer.
FIG. 14 is a graph for explaining the effect of the present invention.

Claims (29)

音響パラメータ符号化方法であり、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを一定時間長のフレーム毎に算出するステップと、
(b) 複数の符号ベクトルを、それらを代表するインデックスに対応して格納したベクトル符号帳から、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルと、現フレームにおいて選択された符号ベクトルに対し、1セット以上の重み係数をそれらを代表するインデックスに対応して格納した係数符号帳から選択したセットの重み係数をそれぞれ乗算して加え合わせて重み付きベクトルを生成し、上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として求めるステップと、
(c) 上記量子化音響パラメータの候補の、上記算出した音響パラメータに対する歪みが最小となるように基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳の重み係数のセットを決定し、それら決定した符号ベクトル及び重み係数のセットを表すインデックスを上記音響パラメータの量子化符号と決定して出力するステップ、
とを含み、
上記ベクトル符号帳は、それぞれ複数のベクトルがそれらを代表するインデックスに対応して格納された複数段の符号帳から成り、上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが1つのベクトルとして格納されており、
上記ステップ (b) は、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記複数段の符号帳からそれぞれベクトルを選択し、それらをベクトル加算して上記現フレームの上記選択した符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの上記選択した符号ベクトルとして出力するステップを含む。
An acoustic parameter encoding method,
(a) calculating an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic of an acoustic signal for each frame of a certain time length;
(b) From a vector codebook that stores a plurality of code vectors corresponding to indexes representing them, code vectors output in at least one previous past frame and code vectors selected in the current frame On the other hand, a weighted vector is generated by multiplying and adding each of the weighting coefficients of a set selected from the coefficient codebook that stores one or more sets of weighting coefficients corresponding to the indexes representing them. Obtaining a vector including a component as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
(c) A set of code vectors of the vector codebook and a set of weighting coefficients of the coefficient codebook is determined using a criterion so that distortion of the quantized acoustic parameter candidates with respect to the calculated acoustic parameter is minimized. Determining and outputting an index representing a set of the determined code vector and weight coefficient as a quantization code of the acoustic parameter;
Including
The vector codebook is composed of a plurality of codebooks each storing a plurality of vectors corresponding to indexes representing them, and the codebook of one stage of the plurality of codebooks is substantially flat. A vector containing acoustic parameter vector components representing a simple spectrum envelope is stored as one vector,
In the step (b) , when a code vector other than the vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the one-stage codebook, each vector from the plurality of codebooks Are selected and output as the selected code vector of the current frame, and a vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the codebook of the one stage. A step including outputting a vector including an acoustic parameter vector component representing the substantially flat spectrum envelope as the selected code vector of the current frame.
請求項記載の符号化方法において、上記複数段の符号帳中の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳と、これら複数の分割ベクトル符号帳から出力される分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力する統合部とを含む。2. The encoding method according to claim 1 , wherein at least one of the plurality of codebooks is divided and stored as a plurality of divided vectors obtained by dividing the dimension of the code vector into a plurality of division vectors. A code book, and an integration unit that integrates the divided vectors output from the plurality of divided vector code books and outputs the integrated vector as an output vector of the code book at that stage. 請求項1に記載の符号化方法において、上記ステップThe encoding method according to claim 1, wherein said step. (b)(b) When (c)(c) は共同して、まず、上記1つの段の符号帳から選択した符号ベクトルによる上記歪の最も小さい所定数の符号ベクトルを探索するステップと、次に、各上記所定数の符号ベクトルと、残りの段の符号帳からそれぞれ1つずつ選択した符号ベクトルとのすべての組み合わせについてそれぞれ上記歪を求め、歪が最小となる組の符号ベクトルを決定するステップを含む。Jointly search for a predetermined number of code vectors with the least distortion by a code vector selected from the one-stage codebook, and then each of the predetermined number of code vectors and the remaining The method includes the step of obtaining the distortion for all combinations with code vectors selected one by one from the codebook of each stage, and determining a set of code vectors having the smallest distortion. 音響パラメータ符号化方法であり、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを一定時間長のフレーム毎に算出するステップと、
(b) 複数の符号ベクトルを、それらを代表するインデックスに対応して格納したベクトル符号帳から、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルと、現フレームにおいて選択された符号ベクトルに対し、1セット以上の重み係数をそれらを代表するインデックスに対応して格納した係数符号帳から選択したセットの重み係数をそれぞれ乗算して加え合わせて重み付きベクトルを生成し、上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として求めるステップと、
(c) 上記量子化音響パラメータの候補の、上記算出した音響パラメータに対する歪みが最小となるように基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳の重み係数のセットを決定し、それら決定した符号ベクトル及び重み係数のセットを表すイ ンデックスを上記音響パラメータの量子化符号と決定して出力するステップ、
とを含み、
上記ベクトル符号帳は、それぞれ複数の符号ベクトルが格納された複数段の符号帳と、2段目以降の各符号帳に対し設けられたスケーリング係数符号帳とを含み、各上記スケーリング係数符号帳には1段目の符号帳のそれぞれの符号ベクトルに対応して予め決めたスケーリング係数が格納されており、
上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが格納されており
記ステップ(b) は、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、1段目で選択された符号ベクトルに対し、2段目以降の符号帳に対するスケーリング符号帳から対応するスケーリング係数を読み出し、2段目以降の符号帳からそれぞれ選択した符号ベクトルに乗算し、乗算結果をそれぞれの段のベクトルとして出力し、上記それぞれの段の出力ベクトルと、上記1段目のベクトルとをベクトル加算し、加算結果を上記ベクトル符号帳からの符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記ベクトル符号帳からの符号ベクトルとして出力するステップ、
を含む。
An acoustic parameter encoding method,
(a) calculating an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic of the acoustic signal for each frame of a certain time length;
(b) From a vector codebook that stores a plurality of code vectors corresponding to indexes representing them, code vectors output in at least one previous frame and code vectors selected in the current frame On the other hand, a weighted vector is generated by multiplying and adding each of the weighting coefficients of a set selected from the coefficient codebook that stores one or more sets of weighting coefficients corresponding to the indexes representing them. Obtaining a vector including a component as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
(c) Using a criterion so that distortion of the quantized acoustic parameter candidate with respect to the calculated acoustic parameter is minimized, a set of the code vector of the vector codebook and the weight coefficient of the coefficient codebook is determined. , the step of an index that represents the set of those determined code vector and the weighting factor determines and outputs a quantization code of the acoustic parameters,
Including
The vector codebook includes a plurality of codebooks each storing a plurality of codevectors and scaling coefficient codebooks provided for the second and subsequent codebooks. Stores a predetermined scaling coefficient corresponding to each code vector of the first-stage codebook,
In one stage of the multi-stage codebook, a vector containing acoustic parameter vector components representing the substantially flat spectrum envelope is stored .
Above Symbol step (b),
When a code vector other than the vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the one-stage codebook, the second and subsequent stages for the code vector selected in the first stage Reads the corresponding scaling coefficient from the scaling codebook for the codebook of, multiplies the code vector selected from the codebook of the second and subsequent stages, outputs the multiplication result as a vector of each stage, and outputs the respective stages The vector and the first-stage vector are added together, and the addition result is output as a code vector from the vector codebook. An acoustic parameter vector representing the substantially flat spectrum envelope is output from the one-stage codebook. When a vector containing components is selected, the acoustic parameters representing the above-mentioned almost flat spectrum envelope are selected. Step of outputting the vector containing the components of Tabekutoru as a code vector from the vector codebook,
including.
請求項記載の符号化方法において、上記複数段の符号帳のうち、2段目以降の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳から成り、
上記少なくとも1つの段の符号帳に対応する上記スケーリング係数符号帳は、上記複数の分割ベクトル符号帳に対して設けられた複数の分割ベクトル用スケーリング係数符号帳を含み、各上記分割ベクトル用スケーリング係数符号帳のそれぞれの符号ベクトルは上記1段目の符号帳のそれぞれの符号ベクトルに対応して予め決めた分割ベクトル用スケーリング係数がそれぞれ格納されており、
上記ステップ(b) は、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記少なくとも1つの段の上記複数の分割ベクトル符号帳からそれぞれ選択された分割ベクトルに対し、上記1段目の符号帳で選択されたベクトルのインデックスに対応する分割ベクトル用スケーリング係数をそれぞれの上記分割ベクトル用スケーリング係数符号帳から読み出してそれぞれ乗算し、それら乗算して得られた分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力するステップ
含む。
5. The encoding method according to claim 4 , wherein at least one codebook of the second and subsequent stages among the plurality of codebooks is distributed and stored as a plurality of divided vectors obtained by dividing the code vector dimension into a plurality of dimensions. A plurality of divided vector codebooks,
The scaling coefficient codebook corresponding to the codebook of at least one stage includes a plurality of division vector scaling coefficient codebooks provided for the plurality of division vector codebooks, and each of the division vector scaling coefficients Each code vector of the code book stores a predetermined division vector scaling coefficient corresponding to each code vector of the first stage code book,
Step (b) above is
When a code vector other than a vector including an acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the one-stage codebook, each selected from the plurality of divided vector codebooks of the at least one stage The divided vectors are read from the divided vector scaling coefficient codebooks corresponding to the index of the vector selected in the first-stage codebook, respectively multiplied , and multiplied. Integrating the divided vectors obtained in this way and outputting them as output vectors of the codebook at that stage ,
Including the.
請求項1から請求項5の何れかに記載の符号化方法において、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルは、上記線形予測係数と等価なパラメータベクトルから、予め求めておいた音響信号全体の上記線形予測係数と等価なパラメータの平均ベクトルを差し引いて生成したベクトルである。6. The encoding method according to claim 1, wherein a vector including an acoustic parameter vector component representing the substantially flat spectrum envelope is obtained in advance from a parameter vector equivalent to the linear prediction coefficient. This is a vector generated by subtracting an average vector of parameters equivalent to the above linear prediction coefficient of the entire acoustic signal. 請求項1から請求項6の何れかに記載の符号化方法において、上記線形予測係数と等価なパラメータはLSPパラメータである。7. The encoding method according to claim 1 , wherein the parameter equivalent to the linear prediction coefficient is an LSP parameter. 音響パラメータ復号化方法であり、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳とから、フレームごとに入力された符号が表すインデックスに対応する符号ベクトルと1セットの重み係数を出力するステップと、
(b) 最も近い過去の少なくとも1つのフレームにおいて上記ベクトル符号帳から出力された上記符号ベクトルと、現フレームにおいて上記ベクトル符号帳から出力された符号ベクトルとにそれぞれ上記出力されたセットの重み係数を乗算して加え合わせて重み付きベクトルを生成し、その重み付きベクトルの成分を含むベクトルを現在のフレームの復号された量子化ベクトルとして出力するステップ、
とを含み、
上記ベクトル符号帳は、それぞれ複数のベクトルがそれらを代表するインデックスに対応して格納された複数段の符号帳から成り、上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベク
トルが1つのベクトルとして格納されており、
上記ステップ (b) は、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを出力した場合は、上記複数段の符号帳からそれぞれベクトルを選択し、それらをベクトル加算して上記現フレームの上記選択した符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの符号ベクトルとして出力するステップを含む。
An acoustic parameter decoding method,
(a) a vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of an acoustic signal in correspondence with indexes representing them, and one or more sets of weighting coefficients Outputting a code vector corresponding to an index represented by a code input for each frame and a set of weighting coefficients from a coefficient codebook stored corresponding to an index representing the set;
(b) The weight coefficient of the set output to the code vector output from the vector codebook in the nearest past frame and the code vector output from the vector codebook in the current frame, respectively. Multiplying and adding to generate a weighted vector and outputting a vector containing the components of the weighted vector as a decoded quantized vector of the current frame;
Including
The vector codebook is composed of a plurality of codebooks each storing a plurality of vectors corresponding to indexes representing them, and the codebook of one stage of the plurality of codebooks is substantially flat. Vector containing the components of the acoustic parameter vector representing the correct spectral envelope
Toru is stored as a vector,
When the code vector other than the vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is output from the one-stage code book, the step (b) Are selected and output as the selected code vector of the current frame, and a vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the codebook of the one stage. A step of outputting a vector including a component of an acoustic parameter vector representing the substantially flat spectrum envelope as a code vector of the current frame.
請求項記載の復号化方法において、上記複数段の符号帳中の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳と、これら複数の分割ベクトル符号帳から出力される分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力する統合部とを含む。9. The decoding method according to claim 8 , wherein at least one of the plurality of codebooks is divided and stored as a plurality of divided vectors obtained by dividing the dimension of the code vector into a plurality of division vectors. A code book, and an integration unit that integrates the divided vectors output from the plurality of divided vector code books and outputs the integrated vectors as the output vector of the code book at that stage. 音響パラメータ復号化方法であり、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳とから、フレームごとに入力された符号が表すインデックスに対応する符号ベクトルと1セットの重み係数を出力するステップと、
(b) 最も近い過去の少なくとも1つのフレームにおいて上記ベクトル符号帳から出力された上記符号ベクトルと、現フレームにおいて上記ベクトル符号帳から出力された符号ベクトルとにそれぞれ上記出力されたセットの重み係数を乗算して加え合わせて重み付きベクトルを生成し、その重み付きベクトルの成分を含むベクトルを現在のフレームの復号された量子化ベクトルとして出力するステップ、
とを含み、
上記ベクトル符号帳は、それぞれ複数の符号ベクトルが格納された複数段の符号帳と、2段目以降の各符号帳に対し設けられたスケーリング係数符号帳とを含み、各上記スケーリング係数符号帳には1段目の符号帳のそれぞれの符号ベクトルに対応して予め決めたスケーリング係数が格納されており、
上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが格納されており、残りの段の符号帳には、それぞれ1つずつ零ベクトルが格納されており、
上記ステップ(b) は、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを出力した場合は、1段目で選択された符号ベクトルに対し、2段目以降の符号帳に対するスケーリング符号帳から対応するスケーリング係数を読み出し、2段目以降の符号帳からそれぞれ選択した符号ベクトルに乗算し、乗算結果をそれぞれの段のベクトルとして出力し、
上記それぞれの段の出力ベクトルと、上記1段目のベクトルとをベクトル加算し、加算結果を上記ベクトル符号帳からの符号ベクトルとして出力し、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響 パラメータベクトルの成分を含むベクトルを上記ベクトル符号帳からの符号ベクトルとして出力するステップ
を含む。
An acoustic parameter decoding method,
(a) a vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of the acoustic signal in correspondence with indexes representing them, and one or more sets of weighting coefficients Outputting a code vector corresponding to an index represented by a code input for each frame and a set of weighting coefficients from a coefficient codebook stored corresponding to an index representing the set;
(b) The set weight coefficients of the output sets for the code vector output from the vector codebook in the nearest past frame and the code vector output from the vector codebook in the current frame, respectively. Multiplying and adding to generate a weighted vector and outputting a vector containing the components of the weighted vector as a decoded quantized vector of the current frame;
Including
The vector codebook includes a plurality of codebooks each storing a plurality of codevectors and scaling coefficient codebooks provided for the second and subsequent codebooks. Stores a predetermined scaling coefficient corresponding to each code vector of the first-stage codebook,
A vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is stored in one of the plurality of codebooks, and one codebook is stored in each of the remaining codebooks. Zero vectors are stored one by one,
Step (b) above is
When a code vector other than the vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is output from the one-stage codebook, the second and subsequent stages with respect to the code vector selected in the first stage Read out the corresponding scaling factor from the scaling codebook for the codebook of, multiply the code vector selected from the codebook of the second and subsequent stages, and output the multiplication result as a vector of each stage ,
Vector addition of the output vector of each stage and the vector of the first stage, and output the addition result as a code vector from the vector codebook ,
When a vector including an acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the one-stage codebook, a vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is selected as the vector code. Outputting as a code vector from the book ,
including.
請求項10記載の復号化方法において、上記複数段の符号帳のうち、2段目以降の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳から成り、
上記少なくとも1つの段の符号帳に対応する上記スケーリング係数符号帳は、上記複数の分割ベクトル符号帳に対し設けられた複数の分割ベクトル用スケーリング係数符号帳を含み、各上記分割ベクトル用スケーリング係数符号帳には上記1段目の符号帳のそれぞれの符号ベクトルに対応して複数の分割ベクトル用スケーリング係数が格納されており、
上記ステップ(b) は、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを出力した場合は、上記少なくとも1つの段の上記複数の分割ベクトル符号帳からそれぞれ選択された分割ベクトルに対し、上記1段目の符号帳で選択されたベクトルのインデックスに対応する分割ベクトル用スケーリング係数をそれぞれの上記分割ベクトル用スケーリング係数符号帳から読み出してそれぞれ乗算し、それら乗算して得られた分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力するステップ
含む。
11. The decoding method according to claim 10, wherein among the plurality of codebooks, at least one codebook of the second and subsequent stages is distributed and stored as a plurality of divided vectors obtained by dividing the code vector dimension into a plurality of dimensions. A plurality of divided vector codebooks,
The scaling coefficient codebook corresponding to the codebook of the at least one stage includes a plurality of division vector scaling coefficient codebooks provided for the plurality of division vector codebooks, and each of the division vector scaling coefficient codes The book stores a plurality of division vector scaling coefficients corresponding to the respective code vectors of the first-stage codebook,
Step (b) above is
When a code vector other than the vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is output from the one-stage codebook, each selected from the plurality of divided vector codebooks of the at least one stage The divided vectors are read from the divided vector scaling coefficient codebooks corresponding to the index of the vector selected in the first-stage codebook, respectively multiplied , and multiplied. Integrating the divided vectors obtained in this way and outputting them as output vectors of the codebook at that stage ,
Including the.
請求項8から請求項11の何れかに記載の復号化方法において、上記線形予測係数と等価なパラメータベクトルの成分を含むベクトルは、上記線形予測係数と等価なパラメータベクトルから、予め求めておいた音響信号全体の上記線形予測係数と等価なパラメータの平均ベクトルを差し引いて生成したベクトルである。12. The decoding method according to claim 8, wherein a vector including a component of a parameter vector equivalent to the linear prediction coefficient is obtained in advance from a parameter vector equivalent to the linear prediction coefficient. This is a vector generated by subtracting an average vector of parameters equivalent to the linear prediction coefficient of the entire acoustic signal. 請求項8から請求項12の何れかに記載の復号化方法において、上記線形予測係数と等価なパラメータはLSPパラメータである。In the decoding method according to any one of claims 12 to claim 8, it said linear predictive coefficients equivalent to the parameters is LSP parameters. 音響パラメータ符号化装置であり、
入力音響信号をフレームごとに分析し音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを算出するパラメータ算出手段と、
複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳と、
上記ベクトル符号帳から出力された現フレームに対する符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに対し、上記係数符号帳から選択したセットの重み係数のそれぞれとを乗算して加え合わせて重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として出力する量子化パラメータ生成手段と、
上記量子化音響パラメータの、上記パラメータ算出手段で算出された音響パラメータに対する歪みを計算する歪み計算部と、
上記歪みが小になるような基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳のセットの重み係数を決定し、それら決定された符号ベクトル及び重み係数のセットをそれぞれ代表するインデックスを上記音響パラメータの符号として出力する符号帳検索制御部、
とを含み、
上記ベクトル符号帳は、それぞれ複数のベクトルがそれらを代表するインデックスに対応して格納された複数段の符号帳から成り、上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが1つのベクトルとして格納されており、
上記量子化パラメータ生成手段は、上記1つの段の符号帳から上記ほぼ平坦なスペクト ラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記複数段の符号帳からそれぞれベクトルを選択し、それらをベクトル加算して上記現フレームの上記選択した符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの上記選択した符号ベクトルとして出力する手段を含む。
An acoustic parameter encoding device,
A parameter calculating means for analyzing the input acoustic signal for each frame and calculating an acoustic parameter equivalent to a linear prediction coefficient representing the spectral envelope characteristics of the acoustic signal;
A vector codebook that stores a plurality of code vectors corresponding to indexes representing them;
A coefficient codebook that stores one or more sets of weighting coefficients in correspondence with indexes representing those sets;
The code vector for the current frame output from the vector code book and the code vector output from the nearest past at least one frame are multiplied by each of the set of weight coefficients selected from the coefficient code book. A quantization parameter generating means for generating a weighted vector by adding together and outputting a vector including the generated component of the weighted vector as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
A distortion calculation unit that calculates distortion of the quantized acoustic parameter with respect to the acoustic parameter calculated by the parameter calculation unit;
Indexes representing the code vectors of the vector codebook and the set of coefficient codebooks, and the representative indexes of the determined code vector and the set of weighting coefficients, using a standard that reduces the distortion Codebook search control unit for outputting as a code of the acoustic parameters,
Including
The vector codebook is composed of a plurality of codebooks each storing a plurality of vectors corresponding to indexes representing them, and the codebook of one stage of the plurality of codebooks is substantially flat. A vector containing acoustic parameter vector components representing a simple spectrum envelope is stored as one vector,
The quantization parameter generating means, if you select the code vector other than the vector containing the components of the acoustic parameter vector representing the substantially flat-spectrum envelope from the codebook of said one stage, the codebook of said plurality of stages Select each vector, add the vectors, and output as the selected code vector of the current frame, and from the one-stage codebook, a vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope If selected, means for outputting a vector containing a component of the acoustic parameter vector representing the substantially flat spectrum envelope as the selected code vector of the current frame.
請求項14記載の符号化装置において、上記複数段の符号帳中の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとしてそれぞれそれらを代表するインデックスと対応して分配格納された複数の分割ベクトル符号帳と、これら複数の分割ベクトル符号帳から出力される分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力する統合部とを含む。15. The encoding device according to claim 14 , wherein at least one of the plurality of codebooks corresponds to an index representative of each of them as a plurality of divided vectors obtained by dividing the dimension of the code vector into a plurality. A plurality of divided vector codebooks distributed and stored, and an integration unit that integrates the divided vectors output from the plurality of divided vector codebooks and outputs them as output vectors of the codebook at that stage. 音響パラメータ符号化装置であり、
入力音響信号をフレームごとに分析し音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを算出するパラメータ算出手段と、
複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらのセットを代表するインデックスと対応して格納した係数符号帳と、
上記ベクトル符号帳から出力された現フレームに対する符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに対し、上記係数符号帳から選択したセットの重み係数のそれぞれとを乗算して加え合わせて重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを、現フレームの上記音響パラメータに対する量子化音響パラメータの候補として出力する量子化パラメータ生成手段と、
上記量子化音響パラメータの、上記パラメータ算出手段で算出された音響パラメータに対する歪みを計算する歪み計算部と、
上記歪みが小になるような基準を用いて、上記ベクトル符号帳の符号ベクトルと上記係数符号帳のセットの重み係数を決定し、それら決定された符号ベクトル及び重み係数のセットをそれぞれ代表するインデックスを上記音響パラメータの符号として出力する符号帳検索制御部、
とを含み、
上記ベクトル符号帳は、
それぞれ複数の符号ベクトルがそれらを代表するインデックスと対応して格納された複数段の符号帳と、
2段目以降の各符号帳に対し設けられ、1段目の符号帳のそれぞれの符号ベクトルに対応して予め決めたスケーリング係数がそれらを代表するインデックスと対応して格納されたスケーリング係数符号帳を含み、
上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが格納されており、残りの段の符号帳には、零ベクトルが格納されており、
さらに、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、1段目で選択された符号ベクトルに対し、2段目以降の符号帳に対するスケーリング符号帳から対応するスケーリング係数を読み出し、2段目以降の符号帳からそれぞれ選択した符号ベクトルに乗算し、乗算結果をそれぞれの段のベクトルとして出力し、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの上記選択した符号ベクトル として出力する手段
を含む。
An acoustic parameter encoding device,
Parameter calculating means for analyzing the input acoustic signal for each frame and calculating an acoustic parameter equivalent to a linear prediction coefficient representing the spectral envelope characteristics of the acoustic signal;
A vector codebook storing a plurality of code vectors corresponding to indexes representing them, and
A coefficient codebook storing one or more sets of weighting coefficients in correspondence with indexes representing those sets;
The code vector for the current frame output from the vector code book and the code vector output from the nearest past at least one frame are multiplied by each of the set of weight coefficients selected from the coefficient code book. A quantization parameter generating means for generating a weighted vector by adding together and outputting a vector including the generated component of the weighted vector as a candidate of a quantized acoustic parameter for the acoustic parameter of the current frame;
A distortion calculation unit that calculates distortion of the quantized acoustic parameter with respect to the acoustic parameter calculated by the parameter calculation unit;
Indexes representing the code vectors of the vector codebook and the set of coefficient codebooks, and the representative indexes of the determined code vector and the set of weighting coefficients, using a criterion that reduces the distortion Codebook search control unit for outputting as a code of the acoustic parameters,
Including
The above vector codebook is
A plurality of codebooks each storing a plurality of code vectors corresponding to indexes representing them;
Scaling coefficient codebook provided for each codebook in the second and subsequent stages, in which scaling coefficients determined in advance corresponding to the respective code vectors of the first stage codebook are stored in correspondence with indexes representing them Including
A vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is stored in one codebook of the multistage codebook, and a zero vector is stored in the remaining codebook. Stored,
further,
When a code vector other than the vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the one-stage codebook, the second and subsequent stages for the code vector selected in the first stage Read out the corresponding scaling factor from the scaling codebook for the codebook of, multiply the code vector selected from the codebook of the second and subsequent stages, and output the multiplication result as a vector of each stage ,
When a vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the one-stage codebook, the vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected as the current frame. Means for outputting as the selected code vector of
The including.
請求項16記載の符号化装置において、上記複数段の符号帳のうち、2段目以降の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳から成り、
上記少なくとも1つの段の符号帳に対応する上記スケーリング係数符号帳は、
上記複数の分割ベクトル符号帳と対応して複数の分割ベクトル用スケーリング係数がそれぞれ1段目の符号ベクトルに対応して格納された複数の分割ベクトル用スケーリング係数符号帳と、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記少なくとも1つの段の上記複数の分割ベクトル符号帳からそれぞれ出力される分割ベクトルに対し、上記1段目の符号帳で選択されたベクトルのインデックスに対応する分割ベクトル用スケーリング係数をそれぞれの上記分割ベクトル用スケーリング係数符号帳から読み出してそれぞれ乗算し、
それら乗算結果を統合してその段の符号帳の出力ベクトルとして出力する手段
とを含む。
17. The encoding device according to claim 16 , wherein among the plurality of codebooks, at least one codebook of the second and subsequent stages is distributed and stored as a plurality of divided vectors obtained by dividing the dimension of the code vector into a plurality. A plurality of divided vector codebooks,
The scaling factor codebook corresponding to the at least one stage codebook is:
A plurality of division vector scaling coefficients codebook in which a plurality of division vector scaling coefficients are stored corresponding to the first-stage code vectors in correspondence with the plurality of division vector codebooks;
When a code vector other than a vector including a component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the one-stage codebook, output from each of the plurality of divided vector codebooks of the at least one stage. is the relative split vector, multiplied respectively by reading the split vector for scaling coefficient corresponding to the index of the selected vector codebook of the first stage from each of the split vector for the scaling factor codebook,
Means for integrating the multiplication results and outputting them as an output vector of the codebook at that stage;
Including.
音響パラメータ復号化装置であり、
音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらを代表するインデックスと対応して格納した係数符号帳と、
フレームごとに入力される符号が表すインデックスに応じて上記ベクトル符号帳から1つの符号ベクトルを出力させ、上記係数符号帳からセットの重み係数を出力させ、現フレームで出力された上記符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに上記現フレームで出力されたセットの重み係数をそれぞれ乗算して加え合わせた重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを現フレームの復号された量子化音響パラメータとして出力する量子化パラメータ生成手段、
とを含み、
上記ベクトル符号帳は、それぞれ複数のベクトルがそれらを代表するインデックスに対応して格納された複数段の符号帳から成り、上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが1つのベクトルとして格納されており、
上記量子化パラメータ生成手段は、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記複数段の符号帳からそれぞれベクトルを選択し、それらをベクトル加算して上記現フレームの上記選択した符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの上記選択した符号ベクトルとして出力する手段を含む。
An acoustic parameter decoding device,
A vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of the acoustic signal in correspondence with indexes representing them;
A coefficient codebook storing one or more sets of weighting coefficients in correspondence with indexes representing them;
One code vector is output from the vector codebook according to an index represented by a code input for each frame, a set weight coefficient is output from the coefficient codebook, and the code vector output in the current frame; A weighted vector is generated by multiplying the code vector output in the nearest past frame by the weight coefficient of the set output in the current frame, and adding them together, and the components of the generated weight vector Quantization parameter generating means for outputting a vector including a decoded quantized acoustic parameter of the current frame,
Including
The vector codebook is composed of a plurality of codebooks each storing a plurality of vectors corresponding to indexes representing them, and the codebook of one stage of the plurality of codebooks is substantially flat. A vector containing acoustic parameter vector components representing a simple spectrum envelope is stored as one vector,
When the quantization parameter generation means selects a code vector other than the vector including the acoustic parameter vector component representing the substantially flat spectrum envelope from the one-stage codebook, Select vectors, add them and output as the selected code vector of the current frame, and select the vector containing the acoustic parameter vector component representing the substantially flat spectrum envelope from the one-stage codebook In this case, there is included means for outputting a vector including a component of the acoustic parameter vector representing the substantially flat spectrum envelope as the selected code vector of the current frame.
請求項18記載の復号化装置において、上記複数段の符号帳中の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとしてそれぞれそれらを代表するインデックスと対応して分配格納された複数の分割ベクトル符号帳と、これら複数の分割ベクトル符号帳から出力される分割ベクトルを統合してその段の符号帳の出力ベクトルとして出力する統合部とを含む。19. The decoding apparatus according to claim 18 , wherein at least one of the plurality of codebooks corresponds to an index representative of each of the plurality of divided vectors obtained by dividing the dimension of the code vector into a plurality of divided codebooks. A plurality of divided vector codebooks distributed and stored, and an integration unit that integrates the divided vectors output from the plurality of divided vector codebooks and outputs them as output vectors of the codebook at that stage. 音響パラメータ復号化装置であり、
音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメータの複数の符号ベクトルをそれらを代表するインデックスと対応して格納したベクトル符号帳と、
1セット以上の重み係数をそれらを代表するインデックスと対応して格納した係数符号帳と、
フレームごとに入力される符号が表すインデックスに応じて上記ベクトル符号帳から1つの符号ベクトルを出力させ、上記係数符号帳からセットの重み係数を出力させ、現フレームで出力された上記符号ベクトルと、最も近い過去の少なくとも1つのフレームにおいて出力された符号ベクトルとに上記現フレームで出力されたセットの重み係数をそれぞれ乗算して加え合わせた重み付きベクトルを生成し、生成した上記重み付きベクトルの成分を含むベクトルを現フレームの復号された量子化音響パラメータとして出力する量子化パラメータ生成手段、
とを含み、
上記ベクトル符号帳は、
それぞれ複数の符号ベクトルがそれらを代表するインデックスと対応して格納された複数段の符号帳と、
2段目以降の各符号帳に対し設けられ、1段目の符号帳のそれぞれの符号ベクトルに対応して予め決めたスケーリング係数がそれらを代表するインデックスと対応して格納されたスケーリング係数符号帳とを含み、
上記複数段の符号帳の1つの段の符号帳には、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルが格納されており、残りの段の符号帳には、零ベクトルが格納されており、
さらに、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、1段目で選択された符号ベクトルに対し、2段目以降の符号帳に対するスケーリング符号帳から対応するスケーリング係数を読み出し、2段目以降の符号帳からそれぞれ選択した符号ベクトルに乗算し、乗算結果をそれぞれの段のベクトルとして出力する乗算し、
上記それぞれの段の出力ベクトルと、上記1段目のベクトルとをベクトル加算し、加算結果を上記ベクトル符号帳からの符号ベクトルとして出力し、上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを選択した場合は、上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトルを上記現フレームの上記選択した符号ベクトルとして出力する手段を含む。
An acoustic parameter decoding device,
A vector codebook storing a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope characteristics of the acoustic signal in correspondence with indexes representing them;
A coefficient codebook storing one or more sets of weighting coefficients in correspondence with indexes representing them;
One code vector is output from the vector codebook according to an index represented by a code input for each frame, a set weight coefficient is output from the coefficient codebook, and the code vector output in the current frame; A weighted vector is generated by multiplying the code vector output in the nearest past frame by the weight coefficient of the set output in the current frame, and adding them, and the components of the generated weight vector Quantization parameter generating means for outputting a vector including a decoded quantized acoustic parameter of the current frame,
Including
The above vector codebook is
A plurality of codebooks each storing a plurality of code vectors corresponding to indexes representing them;
Scaling coefficient codebook provided for each codebook in the second stage and thereafter, in which scaling coefficients determined in advance corresponding to the respective code vectors in the first stage codebook are stored in correspondence with indexes representing them Including
A vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is stored in one codebook of the multistage codebook, and a zero vector is stored in the remaining codebook. Stored,
further,
When a code vector other than the vector including the acoustic parameter vector component representing the substantially flat spectrum envelope is selected from the codebook of the first stage, the second and subsequent stages with respect to the code vector selected in the first stage The corresponding scaling factor is read from the scaling codebook for the codebook of No. 2 and multiplied by the code vector selected from the codebook of the second and subsequent stages, and the multiplication result is output as a vector of each stage ,
A vector addition is performed on the output vector of each stage and the vector of the first stage, and the addition result is output as a code vector from the vector codebook, and the substantially flat spectrum envelope is output from the codebook of the one stage. When a vector including the component of the acoustic parameter vector representing is selected, a vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is output as the selected code vector of the current frame.
請求項20記載の復号化装置において、上記複数段の符号帳のうち、2段目以降の少なくとも1つの段の符号帳は、符号ベクトルの次元が複数に分割された複数の分割ベクトルとして分配格納された複数の分割ベクトル符号帳から成り、
上記少なくとも1つの段の符号帳に対応する上記スケーリング係数符号帳は、
上記複数の分割ベクトル符号帳と対応して複数の分割ベクトル用スケーリング係数がそれぞれ1段目の符号ベクトルに対応して格納された複数の分割ベクトル用スケーリング係数符号帳と、
上記1つの段の符号帳から上記ほぼ平坦なスペクトラム包絡を表す音響パラメータベクトルの成分を含むベクトル以外の符号ベクトルを選択した場合は、上記少なくとも1つの段の上記複数の分割ベクトル符号帳からそれぞれ出力される分割ベクトルに対し、上記1段目の符号帳で選択されたベクトルのインデックスに対応する分割ベクトル用スケーリング係数をそれぞれの上記分割ベクトル用スケーリング係数符号帳から読み出してそれぞれ乗算し、
それら乗算結果を統合してその段の符号帳の出力ベクトルとして出力する手段、
とを含む。
21. The decoding apparatus according to claim 20 , wherein at least one codebook of the second and subsequent stages among the plurality of stages of codebooks is distributed and stored as a plurality of divided vectors obtained by dividing the code vector dimension into a plurality of dimensions. A plurality of divided vector codebooks,
The scaling factor codebook corresponding to the at least one stage codebook is:
A plurality of division vector scaling coefficients codebook in which a plurality of division vector scaling coefficients are stored corresponding to the first-stage code vectors in correspondence with the plurality of division vector codebooks;
When a code vector other than a vector including a component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the one-stage codebook, output from each of the plurality of divided vector codebooks of the at least one stage. is the relative split vector, multiplied respectively by reading the split vector for scaling coefficient corresponding to the index of the selected vector codebook of the first stage from each of the split vector for the scaling factor codebook,
Means for integrating the multiplication results and outputting them as an output vector of the codebook at that stage ;
Including.
入力音響信号を符号化する音響信号符号化装置であり、
請求項1記載の音響パラメータ符号化方法を用いて、入力音響信号のスペクトル特性を符号化する手段と、
上記入力音響信号の周期成分を表す適応符号ベクトルを保持した適応符号帳と、
複数の固定ベクトルを格納した固定符号帳と、
上記適応符号帳からの適応符号ベクトルと上記固定符号帳からの固定ベクトルとに基づいて生成された音源ベクトルを励振信号として入力し、上記量子化音響パラメータに基づいたフィルタ係数を用いて合成音響信号を合成するフィルタ手段と、
上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固定符号帳と上記適応符号帳から選択する適応符号ベクトルと固定ベクトルを決定し、決定された上記適応符号ベクトル及び固定ベクトルにそれぞれ対応する適応符号と固定符号を出力する手段、
とを含む。
An acoustic signal encoding device that encodes an input acoustic signal,
Means for encoding the spectral characteristics of the input acoustic signal using the acoustic parameter encoding method according to claim 1;
An adaptive codebook holding an adaptive code vector representing a periodic component of the input acoustic signal;
A fixed codebook storing a plurality of fixed vectors; and
A sound source vector generated based on the adaptive code vector from the adaptive code book and the fixed vector from the fixed code book is input as an excitation signal, and a synthesized acoustic signal is used using a filter coefficient based on the quantized acoustic parameter. Filter means for synthesizing
An adaptive code vector and a fixed vector selected from the fixed codebook and the adaptive codebook are determined so that distortion of the synthesized acoustic signal with respect to the input acoustic signal is reduced, and the determined adaptive code vector and fixed vector are respectively determined. Means for outputting corresponding adaptive and fixed codes;
Including.
入力符号を復号して音響信号を出力する音響信号復号化装置であり、
請求項記載の音響パラメータ復号化方法を用いて、入力された符号からスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号する手段と、
複数の固定ベクトルを格納した固定符号帳と、
合成音響信号の周期成分を表す適応符号ベクトルを保持した適応符号帳と、
入力された適応符号及び固定符号により、上記固定符号帳から対応する固定ベクトルを取り出し、上記適応符号帳から対応する適応符号ベクトルを取出し、これらをベクトル合成して励振ベクトルを生成する手段と、
上記音響パラメータに基づいたフィルタ係数が設定され、上記励振ベクトルにより音響信号を再生するフィルタ手段、
とを含む。
An acoustic signal decoding apparatus that decodes an input code and outputs an acoustic signal,
Means for decoding an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic from an input code using the acoustic parameter decoding method according to claim 8 ;
A fixed codebook storing a plurality of fixed vectors; and
An adaptive codebook holding an adaptive code vector representing the periodic components of the synthesized acoustic signal;
Means for taking out the corresponding fixed vector from the fixed codebook by the input adaptive code and fixed code, taking out the corresponding adaptive code vector from the adaptive codebook, and combining them to generate an excitation vector;
Filter means for setting a filter coefficient based on the acoustic parameter and reproducing an acoustic signal by the excitation vector;
Including.
入力音響信号を符号化する音響信号符号化方法であり、
(A) 請求項1記載の音響パラメータ符号化方法を用いて、入力音響信号のスペクトル特性を符号化するステップと、
(B) 入力音響信号の周期成分を表す適応符号ベクトルが保持された適応符号帳からの適応符号ベクトルと、複数の固定ベクトルが格納された固定符号帳からの固定ベクトルとに基づいて生成された音源ベクトルを励振信号として使用し、上記量子化音響パラメータに基づいたフィルタ係数により合成フィルタ処理を行って合成音響信号を生成するステップと、
(C) 上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固定符号帳と上記適応符号帳から選択する適応符号ベクトルと固定ベクトルを決定し、それら決定された適応符号ベクトルと固定ベクトルにそれぞれ対応する適応符号と固定符号を出力するステップ、
とを含む。
An acoustic signal encoding method for encoding an input acoustic signal,
(A) using the acoustic parameter encoding method according to claim 1, encoding spectral characteristics of an input acoustic signal;
(B) Generated based on an adaptive code vector from an adaptive code book that holds an adaptive code vector representing a periodic component of the input acoustic signal and a fixed vector from a fixed code book that stores a plurality of fixed vectors Using a sound source vector as an excitation signal and performing a synthetic filter process with a filter coefficient based on the quantized acoustic parameter to generate a synthetic acoustic signal;
(C) The adaptive code vector and fixed vector to be selected from the fixed codebook and the adaptive codebook are determined so that the distortion of the synthesized sound signal with respect to the input sound signal is reduced, and the determined adaptive code vector and the fixed codebook are fixed. Outputting an adaptive code and a fixed code corresponding to each vector,
Including.
入力符号を復号して音響信号を出力する音響信号復号化方法であり、
(A) 請求項記載の音響パラメータ復号化方法を用いて、入力された符号からスペクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号するステップと、
(B) 入力された符号中の適応符号及び固定符号により、入力音響信号の周期成分を示す適応符号ベクトルが保持された適応符号帳から対応する適応符号ベクトルを取出し、複数の固定ベクトルが格納された固定符号帳から対応する固定ベクトルを取り出し、これら適応符号ベクトルと固定ベクトルをベクトル合成して励振ベクトルを生成するステップと、
(C) 上記音響パラメータに基づいたフィルタ係数を使って上記励振ベクトルを合成フィルタ処理して合成音響信号を再生するステップ、
とを含む。
An acoustic signal decoding method for decoding an input code and outputting an acoustic signal,
(A) decoding an acoustic parameter equivalent to a linear prediction coefficient representing a spectral envelope characteristic from an input code using the acoustic parameter decoding method according to claim 8 ;
(B) The corresponding adaptive code vector is extracted from the adaptive code book in which the adaptive code vector indicating the periodic component of the input acoustic signal is held by the adaptive code and the fixed code in the input code, and a plurality of fixed vectors are stored. Extracting a corresponding fixed vector from the fixed codebook, and vector-combining the adaptive code vector and the fixed vector to generate an excitation vector;
(C) reconstructing a synthesized acoustic signal by synthesizing and filtering the excitation vector using a filter coefficient based on the acoustic parameter;
Including.
請求項1〜7のいずれかに記載の音響パラメータ符号化方法をコンピュータで実施するプログラム。The program which implements the acoustic parameter encoding method in any one of Claims 1-7 with a computer. 請求項13のいずれかに記載の音響パラメータ復号化方法をコンピュータで実施するプログラム。Program implementing the acoustic parameter decoding method according a computer in any one of claims 8-13. 音響信号を電気的信号に変換する音響入力装置と、
この音響入力信号装置から出力される信号をディジタル信号に変換するA/D変換装置と、
このA/D変換装置から出力されるディジタル信号の符号化を行う請求項14記載の音響信号符号化装置と、
この音響信号符号化装置から出力される符号化情報に対して変調処理等を行うRF変調装置と、
このRF変調装置から出力された信号を電波に変換して送信する送信アンテナ、
とを含む音響信号送信装置。
An acoustic input device for converting an acoustic signal into an electrical signal;
An A / D converter for converting a signal output from the acoustic input signal device into a digital signal;
The acoustic signal encoding device according to claim 14 , which encodes a digital signal output from the A / D conversion device;
An RF modulation device that performs modulation processing and the like on the encoded information output from the acoustic signal encoding device;
A transmitting antenna that converts a signal output from the RF modulation device into a radio wave and transmits the signal;
And an acoustic signal transmitting device.
受信電波を受信する受信アンテナと、
上記受信アンテナで受信した信号の復調処理を行うRF復調装置と、
上記RF復調装置によって得られた情報の復号化処理を行う請求項18記載の音響信号復号化装置と、
上記音響信号復号化装置によって復号化されたディジタル音響信号をD/A変換するD/A変換装置と、上記D/A変換装置から出力される電気的信号を音響信号に変換する音響信号出力装置、
とを含む音響信号受信装置。
A receiving antenna for receiving radio waves,
An RF demodulator for demodulating a signal received by the receiving antenna;
The acoustic signal decoding device according to claim 18, which performs decoding processing of information obtained by the RF demodulation device;
A D / A converter for D / A converting the digital acoustic signal decoded by the acoustic signal decoding device, and an acoustic signal output device for converting an electrical signal output from the D / A converter to an acoustic signal ,
And an acoustic signal receiving device.
JP2001361052A 2000-11-27 2001-11-27 Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus Expired - Fee Related JP3916934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001361052A JP3916934B2 (en) 2000-11-27 2001-11-27 Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-359311 2000-11-27
JP2000359311 2000-11-27
JP2001361052A JP3916934B2 (en) 2000-11-27 2001-11-27 Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus

Publications (2)

Publication Number Publication Date
JP2002221998A JP2002221998A (en) 2002-08-09
JP3916934B2 true JP3916934B2 (en) 2007-05-23

Family

ID=26604610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001361052A Expired - Fee Related JP3916934B2 (en) 2000-11-27 2001-11-27 Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus

Country Status (1)

Country Link
JP (1) JP3916934B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2415105A1 (en) * 2002-12-24 2004-06-24 Voiceage Corporation A method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
WO2007132750A1 (en) * 2006-05-12 2007-11-22 Panasonic Corporation Lsp vector quantization device, lsp vector inverse-quantization device, and their methods
CN102623012B (en) 2011-01-26 2014-08-20 华为技术有限公司 Vector joint coding and decoding method, and codec
JP5851455B2 (en) * 2013-08-06 2016-02-03 日本電信電話株式会社 Common signal containing section presence / absence judging device, method, and program
JP6962268B2 (en) * 2018-05-10 2021-11-05 日本電信電話株式会社 Pitch enhancer, its method, and program

Also Published As

Publication number Publication date
JP2002221998A (en) 2002-08-09

Similar Documents

Publication Publication Date Title
KR100566713B1 (en) Speech parameter coding and decoding methods, coder and decoder, and programs, and speech coding and decoding methods, coder and decoder, and programs
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
US6081776A (en) Speech coding system and method including adaptive finite impulse response filter
US6078880A (en) Speech coding system and method including voicing cut off frequency analyzer
US5749065A (en) Speech encoding method, speech decoding method and speech encoding/decoding method
EP1339040B1 (en) Vector quantizing device for lpc parameters
JP4005359B2 (en) Speech coding and speech decoding apparatus
US6098036A (en) Speech coding system and method including spectral formant enhancer
US6119082A (en) Speech coding system and method including harmonic generator having an adaptive phase off-setter
US6138092A (en) CELP speech synthesizer with epoch-adaptive harmonic generator for pitch harmonics below voicing cutoff frequency
US6094629A (en) Speech coding system and method including spectral quantizer
JPH08179796A (en) Voice coding method
US6768978B2 (en) Speech coding/decoding method and apparatus
CA2440820A1 (en) Sound encoding apparatus and method, and sound decoding apparatus and method
WO2002021091A1 (en) Noise signal analyzer, noise signal synthesizer, noise signal analyzing method, and noise signal synthesizing method
JP3916934B2 (en) Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus
JP3353852B2 (en) Audio encoding method
JP2003044099A (en) Pitch cycle search range setting device and pitch cycle searching device
JP4578145B2 (en) Speech coding apparatus, speech decoding apparatus, and methods thereof
JP3268750B2 (en) Speech synthesis method and system
JP3232701B2 (en) Audio coding method
JP2002073097A (en) Celp type voice coding device and celp type voice decoding device as well as voice encoding method and voice decoding method
JPH10111700A (en) Method and device for compressing and coding voice
JP3063087B2 (en) Audio encoding / decoding device, audio encoding device, and audio decoding device
JP3006790B2 (en) Voice encoding / decoding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130216

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees