JPH06222797A - 音声符号化方式 - Google Patents
音声符号化方式Info
- Publication number
- JPH06222797A JPH06222797A JP5008737A JP873793A JPH06222797A JP H06222797 A JPH06222797 A JP H06222797A JP 5008737 A JP5008737 A JP 5008737A JP 873793 A JP873793 A JP 873793A JP H06222797 A JPH06222797 A JP H06222797A
- Authority
- JP
- Japan
- Prior art keywords
- codebook
- spectrum parameter
- signal
- unit
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/083—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
- G10L19/07—Line spectrum pair [LSP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0002—Codebook adaptations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0004—Design or structure of the codebook
- G10L2019/0005—Multi-stage vector quantisation
Abstract
を得る音声符号化方式。 【構成】音声信号をフレームに分割し、サブフレームに
分割し、サブフレームのスペクトルパラメータ計算部2
00と、スペクトルパラメータを量子化するスペクトル
パラメータ量子化部210と、音声信号から特徴量を計
算してフレーム音声信号のモード分類部245と、スペ
クトルパラメータを用い音声信号に聴感重み付けを施し
た重み付け部230と、モード分類結果と量子化された
スペクトルパラメータと音声信号とを用いて、ピッチ周
期を表わすパラメータを求める適応コードブック部30
0と、重み付け信号と適応コードブック部300の出力
とスペクトルパラメータと量子化されたスペクトルパラ
メータを用い、複数段からなる音源コードブック351
1〜351N とゲインコードブック355とを探索し音
源信号を量子化する音源量子化部350とを有する。
Description
レート、特に4.8kb/s以下のビットレートで高品
質に符号化するための音声符号化方式に関する。
低いビットレートで符号化する方式としては、例えばシ
ュレーダ(M.Schroeder)およびアタル
(B.Atal)による“コード−エキサイテド・リニ
ア・プレディクション:ハイ・クォリティ・スピーチ・
アト・ベリ・ロウ・ビット・レイツ(Code−exc
ited linear prediction:Hi
gh quality speech at very
low bit rates)”、音響、音声および
信号処理に関する国際会議の議事録(Proc.ICA
SSP),1985年937ないし940ページの論文
(文献1)や、クレイジン(Kleijn)らによる
“インプルーブド・スピーチ・クォリティ・アンド・エ
フィシェント・ベクトル・クォンタイゼイション・イン
・エスイーエルピー(Improvedspeech
quality and efficient vec
tor quantization in SEL
P)”、音響、音声および信号処理に関する国際会議の
議事録(Proc.ICASSP),1988年、15
5ないし158ページの論文(文献2)に記載されてい
るCELP(Code Excited LPC Co
ding)方式が知られている。この方式では、送信側
にてフレーム毎(例えば20ms)の音声信号を線形予
測(LPC)分析して音声信号のスペクトル特性を表す
スペクトルパラメータを抽出し、フレームをさらにサブ
フレーム(例えば5ms)に分割してサブフレーム毎に
過去の音源信号をもとに適応コードブックにおけるパラ
メータ(遅延パラメータおよびゲインパラメータ)を抽
出し、適応コードブックによりサブフレームの音声信号
をピッチ予測し、ピッチ予測して求めた残差信号に対し
て、予め定められた種類の雑音信号からなる音源コード
ブック(ベクトル量子化コードブック)から最適音源コ
ードベクトルを選択し最適なゲインを計算する。最適音
源コードベクトルの選択は、選択した雑音信号により合
成した信号と、前述の残差信号との誤差電力を最小化す
るように行う。そして選択された音源コードベクトルの
種類を表すインデクスおよび最適ゲインならびに、前述
のスペクトルパラメータおよび適応コードブックから抽
出したパラメータを伝送する。受信側の説明は省略す
る。
2の従来方式では、良好な音質を得るためには音源コー
ドブックのサイズが十分大きい(例えば10ビット)必
要があった。このため、音源コードブックの探索に膨大
な演算量を必要とした。さらに必要とするメモリ容量も
膨大であり(例えば10ビット40次元の場合には、4
0Kワードのメモリ容量)、ハードウェアをコンパクト
に実現するのが困難であった。また、ビットレートを低
減するためにフレーム長、サブフレーム長を増大し、音
源コードブックのビット数を低減せずに次元数を増大す
ると、演算量はきわめて顕著に増加するという問題点が
ある。
て、例えばジュアング(B.Juang)らによる“マ
ルチプル・ステージ・ベクトル・クォンタイゼイション
・フォア・スピーチ・コーディング(Multiple
Stage vectorquantization
for speech coding)”、音響、音
声および信号処理に関する国際会議の議事録(Pro
c.ICASSP),1982年、597ないし600
ページの論文(文献3)に記載されているように、コー
ドブックを多段に分割して構成し、各コードブックを独
立に探索する多段ベクトル量子化法が知られている。こ
の方法では、コードブックが複数段に分割されているの
で、1段あたりのコードブックのサイズは、例えばB/
Lビット(ここでBは全体のビット数、Lは段数)に低
減されるため、コードブック探索に要する演算量は、L
段全体でも、Bビット1段に比べ、L×2B/L に低減さ
れる。また、コードブック格納に必要なメモリ容量も同
様に低減される。しかし、この方法では、各段のコード
ブックを独立に学習、探索しているので、Bビット1段
に比べ、性能は大きく低下するという問題点がある。
し、比較的少ない演算量及びメモリ容量により、低ビッ
トレート特に4.8kb/s以下のビットレートで音質
の良好な音声符号化方式を提供することにある。
る音声信号をあらかじめ定めたタイミングごとにフレー
ムに分割しさらに複数個のサブフレームに細分割して、
少なくとも一つの前記サブフレームに対して前記音声信
号のスペクトル的特徴を表すスペクトルパラメータを算
出するスペクトルパラメータ計算部と、あらかじめ指定
した位置の前記サブフレームのスペクトルパラメータを
量子化コードブックを用いて量子化するスペクトルパラ
メータ量子化部と、前記音声信号のあらかじめ定められ
た特徴量を計算して前記フレームの音声信号を複数種類
のモードのうちの一つに分類するモード分類部と、前記
スペクトルパラメータ計算部にて得られる前記スペクト
ルパラメータに応じて前記音声信号に聴感重み付けを施
した重み付け信号を求める重み付け部と、前記モード分
類部でのモード分類結果と前記スペクトルパラメータ計
算部にて得られるスペクトルパラメータと前記スペクト
ルパラメータ量子化部にて量子化されたスペクトルパラ
メータと前記重み付け信号とに応じて、そのモードに対
応した前記音声信号のピッチを表わすパラメータを求め
て送出する適応コードブック部と、前記重み付け信号と
前記適応コードブック部の送出パラメータと前記スペク
トルパラメータと前記量子化されたスペクトルパラメー
タとに応じて、複数段からなる音源コードブックとゲイ
ンコードブックとを探索して前記音声信号の音源信号を
量子化した出力信号を発する音源量子化部とを有する。
分割し、さらにサブフレーム(例えば8ms)に分割す
る。スペクトルパラメータ計算部では、少なくとも一つ
のサブフレーム(例えば5つのサブフレームのうち第
1,第3,第5のサブフレーム)に対して、周知のLP
C分析を施してスペクトルパラメータ(LPCパラメー
タ)を求める。スペクトルパラメータ量子化部では、あ
らかじめ定められたサブフレーム(例えば第5サブフレ
ーム)に対応するLPCパラメータを量子化コードブッ
クを用いて量子化する。ここで、コードブックとして
は、ベクトル量子化コードブック、スカラ量子化コード
ブック、ベクトル−スカラ量子化コードブックのいずれ
をも用いることができる。
定められた特徴量を計算し、この値とあらかじめ定めら
れたしきい値とを比較して、フレーム毎に複数種類(例
えば4種類)のモードに分類する。次に、聴感重み付け
部では、第1,第2,第5のサブフレームのスペクトル
パラメータai(i=1ないしP)を用いて、下式
(1)により聴感重み付け信号をサブフレーム毎に計算
する。ただし、第2及び第4サブフレームのスペクトル
パラメータについてはそれぞれ、例えば第1,第3のサ
ブフレーム、及び第3第5のサブフレームのスペクトル
パラメータを直線補間することにより得られる。
れ、フレームの音声信号及び聴感重み付け信号のz変換
である。Pはスペクトルパラメータの次数である。ま
た、γは聴感重み付け量を制御するための定数であり、
通常0.8程度に選ぶ。
付け信号に対して、サブフレーム毎に、ピッチに関する
パラメータとして遅延Tとゲインβを計算する。ここで
遅延はピッチ周期に対応する。適応コードブックのパラ
メータの計算法は、前記文献2を参照できる。また、特
に女性話者に対する適応コードブックの性能を改善する
ために、サブフレーム毎の遅延をサンプリング時刻毎の
整数値ではなくて小数値で表すこともできる。具体的に
は、クルーン(P.Kroon)およびアタル(B.A
tal)による“ピッチ・プレディクターズ・ウィズ・
ハイ・テンポラル・レゾリューション(Pitch p
redictors with high tempo
ral resolution)”、音響、音声および
信号処理に関する国際会議の議事録(Proc.ICA
SSP)1990年、661ないし664ページの論文
(文献4)等を参照することができる。このようにする
ことにより、例えばサブフレーム毎の遅延量を整数値で
表すと7ビット必要であったのが、小数値にすることに
より8ビット程度に増加するが、女性音に関しては著し
く音質が改善される。
計算に関する演算量を低減化するために、まず、聴感重
み付け信号に対して、サブフレーム毎に遅延の候補をオ
ープンループ探索により、下式(2)を最大化するもの
から順に複数種類求める。
オープンループ探索により、少なくとも1種類の遅延候
補を求め、その後、過去のフレームの駆動音源信号を用
いたクローズドループ探索により、サブフレーム毎に、
前記候補の近傍を探索して、ピッチ周期(遅延)とゲイ
ンを求める。(具体的な方法に関しては、例えば特願平
3−103262号(文献5)等を参照) 適応コードブックの遅延量は、有声区間では、サブフレ
ーム間で極めて相関が高いため、サブフレーム間で遅延
量の差分をとり、差分を伝送することにより、適応コー
ドブックの遅延を伝送するために必要な伝送情報量を、
遅延量をサブフレーム毎に独立に伝送する方法に比べ大
幅に低減化することができる。例えば、フレーム毎に第
1サブフレームでは、遅延量を小数値で表して8ビット
で伝送し、第2〜5サブフレームでは、直前サブフレー
ムとの遅延量の差分を例えば3ビットで伝送すれば、全
てのサブフレームで8ビットを伝送する場合に比べ、伝
送情報量をフレーム当たり40ビットから20ビットに
低減化することができる。
ル量子化用のコードブックから構成される音源コードブ
ックを探索し、前述の重み付け信号と音源コードブック
中の各コードベクトルにより重み付け再生された信号と
の誤差電力を最小化するよう、コードベクトルが各段毎
に選択される。例えば音源コードブックが2段のコード
ブックから構成されていると、コードベクトルの探索は
下式(5)に従って行う。
ドブック部のクローズドループ探索において計算された
適応コードベクトルであり、βは適応コードベクトルの
ゲインである。c1j(n)、c2i(n)はそれぞれ、1
段目、2段目のコードブックのj番目のコードベクト
ル、i番目のコードベクトルを表す。また、hw (n)
は下式(6)の重み付けフィルタの特性を表すインパル
ス応答である。また、γ1 ,γ2 はそれぞれ、1段目、
2段目のコードブックに関する最適ゲインである。
御する定数である。
化するコードベクトルを探索した後に、下式(7)を最
小化するようにゲインコードブックを探索する。
ードブックのk番目のゲインコードベクトルを示す。
探索するときの演算量を低減化するために、各段毎に、
複数種類の音源コードベクトルの候補(例えば、1段目
はm1 種類、2段目はm2 種類)を選択し、選択後に、
1段目と2段目の候補の全組み合わせ(m1 ×m2 )を
探索して、式(5)を最小にする候補の組み合わせを選
択してもよい。
は、上記音源コードベクトルの候補の全ての組み合わ
せ、あるいは、組み合わせのうち、誤差電力の小さい順
に、あらかじめ定められた個数だけ選択した候補の組み
合わせに対して、式(7)に従いゲインコードブックを
探索し、誤差電力を最小化するようなゲインコードベク
トルと音源コードベクトルの組み合わせを求めるように
してもよい。このようにすると演算量は増大するが、性
能は改善される。
に記載した実施態様のモード分類部では、特徴量として
累積ピッチ予測歪を用いる。まず、適応コードブック部
のオープンループ探索によりサブフレーム毎に選択され
たピッチ周期候補Tに対して、ピッチ予測歪として、下
式(8)に従いピッチ予測誤差歪をサブフレーム毎に求
める。
て下式(9)によりフレーム全体の累積予測誤差電力を
求め、この値とあらかじめ定められたしきい値とを比較
して、複数種類のモードに分類する。
しきい値を3種類設け、式(9)の値を3種類のしきい
値と比較してモード分類を行う。なお、ピッチ予測歪と
しては、上記以外にピッチ予測ゲイン等を用いることも
できる。
ペクトルパラメータ量子化部では、モード分類部で分類
されたモードのいくつかに対して、トレーニング信号に
対して、あらかじめスペクトル量子化コードブックを作
成しておき、符号化するときはモード情報を用いてスペ
クトル量子化コードブックを切り替えて使用する。この
ようにするとコードブックを格納するメモリ容量は、切
り替える種類だけ増大するが、全体合計ではより大きな
サイズのコードブックを有することと等価となり、伝送
情報量を増大させずに性能を向上させることができる。
源量子化部では、あらかじめトレーニング信号をモード
毎に分類して、あらかじめ定められたモード毎で異なる
音源コードブック、及びゲインコードブックを作成して
おき、符号化するときは、モード情報を用いて、音源コ
ードブック及びゲインコードブックを切り替えて使用す
る。このようにするとコードブックを格納するメモリ容
量は、切り替える種類だけ増大するが、全体合計ではよ
り大きなサイズのコードブックを有することと等価とな
り、伝送情報量を増大させずに性能を向上させることが
できる。
様の音源量子化部では、複数段のコードブックのうちの
少なくとも一つの段は、コードベクトルの要素があらか
じめ定められた間引き率(例えば、間引き率=2)のレ
ギュラーパルス構成となっている。ここで、間引き率=
1とすれば通常の構成になる。このような構成にするこ
とにより、音源コードブックの格納に必要なメモリ量を
1/間引き率、(例えば間引き率=2とすると1/2)
に低減できる。また、音源コードブック探索に必要な演
算量もほぼ、1/間引き率以下に低減化できる。さら
に、音源コードベクトルの要素を間引いてパルス化する
ことにより、特に音声の母音部等では、聴感上重要なピ
ッチパルスをより良好に表すことができるので音質が向
上する。
る。
ク図である。同図において、入力端子100から入力す
る音声信号は、フレーム分割回路110でフレーム(例
えば40ms)毎に分割され、サブフレーム分割回路1
20でさらにフレームよりも短いサブフレーム(例えば
8ms)に分割される。
は、少なくとも一つのサブフレームの音声信号に対し
て、サブフレーム長よりも長い窓(例えば24ms)を
かけて音声を切り出してスペクトラパラメータをあらか
じめ定められた次数(例えば次数P=10)にて計算す
る。スペクトルパラメータは、特に子音、母音間での過
渡区間では時間的に大きく変化するので、短い時間毎に
分析する方が望ましいが、そのようにすると分析に必要
な演算量が増大するため、フレーム中のいずれかL個
(L〉1)のサブフレーム(例えばL=3とし、第1,
3,5サブフレーム)に対してスペクトルパラメータを
計算することにする。そして、分析しなかったサブフレ
ーム(ここでは第2,4サブフレーム)では、それぞ
れ、第1と第3サブフレーム、第3と第5サブフレーム
のスペクトルパラメータを後述のLSP上で直線補間し
たものをスペクトルパラメータとして使用する。ここで
スペクトルパラメータの計算には、周知のLPC分析
や、バーグ(Burg)分析等を用いることができる。
本実施例では、Burg分析を用いる。Burg分析の
詳細については、例えば中溝による“信号解析とシステ
ム同定”と題した単行本(コロナ社、1988年刊)の
82ないし87ページ(文献6)に記載されている。
0では、Burg法により計算された線形予測係数αi
(i=1ないし10)を量子化や補間に適した線スペク
トル対(LSP)パラメータに変換する。ここで、線形
予測係数からLSPへの変換法は、例えば菅村らによる
“線スペクトル対(LSP)音声分析合成方式による音
声情報圧縮”と題した論文(電子通信学会論文誌、J6
4−A、599ないし606ページ、1981年)(文
献7)を利用する。つまり、第1,3,5サブフレーム
でBurg法により求めた線形予測係数を、LSPパラ
メータに変換し、第2,4サブフレームのLSPを直線
補間により求めて、第2,4サブフレームのLSPを逆
変換して線形予測係数に戻し、第1ないし5サブフレー
ムの線形予測係数αil(i=1ないし10,l=1ない
し5)を聴感重み付け回路230に出力する。また、第
1ないし第5サブフレームのLSPをスペクトルパラメ
ータ量子化回路210へ出力する。
は、あらかじめ定められたサブフレームのLSPパラメ
ータを効率的に量子化する。本実施例では、量子化法と
して、ベクトル量子化を用い、第5サブフレームのLS
Pパラメータを量子化する。LSPパラメータのベクト
ル量子化の手法は周知の手法を用いることができる。
(例えば特願平2−297600号(文献8)や特願平
3−261925号(文献9)、特願平3−15504
9号(文献10)等を参照)さらに、スペクトルパラメ
ータ量子化部210では、第5サブフレームで量子化し
たLSPパラメータをもとに、第1ないし第4サブフレ
ームのLSPパラメータを復元する。本実施例では、現
フレームの第5サブフレームの量子化LSPパラメータ
と1つ過去のフレームの第5サブフレームの量子化LS
Pを直線補間して、第1ないし第4サブフレームのLS
Pを復元する。つまり、量子化前のLSPと量子化後の
LSPとの誤差電力を最小化するコードベクトルを1種
類選択した後に、直線補間により第1ないし第4サブフ
レームのLSPを復元できる。さらに性能を向上させる
ためには、前記誤差電力を最小化するコードベクトルを
複数候補選択したのちに、各々の候補について、下式
(10)による累積歪を評価し、累積歪を最小化する候
補と補間LSPの組を選択するようにすれば良い。
れ、第1サブフレームの量子化前のLSP,量子化後復
元した第1サブフレームのLSPである。また、b
ilは、第1サブフレームの量子化前のLSPに対して下
式(11)を適用して求めた重み係数である。
えば下式(12)を用いて求めることができる。
Pと第5サブフレームの量子化LSPをサブフレーム毎
に線形予測係数α’il(i=1ないし10,l=1ない
し5)に変換し、インパルス応答計算回路310へ出力
する。また、第5サブフレームの量子化LSPのコード
ベクトルを表すインデクスをマルチプレクサ400に出
力する。
に、LSPの保管パターンをあらかじめ定められたビッ
ト数(例えば2ビット)分用意しておき、これらのパタ
ーンの各々に対して第1ないし第4サブフレームのLS
Pを復元して式(10)を評価し、式(10)を最小化
するコードベクトルと補間パターンの組を選択するよう
にしても良い。このようにすると保管パターンのビット
数だけ伝送情報が増加するが、LSPのフレーム内での
時間的な変化をより精密に表すことができる。ここで、
保管パターンは、トレーニング用のLSPデータを用い
てあらかじめ学習して作成しても良いし、あらかじめ定
められたパターンを格納しておいても良い。
行うための特徴量として、スペクトルパラメータの予測
誤差電力を用いる。スペクトルパラメータ計算回路20
0により計算された線形予測係数を5サブフレーム分入
力し、Kパラメータに変換し、下式(13)により5サ
ブフレーム分の累積予測誤差電力Eを計算する。
号のパワである。次にEの値をあらかじめ定められたし
きい値と比較して、複数種類のモードに分類する。例え
ば4種類のモードに分類するときは、3種類のしきい値
と比較することにより行う。分類して得られたモード情
報は適応コードブック回路300へ出力されると共に、
モード情報を表すインデクス(4種類のモード情報のと
きは2ビット)がマルチプレクサ400へ出力される。
ータ計算回路200から、各サブフレーム毎に線形予測
係数αil(i=1ないし10,l=1ないし5)を入力
し、式(1)にもとづき、サブフレームの音声信号に対
して聴感重み付けを行い、聴感重み付け信号を出力す
る。
ラメータ計算回路200から、各サブフレーム毎に線形
予測係数αilを入力し、スペクトルパラメータ量子化回
路210から、量子化、補間して復元した線形予測係数
α’ilをサブフレーム毎に入力し、保存されているフィ
ルタメモリの値を用いて、入力信号d(n)=0とした
応答信号を1サブフレーム分計算し、減算器250へ出
力する。ここで、応答信号xz (n)は下式(15)で
表される。
ある。
け信号から応答信号を1サブフレーム分減算し、xw ’
(n)を適応コードブック回路300へ出力する。
れる重み付けフィルタのインパルス応答hw (n)をあ
らかじめ定められた点数Lだけ計算し、適応コードブッ
ク回路300、音源量子化回路350へ出力する。
類回路からのモード情報を入力し、あらかじめ定められ
たモードのときにのみピッチパラメータを求める。ここ
では、モードは4モードあり、モード分類のときのしき
い値がモード0からモード3になるにつれて大きくなっ
ているとすると、モード0は子音部、モード1ないし3
は母音部に対応すると考えられるので、適応コードブッ
ク回路300は、モード1ないし3に対してのみピッチ
パラメータを求めることにする。まず、オープンループ
探索において、聴感重み付け回路230の出力信号に対
して、サブフレーム毎に式(2)を最大化する整数遅延
候補を複数種類(例えばM種類)選択する。さらに、遅
延の短い領域では(例えば遅延が20ないし80)、候
補の各々に対して前記文献4等の手法を用いて、整数遅
延の近傍において、複数種類の小数遅延候補を求め、最
終的に前記式(2)を最大化する小数遅延候補をサブフ
レーム毎に少なくとも1種類選択する。以下では、簡単
のために候補数は1種類とし、サブフレーム毎に1種類
選択された遅延をdl (l=1ないし5)とする。次
に、クローズドループ探索において、過去のフレームの
駆動音源信号v(n)をもとに、サブフレーム毎に、d
l のあらかじめ定められた近傍の数点εに対して下式
(18)を評価し、その値を最大化する遅延をサブフレ
ーム毎に求め、遅延を表すインデクスId をマルチプレ
クサに出力する。探索法の詳細については、文献5等を
参照できる。また、下式(21)により適応コードベク
トルを計算し、音源量子化回路350に出力する。
回路の出力である。
ード1ないし3)では、サブフレーム間で遅延の差分を
とり、差分を伝送することもできる。このような構成の
場合、例えばフレームの第1サブフレームでは、小数遅
延で8ビット伝送し、第2〜5サブフレームでは前のサ
ブフレームとの遅延の差分を例えばサブフレーム当たり
3ビットで伝送することができる。またオープンループ
遅延探索のときに、第2〜5サブフレームでは、前のフ
レームの遅延の近傍値を3ビット分探索することとし、
さらに各サブフレーム毎に遅延の候補を選択するのでは
なく、遅延候補の5サブフレーム分のパスに対して5サ
ブフレーム分累積の誤差電力を求め、これを最小化する
遅延候補のパスを求め、クローズドループ探索に出力す
る。クローズドループ探索では、前のサブフレームでク
ローズドループ探索により得られた遅延値の近傍を3ビ
ット分探索して最終的な遅延値を求め、求めたサブフレ
ーム毎の遅延値に対応するインデクスをマルチプレクサ
400に出力する。
出力信号、適応コードブック回路300の出力信号、イ
ンパルス応答計算回路310の出力信号を入力し、ま
ず、複数段からなるベクトル量子化コードブックの探索
を行う。図1では複数種類のベクトル量子化コードブッ
クを音源コードブック3511 〜351N として表して
いる。以下では簡単のために、段数は2とする。各段の
コードベクトルの探索は、式(5)を修正した下式(2
3)に従う。
力信号である。なお、モード0では適応コードブックを
使用しないため、式(23)の代わりに、下式(24)
を最小化するコードベクトルを探索する。
段目のコードベクトルの探索法は種々あるが、ここでは
1段目、2段目から複数種類の候補を選択し、その後
に、両候補の組み合わせ探索を行い、式(23)の歪を
最小化する候補の組み合わせを決定する。また、1段
目、2段目のベクトル量子化コードブックは、前述の探
索法を考慮して、あらかじめ多量の音声データベースを
用いて設計しておく。以上により決定された1段目,2
段目のコードベクトルのインデクスIc1,Ic2を出力す
る。
ードブックの探索も行う。図1ではゲインコードブック
は355として表されている。ゲインコードブックは、
適応コードブックを使用するモード1ないし3では、音
源コードブックの決定されたインデクスを用いて下式
(25)を最小化するように探索する。
1段目,2段目の音源コードベクトルのゲインを3次元
のゲインコードブックを使用して量子化することとす
る。ここで、(βk ,γ1k,γ2k)はそのk番目のコー
ドベクトルである。式(25)を最小化するには、例え
ば、全てのゲインコードベクトル(k=0ないし2B −
1)に対して式(25)を最小化するゲインコードベク
トルを求めてもよいし、ゲインコードベクトルの候補を
複数種類予備選択しておき、その複数種類のなかから、
式(25)を最小化するものを選択しても良い。ゲイン
コードベクトル決定後、選択されたゲインコードベクト
ルを示すインデクスIg を出力する。一方、適応コード
ブックを用いないモードでは、下式(26)を最小化す
るようにゲインコードブックを探索する。ここでは2次
元のゲインコードブックを使用する。
ルパラメータ計算回路の出力パラメータ及び、それぞれ
のインデクスを入力し、インデクスからそれに対応する
コードベクトルを読みだし、まず下式にもとづき駆動音
源信号v(n)を求める。
β’=0とする。次に、スペクトルパラメータ計算回路
200の出力パラメータ、スペクトルパラメータ量子化
回路210の出力パラメータを用いて下式(28)によ
り、重み付け信号sw (n)をサブフレーム毎に計算
し、応答信号計算回路240へ出力する。
を終える。
ク図である。本実施例は、モード分類回路410に関す
るものであり、図1の実施例と同一の参照符号を付した
構成要素は、図1の場合と同じ動作を行うので説明を省
略する。
プンループ計算回路421は、前述の式(2)および
(3)にもとづき、サブフレーム毎に、遅延の候補を少
なくとも1種類求め、クローズドループ計算回路422
に出力する。さらに、式(29)のピッチ予測誤差電力
をサブフレーム1毎に計算する。
力する。
ド情報、オープンループ計算回路421からサブフレー
ム毎に少なくとも1種類の遅延候補、聴感重み付け信号
を入力し、第1の実施例の適応コードブック回路300
におけるクローズドループ探索部と同一の動作を行う。
い、特徴量として、累積ピッチ予測誤差電力EG を求
め、これを複数種類のしきい値と比較し、モードを分類
し、モード情報を出力する。
ク図である。図3において、図1と同一の参照符号を付
した構成要素は、図1と同一の動作を行うので、説明は
省略する。図3において、スペクトルパラメータ量子化
回路450は、スペクトルパラメータ量子化用に複数種
類の量子化コードブック4510 〜451M-1 を有して
おり、モード情報分類回路250からモード情報を入力
し、あらかじめ定められたモード毎に4510 〜451
M-1 を切り替えて使用する。
N は、あらかじめ、トレーニング用の多量のスペクトル
パラメータをモードに分類しておき、あらかじめ定めら
れたモード毎に量子化コードブックを設計しておけばよ
い。このような構成をとることにより、量子化スペクト
ルパラメータのインデクスの伝送情報量、コードブック
探索の演算量を図1と同一に保ちながら、コードブック
サイズが数倍になったこととほぼ等価となるので、スペ
クトルパラメータ量子化の性能を大幅に改善できる。
る。
ク図である。。図4において、図1と同一の参照符号を
付した構成要素は、図1と同一の動作を行うので、説明
は省略する。図4において、音源量子化回路470は、
N段(N〉1)のベクトル量子化コードブック47110
〜4711NをMセット(M〉1)、及びゲインコードブ
ック481を4810 〜481M-1 までMセット有して
おり、47110〜471NM-1(合計N×M種類)のベク
トル量子化コードブックを有している。モード分類回路
250からのモード情報を用いて、あらかじめ定められ
たモードのときに、Mセットのうちのあらかじめ定めら
れたj番目のセットにおけるN段のベクトル量子化コー
ドブックを選択し、あらかじめ定められたj番目のセッ
トにおけるゲインコードブックを選択して音源信号の量
子化を行う。
設計するときは、あらかじめ多量の音声データベースを
モード毎に分類しておき、前述の方法を用いて、あらか
じめ定められたモード毎にコードブックを設計すれば良
い。これらにより、音源コードブック、ゲインコードブ
ックのインデクスの伝送情報量、音現コードブック探索
の演算量を図1と同一に保ちながら、コードブックサイ
ズがM倍になったこととほぼ等価となるので、音源量子
化の性能を大幅に改善できる。
段のコードブック3511 〜351N を有し、そのうち
の少なくとも1段が、図5に示すような、あらかじめ定
められた間引き率のレギュラーパルス構成となってい
る。図5では、間引き率m=2の例を示す。レギュラー
パルス構成にすると、振巾が零の位置では演算処理が不
要なのでコードブック探索に必要な演算量を約1/mに
低減化することができる。また、コードブックを格納す
るのに必要なメモリ量も振巾が零の位置では格納する必
要がないので、約1/mに低減化できる。レギュラーパ
ルス構成の詳細については、デルプラト(M.Delp
rat)らの“ア・6kbps.レギュラー・パルス・
シーイーエルピー・コーダ・フォア・モビル・ラジオ・
コミュニケーションズ(A 6kbps regula
r pulse CELP coder for mo
bile radio communication
s)”(アタル(Atal)編、Kluwer Aca
demic Publishers,1990年、17
9ないし188ページ)と題した論文(文献11)等を
参照できるので、ここでは説明を省略する。レギュラー
パルス構成のコードブックも前述の方法により、あらか
じめ学習しておく。
のパターンとして表現してコードブックを設計し、符号
化時は、位相だけ時間的にずらして使用することによ
り、m=2のときは、メモリ量、演算量をさらに1/2
に低減化できる。
ギュラーパルス構成以外にも、マルチパルスの構成をと
ることもできる。
終了する。
実施例以外にも種々の変形が可能である。
にも他の周知なパラメータを用いることができる。
は、フレーム中で少なくとも1つのサブフレームでスペ
クトルパラメータを計算するときに、前のサブフレーム
と現在のサブフレームとのRMSの変化あるいはパワの
変化を測定し、これらの変化が大きな複数個のサブフレ
ームに対してスペクトルパラメータを計算するようにし
てもよい。このようにすると、音声の変化点では必ずス
ペクトルパラメータを分析することになり、分析するサ
ブフレーム数を低減しても性能の劣化を防ぐことができ
る。
トル量子化、スカラ量子化、ベクトル−スカラ量子化な
ど周知な方法を用いることができる。
補間パターンの選択には、式(10)以外にも他の周知
な距離尺度を用いることができる。例えば、下式(3
1)を用いることもできる。
Sもしくはパワである。
3)〜(26)で、ゲインγ1 とγ2を同一とすること
もできる。このときは、ゲインコードブックは適応コー
ドブックを用いるモードでは、2次元ゲインとなり、適
応コードブックを用いないモードでは1次元ゲインとな
る。また、モード毎に、音源コードブックの段数、ある
いは各段の音源コードブックのビット数、ゲインコード
ブックのビット数を変えることもできる。例えば、モー
ド0は3段で、モード1ないし3は2段とすることもで
きる。
ば、2段構成のときに、1段目コードベクトルに対応さ
せて2段目のコードブックを設計しておき、1段目で選
択されたコードベクトルに応じて2段目で探索するコー
ドブックを切り替えるようにすると、メモリ量は増大す
るが、性能はさらに改善される。
学習のときの距離尺度は、他の周知な尺度を用いること
もできる。
数よりも全体で数倍大きなのサイズのコードブックをあ
らかじめ学習し、あらかじめ定められたモード毎に前記
コードブックの一部の領域を使用領域としてアサインし
ておき、符号化するときは、モードに応じて使用領域を
切り替えて使用することもできる。
びに音源量子化回路での探索には、それぞれ、式(1
9)〜(21)、式(23)〜(26)のように、イン
パルス応答hw (n)を用いて畳み込み演算を行ってい
るが、これは、伝達特性が式(6)で表されるような重
み付けフィルタを用いてフィルタリング演算により行う
こともできる。このようにすると、演算量は増大する
が、性能はさらに向上する。
の特徴量を用いて音声をモードに分類し、モードにより
スペクトルパラメータの量子化の方法、適応コードブッ
クの動作、音源量子化の方法を切り替えているので、従
来方式と比較してより低いビットレートでも良好な音質
が得られる。
スを例示する信号タイミング図である。
ードブック 355,4810 〜481M-1 ゲインコードブック 400 マルチプレクサ 421 オープンループ計算回路 422 クローズドループ計算回路
Claims (5)
- 【請求項1】 入力する音声信号をあらかじめ定めたタ
イミングごとにフレームに分割しさらに複数個のサブフ
レームに細分割して、少なくとも一つの前記サブフレー
ムに対して前記音声信号のスペクトル的特徴を表すスペ
クトルパラメータを算出するスペクトルパラメータ計算
部と、あらかじめ指定した位置の前記サブフレームのス
ペクトルパラメータを量子化コードブックを用いて量子
化するスペクトルパラメータ量子化部と、前記音声信号
のあらかじめ定められた特徴量を計算して前記フレーム
の音声信号を複数種類のモードのうちの一つに分類する
モード分類部と、前記スペクトルパラメータ計算部にて
得られる前記スペクトルパラメータに応じて前記音声信
号に聴感重み付けを施した重み付け信号を求める重み付
け部と、前記モード分類部でのモード分類結果と前記ス
ペクトルパラメータ計算部にて得られるスペクトルパラ
メータと前記スペクトルパラメータ量子化部にて量子化
されたスペクトルパラメータと前記重み付け信号とに応
じて、そのモードに対応した前記音声信号のピッチを表
わすパラメータを求めて送出する適応コードブック部
と、前記重み付け信号と前記適応コードブック部の送出
パラメータと前記スペクトルパラメータと前記量子化さ
れたスペクトルパラメータとに応じて、複数段からなる
音源コードブックとゲインコードブックとを探索して前
記音声信号の音源信号を量子化した出力信号を発する音
源量子化部とを有することを特徴とする音声符号化方
式。 - 【請求項2】 前記モード分類部は、前記重み付け部に
て得る前記重み付け信号からサブフレーム毎にピッチ予
測による歪を求め、そのピッチ予測歪をフレーム全体に
わたり累積した値を特徴量として用いてモード分類を行
う請求項1記載の音声符号化方式。 - 【請求項3】 前記スペクトルパラメータ量子化部は、
前記モード分類部におけるモード分類結果に応じて複数
段の前記量子化コードブックを切り替えてスペクトルパ
ラメータを量子化する請求項1記載の音声符号化方式。 - 【請求項4】 前記音源量子化部は、前記モード分類部
におけるモード分類結果に応じて複数段の前記音源コー
ドブックと前記ゲインコードブックとを切り替えて前記
音源信号を量子化する請求項1記載の音声符号化方式。 - 【請求項5】 前記音源量子化部は、複数段の前記音源
コードブックのうち、少なくとも一つの段があらかじめ
定められた間引き率のコードブックから構成されている
請求項1記載の音声符号化方式。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5008737A JP2746039B2 (ja) | 1993-01-22 | 1993-01-22 | 音声符号化方式 |
AU53913/94A AU666599B2 (en) | 1993-01-22 | 1994-01-20 | Voice coder system |
DE69420431T DE69420431T2 (de) | 1993-01-22 | 1994-01-21 | Sprachkodierungssystem |
EP94100875A EP0607989B1 (en) | 1993-01-22 | 1994-01-21 | Voice coder system |
CA002113928A CA2113928C (en) | 1993-01-22 | 1994-01-21 | Voice coder system |
US08/710,341 US5737484A (en) | 1993-01-22 | 1996-02-29 | Multistage low bit-rate CELP speech coder with switching code books depending on degree of pitch periodicity |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5008737A JP2746039B2 (ja) | 1993-01-22 | 1993-01-22 | 音声符号化方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06222797A true JPH06222797A (ja) | 1994-08-12 |
JP2746039B2 JP2746039B2 (ja) | 1998-04-28 |
Family
ID=11701269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5008737A Expired - Lifetime JP2746039B2 (ja) | 1993-01-22 | 1993-01-22 | 音声符号化方式 |
Country Status (6)
Country | Link |
---|---|
US (1) | US5737484A (ja) |
EP (1) | EP0607989B1 (ja) |
JP (1) | JP2746039B2 (ja) |
AU (1) | AU666599B2 (ja) |
CA (1) | CA2113928C (ja) |
DE (1) | DE69420431T2 (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0696793A2 (en) | 1994-08-11 | 1996-02-14 | Nec Corporation | A speech coder |
JPH08292797A (ja) * | 1995-04-20 | 1996-11-05 | Nec Corp | 音声符号化装置 |
JPH0990995A (ja) * | 1995-09-27 | 1997-04-04 | Nec Corp | 音声符号化装置 |
US5778334A (en) * | 1994-08-02 | 1998-07-07 | Nec Corporation | Speech coders with speech-mode dependent pitch lag code allocation patterns minimizing pitch predictive distortion |
US5809459A (en) * | 1996-05-21 | 1998-09-15 | Motorola, Inc. | Method and apparatus for speech excitation waveform coding using multiple error waveforms |
US5848387A (en) * | 1995-10-26 | 1998-12-08 | Sony Corporation | Perceptual speech coding using prediction residuals, having harmonic magnitude codebook for voiced and waveform codebook for unvoiced frames |
US5884252A (en) * | 1995-05-31 | 1999-03-16 | Nec Corporation | Method of and apparatus for coding speech signal |
WO2000003385A1 (fr) * | 1998-07-13 | 2000-01-20 | Nec Corporation | Codeur/decodeur vocal |
WO2002045078A1 (en) * | 2000-11-30 | 2002-06-06 | Matsushita Electric Industrial Co., Ltd. | Audio decoder and audio decoding method |
US6581031B1 (en) | 1998-11-27 | 2003-06-17 | Nec Corporation | Speech encoding method and speech encoding system |
US6973424B1 (en) | 1998-06-30 | 2005-12-06 | Nec Corporation | Voice coder |
US6978235B1 (en) | 1998-05-11 | 2005-12-20 | Nec Corporation | Speech coding apparatus and speech decoding apparatus |
WO2006035810A1 (ja) * | 2004-09-30 | 2006-04-06 | Matsushita Electric Industrial Co., Ltd. | スケーラブル符号化装置、スケーラブル復号装置、及びこれらの方法 |
US7110943B1 (en) | 1998-06-09 | 2006-09-19 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus and speech decoding apparatus |
JP2007241297A (ja) * | 2007-03-27 | 2007-09-20 | Matsushita Electric Ind Co Ltd | 音声符号化装置 |
US7680669B2 (en) | 2001-03-07 | 2010-03-16 | Nec Corporation | Sound encoding apparatus and method, and sound decoding apparatus and method |
JP5230444B2 (ja) * | 2006-12-15 | 2013-07-10 | パナソニック株式会社 | 適応音源ベクトル量子化装置および適応音源ベクトル量子化方法 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5751903A (en) * | 1994-12-19 | 1998-05-12 | Hughes Electronics | Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset |
JPH08179796A (ja) * | 1994-12-21 | 1996-07-12 | Sony Corp | 音声符号化方法 |
EP0723258B1 (en) * | 1995-01-17 | 2000-07-05 | Nec Corporation | Speech encoder with features extracted from current and previous frames |
SE508788C2 (sv) * | 1995-04-12 | 1998-11-02 | Ericsson Telefon Ab L M | Förfarande att bestämma positionerna inom en talram för excitationspulser |
TW419645B (en) * | 1996-05-24 | 2001-01-21 | Koninkl Philips Electronics Nv | A method for coding Human speech and an apparatus for reproducing human speech so coded |
JP3335841B2 (ja) * | 1996-05-27 | 2002-10-21 | 日本電気株式会社 | 信号符号化装置 |
CA2258183A1 (en) * | 1996-07-17 | 1998-01-29 | Universite De Sherbrooke | Enhanced encoding of dtmf and other signalling tones |
CA2213909C (en) * | 1996-08-26 | 2002-01-22 | Nec Corporation | High quality speech coder at low bit rates |
US6032113A (en) * | 1996-10-02 | 2000-02-29 | Aura Systems, Inc. | N-stage predictive feedback-based compression and decompression of spectra of stochastic data using convergent incomplete autoregressive models |
US6516299B1 (en) | 1996-12-20 | 2003-02-04 | Qwest Communication International, Inc. | Method, system and product for modifying the dynamic range of encoded audio signals |
US6463405B1 (en) | 1996-12-20 | 2002-10-08 | Eliot M. Case | Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband |
US6477496B1 (en) | 1996-12-20 | 2002-11-05 | Eliot M. Case | Signal synthesis by decoding subband scale factors from one audio signal and subband samples from different one |
US5864820A (en) * | 1996-12-20 | 1999-01-26 | U S West, Inc. | Method, system and product for mixing of encoded audio signals |
US6782365B1 (en) | 1996-12-20 | 2004-08-24 | Qwest Communications International Inc. | Graphic interface system and product for editing encoded audio data |
US5864813A (en) * | 1996-12-20 | 1999-01-26 | U S West, Inc. | Method, system and product for harmonic enhancement of encoded audio signals |
US5845251A (en) * | 1996-12-20 | 1998-12-01 | U S West, Inc. | Method, system and product for modifying the bandwidth of subband encoded audio data |
US6148282A (en) * | 1997-01-02 | 2000-11-14 | Texas Instruments Incorporated | Multimodal code-excited linear prediction (CELP) coder and method using peakiness measure |
US7024355B2 (en) * | 1997-01-27 | 2006-04-04 | Nec Corporation | Speech coder/decoder |
WO1998035341A2 (en) * | 1997-02-10 | 1998-08-13 | Koninklijke Philips Electronics N.V. | Transmission system for transmitting speech signals |
CA2233896C (en) * | 1997-04-09 | 2002-11-19 | Kazunori Ozawa | Signal coding system |
US6138092A (en) * | 1998-07-13 | 2000-10-24 | Lockheed Martin Corporation | CELP speech synthesizer with epoch-adaptive harmonic generator for pitch harmonics below voicing cutoff frequency |
US6148283A (en) * | 1998-09-23 | 2000-11-14 | Qualcomm Inc. | Method and apparatus using multi-path multi-stage vector quantizer |
US6681203B1 (en) * | 1999-02-26 | 2004-01-20 | Lucent Technologies Inc. | Coupled error code protection for multi-mode vocoders |
US7315815B1 (en) * | 1999-09-22 | 2008-01-01 | Microsoft Corporation | LPC-harmonic vocoder with superframe structure |
US6782360B1 (en) | 1999-09-22 | 2004-08-24 | Mindspeed Technologies, Inc. | Gain quantization for a CELP speech coder |
CA2476969A1 (en) * | 2002-02-22 | 2003-08-28 | Le Berger Du Savoir Inc. | A connector for optic fibres |
FI118834B (fi) * | 2004-02-23 | 2008-03-31 | Nokia Corp | Audiosignaalien luokittelu |
FI118835B (fi) * | 2004-02-23 | 2008-03-31 | Nokia Corp | Koodausmallin valinta |
US7668712B2 (en) * | 2004-03-31 | 2010-02-23 | Microsoft Corporation | Audio encoding and decoding with intra frames and adaptive forward error correction |
BRPI0515453A (pt) * | 2004-09-17 | 2008-07-22 | Matsushita Electric Ind Co Ltd | aparelho de codificação escalável, aparelho de decodificação escalável, método de codificação escalável método de decodificação escalável, aparelho de terminal de comunicação, e aparelho de estação de base |
JP2006145712A (ja) * | 2004-11-18 | 2006-06-08 | Pioneer Electronic Corp | オーディオデータ補間装置 |
US7831421B2 (en) * | 2005-05-31 | 2010-11-09 | Microsoft Corporation | Robust decoder |
US7707034B2 (en) * | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
US7177804B2 (en) * | 2005-05-31 | 2007-02-13 | Microsoft Corporation | Sub-band voice codec with multi-stage codebooks and redundant coding |
US8032369B2 (en) * | 2006-01-20 | 2011-10-04 | Qualcomm Incorporated | Arbitrary average data rates for variable rate coders |
US8090573B2 (en) * | 2006-01-20 | 2012-01-03 | Qualcomm Incorporated | Selection of encoding modes and/or encoding rates for speech compression with open loop re-decision |
US8346544B2 (en) * | 2006-01-20 | 2013-01-01 | Qualcomm Incorporated | Selection of encoding modes and/or encoding rates for speech compression with closed loop re-decision |
US8200483B2 (en) | 2006-12-15 | 2012-06-12 | Panasonic Corporation | Adaptive sound source vector quantization device, adaptive sound source vector inverse quantization device, and method thereof |
US7628530B2 (en) * | 2007-03-14 | 2009-12-08 | Nike, Inc. | Watch casing construction incorporating watch band lugs |
US20110026581A1 (en) * | 2007-10-16 | 2011-02-03 | Nokia Corporation | Scalable Coding with Partial Eror Protection |
JP5404418B2 (ja) * | 2007-12-21 | 2014-01-29 | パナソニック株式会社 | 符号化装置、復号装置および符号化方法 |
CA2759914A1 (en) * | 2009-05-29 | 2010-12-02 | Nippon Telegraph And Telephone Corporation | Encoding device, decoding device, encoding method, decoding method and program therefor |
KR101747917B1 (ko) | 2010-10-18 | 2017-06-15 | 삼성전자주식회사 | 선형 예측 계수를 양자화하기 위한 저복잡도를 가지는 가중치 함수 결정 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0451199A (ja) * | 1990-06-18 | 1992-02-19 | Fujitsu Ltd | 音声符号化・復号化方式 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2626223B2 (ja) * | 1990-09-26 | 1997-07-02 | 日本電気株式会社 | 音声符号化装置 |
US5271089A (en) * | 1990-11-02 | 1993-12-14 | Nec Corporation | Speech parameter encoding method capable of transmitting a spectrum parameter at a reduced number of bits |
JP3151874B2 (ja) * | 1991-02-26 | 2001-04-03 | 日本電気株式会社 | 音声パラメータ符号化方式および装置 |
JP3254687B2 (ja) * | 1991-02-26 | 2002-02-12 | 日本電気株式会社 | 音声符号化方式 |
JP3143956B2 (ja) * | 1991-06-27 | 2001-03-07 | 日本電気株式会社 | 音声パラメータ符号化方式 |
-
1993
- 1993-01-22 JP JP5008737A patent/JP2746039B2/ja not_active Expired - Lifetime
-
1994
- 1994-01-20 AU AU53913/94A patent/AU666599B2/en not_active Ceased
- 1994-01-21 CA CA002113928A patent/CA2113928C/en not_active Expired - Fee Related
- 1994-01-21 EP EP94100875A patent/EP0607989B1/en not_active Expired - Lifetime
- 1994-01-21 DE DE69420431T patent/DE69420431T2/de not_active Expired - Lifetime
-
1996
- 1996-02-29 US US08/710,341 patent/US5737484A/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0451199A (ja) * | 1990-06-18 | 1992-02-19 | Fujitsu Ltd | 音声符号化・復号化方式 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5778334A (en) * | 1994-08-02 | 1998-07-07 | Nec Corporation | Speech coders with speech-mode dependent pitch lag code allocation patterns minimizing pitch predictive distortion |
EP0696793A2 (en) | 1994-08-11 | 1996-02-14 | Nec Corporation | A speech coder |
US5774840A (en) * | 1994-08-11 | 1998-06-30 | Nec Corporation | Speech coder using a non-uniform pulse type sparse excitation codebook |
JPH08292797A (ja) * | 1995-04-20 | 1996-11-05 | Nec Corp | 音声符号化装置 |
US6006177A (en) * | 1995-04-20 | 1999-12-21 | Nec Corporation | Apparatus for transmitting synthesized speech with high quality at a low bit rate |
US5884252A (en) * | 1995-05-31 | 1999-03-16 | Nec Corporation | Method of and apparatus for coding speech signal |
US5826226A (en) * | 1995-09-27 | 1998-10-20 | Nec Corporation | Speech coding apparatus having amplitude information set to correspond with position information |
JPH0990995A (ja) * | 1995-09-27 | 1997-04-04 | Nec Corp | 音声符号化装置 |
US5848387A (en) * | 1995-10-26 | 1998-12-08 | Sony Corporation | Perceptual speech coding using prediction residuals, having harmonic magnitude codebook for voiced and waveform codebook for unvoiced frames |
US5809459A (en) * | 1996-05-21 | 1998-09-15 | Motorola, Inc. | Method and apparatus for speech excitation waveform coding using multiple error waveforms |
US6978235B1 (en) | 1998-05-11 | 2005-12-20 | Nec Corporation | Speech coding apparatus and speech decoding apparatus |
US7398206B2 (en) | 1998-06-09 | 2008-07-08 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus and speech decoding apparatus |
US7110943B1 (en) | 1998-06-09 | 2006-09-19 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus and speech decoding apparatus |
US6973424B1 (en) | 1998-06-30 | 2005-12-06 | Nec Corporation | Voice coder |
WO2000003385A1 (fr) * | 1998-07-13 | 2000-01-20 | Nec Corporation | Codeur/decodeur vocal |
US6856955B1 (en) | 1998-07-13 | 2005-02-15 | Nec Corporation | Voice encoding/decoding device |
US6581031B1 (en) | 1998-11-27 | 2003-06-17 | Nec Corporation | Speech encoding method and speech encoding system |
WO2002045078A1 (en) * | 2000-11-30 | 2002-06-06 | Matsushita Electric Industrial Co., Ltd. | Audio decoder and audio decoding method |
US7478042B2 (en) | 2000-11-30 | 2009-01-13 | Panasonic Corporation | Speech decoder that detects stationary noise signal regions |
US7680669B2 (en) | 2001-03-07 | 2010-03-16 | Nec Corporation | Sound encoding apparatus and method, and sound decoding apparatus and method |
WO2006035810A1 (ja) * | 2004-09-30 | 2006-04-06 | Matsushita Electric Industrial Co., Ltd. | スケーラブル符号化装置、スケーラブル復号装置、及びこれらの方法 |
US7904292B2 (en) | 2004-09-30 | 2011-03-08 | Panasonic Corporation | Scalable encoding device, scalable decoding device, and method thereof |
JP5230444B2 (ja) * | 2006-12-15 | 2013-07-10 | パナソニック株式会社 | 適応音源ベクトル量子化装置および適応音源ベクトル量子化方法 |
JP2007241297A (ja) * | 2007-03-27 | 2007-09-20 | Matsushita Electric Ind Co Ltd | 音声符号化装置 |
JP4525694B2 (ja) * | 2007-03-27 | 2010-08-18 | パナソニック株式会社 | 音声符号化装置 |
Also Published As
Publication number | Publication date |
---|---|
AU5391394A (en) | 1994-07-28 |
CA2113928A1 (en) | 1994-07-23 |
DE69420431D1 (de) | 1999-10-14 |
AU666599B2 (en) | 1996-02-15 |
DE69420431T2 (de) | 2000-07-13 |
CA2113928C (en) | 1998-08-18 |
EP0607989A3 (en) | 1994-09-21 |
JP2746039B2 (ja) | 1998-04-28 |
EP0607989B1 (en) | 1999-09-08 |
EP0607989A2 (en) | 1994-07-27 |
US5737484A (en) | 1998-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2746039B2 (ja) | 音声符号化方式 | |
JP3196595B2 (ja) | 音声符号化装置 | |
JP3094908B2 (ja) | 音声符号化装置 | |
JPH056199A (ja) | 音声パラメータ符号化方式 | |
JP2800618B2 (ja) | 音声パラメータ符号化方式 | |
JP2624130B2 (ja) | 音声符号化方式 | |
JP2002268686A (ja) | 音声符号化装置及び音声復号化装置 | |
JPH0944195A (ja) | 音声符号化装置 | |
JP3353852B2 (ja) | 音声の符号化方法 | |
JP3148778B2 (ja) | 音声の符号化方法 | |
JPH08328597A (ja) | 音声符号化装置 | |
JPH0854898A (ja) | 音声符号化装置 | |
JP3153075B2 (ja) | 音声符号化装置 | |
JP3003531B2 (ja) | 音声符号化装置 | |
JP3299099B2 (ja) | 音声符号化装置 | |
JP3144284B2 (ja) | 音声符号化装置 | |
JP3319396B2 (ja) | 音声符号化装置ならびに音声符号化復号化装置 | |
JP3192051B2 (ja) | 音声符号化装置 | |
JPH08320700A (ja) | 音声符号化装置 | |
JP3024467B2 (ja) | 音声符号化装置 | |
JP3092654B2 (ja) | 信号符号化装置 | |
JP3471542B2 (ja) | 音声符号化装置 | |
JP2947788B1 (ja) | 音声および音響信号の高速な符号化方法および装置および記録媒体 | |
JP3319551B2 (ja) | ベクトル量子化装置 | |
JP2907019B2 (ja) | 音声符号化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080213 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090213 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100213 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100213 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110213 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110213 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120213 Year of fee payment: 14 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120213 Year of fee payment: 14 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130213 Year of fee payment: 15 |
|
EXPY | Cancellation because of completion of term |