JPH06507252A - 音声の量子化とエラー訂正のための方法 - Google Patents

音声の量子化とエラー訂正のための方法

Info

Publication number
JPH06507252A
JPH06507252A JP4502957A JP50295792A JPH06507252A JP H06507252 A JPH06507252 A JP H06507252A JP 4502957 A JP4502957 A JP 4502957A JP 50295792 A JP50295792 A JP 50295792A JP H06507252 A JPH06507252 A JP H06507252A
Authority
JP
Japan
Prior art keywords
segment
vector
amplitude
svector
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4502957A
Other languages
English (en)
Other versions
JP3467270B2 (ja
Inventor
ハードウィック、ジョン シー
リム、ジェイ エス
Original Assignee
ディジタル ボイス システムズ、インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディジタル ボイス システムズ、インク filed Critical ディジタル ボイス システムズ、インク
Publication of JPH06507252A publication Critical patent/JPH06507252A/ja
Application granted granted Critical
Publication of JP3467270B2 publication Critical patent/JP3467270B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/087Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/35Unequal or adaptive error protection, e.g. by providing a different level of protection according to significance of source information or by adapting the coding according to the change of transmission channel characteristics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Error Detection And Correction (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 発明の名称 音声の量子化とエラー訂正のための方法 技術分野 本発明は、音声の量子化方法及びビット・エラーの存在時において音声の品質を 維持するための方法に関する。
本発明に関係した刊行物は以下を含む、ジェイ、エル、フラナガン(J、L、F lanagan)、5peech Analysis。
5ynthesis and Perception、 Sl)ringer− Verlag、19721ρρ、 378−386(位相ボコーダ、講波数に基 づく音声分析−合成システム);クアティエリ(Quatlerl)等、5pe ech Transformations Ba5ed on a 5inus oidalRepresentation” 、 IEEE TASSP、Vo l、 A35P34. No、6゜Dec、 1986. pp、1449−1 986 (正弦波表現に基づく分析−合成技術)ニゲリフイン(Griffin )、” MultibandExcltation Vocoder” 、Ph 、D Them’s、M、1.丁、1987(8000bpsマルチバンド励起 音声フーダ);グリフィ :y (Griffin)IF 、 ’ A Hlg h Quality 9.6kbps SpeechCoding syste m”、 Proc、 ICASSP 86. pp、 125−128゜Tok yo、 Japan、 April 13−20.1986(マルチバンド励起 身声コーダ)tグリフイン(Griffin)等、”ANevModel−Ba sed 5peech Analysis/5ynthesis System ″ 。
Proc、ICASSP 85.pp、513−516.Ta*pa、FL、、 March2.6−29.1985 (マルチバンド励起音声モデル);ハード イック(Hardwlck)、” A 4.8kbps、 Multi−Ban dExcitation 5peech Coder” 、S、M、丁hesi s、M、1.T、May。
198B(4800bpsマルチバンド励起音声コーダ);マッカレイ(McA ulay)等、” Mid−Rate Coding Ba5ed on a  5tnusoidal Representation of 5peech″ 、 Proc、 ICASSP 85.pp、 945−948.τaspa、 FL、、 March 26−29.1985゜(正弦波表現に基づく音声コー ディング);キャムベル(Ca5pbell)等、 ” The New 48 00 bpi Voice Coding!3tandard” 、Nil 5 peech Tech Conference、 NOV、1989゜(ローレ ート音声コーグにおけるエラー訂正);キャムペル(Ca5pbell)等、  ” CELP Coding for LandMobile Radio A pplications″、Proc、 ICASSSP 9G−pp、485 −468.^1bequerque、NM、April 3−6.1990(ロ ーレート音声コーグにおけるエラー訂正);レベスタ(Levesque)等、 ′ − ” ’ 、viley、IH5,pp、157−170゜(エラー訂正一般); ジェイヤント(Jayant)等1、 Prentlce −Hall、191 14(量子化一般)、マクホウル(Makhoul)等、’ VectorQu antization in 5peech Coding” 、Free、  IEEE、1985゜pp、1551−1588(ベクトル量子化一般);ジェ イヤントI Jayant)等、”Adaptive PosLfilteri ng of 16 kb/s−ADPCM 5peech″ 、Proc、IC ASSP 86. pp、829−832゜丁akyo、 Japan、APr il 13−20.1986(音声の適応ポストフィルタリング)。
これらの刊行物の内容は、引用によってこの明綱書の一部となる。
音声符号化(スピーチ・コーディング)、即ち音声を少ない数のビットに圧縮す ることの問題は多くの応用を有し、この結果、文献上も相当な注目を受けてきた 。広範に研究され、実際に利用された音声コーグ(ボコーダ)の一つの部類は、 棒形予測ボコーダ、ホモモルフイック(準同型)ボコーダ、及びチャンネル・ボ コーダである。これらのボコーダにおいては、音声は有声音の周期的インパルス 列あるいは無声音のランダム署音により励起される線形システムの応答として短 時間(ショートタイム)ベースでモデル化されている。この部類のボコーダにつ いて、音声はノ\ミング(Ha*sing)ウィンドウのようなウィンドウを用 1鬼て過初にセグメント化して解析される0次に、音声の各セグメントに対し、 励起パラメータとシステムパラメータが推定及び量子化される。励起パラメータ は、有声/無声の判定とピッチ周期から成る。システムパラメータは、スペクト ル包絡またはシステムのインパルス応答から成る。W声を再構成するために、量 子化されたパラメータが用いられ、有声領域においては周期的インパルス列から 成る励起信号が合成され、無声領域においてはランダム電音から成る励起信号が 合成される。この励起信号は、量子化されたシステムパラメータを用いて濾波さ れる。
音声モデルに基づくボコーダは判別可能な音声の生成に極めて成功したが、高品 質の音声を生成することには成功していない、その結果、このIl#Iのボコー ダは、高品質音声コーディングには広く用いられていない、再構成された音声の 貧弱な品質は、一部は、モデルパラメータの不正確な推定により、また一部は、 音声モデルの限界による。
マルチバンド・エキサイチーシラン(即ち、多重帯域励起、rMBE、と略され る)音声モデルとして参照される。新しい音声モデルがグリフイン(Griff ln)及びリム(Lie)によって1984年に開発された。この新しい音声モ デルに基づく音声コーグは、グリフイン(Grlffln)及びリム(Lim) によって1986年に開発され、8000bps(ビット/秒)のレートで高品 質の音声を生成することができることを示した。ハードイック(llardwi ck)及びリム(Lie)による後続する仕事は100bps M B E音声 コーグを作製し、これは高品質の音声を生成することができた。この4800b pa音声コーダはより洗練された量子化技術を用いて、それより前のMBE音声 コーコー8000bplで達成していたと同様な品質を4800bP11で達成 した。
4800bps M B E W声コーダはMBE分析分析7シ成システムいて MBE音声モデルパラメータを推定し、推定されたMBEli声モデルハモデル パラメータを合成する。5(n)によって表わされる離敢會声儒号は。
アナログ音声信号の標本化(サンプリング)によって得られる。これは典型的に は8 kHzの標本化速度(サンプリングレート)で行なわれる。もっとも他の 標本化速度は、各種システム・パラメータの単純な変更によって容易に設定する ことができる。システムは、ハミング(Hanging)ウィンドウ又はカイザ ー(Kaiier)ウィンドウ等のウィンドウw (n)をs (n)に乗算し てウィンドウ化された信号Sユ(n)を得ることにより、離散信号を小さな、互 いに重畳する複数セグメント、あるいは複数セグメントに分割する。各々のセグ メントは該セグメントを特徴付けるMBE音声モデルパラメータの紐を得るため に解析される。MBEf声モデルパラメータは、ピッチ周期と等価な基本周波数 、−組の有声音/無声音の判定、−組のスペクトルILオプシツンとして、−組 のスペクトル位相から成る。これらのモデルパラメータは、次に、各セグメント に対して固定数のビットを用いて量子化される。結果のビットは音声信号の再構 成に用いることができ、該ビットからMBE音声モデルパラメータを再構成し、 次に該モデルパラメータから音声が合成される。典型的なMBElI声コーダの コーック11図を図1に示す。
4800 bp@M B E音声コーグは、スペクトル振幅を量子化するために 複雑な技術の使用を必要とした。各セグメントに対してスペクトル振幅の量子化 のために用いられるビット数は50から125ビツトの間で変化した。更に、各 セグメントに対するスペクトル振幅の数は9と60の間で変化した。各セグメン トについて利用可能なビット数をもってスペクトル振幅の全てを効率的に表現す ることが可能な量子化方法が考案された。
このスペクトル振幅量子化方法は、MBE音声コーコー使用するために設計され たが、量子化技術は、例えば、正弦波変換コーグ及びハーモニツクコーグ等の他 の多数の音声コーディング方法においても同様に有用周波数ω0かも次式の関係 に従って導出される。
ここに、0≦β< 1.0 は標本化速度の半分に対する音声帯域幅を決定する 0式(1)の関数り、JはXよりもは1く1≦Lに対してM+で示され、Mlは 晟も低い周波数のスペクトル振幅であり、MLは最も高いスペクトル振幅である 。
現在の音声セグメントのスペクトル振幅は、第一に、−組の予1llI残差を計 算することによって量子化される。
予測残差は現在の音声セグメントと前の音声セグメン現在の音声セグメントにお けるスペクトル振幅の開数ル振輻の個数を示すとすると、予測残差は1≦1≦L 0に対して、式(2)で与えられる。
捷暢を表わし、喜−11は前の音声セグメントの量子化されたスペクトル振幅を 表わす、定数yは典型的には、7とされるが0≦γ≦1の範囲の任意の値を用し することが可能である。
予測残差は、要素数がKの複数ブロックに分割されで正しく割り切れないとき、 最高jlldI数ブロックlよ、冨8について示す。
予測残差ブロックの各々は、式(3)で定義される離散コサイン変換(DCT) を用いて変換される。
各ブロックに対する変換の長さJは、ブロック内の要素の数に等しい、従って、 最高JaIiII数ブロック以外のブロックは長さKのDCTで変換され、最高 ll波数ブロックのDC’Tの長さはKまたはKより小となる。
DCTは逆変換可能であるため、L個のOCT係数は現在のセグメントについて のスペクトル振幅予測残差を完全に規定する。
スペクトル振幅を量子化するために利用可能な全体のビット数は、ビット割り当 て規則に従ってDCT係数内で分割される。この規則は、知覚的(聴覚的)にさ ほど重要でない高い周波数ブロックよりも知覚的により重要な低い周波数ブロッ クに対してより多くのビットを付与することを企てる。さらに、ビット割り当て 規則は、ビットを一つのブロック内において、その比較的に長期の変動に従って DCT係数に分割する。
この近接法は、ビット割り当てを音声の知覚特性及びDCTの量子化特性とマツ チさせる。
各DCT係数はビット割り当て規則で規定されるビット数を用いて量子化される 。典型的には、一様な量干出が用いられろが、しかし、非一様ベクトル量子化も また用いることができる。各量子化器のステップサイズは、DCT係数の長期分 散及び各係数を量子化するために用いられるビット数から決定される9表1は長 期分散がσ2に等しいものについて、ビット数の関数としてステップサイズにお ける典型的な分散を示している。
各DCT(1数がビット割り当て規則で規定されるビット数を用いて量子化され ると、応用に依存して2道11現の伝送、格納等が行なわれる。
111: 一様量干出器のステップサイズスペクトル振幅は、各ブロックに対し て量子化されたDCT係数を再構成することによって再構成が行なわれ、これは 各ブロックについて逆DCTを実行し、方程式(2)の逆変換を用いて前のセグ メントの量子化されたスペクトル振幅を組み合わせることによって行なわれる。
逆DCTは式(4)にて与えられる。
ここに、各ブロックの長さJは、該ブロックの要素の個数に選択され、α(j) は式(5)にて与えられる。
4800 bps M B E f声コーダの一つの部属があるとしたら、それ は、MBEモデルパラメータの2道表現にビット・エラーが加えられた場合に、 再構成された音声の知覚品質が相当に低減されろことである。多くの音声コーグ の応用においてビット・エラーが存在するため、ロバスト(頑11)な音声コー グはビット・エラーの訂正し、検出しそして/又は許容することができなければ ならない、砥めて成功した一つの技術は、モデルパラメータの2道表現において エラー訂正符号を用いることである。エラー訂正符号は、頻繁でなし1ビツト・ エラーの修正を可能とし、システムがエラー率を推定することを可能とする。エ ラー率の推定は、モデルパラメータを適応的に処理して、残りのビット・エラー の効果を減少するために用いることができる。
典型的には、エラー率は、現在のセグメントにおいてエラー訂正符号によって訂 正(又は検出)されたエラー数を計数することによって推定され、次にこの情報 を用いて現在のエラー率の推定値を更新する0例えば、各セグメントが23ビツ トのうち3つのエラーが検出可能な(2:l、12)ゴレイ(Golay)コー ドを含み、5丁が現在のセグメントにおいて訂正されたエラー(0−3)の数を 表わすとき、エラー率ε−の現在の推定は式(6)に従って更新される。
ここに、βはξ靴の適応性を制御する、0≦β≦1の範囲の定数である。
エラー訂正符号又はエラー検出符号が用いられるとき、a声モデルパラメータを 表示するビットはビット・エラーに対してよりロバストな別のビット組に変換さ れる。エラー訂正符号又はエラー検出符号の使用は、伝送又は格納される必要が あるビット数を増加させる。
伝送されるべき余分なビット数は、通常エラー訂正又は検出符号のロバストネス に関係している。大抵の応用において、伝送又は格納されるビットmliを最小 化することが望ましい、この場合、エラー訂正又は検出はシステム全体の性能( パーフォーマンス)を最大とするように、選択されねばならない。
このWA類の音声符号化システムの他の問題は、a声モデルパラメータの推定の 限界が、合成された音声の品質劣化を招くことである。引き続いて行なわれるモ デルパラメータの量子化は更なる劣化を含む、劣化として1合成された音声の反 射又は渭W(マツフル)された品質の形式をとる。さらに5元の音声データには 存在しなかった背景雑音又は他の人工介在物が存在することがある。この形式の 劣化は、音声データの何もビット・エラーが存在しない場合にも生じる。しかし ながら、ビット・エラーは、この問題をより悪化させる。典型的には、音声符号 化システムは、この形式の劣化を最小化するようにパラメータ推定器とパラメー タ量子化器を最適化することを企てる。fl!のシステムは該劣化をポストフィ ルタリング(渣瀘si理)によって低減しようとする。ポストフィルタリングに おいては、出力音声は、時間傾城において適応蟹の全極形フィルタを用いて濾波 されフォーマット・ピークを先鋭化する。
この方法は、スペクトル強調処理に対して精細な刺御を行なうことができず、計 算上も高くつI3<計算量が多い)、jII波am域コーコーとって効率が良く ない。
ここに説明する本発明は、多くの異なる音声符号化方法に適用される。即ち、線 形予測音声コーグ、チャンネル・ボコーダ、ホモモルフイック・ボコーダ、正弦 変換コーグ、多重帯域励起(マルチバンドエキサイチーシラン)音声コーグ、改 良された多重帯域(IMBE)II起音声ココー等を含むがこれらに限定されな い0本発明の詳細な説明するために、I NMARS A T −M (Int ernational Marlne SatelliteOrganlzaH on;l!lII海洋衛星組織)If星通信システムの一部として轟近標準化さ れた9、4 kbpsI M B E 11声コーダを用いる。このコーグは、 多重帯域励起(MBE)a声モデルとして参照されるロバスト音声モデルを用い る。
MBEモデルパラメータを量子化するための効率的な複数の方法が開発された。
これらの方法は、実質的に2 kbps以上のいかなるビット・レートでモデル パラメータを量子化することが可能である。INMAR5AT−M衛星通信シス テムで用いられる8、4 kbps IMBE音声コーダコー50 Hzフレー ム・レートを用いる。従って、lフレーム当たり128ビツトが利用可能である 。128ビツトのうち、45ビツトは前方エラー訂正のために確保されている。
lフレーム当たり残りの83ビツトがλ(BEモデルパラメータを量子化するた めに用いられる0MBEモデルパラメータは、基本周波する。8コの利用可能な ビットは、表2に示すモデルパラメータ間で分割される。
基本馬1111iは最初にこれを式(7)を用いて等価なピッチ周期に変換する ことによって量子化される。
kbpsIMBEシステムにおいて、このパラメータは、8ビツトステツプサイ ズ、5を用いて一様に量子化される。これは半分のサンプルのピッチ精度に対応 する。
K V/UV(有声/無声〉の判定は2道端である。
このため、これらは判定当たり単一ビットを用いて符号化することが可能である 。6.4 kbpsシステムは、最大12の判定を用い、各周波数帯域の幅は3 ω0である。最大周波数帯域の暢は3.8 k)lzまでの周波数を含むよう: こ調節される。
スペクトル振幅は、−組の予測残差を形成することによって量子化される。各予 測残差は、現在のセグメントのスペクトル振幅!幅の対数と前の音声フレームの 同一周波数を表わすスペクトル振幅の対数の差である。
スペクトル振幅予測残差は、各ブロックがほぼ同一個数の予測残差を含む6個の ブロックに分割される。6個の70ツクの各々は M ll&コサイン変換fD cT)により変換され、6個のブロックのり、C,(直流)係数は、6要素の予 測残差ブロック平均(PRBA;Prediction Re5idual B lock Average)ベクトルに結合される。PRBAベクトルから平均 値が差し引かれ、6ビツト非一様量子化器を用いて量子化される。ゼロ平均PR BAベクトルは10ビツト・ベクトル量子化器を用いてベクトル量子化される。
10ビツトPRBAコードブツクは、各種の音声材料から、ゼロ平均PRB、a 、ベクトルから成る大きなトレーニング・セットに基づきに一平均クラスターリ ング・アルゴリズムを用いて設計された。PRBAベクトルに含まれない高次の DCT係数は59−にの残りのビットを用いてスカラー一様量干出器で量子化さ れる。ビット割り当て及びステップ・サイズは高次のDCT係数の長期変動に基 づいている。
この量子化方法には、いくつかの利点がある。第1に、この量子化方法は小数ビ ットを用いて非常に良好な忠実性を提供し、Lがその範囲で変動するに障してこ の忠実性を維持する。さらに、この近接法の計算要求は、AT&τDSP32C 等単−のDSP (ディジタル信号処理装置)を用いて、実時間実装に要求され る限界の範囲内によく収まっている。最俺に、この量子化方法は、スペクトル振 幅を、ビット・エラーに感応する、PRBAベクトルの平均等の小数の要素と、 ビット・エラーに余り感応しない多数の他の要素に分別する。
前方エラー訂正は、小数の感応要素について高いレベルの保護を、残りの要素に ついては低い保護を提供し、効率的な仕方で用いることができる。これは次の章 で説明する。
第1の視点において、本発明は予測されたスペクトル振幅の形成のための改良さ れた方法を特徴とする。
これらは、現在のセグメントのJ11波数で前のセグメントのスペクトル振幅を 推定するために前のセグメントのスペクトル振幅の補間に基づいている。この新 しい方法は、予測残差が低い分散を有し、このため予測残差は所定のビット数に 対して低い歪みで量子化可能であるという結果、セグメント間のスペクトル振幅 の周波数におけるシフトを訂正する。好適な実施態様において、スペクトル振幅 のam数は基本am数とその倍数である。
本発明は、第2の視点において、予測残差のブロックへの分割のための改良され た方法を特徴とする。各ブロックの長さを固定する代わりに、予Sテ1差を可変 なブロック数に分割し、ブロックサイズはセグメント同士で異なる。好適なXI [態様において、すべてのセグメントにおいて6mのブロックが用いられる。即 ち、低R波数ブロックにおける予測残差の個数は高周波数ブロックにおける予y IAn差の個数よりも大きくなく、低J11波数ブロックにおける要索数は1以 下である。この新しい方法は、音声特性により密接にマツチし、所与のビット数 について少ない歪みで予測残差の量子化を可能としている。さらに、この方法は スペクトル振幅の量子化を更に改善するベクトル量子化で容易に用いることがで きる。
本発明は第3の視点において、予測残差の量子化の改良された方法を特徴として いる。予S残差はブロックにグループ化され、各ブロック内における予測残差の 平均が決定され、ブロックのすべての平均は予測残差ブロック平均(PRBA) ベクトルにグループ化され、PRBAベクトルが量子化される。好適なX施態様 において、予測残差の平均は、ブロック内においてスペクトル振幅予測残差を加 算し、該ブロック内において予測残差の個数で除するか、又はブロック内におい てスペクトル握輻予濶ツ1差のDCTを計算しDCTの最初の係数を平均として 用いることによって得られる。PRBAベクトルは、好ましくは二つの方法の一 つを用いて符号化される。即ち、(1)PRBAベクトルについてDCT等の変 換を行ない変換係数をスカラー量子化する; (2)PRBAベクトルをベクト ル量子化する。ベクトル量子化は、好ましくは、PRBAベクトルの平均を決定 し、該平均をスカラー量子化を用いて量子化し、ゼロ平均コードブックでベクト ル量子化を用いてゼロ平均PRBAベクトルを量子化することによって行なわれ る0本発明のこの視点の利点は4量子化される予測残差が所与のビット数に対し て低い歪みで量子化9鑓であるということである。
本発明は、第4の視点において、高いビット・エラー率の存在のもと、有声/無 声の判定を決めるための改良された方法を特徴とする。ビット・エラー率は現在 の音声セグメントについて推定され、予め定められたエラー・レート閾値と比較 され、予め定められたエネルギー閾値を超えたスペクトル振幅について有声/無 声の判定は、推定されたビット・エラー率がエラー車間f−を超えている時に、 現在のセグメントについてすべて有声であると宣言される。これはビット・エラ ーの知覚的効果を低減する。有声音から無声音への切り佇えによって生じる歪み が低減される。
本発明は、第5の視点において、音声モデルパラメータのエラー訂正(又はエラ ー検出)コーディングの改良された方法を特徴とする。新しい方法は、量子化さ れたモデルパラメータを符号化するために少なくとも二つのタイプのエラー訂正 コーディングを用いる。
訂正コーディングの第1のタイプは、第2のタイプのコーディングよりも多くの 個数の追加ビットを加え。
ビット・エラーにより一層感応するパラメータ群について用いられる。別のタイ プのエラー訂正コーディングは、第1のタイプのものよりもビット・エラーに対 して少なく感応する第1のパラメータ群に用いられる。
既存の方法と比較して、この新しい方法は、ビット・エラーの存在のもと、合成 された音声の品質を改良し、加えるべき追加的なエラー訂正又は検出ビットの量 を削減する。好適な実l1F11様において、異なったタイプのエラー訂正は、 ゴレイ(Golay)コード及びハミング(Hanging)コードを含む。
本発明は、第6の視点において、ビット・エラーの存在のもと、合成された音声 の品質を改良するための方法を特徴とする。エラー率は、エラー訂正コーディン グから評価される。パラメータについてのエラー率が予め定めるレベルを超過し た隙に、前のセグメントから−又はamのモデルパラメータが現在のセグメント において反復される。好適な実施態様において、全てのモデルパラメータが反覆 される。
本発明は、第7の視点において、モデルパラメータの推定と量子化によって生じ る劣化を低減するための方法を特徴とする。この新しい方法は、スペクトル包絡 のamm領領域表現篭用いて知覚的に重要である領域を強調し、知覚的に重要で ない領域を減衰させる。
その結果合成されたW声における劣化は低減される。
セグメントの平滑化されたスペクトル包絡は、スペクトル包絡を平滑化する事に よって生成される。そのスペクトル包格が平滑化された包絡よりも大きな振幅を 有するスペクトル包絡の周波数領域を増やし、そのスペクトル包絡が平滑化され た包絡よりも小さな振幅を有するスペクトル包絡の!R波数領域を減らすことに よって、強調されたスペクトル包絡が生成される。好適な実IN息様において、 平滑化されたスペクトル包絡はスペクトル包絡から低次のモデル(例えば、全極 形モデル)を推定することによって生成される。既存の方法を比較して、この新 しい方法は周波数領域コーグについて計算土より効率が良い、更にこの新しい方 法は時間領域の方法によって課せられる周波数領域の制約を除去することによっ て音声品質を改曵する。
本発明の他の特徴と利点は好適な実施態様の以下の説明と請求の範囲から明白と なろう。
図面の簡単な説明 図1−2は、音声符号化方法の従来技術を示す線図である。
図3は、本発明の好適な実施態様を示すフローチャートを示し、スペクトル振幅 の予測が基本J11波数における変化を説明する。
図4は、本発明の好適な実施態様を示すフローチャートを示し、スペクトル振幅 は固定数のブロックに分割される。
図5は、本発明の好適な実施態様を示すフローチャートを示し、予測残差ブロッ ク平均ベクトルが形成される。
図6は、本発明の好適な実施71様を示すフローチャートを示し、予測残差10 ツク平均ベクトルが量子化される。
図7は、本発明の好適な実施態様を示すフローチャートを示し、予測残差ブロッ ク平均ベクトルがDCTとスカラー量子化により量子化される。
図8は、本発明の符号化器の好適な実施態様を示すフローチャートを示し、異な ったエラー訂正符号が異なったモデルパラメータビットに対して用いられる。
図9は1本発明の僅号化器の好適な実IN態様を示すフローチャートを示し、異 なったエラー訂正符号が異なったモデルパラメータビットに対して用いられる・ 図10は、本発明の好適な実!l!雇様を示すフローチャートを示し、周波数領 域スペクトル包絡パラメータ強調が描かれている。
本発明の好適な実施態様の説明 従来の技術においては、スペクトル捩暢予測fl差は方程式(2)を用いて形成 された。この方法は、前のセグメントと現在のセグメントの間の基本周波数にお ける変化を説明しない、基本周波数における変化を説明するために、轟初に、前 のセグメントのスペクトル振幅を補間する新しい方法が開発された。これは、典 型的には線形補間を用いて行なわれる。しかしながら、様々な刑の形式の補間を 用いることができる。前のセグメントの補間されたスペクトル振幅は、現在のセ グメントの基本周波数の倍数に対応する周波数ポイントで再標本化(リサンプリ ング)される、補間と再標本化の組み合わせは、−組の予測スペクトル振幅を生 成し、該予測スペクトル振幅は基本周波数のセグメント間の変化に対して訂正さ れる。
典型的には、予測スペクトル振幅の二つの対数の分数が現在のセグメントのスペ クトル振幅の基本の二つの対数から差し引かれる。線形補間が予測スペクトル振 幅の計算に用いられる場合、これは数学的には次式%式% 但し、δユは次式(9)で与えられる。
ここに、γはO≦γ≦1の定数である。典型的にはγは1.7であるが、他のγ の端をまた用いることができる。例えばγは性能を改善するためにセグメントか らセグメントへと適応的に変更することができる0式(9)においてパラメータ ωO0とω −iは現在と前のセグメントの基本周波数をれぞれ示している。二 つの基本R波数が同一の場合、新しい方法は古い方法と同一となる。fl!!の 場合、新しい方法は、古い方法よりも分散の小さな予測残差を生成する。このた め所定のビット数について予測yJ!を少ない歪みで量子化することが可能とさ れる。
本発明の別の視点において、新しい方法はスペクトル振幅予測残差をブロックに 分割するために開発された。古い方法においては現在のセグメントからi予測残 差はKNの!!素のブロックに分割された。定型的にはKの値は8である。この 方法を用いて、各ブロックの特性がLの大さな値と小さな値について実質的に異 なることが分かった。これは量子化の効率を低減し、このためスペクトル振幅に おける歪みを増大させる。
各ブロックの特性をより一様にするために、Lllの予測残差を固定数ブロック に分割する新しい方法が考案された。各ブロックの長さは、一つのセグメント内 の全てのブロックが同じ長さを有し、セグメント内の全てのブロックの長さの和 がLに等しいように選択されろ、典型的には予測残差の全数は6ブロツクに分割 さり切れるとき、すべてのスペクトルマグニチュードが6個のブロックの一つに 含まれるように、l又は複数の高い周波数ブロックの長さを一つ増加することが で合について図4に示されている。この新しい方法においては、各ブロックに含 まれるつ予測残差のおおよそのパーセントはLに依存しない、このため、各ブロ ックの特性の分散が低減され、予測残差のより効率的な量子化が可能とされる。
予測夕1差の量子化は予測残差ブロック平均(PRBA + Predicti on Re5idual Block Average)ベクトルを形成するこ とによって改良される。PRBAベクトルの長さは現在のセグメントのブロック 数に等しい。
このベクトルのg!素は各ブロック内の予測残差の平均に対応する。第1番目の DCT係数は平均(すなわち直流成分)に等しく、PRBAベクトルは各ブロッ クから第1番目のOCT係数から構成することができる。
これを図5に、現在のセグメント内に6個のブロック各ブロックの第2番目(又 は第3、第4醤目等)のDCT係数からさらにベクトルを構成することによって 、一般化することが可能となる。
PRBAベクトルの要素は極めて相関が高い、従って、スペクトル振幅の量子化 を改善するために多数の方法を用いることができる。少ないビット数で低い歪み を達成するために用いることができる方法の一つはベクトル量子化である。この 方法においては、典型的な多数のPRBAベクトルを含むコードブックが設計さ れている。現在のセグメントのPRBAベクトルがコードブックのベクトルの各 々と比較され過も低い誤差のものが量子化されたPRBAベクトルとして1択さ れる。1択されたフードブックのインデックスは、PRBAベクトルの2道表現 を構成するために用いられる。ベクトルの平均について6ビツトの非一様量子化 器のカスケード縦続接続と、残りの情報については一つの10ビツト・ベクトル 量子化器を用いて、PRBAベクトルのベクトル量子化を行なうための方法が開 発された。この方法は、PRBAベクトルが常に6儂の要素を含む場合について 図6に示されている。
PRBAベクトルを量子化する別の方法もまた開発された。この方法はベクトル 量子化方法よりも計算量と記憶量が少なくて済む、この方法においては、PRB Aベクトルは、式(3)で定義されるOCTでまず変換される。DCTの長さは PRBAベクトルにおける要素数に等しい、DCT係数は、次に、従来の技術と して説明したものと同様な住方で量子化される。PRBAベクトルを量子化する ために用いられるビット総数をDCT係数の間に分散させるためにビット割り当 て規則が用いられる。スカラー量子化(一様又は非一様)が、次に、ビット割り 当て規則で規定されるビット数を用いて各DCT係数を量子化するために用い′ られる。これは、PRBAベクトルが常に6個の要素を含む場合について1図7 に示す。
PRBAベクトルを効率的に量子化するために、離散フーリエ変換、高速フーリ エ変換、カルーネン・レーベ変換(KLf換; Karhunen−Loeve )等各種変換がDCTの代わりに用いることができる。さらに、ベクトル量子化 は、DCT又は他の変換と組み合わせることができる0本発明のこの観点から導 かれる改良は広範な各種の量子化方法と共に用いることができる。
他の視点において、ビット・エラーの知覚的効果を低減するための新たな方法が 開発された。エラー訂正符合は従来の技術と同様に頻繁でないビット・エラーを 訂正し、エラー率ξ1の推定を提供するために用いられている。新しい方法は、 残りのビット・エラーの知覚される効果を低減するために、有声/無声の判定を 平滑化するためにエラー率の推定を用いる。これは。
有声/無声の判定における訂正されないビット・エラーからの歪みが重要となる 車を示す閾値に対してエラー率を最初に比較することによって行なわれる。この 閾値の正確な値は、有声/無声の判定に適用されるエラー訂正の量に依存するが 、エラー訂正が僅かしか適用されない時には1.003という閾値が典型的であ る。
推定されたエラー車ε寓がこの閾値より低い場合、有声無声の決定はじよう孔を 受けない、ε1がこの閾値より高い場合、式(10)が満たされる各スペクトル 振幅は有声であると宣言される。
式(lO)は1.003の閾値を仮定しているが、この方法は別の閾値に対応す るために容易に修正可能である。
パラメータSWは、スペクトル振幅に含まれる局所的平均エネルギーの測度であ る。このパラメータは、典型的には、各セグメントについて、次式(11)に従 い更新される。
但し、Roは式(12)で与えられる。
SRの初期値は0≦S w410000.0の範囲における任意の初期値に設定 される。このパラメータの目的は、式(lO)の平均信号レベルに対する依存性 を低減させることである。このことは、新しい方法が高いレベルの信号のみなら ず低いレベルの信号に対しても有効に機能することを保証する。
式(to) 、(11)及び(12)の特定の形式とこれらの式に含まれる定数 は容易に修正することができる。
この新しい方法の主1!l素は、有声/無声の判定が平滑化を要するか否かを決 定するためにエラー率の推定を最初に用いるものである。もし平滑化が必要な場 合に、有声/無声の判定はじよう乱を受け、すべての高いエネルギースペクトル 俵輻は有声であると宣言される。これは、セグメントの間で高いエネルギーの有 声から無声又は無声から有声への遷移を取り除き、その結果ビット・エラーの存 在のもとにあって再構成された音声の知覚される品質を改善する。
本発明において、発明者らは、量子化された音声モデルパラメータ・ビットを、 ビット・エラーの感度に従って3またはより多くの異なった群に分割し、各群に 対して異なったエラー訂正又は検出符号を用いる。
典型的には、ビット・エラーに対してより感応すると決定されたデータビット群 は極めて効率的なエラー訂正符号を用いて保護される。少数の追加ビットを必要 とするより効率の低いエラー訂正又は検出符号は感度の低いデータビットを保護 するために用いられる。この新しい方法は、各群に与えられるエラー訂正又は検 出符号の量を、ビット・エラーに対する感度に合致することを可能ならしめる。
従来の技術と比較して、この方法は、ビット・エラーによって生じる劣化が減少 され、前方エラー訂正に必要なビット数も削減されるという利点を有する。
用いられるエラー訂正又は検出符号の特定の選択は伝送又は記憶媒体のビット・ エラー統計及び所望のビット・レートに依存する。最も感度の大きいビット群は 、典型的には、ハミング(Ha■鳳1ns)コード、BCHコード、プレイ(G olay)コード、又はリードソロモン(Reed−Solo■on)コード等 の効率的なエラー訂正符号によって保護される。感度の低いデータビット群もこ れらの符号又はエラー検出符号を用いても良い、最攪に、最も感度の低い群は、 エラー訂正又は検出符号を用いるか、又はいかなる形式のエラー訂正又は検出符 号も用いない、以下に、本発明を、衛星通信の6.4 kbpgIMBEii声 コーダに良く適合レコーダー訂正又は検出符号の特定の選択を用いて説明する。
INMAR9AT−M(l!1通信システム用に標準化された6、4 kbps 音声コーダコーいては、前方エラー訂正のために優保されたlフレーム当たり4 5ビツトは3つのエラーまで訂正可能な[23,121ゴレイ(Golay)= 2−ドと、単一のエラーとパリティビットを訂正可能な[15,Illハミング (Ha−−ing)コードに分割され、基本周波数の6flの最も重要なビット (MSB)とPRBAベクトルの平均値の3個の最も重要なビット<MSB)は 、始めに3つのパリティチェック・ビットと結合され、【2コ、121ゴレイ( Golay)コードに符号化される。第2のプレイ(Golay):+−ドは、 PRBAベクトルから3つのMSB (M重要ビット)と高次のOCT係数から 9個の最も感度の高いビットを符号化する。7個の轟も感度の低いビットを除く 夕1りのビットは5個の[15,111ハミング(Ha■5ins)コードに符 号化される。7flの最も感度の低いビットはエラー訂正符号によって保護され ない。
伝送に先立ち、特定の音声セグメントを表現128ビツトがインターリーブされ 、少なくとも5ビツトが同一の符合ワードから2ビツトを分離する。この特徴は 短いバースト・エラーの影響をいくつかの異なった符合ワードに拡散させ、これ によって、エラーが訂正される可能性を増大させる。
復号化器(デコーダ)においては、受信されたビットは、データビットからビッ ト・エラーを除去しようと試みるプレイ及びハミングデコーダに送られる。3つ のパリティチェックビツトがチェックされ、訂正できないビットがなにも検出さ れない時には、受信されたビットは現在のフレームのM B Eモデルバラメ、 −タを再構成するために用いられる。他の場合、訂正できないビットが検出され た時には、現在のフレームについて受信されたビットは無視され、前のフレーム からのモデルパラメータが現在のフレームに対して繰り返される。
フレームの婦り遅しの使用は、ビット・エラーが存在する時に音声の品質を改善 することが見出された。
本発明は、受信されたビットの各フレームを調べ、現在のフレームが多数の訂正 できないビット・エラーを含むか否かを決定する。訂正できないビット・エラー を検出するための一つの方法はデータ内に挿入された余分なビットをチェックす るものである0本発明は、また、訂正可能なビット・エラーをエラー率の局所的 推定を比較することによって、多量のバーストビット・エラーに遭遇したか否か を決定する。訂正可能なビット・エラーの数がエラー率の局所的な推定値よりも 実質的に大きい時にフレーム繰り返しが実行される。
更に1本発明は不正のビットシーケンス、即ち、エンコーダが決して送信しない ビット群を各フレームについてチェックする。不正なピットシーケンスが検出さ れた時に、フレーム縁り返しが実行される。
プレイ(Golay)+−ドとハミング(Ha−ging)コードデコーダは、 データ内における訂正可能なビット−・エラーの数についての情報をも提供する 。この情報はデコーダによってビット・エラー率の推定に用いられる。
ビット・エラー率の推定値は、訂正不能なビット・エラーの存在のもとにおいて 知覚された音声品tiv向上させる適応型の平滑化器(スムーザ)として用いら れる。更に、ビット・エラー率の推定値は、悪いエラー環境下において、フレー ム繰り返しを実行するために用いられる。
本発明のこの視点は、性能を更に改善するソフト決定コーディングと共に用いる ことができる。ソフト決定デコーディングは、各ビットがエラー状態にある尤度 に関する追加情報を用いて、多数の異なったコードのエラー訂正と検出能力を改 善する。この追加情報は、ディジタル通信システムにおいて復調器から入手可能 であるため、本発明は、エラー保護のために余分なビットを要する事無く、ビッ ト・エラーに対して改善されたロバスト性を提供する。
本発明は1合成された音声の品質を改良する周波数傾城の新しいパラメータ強制 油を用いる0本発明は。
最初に音声スペクトルのうち知覚的に重要な領域を位置付ける0本発明は次に他 の周波数領域と比較して知覚的に重要な周波数領域の振幅を増大させる。JiI 波数傾城のパラメータ強調の好ましい方法は、スペクトルの一般的な形状を推定 するためにスペクトル包絡を平滑化するものである。スペクトルは、スペクトル 包絡に対する、全極形モデル、ケプストラムモデル、又は多項式モデル等の低次 モデルを当てはめることによって平滑化される。平滑化されたスペクトル包絡は 、平滑化されないスペクトル包絡と比較され、平滑化されないスペクトル包絡が 平滑化されたスペクトル包絡傾城よりも大きなエネルギーを有する領域として、 知覚的に重要なスペクトル領域が同定される。同様に、平滑化されないスペクト ル包絡が平滑化されたスペクトル包絡領域よりも太き々エネルギーを有する領域 は、知覚的に重要性の低いものとして同定される。知覚的に重要な周波数11[ t4の振幅を増大させ、知覚的に重要性の低い周波数領域の振幅を減少させるこ とによってパラメータ強調が行なわれる。この新しい強調方法は、音声パラメー タの推定と量子化の隙に導入される多数の人工物を除去し減少することによって 音声品質を向上させる。glに、この斬しい方法は知覚的に重要な音声フォーマ ットを先鋭化する事によって音声の分かり易さを向上させる。
IMBEf声デコーダにおいては、−次の全極形モデルが各フレームのスペクト ル包絡に当てはめられる。
これは相関パラメータを推定することによって行なわれる。即ち、デコードされ たモデルパラメータから次式(13)と(14)に従い、相関パラメータReと R1が推定される。
レームのデコードされた基本周波数である。相関パラメータRaとR1は一次の 全極形モデルを推定するために用いられる。このモデルは現在のフレーム<mち 、k・ωG、但し、1≦13L)のスペクトル振幅は対応する周1Niliにお いて評価され、次式(15)に従い一組の重みWlを生成するために用いられる 。
これらの重みはI M B Eスペクトル振幅に対する平滑化された全極スペク トルの比率を示している。これらは、次に、各スペクトル振幅に通用されるパラ メータ強調の量を個別に制御するために用いられろ、この関係は次式(16)で 表わされる。
鰐されたスペクトル振幅である。
強調されたスペクトル振幅は次に音声合成を行なうために用いられる0強調され たモデルパラメータの使用は、wigされないモデルパラメータから合成された ものと比較して、W声品質を改善している。
■ 不」 電 1! ■ 電 国際調査報告

Claims (33)

    【特許請求の範囲】
  1. 1.音声が複数セグメントに分割され各セグメントについてスベクトルガー組の 周波数で標本化されて一組のスベクトル振幅を形成し、該スベクトルは一のセグ メントと次のセグメントで一般に異なった周波数で標本化され、現在のセグメン トのスベクトル振幅を予測するために少なくとも一の前のセグメントが用いられ 、現在のセグメントの実際のスベクトル振幅と現在のセグメントの予測スベクト ル振幅の間の差に基づく予測残差が引き続く符号化に用いられる、音声符号化の 方法において、現在の予測スベクトル振幅が、少なくとも一部、前のセグメント のスベクトル振幅の補間に基づき、現在のセグメントの周波数で前のセグメント のスベクトル振幅を推定することを特徴とする音声符号化方法。
  2. 2.音声が複数セグメントに分割され各セグメントについてスベクトルが一組の 周波数で標本化されて一組のスベクトル振幅を形成し、該スベクトルは一のセグ メントと次のセグメントで一般に異なった周波数で標本化され、現在のセグメン トのスベクトル振幅を予測するために少なくとも一の前のセグメントが用いられ 、現在のセグメントの実際のスベクトル振幅と現在のセグメントの予測スベクト ル振幅の間の差に基づく予測残差が引き続く符号化に用いられる、音声符号化の 方法において、予測残差ガ予め定められた偶数のブロックに分割され、該ブロッ クの偶数は特定のブロックの残差の数に依存せず、ブロックが符号化されること を特徴とする音声符号化方法。
  3. 3.現在のセグメントの予測されるスベクトル振幅が、少なくとも一部、前のセ グメントのスベクトル振幅を補間することに基づき、現在のセグメントの周波数 で前のセグメントのスベクトル振幅を推定する請求の範囲第2項に記載の方法。
  4. 4.音声が複数セグメントに分割され各セグメントについてスベクトルが一組の 周波数で標本化されて一組のスベクトル振幅を形成し、該スベクトルは一のセグ メントと次のセグメントで一般に異なった周波数で標本化され、現在のセグメン トのスベクトル振幅を予測するために少なくとも一の前のセグメントが用いられ 、現在のセグメントの実際のスベクトル振幅と現在のセグメントの予測スベクト ル振幅の間の基に基づく予測残差が引き続く符号化に用いられる音声符号化の方 法において、予測残差が複数ブロックにグループ化され、各ブロック内の予測残 差の平均が決定され、すべてのブロックの平均が予測残差ブロック平均(PRB A)ベクトルにグループ化され、PRBAベクトルが量子化されることを特徴と する音声符号化方法。
  5. 5.予め定わられた個数ブロックがあり、該個数が予測セグメントの数に依存し ない請求の範囲第4項記載の方法。
  6. 6.現在のセグメントの予測されるスベクトル振幅が少なくとも一部、前のセグ メントのスベクトル振幅を補間することに基づき、現在のセグメントの周波数で 前のセグメントのスベクトル振幅を推定する請求の範囲第5項に記載の方法。
  7. 7.現在のセグメントの実際のスベクトル振幅と現在のセグメントの予測された スベクトル振幅の間の差が、実際のスベクトル振幅から予測されたスベクトル振 幅の一部を差分することによって形成される請求の範囲第4項記載の方法。
  8. 8.スベクトル振幅が多重帯域励起音声モデルを用いて得られる請求の範囲第1 、2又は4項のいずれか一に記載の方法。
  9. 9.現在のセグメントの予測スベクトル振幅の形成に際して最も最近の前のセグ メントのスベクトル振幅のみが用いられる請求の範囲第1、2又は4項のいずれ か一に記載の方法。
  10. 10.所与のセグメントに対して周波数の組が該セグメントの基本周波数の倍数 である請求の範囲第1、2又は4項のいずれか一に記載の方法。
  11. 11.ブロックの偶数が6に等しい請求の範囲第2、5又は6項のいずれか一に 記載の方法。
  12. 12.低い周波数ブロックにおける予測残基の偶数が高い周波数ブロックにおけ る予測残差の個数よりも大きくない請求の範囲第2、5又は6項のいずれか一に 記載の方法。
  13. 13.低い周波数ブロックにおける予測残差の偶数が高い周波数ブロックにおけ る予測残差偶の数よりも大きくない請求の範囲第11項記載の方法。
  14. 14.高い周波数ブロックにおける要素の偶数と低い周波数ブロックにおける要 素の偶数の差が1以下である請求の範囲第13項記載の方法。
  15. 15.前記平均が、ブロック内においてスベクトル振幅予測残差を加算し該ブロ ック内において予測残差の偶数で除する請求の範囲第4、5又は6項のいずれか 一に記載の方法。
  16. 16.前記平均が、ブロック内のスベクトル振幅予測残差の離散コサイン変換( DCT)を計算し、且つ平均として該DCTの第1番目の係数を用いることによ って得られる請求の範囲第15項記載の方法。
  17. 17.PRBA(予測残基ブロック平均)ベクトルが二つの方法、即ち、(1) PRBAベクトルに離散コサイン変換(DCT)などの変換を施し、変換係数を スカラー量子化する方法、(2)PRBAベクトルをベクトル量子化する方法、 の内の一を用いて符号化される請求の範囲第4、5又は6項のいずれか一に記載 の方法。
  18. 18.前記ベクトル量子化が、 PRBAベクトルの平均を決定し、 該平均をスカラー量子化を用いて量子化し、前記平均をPRBAベクトルから差 し引きゼロ平均PRBAベクトルを形成し、及び、 ゼロ平均コードブックによってベクトル量子化を用いて前記ゼロ平均PRBAベ クトルを量子化する、上記各工程から成る方法を用いて行なわれる請求の範囲第 17項記載の方法。
  19. 19.音声が複数セグメントに分割され、セグメント内の各セグメントについて 又はセグメント内の各帯域について有声/無声の判定が為され、各セグメントに ついてスベクトルが一組の周波数で標本化されて一組のスベクトル振幅を形成す る、音声符号化の方法において、現在の音声セグメントに対してビット・エラー 率が推定され、予め定められたエラー率閾値と比較され、現在のセグメントにつ いて予め定めるエネルギー閾値よりも高いスベクトル振幅に対する有声/無声の 判定が、推定されたビットエラー率が所定のエラー率閾値よりも高い時、全て有 声であると宣言される音声符号化方法。
  20. 20.予め定めるエネルギー閾値が現在のセグメントに対するビットエラー率に 依存する請求の範囲第19項記載の方法。
  21. 21.モデルパラメータによって特徴付けられる音声モデルを用いて音声が符号 化され、音声が時間セグメントに分割され、各セグメントについてモデルバラメ ータが推定され且つ量子化され、及び、量子化されたモデルパラメータの少なく ともいずれかがエラー訂正コーディングを用いて符号化される、音声符号化の方 法において、量子化されたモデルパラメータを符号化するたわに少なくとも二つ の型式のエラー訂正コーディングが用いられ、第2の型式の符号化よりも多くの 追加ビットを加える第1の型式の符号化が、第2群の量子化されたモデルパラメ ータよりもビットエラーに対して感度が高い第1群の量子化されたモデルパラメ ータに対して用いられることを特徴とする音声符号化方法。
  22. 22.異なった型式のエラー訂正コーディングがゴレイ(Golay)コードと ハミング(Hamming)コードを含む請求の範囲第21項記載の方法。
  23. 23.モデルパラメータによって特徴付けられる音声モデルを用いて音声が符号 化され、音声が時間セグメントに分割され、各セグメントについてモデルパラメ ータが推定され且つ量子化され、量子化されたモデルパラメータの少なくともい ずれかがエラー訂正コーディングを用いて符号化され、及び、音声がデコードさ れたモデルパラメータから合成される音声符号化の方法において、エラー訂正コ ーディングが合成に際して、エラー率を推定するために用いられ、該パラメータ についてのエラー率が予め定めるレベルを超えた時に、前のセグメントの1又は 複数のモデルパラメータが現在のセグメントにおいて繰り返されることを特徴と する音声合成符号化方法。
  24. 24.量子化されたパラメータが多帯域励起(MBE)音声コーダ又は改良型多 帯域励起(IMBE)音声コーダと関連したパラメータである請求の範囲第21 、22、又は23項のいずれか一に記載の方法。
  25. 25.エラー率がエラー訂正符号を用いて推定される請求の範囲第21又は22 項に記載の方法。
  26. 26.1又は複数のモデルパラメータが推定されたエラー率に基づき複数のセグ メントに渡って平滑化される請求の範囲第25項記載の方法。
  27. 27.平滑化されるモデルパラメータが、有声/無声の判定を含む請求の範囲第 26項記載の方法。
  28. 28.平滑化されるパラメータが、多帯域励起(MBE)音声コーダ又は改良型 多帯域励起(IMBE)音声コーダに対するパラメータを含む請求の範囲第26 項記載の方法。
  29. 29.パラメータに対して推定されたエラー率が予め定めるレベルを超えた時に 、前のセグメントにおける1又は複数のモデルパラメータが現在のセグメントに おいて繰り返される請求の範囲第28項記載の方法。
  30. 30.音声信号が複数セグメントに分割され、セグメントの周波数領域の表現が 決定されて該ヤグメントのスベクトル包絡を提供し、音声が強調されたスベクト ル包絡から合成される、音声強調の方法において、セグメントの平滑化されたス ベクトル包絡がスベクトル包絡を平滑化することによって生成され、平滑化され たスベクトル包絡よりも大きな振幅を有するスベクトル包絡についてスベクトル 包絡の周波数領域のいくつかを増加させ、且つ平滑化されたスベクトル包絡より も小さな振幅を有するスベクトル包絡についてスベクトル包絡の周波数領域のい くつかを減少させることにより、強調されたスベクトル包絡が生成される音声強 調方法。
  31. 31.スベクトル包絡の周波数領域表示が多帯域励起(MBE)音声コーダ又は 改良型多帯域励起(IMBE)音声コーダのスベクトル振幅パラメータの組であ る請求の範囲第30項記載の方法。
  32. 32.平滑化されたスベクトル包絡が、スベクトル包絡から低次モデルを推定す ることによって生成される請求の範囲第30又は31項記載の方法。
  33. 33.低次モデルが全極形モデルである請求の範囲第32項記載の方法。
JP50295792A 1990-12-05 1991-12-04 音声の量子化とエラー訂正のための方法 Expired - Lifetime JP3467270B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US07/624,878 US5226084A (en) 1990-12-05 1990-12-05 Methods for speech quantization and error correction
US624,878 1990-12-05
PCT/US1991/009135 WO1992010830A1 (en) 1990-12-05 1991-12-04 Methods for speech quantization and error correction

Publications (2)

Publication Number Publication Date
JPH06507252A true JPH06507252A (ja) 1994-08-11
JP3467270B2 JP3467270B2 (ja) 2003-11-17

Family

ID=24503712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50295792A Expired - Lifetime JP3467270B2 (ja) 1990-12-05 1991-12-04 音声の量子化とエラー訂正のための方法

Country Status (7)

Country Link
US (1) US5226084A (ja)
EP (3) EP0560931B1 (ja)
JP (1) JP3467270B2 (ja)
AU (1) AU657508B2 (ja)
CA (1) CA2096425C (ja)
DE (3) DE69132013T2 (ja)
WO (1) WO1992010830A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534950A (ja) * 2002-05-31 2005-11-17 ヴォイスエイジ・コーポレーション 線形予測に基づく音声コーデックにおける効率的なフレーム消失の隠蔽のための方法、及び装置

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5247579A (en) * 1990-12-05 1993-09-21 Digital Voice Systems, Inc. Methods for speech transmission
US5630011A (en) * 1990-12-05 1997-05-13 Digital Voice Systems, Inc. Quantization of harmonic amplitudes representing speech
US5765127A (en) * 1992-03-18 1998-06-09 Sony Corp High efficiency encoding method
ES2078834B1 (es) * 1992-10-30 1997-04-16 Alcatel Standard Electrica Metodo de segmentacion de cadenas de palabras en la fase de entrenamiento de un reconocedor de palabras conectadas.
US5517511A (en) * 1992-11-30 1996-05-14 Digital Voice Systems, Inc. Digital transmission of acoustic signals over a noisy communication channel
JP2746033B2 (ja) * 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
ATE211326T1 (de) * 1993-05-31 2002-01-15 Sony Corp Verfahren und vorrichtung zum kodieren oder dekodieren von signalen und aufzeichnungsmedium
BR9405445A (pt) * 1993-06-30 1999-09-08 Sony Corp Aparelho codificador e decodificador de sinal apropriado para codificar um sinal de entrada e decodificar um sinal codificado, suporte de gravação onde sinais codificados são gravados, e processo de codificação e de decodificação de sinal para codificar um sinal de entrada e decodificar um sinal codificado.
TW327223B (en) * 1993-09-28 1998-02-21 Sony Co Ltd Methods and apparatus for encoding an input signal broken into frequency components, methods and apparatus for decoding such encoded signal
US5715365A (en) * 1994-04-04 1998-02-03 Digital Voice Systems, Inc. Estimation of excitation parameters
US5787387A (en) * 1994-07-11 1998-07-28 Voxware, Inc. Harmonic adaptive speech coding method and system
JP3528258B2 (ja) * 1994-08-23 2004-05-17 ソニー株式会社 符号化音声信号の復号化方法及び装置
JP3557662B2 (ja) * 1994-08-30 2004-08-25 ソニー株式会社 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
AU696092B2 (en) * 1995-01-12 1998-09-03 Digital Voice Systems, Inc. Estimation of excitation parameters
US5701390A (en) * 1995-02-22 1997-12-23 Digital Voice Systems, Inc. Synthesis of MBE-based coded speech using regenerated phase information
US5754974A (en) * 1995-02-22 1998-05-19 Digital Voice Systems, Inc Spectral magnitude representation for multi-band excitation speech coders
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
AT403969B (de) * 1995-12-04 1998-07-27 Ericsson Schrack Aktiengesells Verfahren zur kompression eines analogen signals
WO1997027578A1 (en) * 1996-01-26 1997-07-31 Motorola Inc. Very low bit rate time domain speech analyzer for voice messaging
US6035007A (en) * 1996-03-12 2000-03-07 Ericsson Inc. Effective bypass of error control decoder in a digital radio system
KR100438801B1 (ko) * 1996-10-30 2004-07-16 삼성전자주식회사 랜덤에러에견고한부호화및복호화장치
KR100389898B1 (ko) * 1996-10-31 2003-10-17 삼성전자주식회사 음성부호화에 있어서 선스펙트럼쌍 계수의 양자화 방법
US5968199A (en) * 1996-12-18 1999-10-19 Ericsson Inc. High performance error control decoder
US5839098A (en) 1996-12-19 1998-11-17 Lucent Technologies Inc. Speech coder methods and systems
KR100437900B1 (ko) * 1996-12-24 2004-09-04 엘지전자 주식회사 음성코덱의음성데이터복원방법
JPH10233692A (ja) * 1997-01-16 1998-09-02 Sony Corp オーディオ信号符号化装置および符号化方法並びにオーディオ信号復号装置および復号方法
US6131084A (en) * 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
US6161089A (en) * 1997-03-14 2000-12-12 Digital Voice Systems, Inc. Multi-subframe quantization of spectral parameters
FR2768545B1 (fr) * 1997-09-18 2000-07-13 Matra Communication Procede de conditionnement d'un signal de parole numerique
US6199037B1 (en) 1997-12-04 2001-03-06 Digital Voice Systems, Inc. Joint quantization of speech subframe voicing metrics and fundamental frequencies
KR19990065424A (ko) * 1998-01-13 1999-08-05 윤종용 저지연 다중밴드 여기 보코더를 위한 피치 결정방식
FR2796194B1 (fr) * 1999-07-05 2002-05-03 Matra Nortel Communications Procedes et dispositifs d'analyse et de synthese audio
JP4449108B2 (ja) 1999-08-05 2010-04-14 パナソニック株式会社 音声復号装置
KR100474833B1 (ko) * 1999-11-17 2005-03-08 삼성전자주식회사 예측 및 멜-스케일 이진 벡터를 이용한 가변 차원스펙트럼 진폭 양자화 방법 및 그 장치
US6377916B1 (en) 1999-11-29 2002-04-23 Digital Voice Systems, Inc. Multiband harmonic transform coder
ATE303646T1 (de) * 2000-06-20 2005-09-15 Koninkl Philips Electronics Nv Sinusoidale kodierung
US6735563B1 (en) * 2000-07-13 2004-05-11 Qualcomm, Inc. Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
US6732071B2 (en) * 2001-09-27 2004-05-04 Intel Corporation Method, apparatus, and system for efficient rate control in audio encoding
US7027980B2 (en) * 2002-03-28 2006-04-11 Motorola, Inc. Method for modeling speech harmonic magnitudes
US7970606B2 (en) 2002-11-13 2011-06-28 Digital Voice Systems, Inc. Interoperable vocoder
US7634399B2 (en) * 2003-01-30 2009-12-15 Digital Voice Systems, Inc. Voice transcoder
US8359197B2 (en) * 2003-04-01 2013-01-22 Digital Voice Systems, Inc. Half-rate vocoder
TWI275074B (en) * 2004-04-12 2007-03-01 Vivotek Inc Method for analyzing energy consistency to process data
US8825482B2 (en) 2005-09-15 2014-09-02 Sony Computer Entertainment Inc. Audio, video, simulation, and user interface paradigms
KR100857111B1 (ko) * 2005-10-05 2008-09-08 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
WO2007040364A1 (en) 2005-10-05 2007-04-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US8068569B2 (en) 2005-10-05 2011-11-29 Lg Electronics, Inc. Method and apparatus for signal processing and encoding and decoding
US8194754B2 (en) 2005-10-13 2012-06-05 Lg Electronics Inc. Method for processing a signal and apparatus for processing a signal
EP1946555A4 (en) * 2005-10-13 2009-12-30 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING SIGNALS
US8019611B2 (en) 2005-10-13 2011-09-13 Lg Electronics Inc. Method of processing a signal and apparatus for processing a signal
US7590523B2 (en) * 2006-03-20 2009-09-15 Mindspeed Technologies, Inc. Speech post-processing using MDCT coefficients
JP4769673B2 (ja) * 2006-09-20 2011-09-07 富士通株式会社 オーディオ信号補間方法及びオーディオ信号補間装置
US8036886B2 (en) 2006-12-22 2011-10-11 Digital Voice Systems, Inc. Estimation of pulsed speech model parameters
JP2008281552A (ja) * 2007-04-09 2008-11-20 Seiko Epson Corp 初回測位出力位置演算決定方法、プログラム、記憶媒体、測位装置及び電子機器
CN101221765B (zh) * 2008-01-29 2011-02-02 北京理工大学 一种基于语音前向包络预测的差错隐藏方法
DE102010041435A1 (de) * 2010-09-27 2012-03-29 Siemens Medical Instruments Pte. Ltd. Verfahren zum Rekonstruieren eines Sprachsignals und Hörvorrichtung
US9948920B2 (en) 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US10068338B2 (en) 2015-03-12 2018-09-04 Qualcomm Incorporated Active sensing spatial resolution improvement through multiple receivers and code reuse
US9530215B2 (en) 2015-03-20 2016-12-27 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
US9635339B2 (en) 2015-08-14 2017-04-25 Qualcomm Incorporated Memory-efficient coded light error correction
US9846943B2 (en) 2015-08-31 2017-12-19 Qualcomm Incorporated Code domain power control for structured light
US11270714B2 (en) 2020-01-08 2022-03-08 Digital Voice Systems, Inc. Speech coding using time-varying interpolation
US11990144B2 (en) 2021-07-28 2024-05-21 Digital Voice Systems, Inc. Reducing perceived effects of non-voice data in digital speech

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3982070A (en) * 1974-06-05 1976-09-21 Bell Telephone Laboratories, Incorporated Phase vocoder speech synthesis system
US3975587A (en) * 1974-09-13 1976-08-17 International Telephone And Telegraph Corporation Digital vocoder
US3995116A (en) * 1974-11-18 1976-11-30 Bell Telephone Laboratories, Incorporated Emphasis controlled speech synthesizer
US4276647A (en) * 1979-08-02 1981-06-30 Xerox Corporation High speed Hamming code circuit and method for the correction of error bursts
US4454609A (en) * 1981-10-05 1984-06-12 Signatron, Inc. Speech intelligibility enhancement
AU570439B2 (en) * 1983-03-28 1988-03-17 Compression Labs, Inc. A combined intraframe and interframe transform coding system
US4885790A (en) * 1985-03-18 1989-12-05 Massachusetts Institute Of Technology Processing of acoustic waveforms
US4856068A (en) * 1985-03-18 1989-08-08 Massachusetts Institute Of Technology Audio pre-processing methods and apparatus
JPS61252596A (ja) * 1985-05-02 1986-11-10 株式会社日立製作所 文字音声通信方式及び装置
US4720861A (en) * 1985-12-24 1988-01-19 Itt Defense Communications A Division Of Itt Corporation Digital speech coding circuit
US4797926A (en) * 1986-09-11 1989-01-10 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech vocoder
FR2616993B1 (fr) * 1987-06-16 1989-11-24 Radiotechnique Ind & Comm Procede et dispositif de correction d'erreurs dans les donnees numeriques d'un signal de television
US5023910A (en) * 1988-04-08 1991-06-11 At&T Bell Laboratories Vector quantization in a harmonic speech coding arrangement
JPH02203400A (ja) * 1989-02-01 1990-08-13 Japan Radio Co Ltd 音声符号化方法
US5823910A (en) * 1995-11-23 1998-10-20 Hyundai Motor Company Transmission including planetary gear sets

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534950A (ja) * 2002-05-31 2005-11-17 ヴォイスエイジ・コーポレーション 線形予測に基づく音声コーデックにおける効率的なフレーム消失の隠蔽のための方法、及び装置
JP4658596B2 (ja) * 2002-05-31 2011-03-23 ヴォイスエイジ・コーポレーション 線形予測に基づく音声コーデックにおける効率的なフレーム消失の隠蔽のための方法、及び装置

Also Published As

Publication number Publication date
EP0560931A1 (en) 1993-09-22
CA2096425C (en) 2005-03-22
DE69133458T2 (de) 2006-02-23
EP0893791A2 (en) 1999-01-27
EP1211669A2 (en) 2002-06-05
JP3467270B2 (ja) 2003-11-17
AU9147091A (en) 1992-07-08
US5226084A (en) 1993-07-06
EP0560931B1 (en) 2000-03-01
AU657508B2 (en) 1995-03-16
EP0893791B1 (en) 2002-07-03
EP1211669B1 (en) 2005-05-04
CA2096425A1 (en) 1992-06-06
DE69133058T2 (de) 2002-10-31
DE69132013D1 (de) 2000-04-06
WO1992010830A1 (en) 1992-06-25
DE69132013T2 (de) 2000-11-02
EP1211669A3 (en) 2003-02-05
EP0893791A3 (en) 1999-05-19
DE69133458D1 (de) 2005-06-09
EP0560931A4 (ja) 1995-07-26
DE69133058D1 (de) 2002-08-08

Similar Documents

Publication Publication Date Title
JPH06507252A (ja) 音声の量子化とエラー訂正のための方法
US5247579A (en) Methods for speech transmission
US5701390A (en) Synthesis of MBE-based coded speech using regenerated phase information
US5754974A (en) Spectral magnitude representation for multi-band excitation speech coders
JP3343965B2 (ja) 音声符号化方法及び復号化方法
US7502734B2 (en) Method and device for robust predictive vector quantization of linear prediction parameters in sound signal coding
US6493664B1 (en) Spectral magnitude modeling and quantization in a frequency domain interpolative speech codec system
JP5343098B2 (ja) スーパーフレーム構造のlpcハーモニックボコーダ
US6377916B1 (en) Multiband harmonic transform coder
US8200497B2 (en) Synthesizing/decoding speech samples corresponding to a voicing state
US6691092B1 (en) Voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system
EP0927988B1 (en) Encoding speech
JP2004310088A (ja) 半レート・ボコーダ
JP2001509616A (ja) 長期間予測と多重パルス励起信号を用いて音声信号を符号化および/または復号化する方法
JP2002366195A (ja) 音声符号化パラメータ符号化方法及び装置
US20100145712A1 (en) Coding of digital audio signals
KR100220783B1 (ko) 음성 양자화 및 에러 보정 방법
Hernandez-Gomez et al. Short-time synthesis procedures in vector adaptive transform coding of speech

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9