JPH06222799A - 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム - Google Patents

音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム

Info

Publication number
JPH06222799A
JPH06222799A JP5276013A JP27601393A JPH06222799A JP H06222799 A JPH06222799 A JP H06222799A JP 5276013 A JP5276013 A JP 5276013A JP 27601393 A JP27601393 A JP 27601393A JP H06222799 A JPH06222799 A JP H06222799A
Authority
JP
Japan
Prior art keywords
spectrum
signal
speech
signals
speech signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5276013A
Other languages
English (en)
Other versions
JP3335441B2 (ja
Inventor
Yair Shoham
ショーハム ヤー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
American Telephone and Telegraph Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by American Telephone and Telegraph Co Inc filed Critical American Telephone and Telegraph Co Inc
Publication of JPH06222799A publication Critical patent/JPH06222799A/ja
Application granted granted Critical
Publication of JP3335441B2 publication Critical patent/JP3335441B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0012Smoothing of parameters of the decoder interpolation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Abstract

(57)【要約】 【目的】 コスト的にも、条件的にも高品質の音声の圧
縮を提供する方法およびその装置を提供するものであ
る。 【構成】 本発明の符号化および復号化方法は、時間周
波数補間(Time-Frequency Interpolation:TFI)と
称される技術に基づいている。このTFIは、音声信号
を特徴付ける複数の線形予測符号化パラメータを形成す
る。次に、TFIは、音声信号のポイントに対し、サン
プルごとの個別のスペクトルを生成し、その後、個別の
スペクトルのシーケンスをデシメート(decimate)す
る。そして、最後にTFIは、この分散スペクトルの間
を補間し、線形予測符号化パラメータに基づいて、スム
ーズな音声信号を生成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は低い符号化速度でもっ
て、高品質の音声符号化を得る方法に関し、特に、時間
周波数領域において、音声信号を表し補間することに基
づいて、有声音声を処理する方法に関する。
【0002】
【従来の技術】低速度の音声符号化の研究は、移動通信
および個人通信用のデジタル音声伝送に対する国家的、
あるいは国際的な興味が増加することにより、ますます
盛んになっている。通信工業会(Telecommunication In
dustry Association:TIA)は、現在の北アメリカの
「フルレート」のデジタルシステム(IS54)が完全
に開発される前から「ハーフレート」のデジタル通信標
準を確立する方法に動いてきていた。同様な動きは、ヨ
ーロッパおよび日本でも行われている。一般的に、伝送
速度を半分に抑えながら、現行の標準システムを越える
ような、あるいは、それに到達するような技術を開発す
ることが望まれている。
【0003】現行のデジタルセルラ標準の音声符号化装
置は、コード励起線形予測アルゴリズム(CELP)、
あるいはそれに関連したものに基づいている。これにつ
いては、M.R.SchroederとB.S.Atalの論文「コード励起
線形予測(CELP):低速ビットレートにおける高品
質音声」(Proc.IEEE ICASSP'85,Vol.3,pp.937-940,1
985年3月号);P.KroonとE.F.Deprettereの論文
「4.8と16Kb/sの間の符号化速度で高品質音声
の符号化用の分析バイ合成予測符号化装置のクラス」
(IEEE J.on Sel.Areas in Comm.,SAC-6(2).pp.353-36
3,1988年2月号)を参照のこと。現行のCELP符
号化装置は、約8Kbps以上の速度で、高品質の符号
化音声を伝送できる。しかし、この性能は符号化速度
が、約4Kbps以下になると、急速に劣化する。
【0004】
【発明が解決しようとする課題】本発明の目的は、従来
の方法よりも、コスト的にも、条件的にも高品質の音声
の圧縮を提供する方法およびその装置を提供するもので
ある。
【0005】
【課題を解決するための手段】本発明の符号化および復
号化方法は、時間周波数補間(Time-Frequency Interpo
lation:TFI)と称される技術に基づいている。この
TFIは、音声信号を特徴付ける複数の線形予測符号化
パラメータを形成する。次に、TFIは、音声信号のポ
イントに対し、サンプルごとの個別のスペクトルを生成
し、その後、個別のスペクトルのシーケンスをデシメー
ト(decimate)する。そして、最後にTFIは、この分
散スペクトルの間を補間し、線形予測符号化パラメータ
に基づいて、スムーズな音声信号を生成する。
【0006】
【実施例】1.導入 図1は音声を符号化する本発明の一実施例である。アナ
ログ音声信号は、サンプラ101によりデジタル化さ
れ、その技術は公知である。このデジタル化された音声
信号は、その後、符号化装置103により、ここに記載
する法則に基づいて符号化される。この符号化装置10
3は、さらに符号化音声信号を操作して、蓄積または伝
送チャンネル105用の音声信号を生成する。
【0007】伝送または蓄積された後、この受信した符
号化シーケンスは、復号化装置107で復号化される。
元の入力アナログ音声信号を再構成されたものは、公知
の技術によりD/A変換器109を介して、復号化音声
信号を通過させることにより得られる。
【0008】本発明の符号化/復号化の処理は、時間周
波数補間法(Time-Frequency Interpolation:TFI)
と称する技術を用いている。このTFIについては、
ックション2で説明し、その後、本発明の詳細な説明を
セックション3で行う。
【0009】2.時間周波数補間法の外観 時間周波数表示 時間周波数表示(Time-Frequency Representation:TF
R)法は、短時間のサンプルごとの分離スペクトルシー
ケンスの概念に基づいている。分離時間軸の各時間n
は、M(n)点分離スペクトルに関連している。単純な
ケースでは、各スペクトルは、時間シリーズx(n)の
離散型フーリエ変換(discrete Fourier transform:D
FT)連続時間セグメント[n1(n)、n2(n)]に
対し、M(n)=n2(n)−n1(n)+1で得られ
る。この時間セグメントの大きさは、必ずしも等しくな
く、そしてオーバーラップしてもよい。厳密には必要で
はないが、その時間セグメント内にnがあり、すなわ
ち、n1(n)≦n≦n2(n)と仮定する。こののケー
スにおいて、n番目のスペクトルは、従来は
【数1】 式(1)によりあたえられる。時間シリーズx(n)
は、シーケンスX(n,K)により二重特定(over-spe
cified)され、オーバーラップする時間セグメントの量
にも依存するが、X(n,K)からx(n)を再構成す
る幾つかの方法が存在する。しかし、正確な再構成法
は、TFR法を用いる際には主要なことではない。用途
に応じて、二重特定する(over-specifying)特徴は、
実際のところ、ある種の特性を有する信号を合成する際
には有益なことである。
【0010】一般的な場合には、時間nに割り当てられ
たスペクトルは、様々な所望の結果を得るために、様々
な方法で生成することができる。一般的なケースのスペ
クトルシーケンスは、Y(n,K)により表示され、数
(1)に直ちに表される変換操作と、より一般的な変換
操作、すなわちデシメーション、補間、シフト、時間
(周波数)スケール修正、位相操作のような線形および
非線形の技術を用いる操作との間を識別することができ
る。
【0011】演算子Fn -1を用いて、Y(n,K)の逆
変換を、式(1’)を用いて表すことができる。もし、
Y(n,K)=X(n,K)の場合には、定義により、
y(n,m)=x(m)で、n1(n)≦m≦n2(n)
となる。この時間セグメントの外側では、y(n,m)
は、そのセグメントの周期的拡張であり、また、一般的
には、x(m)には等しくない。一組の信号y(n,
m)が、Y(n,K)から得られたとすると、新たな信
号z(n)は、時間変化ウィンドウ演算子Wn={w
(n,m)}を用いて、合成することができる。
【数2】 このTFRプロセスは、図2に図示されており、この図
2は、離散型時間周波数ドメイン(n,K)内の典型的
のスペクトルのシーケンスを表す。各スペクトルは、一
つの時間領域セグメントから得られる。このセグメント
は、通常オーバーラップし、同一のサイズである必要は
ない。同図は、また時間/時間領域(n,m)内の対応
するy(n,m)を表す。このウィンドウ関数w(n,
m)は、n軸に沿って、垂直軸の方向に表示され、重み
付き加算信号z(m)はm軸に沿って表示されている。
【0012】上記のTFRの一般的な定義は、n軸に沿
って、時間境界を設定せず、将来(過去も)のデータ
は、現在のサンプルの合成に必要であるので、それは偶
然ではない。実際の状況に応じて、時間の限界をセット
する必要があり、従来通り、TFRプロセスは、時間フ
レーム[0,…,N−1]で発生し、n≧Nの場合に
は、データは得られないと仮定する。過去のデータ(n
≦0)は、現行のフレームの処理用に得ることができ
る。
【0013】上記のTFRフレームワークは、様々な異
なる応用に適用するに十分な程度に一般的である。少な
い例として、信号(音声)許可前および後、フィルタ処
理、時間スケール修正およびデータ圧縮である。これら
の処理において、重要な点は、低速音声符号化に対する
TFRの使用である。このTFRは、LPCベースの音
声符号化アルゴリズムにおけるスペクトルデシメーショ
ン補間法、およびベクトル量子化に対する基礎フレーム
ワークとして使用される。次のセックションにおいて、
TFRフレームワーク内のデシメーション−補間プロセ
スを説明する。
【0014】時間周波数補間法 時間周波数補間法(Time-frequency interpolation:T
FI)は、ここでは、時間軸nに沿ったTFRスペクト
ルY(n,K)をまずデシメートし、その後、残存周囲
から送出スペクトルを補間するプロセスを称する。用語
TFIは、スペクトル要素の周波数空間の補間の意味で
ある。詳細は以下に示す。
【0015】有声音声(すなわち、空気の疑似周期的な
パルスに励起された声道)の符号化については、L.R.Ra
binerとR.W.Schaferの論文「音声信号のデジタル処理」
(Prentice Hall,1978)を参照のこと。TFIと組み合
わせたTFRは、符号化ひずみが拒絶されることの少な
い有益な領域を提供する。このことが言えるのは、有声
音声のスペクトル、特に、音声の周期性に同期した時に
は、その変化は緩やかで、スムーズであるという理由に
基づく。このTFIのアプローチは、この音声特性を利
用する自然の方法である。強調すべき点は、スペクトル
の補間であって、波形の補間ではない点である。しか
し、このスペクトルは、サンプルごとのベースに補間さ
れるために、対応する波形は理想的(元の)波形とは、
明らかに遥かに異なるにも関わらず、スムーズに響く傾
向がある。
【0016】便宜上、時間フレーム境界とデシメーショ
ンプロセスを整合する従来の方法を用いる。特に、Y
(N−1,K)以外のスペクトルをゼロに設定する。こ
のゼロに設定されたスペクトルは、その後、Y(N−
1,K)とY(−1,K)とから補間され、後者は先行
フレームの監視スペクトルである。様々な補間関数が使
用でき、その幾つかは後述する。一般的に、数(3)で
表される。
【数3】 ここで、In演算子は、n軸に沿った補間関数を表し、
対応する信号y(n,m)は、
【数4】 である。ここで、Fn -1は時間nにおいて、周波数軸K
から時間軸mへの逆DFTを表す。この全体のTFIプ
ロセスは、以下の一般式で表すことができる。
【数5】 ここで、一般的に演算子Wn、Fn -1、Inは、交換性が
ない。すなわち、その演算順序を交換すると、結果が変
わってしまう。しかし、特別の場合については、部分的
あるいは全体的に交換性を有する。このような特別な場
合には、全体の手続きの複雑性は、演算子の順序を変え
ることにより、大幅に減少できるので、交換性は保持さ
れるか否かを特定することは重要なことである。
【0017】次のセックションにおいて、TFIの特別
の場合について説明し、特に、これらは低速音声符号化
に有益である。
【0018】TFIのクラス 数(5)のTFIの式は、極めて一般的で、特別な応用
については、適切ではない。以下のセックションにおい
ては、本発明の幾つかの実施例の詳細を説明する。特
に、音声に適用する場合に、実際的なTFIの4個のク
ラスについて後述する。当業者は、TFIの他の実施例
についても適用可能であることはわかるであろう。
【0019】1.線形TFI 本発明の一実施例においては、線形TFIが用いられ
る。この線形TFIは、Inがその二つの引数におい
て、線形演算である場合である。この場合において、演
算子Fn -1とInは、一般的には、交換性を有さないが、
ここでは交換可能である。補間処理の前に、逆DFTを
実行することは、TFIアルゴリズムの全体のコストを
減少させるので、このことは極めて重要である。この補
間処理はIn(u,v)=α(n)u+β(n)vで表
され、すなわち、
【数6】 となる。Inは線形演算子であるが、補間関数α(n)
とβ(n)は、nにおいては必ずしも線形ではなく、そ
して、線形TFIは、この意味においては、線形補間で
はない。数(4)(5)(6)を操作することにより、
【数7】がえられ、ここで、
【数8】である。数(7)はフレーム境界における2個
の監視スペクトルに対応する2個の波形に対し、直接実
行される線形TFIを表す。数(8)は、この特別の場
合において、ウィンドウ関数w(n,m)がTFIプロ
セスにおいて、直接的な役目を有さないことを意味す
る。これらの式は、α(m)とβ(m)のオン時間オフ
ライン計算において使用される。実際α(m)とβ
(m)は、w(n,m)を使用せずに直接特定できる。
【0020】線形補間関数α(m)とβ(m)を有する
線形TFIは、その実行する観点から単純で魅力的であ
り、同様な形式で以前にも使用されている。B.W.Kleijn
の論文「線形予測符号化における連続表示」(Proc.IEE
EICASSP'91.Vol.S1,pp.201-2041991年5月号)とB.
W.Kleijnの論文「音声符号化における波形補間法」(Di
gital Signal Processing,Vol.1,pp.215-230,1991.)を
参照のこと。この場合において、補間関数は、一般的
に、β(m)=m/Nで、α(m)=1−β(m)とし
て定義される。このことは、z(m)は一つの波形から
他の波形への徐々の変化であることを意味する。
【0021】2.振幅位相TFI 本発明の実施例は、非線形TFIの重要な例である。線
形TFIは複合スペクトルの線形結合に基づいている。
この操作は、一般的にはスペクトルの形状を保持せず、
送出スペクトルのおぼろげな予測を生成する。簡単に述
べると、AとBは、2個の複合スペクトルで、そのαA
+βBの振幅は、AまたはBの何れかのそれとはまった
く異なっている。音声処理の応用については、線形TF
Iにより生成される短期間スペクトルひずみは、好まし
くない可聴予測点(antifact)を生成することがある。
この問題を解決する一つの方法は、振幅保存補間法を使
用することである。In(.,.)は、その引数の振幅
と位相を個別に補間するために定義される。この場合に
おいて、InとFn -1は交換不可能で、補間されたスペク
トルは、逆DFTを得る前に得られなければならない。
【0022】低速音声符号化の応用においては、振幅−
位相のアプローチは、位相は完全に無視される(ゼロに
決定される)ような特殊の場合にのみ適用される。この
ことはTFIのスペクトル形状保存と固有の平滑さに起
因する良好な音声品質を生成しながら、符号化されるべ
き情報を半分にこのことにより削減できる。
【0023】3.低速TFI対高速TFI 本発明の別の側面においては、このTFIの速度はスペ
クトルシーケンスのサンプリングの周波数(1/N)と
して定義される。この離散型スペクトルY(n,K)
は、y(n,m)の一つのM(n)サイズの期間に対応
する。N>M(n)の場合、y(n,m)の周期的に拡
張した部分は、TFIプロセスで発生する。このケース
は、低速TFI(LR−TFI)と称される。このLR
−TFIは、特に低速符号化のようなほぼ周期的な信号
を生成する際に最も有効である。
【0024】N<M(n)の場合には、y(n,m)の
拡張部分は、TFIプロセスでは働かない。この高速T
FI(HR−TFI)は、基本的には如何なる信号も処
理するのに使用することができる。しかし、近似周期的
信号に対して最も有効であり、その理由はスペクトルの
平滑な展開ができるからである。一般的に、HR−TF
Iにおいては、このスペクトルはオーバーラップする時
間セグメントにとって変わる。1/N>0のTFI速度
に基づいては、基本的な制限は存在しない。
【0025】音声符号化において、このTFIの速度は
非常に重要なファクタである。ビットレートとこのTF
Iレートとの間に相反する用件が存在する。HR−TF
Iはスムーズで、正確な音声の記述を提供するが、高速
ビットレートは、そのデータを符号化するのに必要であ
る。LR−TFIは正確さに欠け、補間の予測点により
敏感であるが、低速ビットレートはデータを符号化する
のに必要である。異なるTFI速度に対し、符号化性能
を測定することにより、実験的に良好な妥協点を見出す
ことができる。
【0026】4.時間スケール修正を有するTFI 本発明の他の側面においては、時間スケール修正(Time
Scale Modification:TMS)を採用する。TSMは時
間軸に沿った連続時間信号x(t)の拡張または収縮に
相当する。この演算は、z(t)=x(c(t)t)に
おいて、時間可変であり得る。離散型時間軸において
は、同様な演算z(m)=x(c(m)m)は、一般的
に定義できない。z(m)を得るために、x(m)を連
続時間バージョンにまず変換し、タイムスケール化し
て、最終的にそれを再サンプル化する。この手続きは、
非常にコストのかかるものである。DFT(または、他
のシヌソイド表示)を用いると、TSMは
【数9】 により近似できる。この数(9)は、真のTSMではな
く、その単に近似であることに注意すべきである。しか
し、周期的な信号に対しては十分機能し、適当な拡張ま
たは収縮でもって十分に機能する。この疑似的なTSM
方法は、音声符号化処理に極めて有効で、それにより、
変化しつつあるピッチ期間と十分によく整合できるから
である。実際数(4)でFn -1を定義することによりT
FIアルゴリズムの積分部分にこの方法を変えることが
できる。すなわち、
【数10】 ここで、二つの時間インデックスのnは、DFTのスナ
ップショットがサイズM(n)のセグメントにテークオ
ーバーされる時間であり、時間インデックスmは、逆D
FTがTSM関数c(m)を用いて、時間スケールの修
正される時間軸である。関数c(m)は、基本的な位相
領域Ψ(n,m)=2πc(m)m/M(n)における
特定の補間方法を選択することにより、間接的に定義す
ることができる。この位相補間法は、m軸に沿って実行
され、上記の式で与えられ、各波形y(n,m)に対し
て異なることもある。様々な補間方法を用いることがで
き、これについて、前掲のKleijnの論文を参照のこと。
低速符号化装置に使用される補間方法は後述する。
【0027】多くの場合において、演算子Fnをnから
完全に独立させることは可能であり、有益である。この
場合において、位相は任意にDFTのサイズと無関係に
でき、mにのみ依存させることができる。その後、補間
法を選択し、m=0、m=N−1において、二つの境界
条件とともに選択することにより決定できる。音声処理
の場合境界条件は、2個の基礎周波数(ピッチ値)で通
常与えることができる。このDFTのサイズは、一つの
共通のサイズM=maxnM(n)を用いて、nから独
立させ、Mよりも短いすべてのスペクトルにゼロを付属
させることができる。Mは信号の局部期間に通常近く、
しかし、TFIは如何なるMも許可する。位相は現在逆
DFTサイズとは独立している。すなわち、元の周波数
スペースから独立しているので、位相Ψ(m)により形
成される実際のスペースは、スペクトルエイリアシング
(spectral aliasing)を起こさせることはない。この
ことはY(n,K)が境界スペクトルから補間され、そ
して、Y(n,K)の実際のサイズを如何に決定するか
に大きく依存している。TFIシステムの利点は、ここ
で、計算式で表されるように、スペクトルエイリアシン
グ(spectral aliasing)は過度の時間スケーリングに
起因して、スペクトル補間の間制御される。これは時間
領域で、直接行うことは困難である。時間不変演算子F
-1
【数11】 で表示できる。ここで、演算子F-1は演算子Wnと交換
でき、これは低コストで実行するのに利点がある。
【0028】TSMの特別な場合では、部分的循環シフ
ト(Fractional Circular Shift:FCS)であり、この
FCSは二つの周期的信号の正確な整合のために有益で
ある。下の連続する時間周期信号のFCSはz(t)=
x(t−dt)で与えられ、逆DFTにより以下のよう
に概算できる。
【数12】 ここで、dtは所望の部分シフトである。c(m)=m
(1−dt/m)を定義することにより、TSMの特別
な場合として、それをみることができる。FCSは通常
スペクトルY(n,K)の位相修正としてみることもで
き、その修正スペクトルは
【数13】 により与えられる。低速符号化装置のFCSの使用につ
いて次に述べる。
【0029】5.パラメータ化されたTFI 本発明の最後の側面はDFTのパラメータ化技術の使用
に関する。HR−TFIにおいては、時間ユニット当た
りに含まれる要素の数は下層信号のそれよりも遥かに大
きい。ある種の応用においては、このDFTを、性能を
大きくロスすることなく、サイズを減少したパラメート
リ表示でもって概算することができる。要素の数を減少
する一つの単純な方法は、非均一にDFTをデシメート
することである。スペクトルを平滑化する技術はこのめ
たに使用される。パラメータ化されたTFIは低速音声
符号化に有益で、その理由は制限されたビットの予定は
すべてのDFTの要素を符号化するには十分ではないか
らである。
【0030】3.具体的実施例 TFIに基づく低速音声符号化 このセックションでは、TFIに基づく音声符号化につ
いて詳述する。本発明による符号化装置のブロック図が
図3に示されている。この符号化装置103は従来のL
PCアナライザ205を介して、デジタル化音声信号を
処理することによりその動作を開始し、それにより、ス
ペクトルエンベロープ情報を分解する。このLPCアナ
ライザの製造方法および使用法については公知である。
このスペクトルエンベロープ情報は、LPCパラメータ
により表示され、このパラメータはLPC量子化装置2
10により量子化され、全極LPCフィルタ220に対
する係数となる。
【0031】音声とピッチアナライザ230は、デジタ
ル化音声信号に基づいて動作して、この音声が有声音
か、無声音かを決定する。この音声/ピッチアナライザ
230は、音声信号のピッチ周期に基づいて、ピッチ信
号を生成し、それが周波数補間符号化装置235により
使用される。現行のピッチ信号は、図示したような他の
信号とともにインデックス化され、それにより、信号の
符号化表示は、コードブック内の複数のエントリの一つ
に対応するインデックスである。これらの信号を如何に
圧縮するかについては公知である。このインデックス
は、単純に信号を特定する圧縮方法である。このインデ
ックスのついた信号は、チャンネル符号化/バッファ装
置225に転送されて、それらは蓄積/伝送チャンネル
105を介して記憶、あるいは通信される。この符号化
装置103は現行のデータが有声音か、無声音かに基づ
いて、二つの異なるモードの一つでデジタル化音声信号
を処理し、符号化する。
【0032】非発声モード(すなわち、ボーカルトラッ
クトが拡張スペクトルノイズソースにより励起される場
合、前掲のRabinerの文献を参照のこと)においては、
この符号化装置はCELP符号化装置215を用いる。
これについては前掲のM.R.SchroederとB.S.Atalの論
文、およびP.KroonとE.F.Deprettereの論文を参照のこ
と。このCELP符号化装置215は、出力符号化信号
をモニタすることにより、符号化励起信号を最適化す
る。これは、点線のフィードバックラインによって図で
は表されている。このモードにおいては、信号は完全に
非周期的で、それ故にピッチループ、または同様な技術
によって長期間の冗長性を開発する試みはない。
【0033】信号が有声であると宣言されると、CEL
Pモードは切られて、周波数補間符号化装置235はス
イッチ305により入る。以下、この符号化モードにつ
いて説明する。このモードで行われる様々な操作が図4
に示される。同図はTFIのアルゴリズムの論理列につ
いて示している。当業者は実際には、あるいは他の特別
なシステムに対しては実際の流れは幾分難しいことはわ
かるであろう。同図に示すように、TFI符号化装置
は、LPC残留、あるいはLPC励起信号に入力され、
LPC逆フィルタ310により、この入力音声を逆フィ
ルタ処理することにより得られる。フレームごとに一回
初期のスペクトルX(K)が、DFTをピッチサイズD
FT320を用いて適用することにより得られる。ここ
で、このDFTの長さは、現行のピッチ信号により決定
される。このピッチ化されたサイズのDFTを使用する
のがよいが、必ずしも必要なものではない。しかし、こ
のセグメントは、一つのフレームよりも長いことがあ
る。その後、このスペクトルはスペクトル修正装置33
0により修正されて、そのサイズを減少し、この修正さ
れたスペクトルは予測重み付きベクトル量子化装置34
0により量子化される。遅延装置350は、この量子化
の操作のために必要なものである。この操作により、ス
ペクトルY(N−1,K)、すなわち現行フレームの終
点に関連するスペクトルを生成する。その後、この量子
化されたスペクトルは現行のピッチ期間とともに、補間
および整合装置360に転送される。
【0034】図5は図4の補間および整合装置360で
示される補間および整合ユニットのブロック図である。
現行スペクトル、遅延装置370からの先行量子化スペ
クトルおよび現行ピッチ信号がこのユニットに入力され
る。現行スペクトル、Y(N−1,K)がまずスペクト
ル修正変換装置/強化装置405により強化されて、ス
ペクトル修正装置330により実行された操作を変換、
あるいは変更する。この再修正されたスペクトルは、そ
の後整合ユニット410内でFCS操作による先行フレ
ームのスペクトルと整合させられ、補間ユニット420
により補間される。さらに、この位相もまた補間され
る。この補間および整合装置360は位相シーケンス
Y’(n,K)と位相Ψ(m)とを生成し、それらは励
起合成装置380に入力される。
【0035】図6に示されるように、この励起合成装置
380において、スペクトルは位相制御逆DFT510
により時間シーケンス、y(n,m)に変換され、時間
シーケンスは符号化された発声励起信号を生成するため
には第2ウィンドウ化装置520によりウィンドウ化さ
れる。
【0036】この補間操作と合成操作は受信機内で再生
される。図7は復号化装置107のブロック図で、ここ
で、750はCELP復号化、あるいはTFI復号化を
音声は有声音、または無声音の何れかにより選択する。
図8はTFI復号化装置720のブロック図である。T
FI復号化装置のブロックは符号化装置内の同一名のブ
ロックと同様な機能を実行する。
【0037】多くの異なるTFIアルゴリズムがこのフ
レームワーク内で方式化することができる。最適のシス
テムを構成する明白な方法はなく、たくさんの経験的、
演繹的な手法が含まれる。一つの方法は単純なシステム
でもってスタートし、徐々にそれを問題を一つ一つ解決
することにより、プロセスへの洞察を深めていくことで
ある。この線に沿ってより詳細な異なる3個の異なるT
FIシステムについて以下に説明する。
【0038】1.TFIシステム1 このシステムは上記した線形TFIに基づいている。こ
こで、スペクトル修正はDFT要素の上部20%をゼロ
化するだけである。Mが現行の最初DFTサイズ(現行
ピッチの半分)である場合には、X’(K)、Y(N−
1,K)は0.8Mの複合要素を有するだけである。こ
のウィンドウの目的はディメンジョンを減少させること
により、以下のVQ操作をより効率的にすることにあ
る。
【0039】このスペクトルは重み付き、可変サイズ、
予測ベクトル量子化により量子化される。スペクトル重
み付けはllH(K)[X’(K)−Y(N−1,K)]
llを最小化することにより達成される。ここで、ll・ll
は、二乗振幅の和を意味する。H(K)は修正全極LP
Cフィルタのインパルス応答のDFTである。これにつ
いては、前掲のSchroederとAtalの論文、およびKroonと
Deprettereの論文を参照のこと。この量子化されたスペ
クトルは数(13)によりFCSをY(N−1,K)に
適用することにより、先行スペクトルと整合する。最適
の部分シフトはY’(−1,K)とY’(N−1,K)
の最大相関のために見いだされる。
【0040】補間および合成は数(11)により記載さ
れた方法により正確に実行され、その線形補間関数はα
(m)=1−m/N,β(m)=m/Nである。逆DF
T位相Ψ(m)はピッチ周波数線形軌道を仮定すること
により補間される。先行ピッチ角度周波数と現行ピッチ
角度周波数がそれぞれωpとωcであると、その位相は次
式によって与えられる。
【数14】
【0041】このシステム1はLR−TFIのために設
計されている。この励起スペクトルは20msecに一
度間隔の低速度で更新される。それ故に、このフレーム
のサイズはN=160サンプルで、数個のピッチ周期を
含んでいる。この方法により、スペクトルを量子化する
ことはすべての入手可能なビットを20msecごとに
一個のベクトルを符号化するのに使用されるので効率的
である。実際、この符号化された有声音声は極めて平滑
に響き、量子化エラーに起因する粗雑さがない。この粗
雑さはこの速度では他の符号化装置にとっては極めて一
般的なことではある。しかし、前述したように長期間の
間隔にわたる二つのスペクトルの線形TFIは時々この
スペクトルにひずみを与える。ピッチ境界の値の差が大
きいと、線形TFIは黙示的なスペクトルエイリアシン
グ(implicit spectral aliasing)を示す。また、有声
音声の自然さを保持するのに重要なピッチ間の変化は補
間プロセスにより取り除かれて、過度な周期性を発生す
る。
【0042】2.TFIシステム2 このシステム2は、システム1における予測点の幾つか
をLR−TFIからHR−TFIに移行することによっ
て取り除くことを目的にしている。このシステム2にお
いては、このTFIのレートは、システム1のそれより
も4倍速く、これは各40msecごとにTFIプロセ
スが実行されることを意味する(40サンプル)。この
スペクトルの周波数を更新することにより、ダイナミッ
クな音声の正確な表示をシステム1に特徴的な過剰な周
期性なしにできる。このTFIのレートを増加させる
と、たくさんのデータが単位時間当たりに量子化される
ので、量子化装置に対して負担が大きくなる。
【0043】この問題に対するアプローチは、このスペ
クトルを修正化することにより量子化されるべき、デー
タのサイズを以下の式により減少することである。
【数15】 そして、現行のピッチ間Pに対して、ウィンドウの幅は
次式で与えられる。
【数16】 このことは、ベクトル量子化の大きさは20以上ではな
いことを意味する。振幅のみのスペクトルの使用は、デ
ータの1/2の減少となる。スペクトルの形状を保持し
ながら、位相を除去することは、合成された励起がより
スパイク状態となる。このことは、ときに出力音声が少
しばかり金属的に響くことになる。しかし、高度な量子
化性能を達成することの利点は、このような些細な不利
益点以上の価値があるものである。スペクトルの量子化
は、システム1の場合よりも4倍も頻繁に行われ、しか
も20msec間隔ごとに同一のビットでもって行われ
る。これはVQディメンジョンを減少することによって
可能である。
【0044】0.4P>20の場合、数(15)と(1
6)により定義される演算は、ローパスフィルタ処理を
意味する。この影響を避けるために、量子化されたスペ
クトルは、スペクトル修正変換装置/強化装置405に
より図5に示されるように、または振幅スペクトルの平
均値を送出データのすべての場所に割り当てることによ
り、拡張または修正を元に戻される。
【数17】 これはLPC残留がほぼ白色であるので、送出DFT要
素は、非送出のそれとほぼ同一レベルを有するという仮
定に基づいている。明らかに、これは多くの場合に当て
はまらない。しかし、リスンニングの試験においては、
スペクトルの高端部では、得られたスペクトルのひずみ
は、あまり聴きづらいものではない。
【0045】このシステムにおいて、このスペクトルは
位相をゼロに設定する非線形操作によって修正および強
化される。少量のランダムな位相ジッタが音声をより自
然に聞こえるようにする。線形補間および逆DFTは交
換可能である。それ故に、補間と合成はシステム1と同
様に行うことができる。
【0046】3.TFIシステム3 このシステム3は、上記の非線形振幅位相LR−TFI
を使用としている。これは性能をさらにシステム1とシ
ステム2の両方の虚偽予測点を減少することにより、向
上させようとするものである。最初のスペクトルX
(K)は、K≧0.4Pにより、インデックス化された
すべての要素をゼロにおいてウィンドウ化し、その後ス
ペクトル量子化される。この量子化スペクトルY(N−
1,K)は、その後、振幅ベクトルY(N−1,k)と
位相ベクトルargY(N−1,K)に分解される。ス
ペクトルのシーケンスは、その後、振幅と位相の線形補
間法により、先行フレームからの振幅と位相を用いて生
成される。
【数18】 上記のベクトル補間法において、ベクトルのサイズはK
maxである。これは先行スペクトルサイズと現行スペク
トルサイズの最大値である。より短いスペクトルは、ゼ
ロパッディング(zero-padding)により、Kmaxまで拡
張される。補間された位相は、フレーム境界方向へのソ
ーススペクトルのそれに近接している。この中間位相ベ
クトルは、線形補間は量的な意味で、所望の位相に対
し、良好な近似を意味するものでないため、幾分任意的
なものである。しかし、振幅スペクトルが保存されてい
るので、この補間された位相は、信号の拡散における真
のスペクトルに類似に振る舞い、かくして、システム2
のスバイクの発生は削除される。
【0047】上記のベクトル補間は、二つの境界スペク
トルの空間の間の大きな差の場合、スペクトルエイリア
シング(spectral aliasing)、またはスペクトルひず
みの可能性については考慮していない。よりよい補間体
系はこの点に関し将来研究されるであろう。
【0048】{Y(n,K),argY(n,K)}の
対により形成される各複合スペクトルY(n,K)は、
FCS処理されて、そのY(−1,K)との相関を最大
にして整合したスペクトルY’(n,K)を生成する。
ここで、数(14)の位相Ψ(m)でもって逆DFTが
実行される。その後、このようにして得られたy(n,
k)は、数(2)の演算子Wnにより、以下に定義され
る幅Qの単純四角関数w(n,m)を用いて、重み付け
加算される。
【数19】 このことは、各波形y(n,m)は局部的のみ最終波形
z(m)に寄与することを意味する。ウィンドウサイズ
Qに対する良好な値は、処理された音声を聞くことによ
って、実験的に得られる。
【0049】ここには、時間周波数補間技術(TFI)
とその有声音声の低速符号化への応用について述べた。
さらに、ここでは一般的なTFIフレームワークの形成
について主に述べた。このフレームワーク内において、
有声音声の符号化用の3個の特別なTFIシステムにつ
いて記載した。この方法およびアルゴリズムは特別なハ
ードウェアまたはソフトウェアを参照することなく記述
できる。そして、このようなハードウェアおよびソフト
ウェアは特別な応用に対し、好ましいように当業者は容
易に作成することができる。
【0050】
【発明の効果】以上述べたように、本発明によれば、従
来の方法よりも、コスト的にも、条件的にも高品質の音
声の圧縮を提供する方法およびその装置を提供すること
ができる。
【図面の簡単な説明】
【図1】本発明の音声符号化システムを表す図である。
【図2】時間周波数表示を表す図である。
【図3】TFIベースの低速音声符号化システムのブロ
ック図である。
【図4】時間周波数補間符号化装置を表す図である。
【図5】補間ユニットと整合ユニットとを表すブロック
図である。
【図6】励起合成装置を表すブロック図である。
【図7】TFIベースの低速音声復号化システムを表す
ブロック図である。
【図8】TFI復号化装置のブロック図である。
【符号の説明】
101 サンプラ 103 符号化装置 105 蓄積または伝送チャンネル 107 復号化装置 109 D/A変換器 205 LPCアナライザ 210 LPC量子化装置 215 CELP符号化装置 220 全極LPCフィルタ 225 チャンネル符号化/バッファ装置 230 音声とピッチアナライザ 235 周波数補間符号化装置 310 LPC逆フィルタ 320 ピッチサイズDFT 330 スペクトル修正装置 340 予測重み付きベクトル量子化装置 350 遅延装置 360 補間および整合装置 370 遅延装置 380 励起合成装置 405 スペクトル修正変換装置/強化装置 410 整合ユニット 420 補間ユニット 430 遅延要素 440 位相補間装置 510 位相制御逆DFT 520 第2ウィンドウ化装置 705 チャンネル復号化/バッファ装置 710 CELP復号化装置 720 TFI復号化装置 725 LPCパラメータルックアップテーブル 730 ピッチ信号復号化装置 735 全極LPCフィルタ 805 復号化インデックス 810 スペクトル修正/強化装置 815 遅延要素 825 整合化ユニット 830 補間化ユニット 840 励起合成器 845 遅延要素 850 位相補間化装置

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 時間的に分離した時点で得られたサンプ
    ルのシーケンスを含む音声信号を符号化する方法におい
    て、 (a) 各スペクトルが前記サンプルのシーケンス内の
    サンプルに関連する複数のスペクトルのを形成するステ
    ップと、ここで、各スペクトルは、連続する複数のサン
    プルから形成され、 (b) 一組のデシメート(decimate)されたスペクト
    ルを形成するために、前記複数のスペクトルをデシメー
    トするステップと、 からなることを特徴とする音声信号符号化方法。
  2. 【請求項2】 一組のデシメートされたスペクトルを含
    む符号化音声信号を復号化する方法において、 (c) 完全なスペクトルシーケンスを得るために、前
    記一組のデシメートされたスペクトルを補間するステッ
    プと、 (d) 一組の信号を得るために、前記完全なスペクト
    ルシーケンスを逆変換するステップと、 (e) ウィンドウ化信号を形成するために、前記一組
    の信号をウィンドウ化するステップと、 からなることを特徴とする符号化音声信号の復号化方
    法。
  3. 【請求項3】 前記補間するステップは、線形補間化を
    含むことを特徴とする請求項2の方法。
  4. 【請求項4】 前記複数のスペクトルの各スペクトルは
    一組の係数を含み、 前記一組の係数の各係数は、振幅成分と位相成分とを含
    み、 前記補間するステップは、非線形且つ個別に、前記振幅
    成分と位相成分に適用されることを特徴とする請求項2
    の方法。
  5. 【請求項5】 前記複数のスペクトルは、前記一組のデ
    シメートされたスペクトルの減少パラメータ表示を形成
    することを特徴とする請求項1の方法。
  6. 【請求項6】 前記逆変換のステップは、 【数20】の式に基づいて行い、ここで、y(n,m)
    は、前記一組の信号で、 Y(n,K)は、前記完全スペクトルシーケンスで、 c(m)は、分離時間スケール関数であることを特徴と
    する請求項2の方法。
  7. 【請求項7】 連続する時間フレームの間に発生するサ
    ンプルのシーケンスを含む複数の音声信号を各時間フレ
    ームに対し符号化する方法において、 (f) 前記音声信号を特徴付ける複数のパラメータを
    生成するステップと、 (g) 一組の量子化パラメータを形成するために、前
    記パラメータを量子化するステップと、 (h) 第1エラー測定に応じて、前記量子化パラメー
    タに最適合するコードブック内のエントリに関連するイ
    ンデックスを選択するステップと、 (i) 前記音声信号に対し、ピッチ期間を決定するス
    テップと、 (j) 第2エラー測定に応じて、前記ピッチ期間に最
    適合するコードブック内のエントリに関連するインデッ
    クスを選択するステップと、 (k) 前記一組の量子化パラメータにより決定される
    フィルタパラメータを用いて、励起信号を生成するため
    に、前記音声信号を逆フィルタ処理するステップと、 (l) 第1スペクトルを形成するために、前記励起信
    号を変換するステップと、 (m) 修正スペクトルを形成するために、前記第1ス
    ペクトルを修正するステップと、 (n) 量子化修正スペクトルを形成するために、前記
    修正スペクトルを量子化するステップと、 (o) 第3エラー測定に応じて、前記量子化修正スペ
    クトルに最適合するコードブック内のエントリに関連す
    るインデックスを選択するステップと、 からなることを特徴とする複数の音声信号符号化方法。
  8. 【請求項8】 前記複数のパラメータを形成するステッ
    プは、音声が有声音声であることを指示する前記音声信
    号の特徴を識別するステップを含むことを特徴とする請
    求項7の方法。
  9. 【請求項9】 前記複数のパラメータは、線形予測符号
    化により生成されることを特徴とする請求項7の方法。
  10. 【請求項10】 前記音声信号を特徴付ける複数のパラ
    メータを形成する前記方法は、 (p) 前記音声信号は、有声音声(voiced speach)
    を表すかを識別するステップと、 (q) 前記識別ステップで、有声音声を識別できなか
    った時に、別の符号化技術を用いて、第2符号化信号を
    形成するステップとを含むことを特徴とする請求項7の
    方法。
  11. 【請求項11】 前記別の符号化技術は、コード励起線
    形予測符号化技術であることを特徴とする請求項10の
    方法。
  12. 【請求項12】 前記変換ステップは、前記ピッチ期間
    にほぼ等しい期間でもって、個別フーリエ変換法則に基
    づいて行われることを特徴とする請求項7の方法。
  13. 【請求項13】 前記修正スペクトルを量子化するステ
    ップは、予測重み付けベクトル量子化に応じて行うこと
    を特徴とする請求項7の方法。
  14. 【請求項14】 (r) 前記修正スペクトルを強化す
    るステップと、 (s) 前記修正スペクトルを前のフレームからの音声
    信号のスペクトルと整合させるステップと、 (t) 完全スペクトルシーケンスを形成するために、
    前記フレーム内の他のサンプル用のスペクトルを発見す
    るために、前記修正スペクトルと前のフレームからの音
    声信号の前記スペクトルとの間を補間するステップと、 (u) 一組の信号を生成するために、前記完全スペク
    トルシーケンスを逆変換するステップと、 (v)ウィンドウ化信号を生成するために、前記一組の
    信号をウィンドウ化するステップとをさらに有すること
    を特徴とする請求項7の方法。
  15. 【請求項15】 前記修正スペクトルを強化するステッ
    プと、 前記修正スペクトルを前のフレームからの音声信号のス
    ペクトルと整合させるステップと、 第1信号y(−1,m)を生成するために、前記修正ス
    ペクトルを逆変換し、第2信号y(N−1,m)を生成
    するために、前記前のフレームからの前記音声信号のス
    ペクトルを逆変換するステップと、 最終信号z(m)を生成するために、前記第1信号と前
    記第2信号との間を直線補間するステップとをさらに有
    し、 ここで、前記補間は、 【数7】 ここで、 【数8】 でおこなわれ 、w(n,m)はウィンドウ化関数であ
    ることを特徴とする請求項7の方法。
  16. 【請求項16】 符号化された複数の音声信号を復号化
    する方法において、前記音声信号は、 前記音声信号を特徴付ける複数のパラメータを表すルッ
    クアップテーブル内のエントリに関連する第1インデッ
    クスと、 前記音声信号のピッチ期間を表す第2ルックアップテー
    ブルのエントリに関連する第2インデックスと、 前記音声信号のスペクトルを表す第3ルックアップテー
    ブルのエントリに関連する第3インデックスとを表し、
    前記方法は、 前記第1インデックスに基づいて、前記音声信号を表す
    パラメータを決定するステップと、 前記第2インデックス基づいて前記ピッチ信号を決定す
    るステップと、 前記第3インデックス基づいて前記スペクトルを決定す
    るステップと、 修正スペクトルを形成するために、前記スペクトルを修
    正し、強化するステップと、 前記修正スペクトルを前のフレームからの音声信号のス
    ペクトルと整合させるステップと、 完全なスペクトルシーケンスを生成するために、前記ス
    ペクトルと前のフレームからの音声信号のスペクトルと
    の間で補間するステップと、 一組の信号を生成するために、前記第2スペクトルを逆
    変換するステップと、 ウィンドウ化信号を生成するために、前記一組の信号を
    ウィンドウ化するステップと、 前記ウィンドウ化信号を、その特性が前記パラメータに
    より決定されるフィルタ処理するステップと、 からなることを特徴とする符号化された複数の音声信号
    の復号化方法。
  17. 【請求項17】 連続する時間フレームの間に発生する
    サンプルのシーケンスを含む複数の音声信号を各時間フ
    レームに対し符号化するシステムにおいて、 (f) 前記音声信号を特徴付ける複数のパラメータを
    生成する手段と、 (g) 一組の量子化パラメータを形成するために、前
    記パラメータを量子化する手段と、 (h) 第1エラー測定に応じて、前記量子化パラメー
    タに最適合するコードブック内のエントリに関連するイ
    ンデックスを選択する手段と、 (i) 前記音声信号に対し、ピッチ期間を決定する手
    段と、 (j) 第2エラー測定に応じて、前記ピッチ期間に最
    適合するコードブック内のエントリに関連するインデッ
    クスを選択する手段と、 (k) 前記一組の量子化パラメータにより決定される
    フィルタパラメータを用いて、励起信号を生成するため
    に、前記音声信号を逆フィルタ処理する手段と、 (l) 第1スペクトルを形成するために、前記励起信
    号を変換する手段と、 (m) 修正スペクトルを形成するために、前記第1ス
    ペクトルを修正する手段と、 (n) 量子化修正スペクトルを形成するために、前記
    修正スペクトルを量子化する手段と、 (o) 第3エラー測定に応じて、前記量子化修正スペ
    クトルに最適合するコードブック内のエントリに関連す
    るインデックスを選択する手段と、 からなることを特徴とする複数の音声信号符号化システ
    ム。
  18. 【請求項18】 (r) 前記修正スペクトルを強化す
    る手段と、 (s) 前記修正スペクトルを前のフレームからの音声
    信号のスペクトルと整合させる手段と、 (t) 完全スペクトルシーケンスを形成するために、
    前記フレーム内の他のサンプル用のスペクトルを発見す
    るために、前記修正スペクトルと前のフレームからの音
    声信号の前記スペクトルとの間を補間する手段と、 (u) 一組の信号を生成するために、前記完全スペク
    トルシーケンスを逆変換する手段と、 (v)ウィンドウ化信号を生成するために、前記一組の
    信号をウィンドウ化する手段とをさらに有することを特
    徴とする請求項7のシステム。
  19. 【請求項19】 符号化された複数の音声信号を復号化
    するシステムにおいて、前記音声信号は、 前記音声信号を特徴付ける複数のパラメータを表すルッ
    クアップテーブル内のエントリに関連する第1インデッ
    クスと、 前記音声信号のピッチ期間を表す第2ルックアップテー
    ブルのエントリに関連する第2インデックスと、 前記音声信号のスペクトルを表す第3ルックアップテー
    ブルのエントリに関連する第3インデックスとを表し、
    前記システムは、 前記第1インデックスに基づいて、前記音声信号を表す
    パラメータを決定する手段と、 前記第2インデックス基づいて前記ピッチ信号を決定す
    る手段と、 前記第3インデックス基づいて前記スペクトルを決定す
    る手段と、 修正スペクトルを形成するために、前記スペクトルを修
    正し、強化する手段と、 前記修正スペクトルを前のフレームからの音声信号のス
    ペクトルと整合させる手段と、 完全なスペクトルシーケンスを生成するために、前記ス
    ペクトルと前のフレームからの音声信号のスペクトルと
    の間で補間する手段と、 一組の信号を生成するために、前記第2スペクトルを逆
    変換する手段と、 ウィンドウ化信号を生成するために、前記一組の信号を
    ウィンドウ化する手段と、 前記ウィンドウ化信号を、その特性が前記パラメータに
    より決定されるフィルタ処理する手段と、 からなることを特徴とする符号化された複数の音声信号
    の復号化システム。
JP27601393A 1992-10-09 1993-10-08 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム Expired - Lifetime JP3335441B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US95930592A 1992-10-09 1992-10-09
US959305 1992-10-09

Publications (2)

Publication Number Publication Date
JPH06222799A true JPH06222799A (ja) 1994-08-12
JP3335441B2 JP3335441B2 (ja) 2002-10-15

Family

ID=25501895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27601393A Expired - Lifetime JP3335441B2 (ja) 1992-10-09 1993-10-08 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム

Country Status (8)

Country Link
US (1) US5577159A (ja)
EP (1) EP0592151B1 (ja)
JP (1) JP3335441B2 (ja)
CA (1) CA2105269C (ja)
DE (1) DE69328064T2 (ja)
FI (1) FI934424A (ja)
MX (1) MX9306142A (ja)
NO (1) NO933535L (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002009092A1 (fr) * 2000-07-21 2002-01-31 Kabushiki Kaisha Kenwood Dispositif d'interpolation de frequences servant a interpoler une composante de frequence de signal et procede d'interpolation de frequences
WO2002035517A1 (fr) * 2000-10-24 2002-05-02 Kabushiki Kaisha Kenwood Appareil et procédé pour interpoler un signal
WO2002050814A1 (fr) * 2000-12-07 2002-06-27 Kabushiki Kaisha Kenwood Systeme et procede d'interpolation de signaux
WO2003003345A1 (fr) * 2001-06-29 2003-01-09 Kabushiki Kaisha Kenwood Dispositif et procede d'interpolation des composantes de frequence d'un signal

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3137805B2 (ja) * 1993-05-21 2001-02-26 三菱電機株式会社 音声符号化装置、音声復号化装置、音声後処理装置及びこれらの方法
US5839102A (en) * 1994-11-30 1998-11-17 Lucent Technologies Inc. Speech coding parameter sequence reconstruction by sequence classification and interpolation
US5991725A (en) * 1995-03-07 1999-11-23 Advanced Micro Devices, Inc. System and method for enhanced speech quality in voice storage and retrieval systems
US5682462A (en) * 1995-09-14 1997-10-28 Motorola, Inc. Very low bit rate voice messaging system using variable rate backward search interpolation processing
US6591240B1 (en) * 1995-09-26 2003-07-08 Nippon Telegraph And Telephone Corporation Speech signal modification and concatenation method by gradually changing speech parameters
EP0856185B1 (en) 1995-10-20 2003-08-13 America Online, Inc. Repetitive sound compression system
US5828994A (en) * 1996-06-05 1998-10-27 Interval Research Corporation Non-uniform time scale modification of recorded audio
JP3266819B2 (ja) * 1996-07-30 2002-03-18 株式会社エイ・ティ・アール人間情報通信研究所 周期信号変換方法、音変換方法および信号分析方法
JP4121578B2 (ja) * 1996-10-18 2008-07-23 ソニー株式会社 音声分析方法、音声符号化方法および装置
JPH10124092A (ja) * 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US6377914B1 (en) 1999-03-12 2002-04-23 Comsat Corporation Efficient quantization of speech spectral amplitudes based on optimal interpolation technique
DE10036703B4 (de) * 2000-07-27 2005-12-29 Rohde & Schwarz Gmbh & Co. Kg Verfahren und Vorrichtung zur Korrektur eines Resamplers
JP3881932B2 (ja) * 2002-06-07 2007-02-14 株式会社ケンウッド 音声信号補間装置、音声信号補間方法及びプログラム
FR2891100B1 (fr) * 2005-09-22 2008-10-10 Georges Samake Codec audio utilisant la transformation de fourier rapide, le recouvrement partiel et une decomposition en deux plans basee sur l'energie.
DE102007003187A1 (de) 2007-01-22 2008-10-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines zu sendenden Signals oder eines decodierten Signals
EP2214161A1 (en) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal
WO2010126709A1 (en) 2009-04-30 2010-11-04 Dolby Laboratories Licensing Corporation Low complexity auditory event boundary detection
TWI506583B (zh) * 2013-12-10 2015-11-01 國立中央大學 分析系統及其方法
US10354422B2 (en) * 2013-12-10 2019-07-16 National Central University Diagram building system and method for a signal data decomposition and analysis
US11287310B2 (en) 2019-04-23 2022-03-29 Computational Systems, Inc. Waveform gap filling

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60239798A (ja) * 1984-05-14 1985-11-28 日本電気株式会社 音声信号符号化/復号化装置
US4937873A (en) * 1985-03-18 1990-06-26 Massachusetts Institute Of Technology Computationally efficient sine wave synthesis for acoustic waveform processing
CA1323934C (en) * 1986-04-15 1993-11-02 Tetsu Taguchi Speech processing apparatus
IT1195350B (it) * 1986-10-21 1988-10-12 Cselt Centro Studi Lab Telecom Procedimento e dispositivo per la codifica e decodifica del segnale vocale mediante estrazione di para metri e tecniche di quantizzazione vettoriale
US4910781A (en) * 1987-06-26 1990-03-20 At&T Bell Laboratories Code excited linear predictive vocoder using virtual searching
AU620384B2 (en) * 1988-03-28 1992-02-20 Nec Corporation Linear predictive speech analysis-synthesis apparatus
GB2235354A (en) * 1989-08-16 1991-02-27 Philips Electronic Associated Speech coding/encoding using celp
JP3102015B2 (ja) * 1990-05-28 2000-10-23 日本電気株式会社 音声復号化方法
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
US5127053A (en) * 1990-12-24 1992-06-30 General Electric Company Low-complexity method for improving the performance of autocorrelation-based pitch detectors
DE69232202T2 (de) * 1991-06-11 2002-07-25 Qualcomm Inc Vocoder mit veraendlicher bitrate
US5327520A (en) * 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
US5351338A (en) * 1992-07-06 1994-09-27 Telefonaktiebolaget L M Ericsson Time variable spectral analysis based on interpolation for speech coding

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002009092A1 (fr) * 2000-07-21 2002-01-31 Kabushiki Kaisha Kenwood Dispositif d'interpolation de frequences servant a interpoler une composante de frequence de signal et procede d'interpolation de frequences
US6879265B2 (en) 2000-07-21 2005-04-12 Kabushiki Kaisha Kenwood Frequency interpolating device for interpolating frequency component of signal and frequency interpolating method
WO2002035517A1 (fr) * 2000-10-24 2002-05-02 Kabushiki Kaisha Kenwood Appareil et procédé pour interpoler un signal
WO2002050814A1 (fr) * 2000-12-07 2002-06-27 Kabushiki Kaisha Kenwood Systeme et procede d'interpolation de signaux
WO2003003345A1 (fr) * 2001-06-29 2003-01-09 Kabushiki Kaisha Kenwood Dispositif et procede d'interpolation des composantes de frequence d'un signal
US7400651B2 (en) 2001-06-29 2008-07-15 Kabushiki Kaisha Kenwood Device and method for interpolating frequency components of signal

Also Published As

Publication number Publication date
US5577159A (en) 1996-11-19
CA2105269C (en) 1998-08-25
JP3335441B2 (ja) 2002-10-15
DE69328064T2 (de) 2000-09-07
FI934424A0 (fi) 1993-10-08
CA2105269A1 (en) 1994-04-10
NO933535L (no) 1994-04-11
NO933535D0 (no) 1993-10-04
FI934424A (fi) 1994-04-10
MX9306142A (es) 1994-06-30
DE69328064D1 (de) 2000-04-20
EP0592151B1 (en) 2000-03-15
EP0592151A1 (en) 1994-04-13

Similar Documents

Publication Publication Date Title
JP3335441B2 (ja) 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム
KR100873836B1 (ko) Celp 트랜스코딩
KR100304682B1 (ko) 음성 코더용 고속 여기 코딩
KR100979090B1 (ko) 피치 지연 윤곽부 조절을 사용하여 정보 신호를 코딩하기위한 방법 및 장치
JP3483958B2 (ja) 広帯域音声復元装置及び広帯域音声復元方法及び音声伝送システム及び音声伝送方法
US6732070B1 (en) Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching
EP3693964A1 (en) Simultaneous time-domain and frequency-domain noise shaping for tdac transforms
JP2017526950A (ja) 低遅延符号化/復号のための補間による音声信号のリサンプリング
JPH10307599A (ja) スプラインを使用する波形補間音声コーディング
JP2003044097A (ja) 音声信号および音楽信号を符号化する方法
JP2003512654A (ja) 音声の可変レートコーディングのための方法およびその装置
JPH096397A (ja) 音声信号の再生方法、再生装置及び伝送方法
US7792670B2 (en) Method and apparatus for speech coding
EP0865029A1 (en) Efficient decomposition in noise and periodic signal waveforms in waveform interpolation
KR20040095205A (ko) Celp를 기반으로 하는 음성 코드간 변환코딩 방식
EP1096476A2 (en) Speech decoding gain control for noisy signals
JPH0341500A (ja) 低遅延低ビツトレート音声コーダ
JP2003044099A (ja) ピッチ周期探索範囲設定装置及びピッチ周期探索装置
JPH09127987A (ja) 信号符号化方法及び装置
JP3749838B2 (ja) 音響信号符号化方法、音響信号復号方法、これらの装置、これらのプログラム及びその記録媒体
JP3598111B2 (ja) 広帯域音声復元装置
JP2000298500A (ja) 音声符号化方法
JPH05232995A (ja) 一般化された合成による分析音声符号化方法と装置
JP3290443B2 (ja) コード励振線形予測符号化器及び復号化器
JP3560964B2 (ja) 広帯域音声復元装置及び広帯域音声復元方法及び音声伝送システム及び音声伝送方法

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080802

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080802

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090802

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100802

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110802

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110802

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120802

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130802

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term