JPH06222799A - 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム - Google Patents
音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステムInfo
- Publication number
- JPH06222799A JPH06222799A JP5276013A JP27601393A JPH06222799A JP H06222799 A JPH06222799 A JP H06222799A JP 5276013 A JP5276013 A JP 5276013A JP 27601393 A JP27601393 A JP 27601393A JP H06222799 A JPH06222799 A JP H06222799A
- Authority
- JP
- Japan
- Prior art keywords
- spectrum
- signal
- speech
- signals
- speech signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L2019/0001—Codebooks
- G10L2019/0012—Smoothing of parameters of the decoder interpolation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Abstract
縮を提供する方法およびその装置を提供するものであ
る。 【構成】 本発明の符号化および復号化方法は、時間周
波数補間(Time-Frequency Interpolation:TFI)と
称される技術に基づいている。このTFIは、音声信号
を特徴付ける複数の線形予測符号化パラメータを形成す
る。次に、TFIは、音声信号のポイントに対し、サン
プルごとの個別のスペクトルを生成し、その後、個別の
スペクトルのシーケンスをデシメート(decimate)す
る。そして、最後にTFIは、この分散スペクトルの間
を補間し、線形予測符号化パラメータに基づいて、スム
ーズな音声信号を生成する。
Description
て、高品質の音声符号化を得る方法に関し、特に、時間
周波数領域において、音声信号を表し補間することに基
づいて、有声音声を処理する方法に関する。
および個人通信用のデジタル音声伝送に対する国家的、
あるいは国際的な興味が増加することにより、ますます
盛んになっている。通信工業会(Telecommunication In
dustry Association:TIA)は、現在の北アメリカの
「フルレート」のデジタルシステム(IS54)が完全
に開発される前から「ハーフレート」のデジタル通信標
準を確立する方法に動いてきていた。同様な動きは、ヨ
ーロッパおよび日本でも行われている。一般的に、伝送
速度を半分に抑えながら、現行の標準システムを越える
ような、あるいは、それに到達するような技術を開発す
ることが望まれている。
置は、コード励起線形予測アルゴリズム(CELP)、
あるいはそれに関連したものに基づいている。これにつ
いては、M.R.SchroederとB.S.Atalの論文「コード励起
線形予測(CELP):低速ビットレートにおける高品
質音声」(Proc.IEEE ICASSP'85,Vol.3,pp.937-940,1
985年3月号);P.KroonとE.F.Deprettereの論文
「4.8と16Kb/sの間の符号化速度で高品質音声
の符号化用の分析バイ合成予測符号化装置のクラス」
(IEEE J.on Sel.Areas in Comm.,SAC-6(2).pp.353-36
3,1988年2月号)を参照のこと。現行のCELP符
号化装置は、約8Kbps以上の速度で、高品質の符号
化音声を伝送できる。しかし、この性能は符号化速度
が、約4Kbps以下になると、急速に劣化する。
の方法よりも、コスト的にも、条件的にも高品質の音声
の圧縮を提供する方法およびその装置を提供するもので
ある。
号化方法は、時間周波数補間(Time-Frequency Interpo
lation:TFI)と称される技術に基づいている。この
TFIは、音声信号を特徴付ける複数の線形予測符号化
パラメータを形成する。次に、TFIは、音声信号のポ
イントに対し、サンプルごとの個別のスペクトルを生成
し、その後、個別のスペクトルのシーケンスをデシメー
ト(decimate)する。そして、最後にTFIは、この分
散スペクトルの間を補間し、線形予測符号化パラメータ
に基づいて、スムーズな音声信号を生成する。
ログ音声信号は、サンプラ101によりデジタル化さ
れ、その技術は公知である。このデジタル化された音声
信号は、その後、符号化装置103により、ここに記載
する法則に基づいて符号化される。この符号化装置10
3は、さらに符号化音声信号を操作して、蓄積または伝
送チャンネル105用の音声信号を生成する。
号化シーケンスは、復号化装置107で復号化される。
元の入力アナログ音声信号を再構成されたものは、公知
の技術によりD/A変換器109を介して、復号化音声
信号を通過させることにより得られる。
波数補間法(Time-Frequency Interpolation:TFI)
と称する技術を用いている。このTFIについては、セ
ックション2で説明し、その後、本発明の詳細な説明を
セックション3で行う。
R)法は、短時間のサンプルごとの分離スペクトルシー
ケンスの概念に基づいている。分離時間軸の各時間n
は、M(n)点分離スペクトルに関連している。単純な
ケースでは、各スペクトルは、時間シリーズx(n)の
離散型フーリエ変換(discrete Fourier transform:D
FT)連続時間セグメント[n1(n)、n2(n)]に
対し、M(n)=n2(n)−n1(n)+1で得られ
る。この時間セグメントの大きさは、必ずしも等しくな
く、そしてオーバーラップしてもよい。厳密には必要で
はないが、その時間セグメント内にnがあり、すなわ
ち、n1(n)≦n≦n2(n)と仮定する。こののケー
スにおいて、n番目のスペクトルは、従来は
は、シーケンスX(n,K)により二重特定(over-spe
cified)され、オーバーラップする時間セグメントの量
にも依存するが、X(n,K)からx(n)を再構成す
る幾つかの方法が存在する。しかし、正確な再構成法
は、TFR法を用いる際には主要なことではない。用途
に応じて、二重特定する(over-specifying)特徴は、
実際のところ、ある種の特性を有する信号を合成する際
には有益なことである。
たスペクトルは、様々な所望の結果を得るために、様々
な方法で生成することができる。一般的なケースのスペ
クトルシーケンスは、Y(n,K)により表示され、数
(1)に直ちに表される変換操作と、より一般的な変換
操作、すなわちデシメーション、補間、シフト、時間
(周波数)スケール修正、位相操作のような線形および
非線形の技術を用いる操作との間を識別することができ
る。
変換を、式(1’)を用いて表すことができる。もし、
Y(n,K)=X(n,K)の場合には、定義により、
y(n,m)=x(m)で、n1(n)≦m≦n2(n)
となる。この時間セグメントの外側では、y(n,m)
は、そのセグメントの周期的拡張であり、また、一般的
には、x(m)には等しくない。一組の信号y(n,
m)が、Y(n,K)から得られたとすると、新たな信
号z(n)は、時間変化ウィンドウ演算子Wn={w
(n,m)}を用いて、合成することができる。
2は、離散型時間周波数ドメイン(n,K)内の典型的
のスペクトルのシーケンスを表す。各スペクトルは、一
つの時間領域セグメントから得られる。このセグメント
は、通常オーバーラップし、同一のサイズである必要は
ない。同図は、また時間/時間領域(n,m)内の対応
するy(n,m)を表す。このウィンドウ関数w(n,
m)は、n軸に沿って、垂直軸の方向に表示され、重み
付き加算信号z(m)はm軸に沿って表示されている。
って、時間境界を設定せず、将来(過去も)のデータ
は、現在のサンプルの合成に必要であるので、それは偶
然ではない。実際の状況に応じて、時間の限界をセット
する必要があり、従来通り、TFRプロセスは、時間フ
レーム[0,…,N−1]で発生し、n≧Nの場合に
は、データは得られないと仮定する。過去のデータ(n
≦0)は、現行のフレームの処理用に得ることができ
る。
なる応用に適用するに十分な程度に一般的である。少な
い例として、信号(音声)許可前および後、フィルタ処
理、時間スケール修正およびデータ圧縮である。これら
の処理において、重要な点は、低速音声符号化に対する
TFRの使用である。このTFRは、LPCベースの音
声符号化アルゴリズムにおけるスペクトルデシメーショ
ン補間法、およびベクトル量子化に対する基礎フレーム
ワークとして使用される。次のセックションにおいて、
TFRフレームワーク内のデシメーション−補間プロセ
スを説明する。
FI)は、ここでは、時間軸nに沿ったTFRスペクト
ルY(n,K)をまずデシメートし、その後、残存周囲
から送出スペクトルを補間するプロセスを称する。用語
TFIは、スペクトル要素の周波数空間の補間の意味で
ある。詳細は以下に示す。
パルスに励起された声道)の符号化については、L.R.Ra
binerとR.W.Schaferの論文「音声信号のデジタル処理」
(Prentice Hall,1978)を参照のこと。TFIと組み合
わせたTFRは、符号化ひずみが拒絶されることの少な
い有益な領域を提供する。このことが言えるのは、有声
音声のスペクトル、特に、音声の周期性に同期した時に
は、その変化は緩やかで、スムーズであるという理由に
基づく。このTFIのアプローチは、この音声特性を利
用する自然の方法である。強調すべき点は、スペクトル
の補間であって、波形の補間ではない点である。しか
し、このスペクトルは、サンプルごとのベースに補間さ
れるために、対応する波形は理想的(元の)波形とは、
明らかに遥かに異なるにも関わらず、スムーズに響く傾
向がある。
ンプロセスを整合する従来の方法を用いる。特に、Y
(N−1,K)以外のスペクトルをゼロに設定する。こ
のゼロに設定されたスペクトルは、その後、Y(N−
1,K)とY(−1,K)とから補間され、後者は先行
フレームの監視スペクトルである。様々な補間関数が使
用でき、その幾つかは後述する。一般的に、数(3)で
表される。
対応する信号y(n,m)は、
から時間軸mへの逆DFTを表す。この全体のTFIプ
ロセスは、以下の一般式で表すことができる。
ない。すなわち、その演算順序を交換すると、結果が変
わってしまう。しかし、特別の場合については、部分的
あるいは全体的に交換性を有する。このような特別な場
合には、全体の手続きの複雑性は、演算子の順序を変え
ることにより、大幅に減少できるので、交換性は保持さ
れるか否かを特定することは重要なことである。
の場合について説明し、特に、これらは低速音声符号化
に有益である。
については、適切ではない。以下のセックションにおい
ては、本発明の幾つかの実施例の詳細を説明する。特
に、音声に適用する場合に、実際的なTFIの4個のク
ラスについて後述する。当業者は、TFIの他の実施例
についても適用可能であることはわかるであろう。
る。この線形TFIは、Inがその二つの引数におい
て、線形演算である場合である。この場合において、演
算子Fn -1とInは、一般的には、交換性を有さないが、
ここでは交換可能である。補間処理の前に、逆DFTを
実行することは、TFIアルゴリズムの全体のコストを
減少させるので、このことは極めて重要である。この補
間処理はIn(u,v)=α(n)u+β(n)vで表
され、すなわち、
とβ(n)は、nにおいては必ずしも線形ではなく、そ
して、線形TFIは、この意味においては、線形補間で
はない。数(4)(5)(6)を操作することにより、
の監視スペクトルに対応する2個の波形に対し、直接実
行される線形TFIを表す。数(8)は、この特別の場
合において、ウィンドウ関数w(n,m)がTFIプロ
セスにおいて、直接的な役目を有さないことを意味す
る。これらの式は、α(m)とβ(m)のオン時間オフ
ライン計算において使用される。実際α(m)とβ
(m)は、w(n,m)を使用せずに直接特定できる。
線形TFIは、その実行する観点から単純で魅力的であ
り、同様な形式で以前にも使用されている。B.W.Kleijn
の論文「線形予測符号化における連続表示」(Proc.IEE
EICASSP'91.Vol.S1,pp.201-2041991年5月号)とB.
W.Kleijnの論文「音声符号化における波形補間法」(Di
gital Signal Processing,Vol.1,pp.215-230,1991.)を
参照のこと。この場合において、補間関数は、一般的
に、β(m)=m/Nで、α(m)=1−β(m)とし
て定義される。このことは、z(m)は一つの波形から
他の波形への徐々の変化であることを意味する。
形TFIは複合スペクトルの線形結合に基づいている。
この操作は、一般的にはスペクトルの形状を保持せず、
送出スペクトルのおぼろげな予測を生成する。簡単に述
べると、AとBは、2個の複合スペクトルで、そのαA
+βBの振幅は、AまたはBの何れかのそれとはまった
く異なっている。音声処理の応用については、線形TF
Iにより生成される短期間スペクトルひずみは、好まし
くない可聴予測点(antifact)を生成することがある。
この問題を解決する一つの方法は、振幅保存補間法を使
用することである。In(.,.)は、その引数の振幅
と位相を個別に補間するために定義される。この場合に
おいて、InとFn -1は交換不可能で、補間されたスペク
トルは、逆DFTを得る前に得られなければならない。
位相のアプローチは、位相は完全に無視される(ゼロに
決定される)ような特殊の場合にのみ適用される。この
ことはTFIのスペクトル形状保存と固有の平滑さに起
因する良好な音声品質を生成しながら、符号化されるべ
き情報を半分にこのことにより削減できる。
クトルシーケンスのサンプリングの周波数(1/N)と
して定義される。この離散型スペクトルY(n,K)
は、y(n,m)の一つのM(n)サイズの期間に対応
する。N>M(n)の場合、y(n,m)の周期的に拡
張した部分は、TFIプロセスで発生する。このケース
は、低速TFI(LR−TFI)と称される。このLR
−TFIは、特に低速符号化のようなほぼ周期的な信号
を生成する際に最も有効である。
拡張部分は、TFIプロセスでは働かない。この高速T
FI(HR−TFI)は、基本的には如何なる信号も処
理するのに使用することができる。しかし、近似周期的
信号に対して最も有効であり、その理由はスペクトルの
平滑な展開ができるからである。一般的に、HR−TF
Iにおいては、このスペクトルはオーバーラップする時
間セグメントにとって変わる。1/N>0のTFI速度
に基づいては、基本的な制限は存在しない。
非常に重要なファクタである。ビットレートとこのTF
Iレートとの間に相反する用件が存在する。HR−TF
Iはスムーズで、正確な音声の記述を提供するが、高速
ビットレートは、そのデータを符号化するのに必要であ
る。LR−TFIは正確さに欠け、補間の予測点により
敏感であるが、低速ビットレートはデータを符号化する
のに必要である。異なるTFI速度に対し、符号化性能
を測定することにより、実験的に良好な妥協点を見出す
ことができる。
Scale Modification:TMS)を採用する。TSMは時
間軸に沿った連続時間信号x(t)の拡張または収縮に
相当する。この演算は、z(t)=x(c(t)t)に
おいて、時間可変であり得る。離散型時間軸において
は、同様な演算z(m)=x(c(m)m)は、一般的
に定義できない。z(m)を得るために、x(m)を連
続時間バージョンにまず変換し、タイムスケール化し
て、最終的にそれを再サンプル化する。この手続きは、
非常にコストのかかるものである。DFT(または、他
のシヌソイド表示)を用いると、TSMは
く、その単に近似であることに注意すべきである。しか
し、周期的な信号に対しては十分機能し、適当な拡張ま
たは収縮でもって十分に機能する。この疑似的なTSM
方法は、音声符号化処理に極めて有効で、それにより、
変化しつつあるピッチ期間と十分によく整合できるから
である。実際数(4)でFn -1を定義することによりT
FIアルゴリズムの積分部分にこの方法を変えることが
できる。すなわち、
ップショットがサイズM(n)のセグメントにテークオ
ーバーされる時間であり、時間インデックスmは、逆D
FTがTSM関数c(m)を用いて、時間スケールの修
正される時間軸である。関数c(m)は、基本的な位相
領域Ψ(n,m)=2πc(m)m/M(n)における
特定の補間方法を選択することにより、間接的に定義す
ることができる。この位相補間法は、m軸に沿って実行
され、上記の式で与えられ、各波形y(n,m)に対し
て異なることもある。様々な補間方法を用いることがで
き、これについて、前掲のKleijnの論文を参照のこと。
低速符号化装置に使用される補間方法は後述する。
完全に独立させることは可能であり、有益である。この
場合において、位相は任意にDFTのサイズと無関係に
でき、mにのみ依存させることができる。その後、補間
法を選択し、m=0、m=N−1において、二つの境界
条件とともに選択することにより決定できる。音声処理
の場合境界条件は、2個の基礎周波数(ピッチ値)で通
常与えることができる。このDFTのサイズは、一つの
共通のサイズM=maxnM(n)を用いて、nから独
立させ、Mよりも短いすべてのスペクトルにゼロを付属
させることができる。Mは信号の局部期間に通常近く、
しかし、TFIは如何なるMも許可する。位相は現在逆
DFTサイズとは独立している。すなわち、元の周波数
スペースから独立しているので、位相Ψ(m)により形
成される実際のスペースは、スペクトルエイリアシング
(spectral aliasing)を起こさせることはない。この
ことはY(n,K)が境界スペクトルから補間され、そ
して、Y(n,K)の実際のサイズを如何に決定するか
に大きく依存している。TFIシステムの利点は、ここ
で、計算式で表されるように、スペクトルエイリアシン
グ(spectral aliasing)は過度の時間スケーリングに
起因して、スペクトル補間の間制御される。これは時間
領域で、直接行うことは困難である。時間不変演算子F
-1は
でき、これは低コストで実行するのに利点がある。
ト(Fractional Circular Shift:FCS)であり、この
FCSは二つの周期的信号の正確な整合のために有益で
ある。下の連続する時間周期信号のFCSはz(t)=
x(t−dt)で与えられ、逆DFTにより以下のよう
に概算できる。
(1−dt/m)を定義することにより、TSMの特別
な場合として、それをみることができる。FCSは通常
スペクトルY(n,K)の位相修正としてみることもで
き、その修正スペクトルは
いて次に述べる。
に関する。HR−TFIにおいては、時間ユニット当た
りに含まれる要素の数は下層信号のそれよりも遥かに大
きい。ある種の応用においては、このDFTを、性能を
大きくロスすることなく、サイズを減少したパラメート
リ表示でもって概算することができる。要素の数を減少
する一つの単純な方法は、非均一にDFTをデシメート
することである。スペクトルを平滑化する技術はこのめ
たに使用される。パラメータ化されたTFIは低速音声
符号化に有益で、その理由は制限されたビットの予定は
すべてのDFTの要素を符号化するには十分ではないか
らである。
いて詳述する。本発明による符号化装置のブロック図が
図3に示されている。この符号化装置103は従来のL
PCアナライザ205を介して、デジタル化音声信号を
処理することによりその動作を開始し、それにより、ス
ペクトルエンベロープ情報を分解する。このLPCアナ
ライザの製造方法および使用法については公知である。
このスペクトルエンベロープ情報は、LPCパラメータ
により表示され、このパラメータはLPC量子化装置2
10により量子化され、全極LPCフィルタ220に対
する係数となる。
ル化音声信号に基づいて動作して、この音声が有声音
か、無声音かを決定する。この音声/ピッチアナライザ
230は、音声信号のピッチ周期に基づいて、ピッチ信
号を生成し、それが周波数補間符号化装置235により
使用される。現行のピッチ信号は、図示したような他の
信号とともにインデックス化され、それにより、信号の
符号化表示は、コードブック内の複数のエントリの一つ
に対応するインデックスである。これらの信号を如何に
圧縮するかについては公知である。このインデックス
は、単純に信号を特定する圧縮方法である。このインデ
ックスのついた信号は、チャンネル符号化/バッファ装
置225に転送されて、それらは蓄積/伝送チャンネル
105を介して記憶、あるいは通信される。この符号化
装置103は現行のデータが有声音か、無声音かに基づ
いて、二つの異なるモードの一つでデジタル化音声信号
を処理し、符号化する。
クトが拡張スペクトルノイズソースにより励起される場
合、前掲のRabinerの文献を参照のこと)においては、
この符号化装置はCELP符号化装置215を用いる。
これについては前掲のM.R.SchroederとB.S.Atalの論
文、およびP.KroonとE.F.Deprettereの論文を参照のこ
と。このCELP符号化装置215は、出力符号化信号
をモニタすることにより、符号化励起信号を最適化す
る。これは、点線のフィードバックラインによって図で
は表されている。このモードにおいては、信号は完全に
非周期的で、それ故にピッチループ、または同様な技術
によって長期間の冗長性を開発する試みはない。
Pモードは切られて、周波数補間符号化装置235はス
イッチ305により入る。以下、この符号化モードにつ
いて説明する。このモードで行われる様々な操作が図4
に示される。同図はTFIのアルゴリズムの論理列につ
いて示している。当業者は実際には、あるいは他の特別
なシステムに対しては実際の流れは幾分難しいことはわ
かるであろう。同図に示すように、TFI符号化装置
は、LPC残留、あるいはLPC励起信号に入力され、
LPC逆フィルタ310により、この入力音声を逆フィ
ルタ処理することにより得られる。フレームごとに一回
初期のスペクトルX(K)が、DFTをピッチサイズD
FT320を用いて適用することにより得られる。ここ
で、このDFTの長さは、現行のピッチ信号により決定
される。このピッチ化されたサイズのDFTを使用する
のがよいが、必ずしも必要なものではない。しかし、こ
のセグメントは、一つのフレームよりも長いことがあ
る。その後、このスペクトルはスペクトル修正装置33
0により修正されて、そのサイズを減少し、この修正さ
れたスペクトルは予測重み付きベクトル量子化装置34
0により量子化される。遅延装置350は、この量子化
の操作のために必要なものである。この操作により、ス
ペクトルY(N−1,K)、すなわち現行フレームの終
点に関連するスペクトルを生成する。その後、この量子
化されたスペクトルは現行のピッチ期間とともに、補間
および整合装置360に転送される。
示される補間および整合ユニットのブロック図である。
現行スペクトル、遅延装置370からの先行量子化スペ
クトルおよび現行ピッチ信号がこのユニットに入力され
る。現行スペクトル、Y(N−1,K)がまずスペクト
ル修正変換装置/強化装置405により強化されて、ス
ペクトル修正装置330により実行された操作を変換、
あるいは変更する。この再修正されたスペクトルは、そ
の後整合ユニット410内でFCS操作による先行フレ
ームのスペクトルと整合させられ、補間ユニット420
により補間される。さらに、この位相もまた補間され
る。この補間および整合装置360は位相シーケンス
Y’(n,K)と位相Ψ(m)とを生成し、それらは励
起合成装置380に入力される。
380において、スペクトルは位相制御逆DFT510
により時間シーケンス、y(n,m)に変換され、時間
シーケンスは符号化された発声励起信号を生成するため
には第2ウィンドウ化装置520によりウィンドウ化さ
れる。
される。図7は復号化装置107のブロック図で、ここ
で、750はCELP復号化、あるいはTFI復号化を
音声は有声音、または無声音の何れかにより選択する。
図8はTFI復号化装置720のブロック図である。T
FI復号化装置のブロックは符号化装置内の同一名のブ
ロックと同様な機能を実行する。
レームワーク内で方式化することができる。最適のシス
テムを構成する明白な方法はなく、たくさんの経験的、
演繹的な手法が含まれる。一つの方法は単純なシステム
でもってスタートし、徐々にそれを問題を一つ一つ解決
することにより、プロセスへの洞察を深めていくことで
ある。この線に沿ってより詳細な異なる3個の異なるT
FIシステムについて以下に説明する。
こで、スペクトル修正はDFT要素の上部20%をゼロ
化するだけである。Mが現行の最初DFTサイズ(現行
ピッチの半分)である場合には、X’(K)、Y(N−
1,K)は0.8Mの複合要素を有するだけである。こ
のウィンドウの目的はディメンジョンを減少させること
により、以下のVQ操作をより効率的にすることにあ
る。
予測ベクトル量子化により量子化される。スペクトル重
み付けはllH(K)[X’(K)−Y(N−1,K)]
llを最小化することにより達成される。ここで、ll・ll
は、二乗振幅の和を意味する。H(K)は修正全極LP
Cフィルタのインパルス応答のDFTである。これにつ
いては、前掲のSchroederとAtalの論文、およびKroonと
Deprettereの論文を参照のこと。この量子化されたスペ
クトルは数(13)によりFCSをY(N−1,K)に
適用することにより、先行スペクトルと整合する。最適
の部分シフトはY’(−1,K)とY’(N−1,K)
の最大相関のために見いだされる。
れた方法により正確に実行され、その線形補間関数はα
(m)=1−m/N,β(m)=m/Nである。逆DF
T位相Ψ(m)はピッチ周波数線形軌道を仮定すること
により補間される。先行ピッチ角度周波数と現行ピッチ
角度周波数がそれぞれωpとωcであると、その位相は次
式によって与えられる。
計されている。この励起スペクトルは20msecに一
度間隔の低速度で更新される。それ故に、このフレーム
のサイズはN=160サンプルで、数個のピッチ周期を
含んでいる。この方法により、スペクトルを量子化する
ことはすべての入手可能なビットを20msecごとに
一個のベクトルを符号化するのに使用されるので効率的
である。実際、この符号化された有声音声は極めて平滑
に響き、量子化エラーに起因する粗雑さがない。この粗
雑さはこの速度では他の符号化装置にとっては極めて一
般的なことではある。しかし、前述したように長期間の
間隔にわたる二つのスペクトルの線形TFIは時々この
スペクトルにひずみを与える。ピッチ境界の値の差が大
きいと、線形TFIは黙示的なスペクトルエイリアシン
グ(implicit spectral aliasing)を示す。また、有声
音声の自然さを保持するのに重要なピッチ間の変化は補
間プロセスにより取り除かれて、過度な周期性を発生す
る。
をLR−TFIからHR−TFIに移行することによっ
て取り除くことを目的にしている。このシステム2にお
いては、このTFIのレートは、システム1のそれより
も4倍速く、これは各40msecごとにTFIプロセ
スが実行されることを意味する(40サンプル)。この
スペクトルの周波数を更新することにより、ダイナミッ
クな音声の正確な表示をシステム1に特徴的な過剰な周
期性なしにできる。このTFIのレートを増加させる
と、たくさんのデータが単位時間当たりに量子化される
ので、量子化装置に対して負担が大きくなる。
クトルを修正化することにより量子化されるべき、デー
タのサイズを以下の式により減少することである。
次式で与えられる。
いことを意味する。振幅のみのスペクトルの使用は、デ
ータの1/2の減少となる。スペクトルの形状を保持し
ながら、位相を除去することは、合成された励起がより
スパイク状態となる。このことは、ときに出力音声が少
しばかり金属的に響くことになる。しかし、高度な量子
化性能を達成することの利点は、このような些細な不利
益点以上の価値があるものである。スペクトルの量子化
は、システム1の場合よりも4倍も頻繁に行われ、しか
も20msec間隔ごとに同一のビットでもって行われ
る。これはVQディメンジョンを減少することによって
可能である。
6)により定義される演算は、ローパスフィルタ処理を
意味する。この影響を避けるために、量子化されたスペ
クトルは、スペクトル修正変換装置/強化装置405に
より図5に示されるように、または振幅スペクトルの平
均値を送出データのすべての場所に割り当てることによ
り、拡張または修正を元に戻される。
素は、非送出のそれとほぼ同一レベルを有するという仮
定に基づいている。明らかに、これは多くの場合に当て
はまらない。しかし、リスンニングの試験においては、
スペクトルの高端部では、得られたスペクトルのひずみ
は、あまり聴きづらいものではない。
位相をゼロに設定する非線形操作によって修正および強
化される。少量のランダムな位相ジッタが音声をより自
然に聞こえるようにする。線形補間および逆DFTは交
換可能である。それ故に、補間と合成はシステム1と同
様に行うことができる。
を使用としている。これは性能をさらにシステム1とシ
ステム2の両方の虚偽予測点を減少することにより、向
上させようとするものである。最初のスペクトルX
(K)は、K≧0.4Pにより、インデックス化された
すべての要素をゼロにおいてウィンドウ化し、その後ス
ペクトル量子化される。この量子化スペクトルY(N−
1,K)は、その後、振幅ベクトルY(N−1,k)と
位相ベクトルargY(N−1,K)に分解される。ス
ペクトルのシーケンスは、その後、振幅と位相の線形補
間法により、先行フレームからの振幅と位相を用いて生
成される。
maxである。これは先行スペクトルサイズと現行スペク
トルサイズの最大値である。より短いスペクトルは、ゼ
ロパッディング(zero-padding)により、Kmaxまで拡
張される。補間された位相は、フレーム境界方向へのソ
ーススペクトルのそれに近接している。この中間位相ベ
クトルは、線形補間は量的な意味で、所望の位相に対
し、良好な近似を意味するものでないため、幾分任意的
なものである。しかし、振幅スペクトルが保存されてい
るので、この補間された位相は、信号の拡散における真
のスペクトルに類似に振る舞い、かくして、システム2
のスバイクの発生は削除される。
トルの空間の間の大きな差の場合、スペクトルエイリア
シング(spectral aliasing)、またはスペクトルひず
みの可能性については考慮していない。よりよい補間体
系はこの点に関し将来研究されるであろう。
対により形成される各複合スペクトルY(n,K)は、
FCS処理されて、そのY(−1,K)との相関を最大
にして整合したスペクトルY’(n,K)を生成する。
ここで、数(14)の位相Ψ(m)でもって逆DFTが
実行される。その後、このようにして得られたy(n,
k)は、数(2)の演算子Wnにより、以下に定義され
る幅Qの単純四角関数w(n,m)を用いて、重み付け
加算される。
z(m)に寄与することを意味する。ウィンドウサイズ
Qに対する良好な値は、処理された音声を聞くことによ
って、実験的に得られる。
とその有声音声の低速符号化への応用について述べた。
さらに、ここでは一般的なTFIフレームワークの形成
について主に述べた。このフレームワーク内において、
有声音声の符号化用の3個の特別なTFIシステムにつ
いて記載した。この方法およびアルゴリズムは特別なハ
ードウェアまたはソフトウェアを参照することなく記述
できる。そして、このようなハードウェアおよびソフト
ウェアは特別な応用に対し、好ましいように当業者は容
易に作成することができる。
来の方法よりも、コスト的にも、条件的にも高品質の音
声の圧縮を提供する方法およびその装置を提供すること
ができる。
ック図である。
図である。
ブロック図である。
Claims (19)
- 【請求項1】 時間的に分離した時点で得られたサンプ
ルのシーケンスを含む音声信号を符号化する方法におい
て、 (a) 各スペクトルが前記サンプルのシーケンス内の
サンプルに関連する複数のスペクトルのを形成するステ
ップと、ここで、各スペクトルは、連続する複数のサン
プルから形成され、 (b) 一組のデシメート(decimate)されたスペクト
ルを形成するために、前記複数のスペクトルをデシメー
トするステップと、 からなることを特徴とする音声信号符号化方法。 - 【請求項2】 一組のデシメートされたスペクトルを含
む符号化音声信号を復号化する方法において、 (c) 完全なスペクトルシーケンスを得るために、前
記一組のデシメートされたスペクトルを補間するステッ
プと、 (d) 一組の信号を得るために、前記完全なスペクト
ルシーケンスを逆変換するステップと、 (e) ウィンドウ化信号を形成するために、前記一組
の信号をウィンドウ化するステップと、 からなることを特徴とする符号化音声信号の復号化方
法。 - 【請求項3】 前記補間するステップは、線形補間化を
含むことを特徴とする請求項2の方法。 - 【請求項4】 前記複数のスペクトルの各スペクトルは
一組の係数を含み、 前記一組の係数の各係数は、振幅成分と位相成分とを含
み、 前記補間するステップは、非線形且つ個別に、前記振幅
成分と位相成分に適用されることを特徴とする請求項2
の方法。 - 【請求項5】 前記複数のスペクトルは、前記一組のデ
シメートされたスペクトルの減少パラメータ表示を形成
することを特徴とする請求項1の方法。 - 【請求項6】 前記逆変換のステップは、 【数20】の式に基づいて行い、ここで、y(n,m)
は、前記一組の信号で、 Y(n,K)は、前記完全スペクトルシーケンスで、 c(m)は、分離時間スケール関数であることを特徴と
する請求項2の方法。 - 【請求項7】 連続する時間フレームの間に発生するサ
ンプルのシーケンスを含む複数の音声信号を各時間フレ
ームに対し符号化する方法において、 (f) 前記音声信号を特徴付ける複数のパラメータを
生成するステップと、 (g) 一組の量子化パラメータを形成するために、前
記パラメータを量子化するステップと、 (h) 第1エラー測定に応じて、前記量子化パラメー
タに最適合するコードブック内のエントリに関連するイ
ンデックスを選択するステップと、 (i) 前記音声信号に対し、ピッチ期間を決定するス
テップと、 (j) 第2エラー測定に応じて、前記ピッチ期間に最
適合するコードブック内のエントリに関連するインデッ
クスを選択するステップと、 (k) 前記一組の量子化パラメータにより決定される
フィルタパラメータを用いて、励起信号を生成するため
に、前記音声信号を逆フィルタ処理するステップと、 (l) 第1スペクトルを形成するために、前記励起信
号を変換するステップと、 (m) 修正スペクトルを形成するために、前記第1ス
ペクトルを修正するステップと、 (n) 量子化修正スペクトルを形成するために、前記
修正スペクトルを量子化するステップと、 (o) 第3エラー測定に応じて、前記量子化修正スペ
クトルに最適合するコードブック内のエントリに関連す
るインデックスを選択するステップと、 からなることを特徴とする複数の音声信号符号化方法。 - 【請求項8】 前記複数のパラメータを形成するステッ
プは、音声が有声音声であることを指示する前記音声信
号の特徴を識別するステップを含むことを特徴とする請
求項7の方法。 - 【請求項9】 前記複数のパラメータは、線形予測符号
化により生成されることを特徴とする請求項7の方法。 - 【請求項10】 前記音声信号を特徴付ける複数のパラ
メータを形成する前記方法は、 (p) 前記音声信号は、有声音声(voiced speach)
を表すかを識別するステップと、 (q) 前記識別ステップで、有声音声を識別できなか
った時に、別の符号化技術を用いて、第2符号化信号を
形成するステップとを含むことを特徴とする請求項7の
方法。 - 【請求項11】 前記別の符号化技術は、コード励起線
形予測符号化技術であることを特徴とする請求項10の
方法。 - 【請求項12】 前記変換ステップは、前記ピッチ期間
にほぼ等しい期間でもって、個別フーリエ変換法則に基
づいて行われることを特徴とする請求項7の方法。 - 【請求項13】 前記修正スペクトルを量子化するステ
ップは、予測重み付けベクトル量子化に応じて行うこと
を特徴とする請求項7の方法。 - 【請求項14】 (r) 前記修正スペクトルを強化す
るステップと、 (s) 前記修正スペクトルを前のフレームからの音声
信号のスペクトルと整合させるステップと、 (t) 完全スペクトルシーケンスを形成するために、
前記フレーム内の他のサンプル用のスペクトルを発見す
るために、前記修正スペクトルと前のフレームからの音
声信号の前記スペクトルとの間を補間するステップと、 (u) 一組の信号を生成するために、前記完全スペク
トルシーケンスを逆変換するステップと、 (v)ウィンドウ化信号を生成するために、前記一組の
信号をウィンドウ化するステップとをさらに有すること
を特徴とする請求項7の方法。 - 【請求項15】 前記修正スペクトルを強化するステッ
プと、 前記修正スペクトルを前のフレームからの音声信号のス
ペクトルと整合させるステップと、 第1信号y(−1,m)を生成するために、前記修正ス
ペクトルを逆変換し、第2信号y(N−1,m)を生成
するために、前記前のフレームからの前記音声信号のス
ペクトルを逆変換するステップと、 最終信号z(m)を生成するために、前記第1信号と前
記第2信号との間を直線補間するステップとをさらに有
し、 ここで、前記補間は、 【数7】 ここで、 【数8】 でおこなわれ 、w(n,m)はウィンドウ化関数であ
ることを特徴とする請求項7の方法。 - 【請求項16】 符号化された複数の音声信号を復号化
する方法において、前記音声信号は、 前記音声信号を特徴付ける複数のパラメータを表すルッ
クアップテーブル内のエントリに関連する第1インデッ
クスと、 前記音声信号のピッチ期間を表す第2ルックアップテー
ブルのエントリに関連する第2インデックスと、 前記音声信号のスペクトルを表す第3ルックアップテー
ブルのエントリに関連する第3インデックスとを表し、
前記方法は、 前記第1インデックスに基づいて、前記音声信号を表す
パラメータを決定するステップと、 前記第2インデックス基づいて前記ピッチ信号を決定す
るステップと、 前記第3インデックス基づいて前記スペクトルを決定す
るステップと、 修正スペクトルを形成するために、前記スペクトルを修
正し、強化するステップと、 前記修正スペクトルを前のフレームからの音声信号のス
ペクトルと整合させるステップと、 完全なスペクトルシーケンスを生成するために、前記ス
ペクトルと前のフレームからの音声信号のスペクトルと
の間で補間するステップと、 一組の信号を生成するために、前記第2スペクトルを逆
変換するステップと、 ウィンドウ化信号を生成するために、前記一組の信号を
ウィンドウ化するステップと、 前記ウィンドウ化信号を、その特性が前記パラメータに
より決定されるフィルタ処理するステップと、 からなることを特徴とする符号化された複数の音声信号
の復号化方法。 - 【請求項17】 連続する時間フレームの間に発生する
サンプルのシーケンスを含む複数の音声信号を各時間フ
レームに対し符号化するシステムにおいて、 (f) 前記音声信号を特徴付ける複数のパラメータを
生成する手段と、 (g) 一組の量子化パラメータを形成するために、前
記パラメータを量子化する手段と、 (h) 第1エラー測定に応じて、前記量子化パラメー
タに最適合するコードブック内のエントリに関連するイ
ンデックスを選択する手段と、 (i) 前記音声信号に対し、ピッチ期間を決定する手
段と、 (j) 第2エラー測定に応じて、前記ピッチ期間に最
適合するコードブック内のエントリに関連するインデッ
クスを選択する手段と、 (k) 前記一組の量子化パラメータにより決定される
フィルタパラメータを用いて、励起信号を生成するため
に、前記音声信号を逆フィルタ処理する手段と、 (l) 第1スペクトルを形成するために、前記励起信
号を変換する手段と、 (m) 修正スペクトルを形成するために、前記第1ス
ペクトルを修正する手段と、 (n) 量子化修正スペクトルを形成するために、前記
修正スペクトルを量子化する手段と、 (o) 第3エラー測定に応じて、前記量子化修正スペ
クトルに最適合するコードブック内のエントリに関連す
るインデックスを選択する手段と、 からなることを特徴とする複数の音声信号符号化システ
ム。 - 【請求項18】 (r) 前記修正スペクトルを強化す
る手段と、 (s) 前記修正スペクトルを前のフレームからの音声
信号のスペクトルと整合させる手段と、 (t) 完全スペクトルシーケンスを形成するために、
前記フレーム内の他のサンプル用のスペクトルを発見す
るために、前記修正スペクトルと前のフレームからの音
声信号の前記スペクトルとの間を補間する手段と、 (u) 一組の信号を生成するために、前記完全スペク
トルシーケンスを逆変換する手段と、 (v)ウィンドウ化信号を生成するために、前記一組の
信号をウィンドウ化する手段とをさらに有することを特
徴とする請求項7のシステム。 - 【請求項19】 符号化された複数の音声信号を復号化
するシステムにおいて、前記音声信号は、 前記音声信号を特徴付ける複数のパラメータを表すルッ
クアップテーブル内のエントリに関連する第1インデッ
クスと、 前記音声信号のピッチ期間を表す第2ルックアップテー
ブルのエントリに関連する第2インデックスと、 前記音声信号のスペクトルを表す第3ルックアップテー
ブルのエントリに関連する第3インデックスとを表し、
前記システムは、 前記第1インデックスに基づいて、前記音声信号を表す
パラメータを決定する手段と、 前記第2インデックス基づいて前記ピッチ信号を決定す
る手段と、 前記第3インデックス基づいて前記スペクトルを決定す
る手段と、 修正スペクトルを形成するために、前記スペクトルを修
正し、強化する手段と、 前記修正スペクトルを前のフレームからの音声信号のス
ペクトルと整合させる手段と、 完全なスペクトルシーケンスを生成するために、前記ス
ペクトルと前のフレームからの音声信号のスペクトルと
の間で補間する手段と、 一組の信号を生成するために、前記第2スペクトルを逆
変換する手段と、 ウィンドウ化信号を生成するために、前記一組の信号を
ウィンドウ化する手段と、 前記ウィンドウ化信号を、その特性が前記パラメータに
より決定されるフィルタ処理する手段と、 からなることを特徴とする符号化された複数の音声信号
の復号化システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US95930592A | 1992-10-09 | 1992-10-09 | |
US959305 | 1992-10-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06222799A true JPH06222799A (ja) | 1994-08-12 |
JP3335441B2 JP3335441B2 (ja) | 2002-10-15 |
Family
ID=25501895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27601393A Expired - Lifetime JP3335441B2 (ja) | 1992-10-09 | 1993-10-08 | 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US5577159A (ja) |
EP (1) | EP0592151B1 (ja) |
JP (1) | JP3335441B2 (ja) |
CA (1) | CA2105269C (ja) |
DE (1) | DE69328064T2 (ja) |
FI (1) | FI934424A (ja) |
MX (1) | MX9306142A (ja) |
NO (1) | NO933535L (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002009092A1 (fr) * | 2000-07-21 | 2002-01-31 | Kabushiki Kaisha Kenwood | Dispositif d'interpolation de frequences servant a interpoler une composante de frequence de signal et procede d'interpolation de frequences |
WO2002035517A1 (fr) * | 2000-10-24 | 2002-05-02 | Kabushiki Kaisha Kenwood | Appareil et procédé pour interpoler un signal |
WO2002050814A1 (fr) * | 2000-12-07 | 2002-06-27 | Kabushiki Kaisha Kenwood | Systeme et procede d'interpolation de signaux |
WO2003003345A1 (fr) * | 2001-06-29 | 2003-01-09 | Kabushiki Kaisha Kenwood | Dispositif et procede d'interpolation des composantes de frequence d'un signal |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3137805B2 (ja) * | 1993-05-21 | 2001-02-26 | 三菱電機株式会社 | 音声符号化装置、音声復号化装置、音声後処理装置及びこれらの方法 |
US5839102A (en) * | 1994-11-30 | 1998-11-17 | Lucent Technologies Inc. | Speech coding parameter sequence reconstruction by sequence classification and interpolation |
US5991725A (en) * | 1995-03-07 | 1999-11-23 | Advanced Micro Devices, Inc. | System and method for enhanced speech quality in voice storage and retrieval systems |
US5682462A (en) * | 1995-09-14 | 1997-10-28 | Motorola, Inc. | Very low bit rate voice messaging system using variable rate backward search interpolation processing |
US6591240B1 (en) * | 1995-09-26 | 2003-07-08 | Nippon Telegraph And Telephone Corporation | Speech signal modification and concatenation method by gradually changing speech parameters |
EP0856185B1 (en) | 1995-10-20 | 2003-08-13 | America Online, Inc. | Repetitive sound compression system |
US5828994A (en) * | 1996-06-05 | 1998-10-27 | Interval Research Corporation | Non-uniform time scale modification of recorded audio |
JP3266819B2 (ja) * | 1996-07-30 | 2002-03-18 | 株式会社エイ・ティ・アール人間情報通信研究所 | 周期信号変換方法、音変換方法および信号分析方法 |
JP4121578B2 (ja) * | 1996-10-18 | 2008-07-23 | ソニー株式会社 | 音声分析方法、音声符号化方法および装置 |
JPH10124092A (ja) * | 1996-10-23 | 1998-05-15 | Sony Corp | 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置 |
US6377914B1 (en) | 1999-03-12 | 2002-04-23 | Comsat Corporation | Efficient quantization of speech spectral amplitudes based on optimal interpolation technique |
DE10036703B4 (de) * | 2000-07-27 | 2005-12-29 | Rohde & Schwarz Gmbh & Co. Kg | Verfahren und Vorrichtung zur Korrektur eines Resamplers |
JP3881932B2 (ja) * | 2002-06-07 | 2007-02-14 | 株式会社ケンウッド | 音声信号補間装置、音声信号補間方法及びプログラム |
FR2891100B1 (fr) * | 2005-09-22 | 2008-10-10 | Georges Samake | Codec audio utilisant la transformation de fourier rapide, le recouvrement partiel et une decomposition en deux plans basee sur l'energie. |
DE102007003187A1 (de) | 2007-01-22 | 2008-10-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines zu sendenden Signals oder eines decodierten Signals |
EP2214161A1 (en) * | 2009-01-28 | 2010-08-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for upmixing a downmix audio signal |
WO2010126709A1 (en) | 2009-04-30 | 2010-11-04 | Dolby Laboratories Licensing Corporation | Low complexity auditory event boundary detection |
TWI506583B (zh) * | 2013-12-10 | 2015-11-01 | 國立中央大學 | 分析系統及其方法 |
US10354422B2 (en) * | 2013-12-10 | 2019-07-16 | National Central University | Diagram building system and method for a signal data decomposition and analysis |
US11287310B2 (en) | 2019-04-23 | 2022-03-29 | Computational Systems, Inc. | Waveform gap filling |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60239798A (ja) * | 1984-05-14 | 1985-11-28 | 日本電気株式会社 | 音声信号符号化/復号化装置 |
US4937873A (en) * | 1985-03-18 | 1990-06-26 | Massachusetts Institute Of Technology | Computationally efficient sine wave synthesis for acoustic waveform processing |
CA1323934C (en) * | 1986-04-15 | 1993-11-02 | Tetsu Taguchi | Speech processing apparatus |
IT1195350B (it) * | 1986-10-21 | 1988-10-12 | Cselt Centro Studi Lab Telecom | Procedimento e dispositivo per la codifica e decodifica del segnale vocale mediante estrazione di para metri e tecniche di quantizzazione vettoriale |
US4910781A (en) * | 1987-06-26 | 1990-03-20 | At&T Bell Laboratories | Code excited linear predictive vocoder using virtual searching |
AU620384B2 (en) * | 1988-03-28 | 1992-02-20 | Nec Corporation | Linear predictive speech analysis-synthesis apparatus |
GB2235354A (en) * | 1989-08-16 | 1991-02-27 | Philips Electronic Associated | Speech coding/encoding using celp |
JP3102015B2 (ja) * | 1990-05-28 | 2000-10-23 | 日本電気株式会社 | 音声復号化方法 |
US5138661A (en) * | 1990-11-13 | 1992-08-11 | General Electric Company | Linear predictive codeword excited speech synthesizer |
US5127053A (en) * | 1990-12-24 | 1992-06-30 | General Electric Company | Low-complexity method for improving the performance of autocorrelation-based pitch detectors |
DE69232202T2 (de) * | 1991-06-11 | 2002-07-25 | Qualcomm Inc | Vocoder mit veraendlicher bitrate |
US5327520A (en) * | 1992-06-04 | 1994-07-05 | At&T Bell Laboratories | Method of use of voice message coder/decoder |
US5351338A (en) * | 1992-07-06 | 1994-09-27 | Telefonaktiebolaget L M Ericsson | Time variable spectral analysis based on interpolation for speech coding |
-
1993
- 1993-08-31 CA CA002105269A patent/CA2105269C/en not_active Expired - Fee Related
- 1993-09-30 EP EP93307766A patent/EP0592151B1/en not_active Expired - Lifetime
- 1993-09-30 DE DE69328064T patent/DE69328064T2/de not_active Expired - Lifetime
- 1993-10-01 MX MX9306142A patent/MX9306142A/es not_active IP Right Cessation
- 1993-10-04 NO NO933535A patent/NO933535L/no not_active Application Discontinuation
- 1993-10-08 JP JP27601393A patent/JP3335441B2/ja not_active Expired - Lifetime
- 1993-10-08 FI FI934424A patent/FI934424A/fi unknown
-
1995
- 1995-05-24 US US08/449,184 patent/US5577159A/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002009092A1 (fr) * | 2000-07-21 | 2002-01-31 | Kabushiki Kaisha Kenwood | Dispositif d'interpolation de frequences servant a interpoler une composante de frequence de signal et procede d'interpolation de frequences |
US6879265B2 (en) | 2000-07-21 | 2005-04-12 | Kabushiki Kaisha Kenwood | Frequency interpolating device for interpolating frequency component of signal and frequency interpolating method |
WO2002035517A1 (fr) * | 2000-10-24 | 2002-05-02 | Kabushiki Kaisha Kenwood | Appareil et procédé pour interpoler un signal |
WO2002050814A1 (fr) * | 2000-12-07 | 2002-06-27 | Kabushiki Kaisha Kenwood | Systeme et procede d'interpolation de signaux |
WO2003003345A1 (fr) * | 2001-06-29 | 2003-01-09 | Kabushiki Kaisha Kenwood | Dispositif et procede d'interpolation des composantes de frequence d'un signal |
US7400651B2 (en) | 2001-06-29 | 2008-07-15 | Kabushiki Kaisha Kenwood | Device and method for interpolating frequency components of signal |
Also Published As
Publication number | Publication date |
---|---|
US5577159A (en) | 1996-11-19 |
CA2105269C (en) | 1998-08-25 |
JP3335441B2 (ja) | 2002-10-15 |
DE69328064T2 (de) | 2000-09-07 |
FI934424A0 (fi) | 1993-10-08 |
CA2105269A1 (en) | 1994-04-10 |
NO933535L (no) | 1994-04-11 |
NO933535D0 (no) | 1993-10-04 |
FI934424A (fi) | 1994-04-10 |
MX9306142A (es) | 1994-06-30 |
DE69328064D1 (de) | 2000-04-20 |
EP0592151B1 (en) | 2000-03-15 |
EP0592151A1 (en) | 1994-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3335441B2 (ja) | 音声信号の符号化方法と符号化音声信号の復号化方法およびそのシステム | |
KR100873836B1 (ko) | Celp 트랜스코딩 | |
KR100304682B1 (ko) | 음성 코더용 고속 여기 코딩 | |
KR100979090B1 (ko) | 피치 지연 윤곽부 조절을 사용하여 정보 신호를 코딩하기위한 방법 및 장치 | |
JP3483958B2 (ja) | 広帯域音声復元装置及び広帯域音声復元方法及び音声伝送システム及び音声伝送方法 | |
US6732070B1 (en) | Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching | |
EP3693964A1 (en) | Simultaneous time-domain and frequency-domain noise shaping for tdac transforms | |
JP2017526950A (ja) | 低遅延符号化/復号のための補間による音声信号のリサンプリング | |
JPH10307599A (ja) | スプラインを使用する波形補間音声コーディング | |
JP2003044097A (ja) | 音声信号および音楽信号を符号化する方法 | |
JP2003512654A (ja) | 音声の可変レートコーディングのための方法およびその装置 | |
JPH096397A (ja) | 音声信号の再生方法、再生装置及び伝送方法 | |
US7792670B2 (en) | Method and apparatus for speech coding | |
EP0865029A1 (en) | Efficient decomposition in noise and periodic signal waveforms in waveform interpolation | |
KR20040095205A (ko) | Celp를 기반으로 하는 음성 코드간 변환코딩 방식 | |
EP1096476A2 (en) | Speech decoding gain control for noisy signals | |
JPH0341500A (ja) | 低遅延低ビツトレート音声コーダ | |
JP2003044099A (ja) | ピッチ周期探索範囲設定装置及びピッチ周期探索装置 | |
JPH09127987A (ja) | 信号符号化方法及び装置 | |
JP3749838B2 (ja) | 音響信号符号化方法、音響信号復号方法、これらの装置、これらのプログラム及びその記録媒体 | |
JP3598111B2 (ja) | 広帯域音声復元装置 | |
JP2000298500A (ja) | 音声符号化方法 | |
JPH05232995A (ja) | 一般化された合成による分析音声符号化方法と装置 | |
JP3290443B2 (ja) | コード励振線形予測符号化器及び復号化器 | |
JP3560964B2 (ja) | 広帯域音声復元装置及び広帯域音声復元方法及び音声伝送システム及び音声伝送方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080802 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080802 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090802 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100802 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110802 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110802 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120802 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130802 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |