JP3607774B2 - Speech encoding device - Google Patents

Speech encoding device Download PDF

Info

Publication number
JP3607774B2
JP3607774B2 JP09117796A JP9117796A JP3607774B2 JP 3607774 B2 JP3607774 B2 JP 3607774B2 JP 09117796 A JP09117796 A JP 09117796A JP 9117796 A JP9117796 A JP 9117796A JP 3607774 B2 JP3607774 B2 JP 3607774B2
Authority
JP
Japan
Prior art keywords
speech
parameter
signal
spectrum
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09117796A
Other languages
Japanese (ja)
Other versions
JPH09281999A (en
Inventor
秀享 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP09117796A priority Critical patent/JP3607774B2/en
Priority to GB9707087A priority patent/GB2312360B/en
Priority to GB0023246A priority patent/GB2350763B/en
Priority to GB0023247A priority patent/GB2351211B/en
Priority to DE19715126A priority patent/DE19715126C2/en
Priority to US08/845,543 priority patent/US6272459B1/en
Publication of JPH09281999A publication Critical patent/JPH09281999A/en
Application granted granted Critical
Publication of JP3607774B2 publication Critical patent/JP3607774B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、音声符号化装置、より詳しくは、音声信号をディジタル情報圧縮して記録または伝送する音声符号化装置に関する。
【0002】
【従来の技術】
音声信号を効率良く圧縮するために広く用いられている手段として、音声信号を、スペクトル包絡を表す線形予測パラメータと、線形予測残差信号に対応する音源パラメータとを用いて符号化する方式がある。このような線形予測の手段を用いた音声符号化方式は、少ない伝送容量で比較的高品質な合成音声を得られることから、最近のハードウェア技術の進歩と相まって様々な応用方式が盛んに研究され、開発されている。
【0003】
その中でも良い音質が得られる方式として、Kleijin等による ”Improved speech quality and efficient vector quantization in SELP”(ICASP’88 s4.4,pp.155−158,1988)と題した論文に記載されている、過去の音源信号を繰り返して得られる適応コードブックを用いるCELP(Code Excited Linear Predictive Coding)方式がよく知られている。
【0004】
上述したような線形予測分析を基礎とした音声符号化装置は、比較的低いビットレートで高品質な符号化性能を得ることができるという利点を有している。このような線形予測分析を基礎とした音声符号化装置は、人間が発する概周期的な有声音を前提として構成されており、1フレームの分析長は20ms前後が適当であるとされている。
【0005】
しかしながら、上述したような従来の音声符号化装置は、音声信号区間以外の非音声信号区間については良好に符号化することができず、特に背景雑音等が混入すると急激に音質が劣化してしまうという問題点があった。
【0006】
上述したような音声符号化装置の適用分野としては、移動体電話や音声録音装置などが考えられており、これらは背景雑音が混入する場合を含む様々な環境下で使用されるものと想定されるために、上記音質劣化の問題点は、魅力的な製品を実現する上でどうしても解決しなければならない必須の課題である。
【0007】
このような問題点に鑑みて本出願人は、特願平7−268756号において、予め定められたフレーム間隔に分割された入力信号が音声信号か非音声信号かを判別する音声判別手段と、上記入力信号のスペクトルパラメータを出力する線形予測分析手段と、上記音声判別手段による判別結果が非音声信号であることが所定フレーム数にわたって連続した場合に上記入力信号のスペクトルパラメータとして上記線形予測分析手段に所定の先行フレームにおけるスペクトルパラメータを継続して出力させる制御手段と、線形予測残差信号に相当する駆動音源信号を生成する駆動音源信号生成手段と、上記スペクトルパラメータに基づいて上記駆動音源信号から音声を合成する合成フィルタとを備えた音声符号化装置を提案しており、これにより、非音声信号が入力しても良好に符号化することができる音質の良い音声符号化装置としている。
【0008】
【発明が解決しようとする課題】
しかしながら、上記特願平7−268756号に記載のものでは、非音声区間におけるスペクトルパラメータの切り替え時における音質劣化を抑制することはできるが、長時間にわたって非音声区間が続いたときは、その非音声区間に対する音質の向上には寄与するものではなく、音質劣化は大きいままである。
【0009】
本発明は上記事情に鑑みてなされたものであり、良好に音声信号を符号化することができる高品質な音声符号化装置を提供することを目的としている。
【0010】
【課題を解決するための手段】
上記の目的を達成するために、本発明の第1の音声符号化装置は、所定のフレーム間隔に分割された入力信号が音声信号または非音声信号の何れであるかを判別する音声判別手段と、上記入力信号のスペクトルパラメータを出力する線形予測分析手段と、上記音声判別手段による判別結果が非音声信号であることが所定フレーム数にわたって連続した場合に入力信号のスペクトルパラメータとして先行フレームにおけるスペクトルパラメータを継続して使用させるように制御する制御手段と、非音声信号であると判別されたフレームが上記所定フレーム数を越えて連続した場合には予め用意した非音声用スペクトルパラメータと現在のフレームのスペクトルパラメータとの平滑化を行いその平滑化されたスペクトルパラメータを出力する非音声フレーム用スペクトル平滑化手段と、線形予測残差信号に相当する駆動音源信号を生成する駆動音源信号生成手段と、上記スペクトルパラメータに基づいて上記駆動音源信号から音声を合成する合成フィルタとを備えたものである。
【0011】
また、本発明の第2の音声符号化装置は、上記第1の音声符号化装置において、上記非音声用スペクトルパラメータの初期値として所定の背景ノイズに基づくスペクトルパラメータの値を用いるものである。
【0012】
さらに、本発明の第3の音声符号化装置は、上記第1または第2の音声符号化装置において、上記非音声用スペクトルパラメータの重み付けを現在のフレームのスペクトルパラメータに対する重み付けよりも大きくして平滑化するものである。
【0013】
そして、本発明の第4の音声符号化装置は、上記第1,第2または第3の音声符号化装置において、上記非音声フレーム用スペクトル平滑化手段から出力されたスペクトルパラメータを、次のフレームの平滑化に用いるために非音声スペクトルパラメータとして記憶するパラメータ記憶手段を備えたものである。
【0014】
従って、本発明の第1の音声符号化装置は、音声判別手段が所定のフレーム間隔に分割された入力信号が音声信号または非音声信号の何れであるかを判別し、線形予測分析手段が上記入力信号のスペクトルパラメータを出力し、上記音声判別手段による判別結果が非音声信号であることが所定フレーム数にわたって連続した場合に制御手段が入力信号のスペクトルパラメータとして先行フレームにおけるスペクトルパラメータを継続して使用させるように制御し、非音声信号であると判別されたフレームが上記所定フレーム数を越えて連続した場合には非音声フレーム用スペクトル平滑化手段が予め用意した非音声用スペクトルパラメータと現在のフレームのスペクトルパラメータとの平滑化を行いその平滑化されたスペクトルパラメータを出力し、駆動音源信号生成手段が線形予測残差信号に相当する駆動音源信号を生成し、合成フィルタが上記スペクトルパラメータに基づいて上記駆動音源信号から音声を合成する。
【0015】
また、本発明の第2の音声符号化装置は、上記非音声用スペクトルパラメータの初期値として所定の背景ノイズに基づくスペクトルパラメータの値を用いる。
【0016】
さらに、本発明の第3の音声符号化装置は、上記非音声用スペクトルパラメータの重み付けを現在のフレームのスペクトルパラメータに対する重み付けよりも大きくして平滑化する。
【0017】
そして、本発明の第4の音声符号化装置は、パラメータ記憶手段が上記非音声フレーム用スペクトル平滑化手段から出力されたスペクトルパラメータを、次のフレームの平滑化に用いるために非音声スペクトルパラメータとして記憶する。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1から図4は本発明の一実施形態を示したものであり、図1は音声符号化装置の構成を示すブロック図である。
【0019】
この音声符号化装置は、コード駆動線形予測符号化によるものであり、図1に示すように、入力端子に接続されたバッファメモリ1の出力端は3つに分岐されていて、第1の出力端はサブフレーム分割器7を介して減算器8に接続され、第2の出力端は線形予測分析手段たるLPC分析器5の入力端に接続され、第3の出力端は音声判別手段たる音声判別器2を介して後述する切替スイッチ4A,4Bの制御を行う制御手段たるスイッチ制御回路3に接続されている。
【0020】
上記LPC分析器5は、切替スイッチ4Aの入力端子bに接続されているとともに、パラメータメモリ5aにその出力を記憶させるようになっていて、このパラメータメモリ5aは切替スイッチ4Aの入力端子aに接続されている。
【0021】
上記切換スイッチ4Aの出力端子は引き続いて配設されている切換スイッチ4Bの入力端子に接続されていて、この切換スイッチ4Bの出力端子aは合成フィルタ6に、出力端子bは非音声フレーム用スペクトル平滑化手段たるパラメータ平滑化器19に接続されている。
【0022】
上記パラメータ平滑化器19にはその出力を記憶させて必要に応じて読み出すためのパラメータ記憶手段たるパラメータメモリ19aが接続されていて、該パラメータ平滑化器19の出力端は上記合成フィルタ6に接続されている。
【0023】
この合成フィルタ6には、適応コードブック12と確率コードブック14を用いて生成される信号が入力されるようになっている。
【0024】
すなわち、上記適応コードブック12は、乗算器13を介して加算器17の第1入力端子に接続されており、また、確率コードブック14は、乗算器15とスイッチ16とを介して上記加算器17の第2入力端子に接続されている。
【0025】
この加算器17の出力端子は、合成フィルタ6を介して上記減算器8の入力端子に接続されている一方で、遅延回路11を介して上記適応コードブック12に接続されている。
【0026】
上記合成フィルタ6の出力端は、サブフレーム分割器7が接続された減算器8および聴感重み付けフィルタ9を介して誤差評価器10の入力端子に接続されている。この誤差評価器10による評価結果は、上述した適応コードブック12と、確率コードブック14と、さらに乗算器13,15とにフィードバックされて、最適なコードの選択やゲインの調整に用いられるようになっているとともに、上記誤差評価器10は、マルチプレクサ18にも接続されている。
【0027】
上述のような音声符号化装置において、線形予測残差信号に相当する駆動音源信号を生成する駆動音源信号生成手段は、上記遅延回路11、適応コードブック12、確率コードブック14、乗算器13,15、スイッチ16、加算器17等を含んで構成されている。
【0028】
次に、図2は上記音声判別器2のより詳細な構成を示すブロック図である。
【0029】
この音声判別器2に入力された上記バッファメモリ1の出力信号は、2つに分岐されて一方がフレームエネルギー分析回路2aに、他方が初期フレームエネルギー分析回路2bに入力されるようになっている。
【0030】
上記フレームエネルギー分析回路2aは加算器2cの+端子となっている第1入力端子に、上記初期フレームエネルギー分析回路2bは該加算器2cの−端子となっている第2入力端子にそれぞれ接続されているとともに、さらに、初期フレームエネルギー分析回路2bは、閾値決定回路2dにも接続されている。
【0031】
そして、上記加算器2cの出力端子と上記閾値決定回路2dの出力端子は、共に判別回路2eに接続されていて、この判別回路2eの出力が上記スイッチ制御回路3に出力されるようになっている。
【0032】
次に、上記図1および図2に示したような構成における信号の流れを説明する。
【0033】
入力端子から例えば8kHz(すなわち、1サンプル当たり1/8ms)でサンプリングされた原音声信号を入力して、予め定められたフレーム間隔(例えば20ms、すなわち160サンプル)の音声信号をバッファメモリ1に格納する。
【0034】
バッファメモリ1は、入力信号をフレーム単位でサブフレーム分割器7とLPC分析器5と音声判別器2とに送出する。
【0035】
この音声判別器2は、フレームの入力信号が音声か非音声かを、例えば以下に説明するような方法で判別する。
【0036】
上記図2に示したような構成の音声判別器2において、フレームエネルギー分析回路2aは、入力されたフレーム入力信号のフレームエネルギーEf を次に示すような数式により算出する。
【0037】
【数1】

Figure 0003607774
ここに、s(n)はサンプルnにおける入力信号、Nはフレーム長をそれぞれ示している。
【0038】
また、上記初期フレームエネルギー分析回路2bは、符号化を開始したときのフレームエネルギーEb を上記数式1と同様の数式を用いて算出する。
【0039】
上記閾値決定回路2dは、背景雑音エネルギーの大きさに応じて閾値を決定する。例えば、図3に示すように、背景雑音エネルギーがdB単位で増加するに従って、閾値をdB単位で減少させる関係により、閾値を決定する。そして、その結果を判別回路2eに送出する。
【0040】
加算器2cでは、フレームエネルギーEf を正として入力するとともに、初期フレームエネルギーEb を負として入力してこれらを加算することにより、フレームエネルギーEf から初期フレームエネルギーEb を減算し、その減算結果を判別回路2eに送出する。
【0041】
そして、判別回路2eは、入力された減算結果と閾値を比較して、減算結果が閾値より大きければフレーム入力信号は音声区間であると判別し、そうでなければ非音声区間であると判別する。
【0042】
図1に戻って、サブフレーム分割器7は、フレームの入力信号を予め定められたサブフレーム間隔(例えば5ms、つまり40サンプル)に分割する。すなわち、1フレームの入力信号から、第1サブフレームから第4サブフレームまでの4つのサブフレーム信号が作成される。
【0043】
LPC分析器5は、入力信号に対して線形予測分析(LPC分析)を行って、スペクトル特性を表すスペクトルパラメータたる線形予測パラメータαを抽出し、パラメータメモリ5aに送出するとともに、切替スイッチ4A,4Bを介して合成フィルタ6あるいはパラメータ平滑化器19に送出する。
【0044】
次に、スイッチ制御回路3の動作について、図4のフローチャートを参照して説明する。
【0045】
まず、符号化を開始すると(ステップS1)、非音声フレーム連続数を示すiを0にセットする(ステップS2)。
【0046】
次に、音声判別器2における判別結果が音声(v)であるか非音声(uv)であるかを判定して(ステップS3)、もし判別結果が非音声である場合には、iを1だけ増加させる(ステップS4)。そして、このiが所定数R(例えば5)よりも大きいか否かを判定し(ステップS5)、大きい場合には切替スイッチ4Aの端子および切替スイッチ4Bの端子を両方ともa側に閉じ(ステップS6)、パラメータメモリ5aから出力される先行フレームのスペクトルパラメータを継続して使用する(ステップS7)。
【0047】
続いて、iがR+1よりも大きいか否かを判定し(ステップS8)、大きい場合には切替スイッチ4Aの端子および切替スイッチ4Bの端子を両方ともb側に閉じて(ステップS9)、LPC分析器5によりLPC分析を行い(ステップS10)、その結果がパラメータ平滑化器19に入力されるようにする。
【0048】
そして、このパラメータ平滑化器19において、パラメータの平滑化を以下に説明するように行う(ステップS11)。
【0049】
背景ノイズ用初期kパラメータNoise_αを予め用意してパラメータメモリ19aに記憶しておき、平滑化を数式2に示すような重み付けにより行う。
【0050】
【数2】
Figure 0003607774
なお、この背景ノイズ用初期kパラメータNoise_αは、例えばオフィス環境における背景ノイズを入力したときの、あるスペクトルパラメータを代表させた値である。
【0051】
このように背景ノイズ用初期kパラメータNoise_αの重み付けを現在のフレームのスペクトルパラメータα[i]の重み付けよりも重くすることによって、パラメータα[i]の値が揺らいでも、その揺らぎの影響を小さく抑制するようになっている。
【0052】
続いて、直後に背景ノイズ用初期kパラメータNoise_α[i]を数式3に示すように更新する(ステップS12)。
【0053】
【数3】
Figure 0003607774
その後、次のフレームの処理を待つ(ステップS13)。
【0054】
また、上記ステップS8においてiがR+1以下である場合にも、上記ステップS13に進む。
【0055】
このようにして、非音声部での音源信号は、LPC分析の結果を反映しつつも、揺らぎを抑えることができる。
【0056】
一方、上記ステップS3における判別結果が音声である場合には、非音声フレーム連続数を示すiを0にリセットした後に(ステップS14)、切替スイッチ4Aの端子をb側に閉じるとともに切替スイッチ4Bの端子をa側に閉じて(ステップS15)、LPC分析を行ってスペクトルパラメータを更新する(ステップS16)。その後、上記ステップS13に進み、次のフレームの処理を待つ。
【0057】
また、上記ステップS5においてiが所定数R以下である場合にも、上記ステップS14に進む。
【0058】
図1の説明に再び戻って、適応コードブックの遅れL、ゲインβ、確率コードブックのインデックスi、ゲインγは、次に説明するような手段により決定される。
【0059】
まず、適応コードブックの遅延Lとゲインβは、以下の処理によって決定される。
【0060】
遅延回路11において、先行サブフレームにおける合成フィルタ6の入力信号すなわち駆動音源信号に、ピッチ周期に相当する遅延を与えて適応コードベクトルとして作成する。
【0061】
例えば、想定するピッチ周期を40〜167サンプルとすると、40〜167サンプル遅れの128種類の信号が適応コードベクトルとして作成され、適応コードブック12に格納される。
【0062】
このときスイッチ16は開いた状態となっていて、各適応コードベクトルは乗算器13でゲイン値を可変して乗じた後に、加算器17を通過してそのまま合成フィルタ6に入力される。
【0063】
この合成フィルタ6は、線形予測パラメータα’を用いて合成処理を行い、合成ベクトルを減算器8に送出する。この減算器8は、原音声ベクトルと合成ベクトルとの減算を行うことにより誤差ベクトルを生成し、得られた誤差ベクトルを聴感重み付けフィルタ9に送出する。
【0064】
この聴感重み付けフィルタ9は、誤差ベクトルに対して聴感特性を考慮した重み付け処理を行い、誤差評価器10に送出する。
【0065】
誤差評価器10は、誤差ベクトルの2乗平均を計算し、その2乗平均値が最小となる適応コードベクトルを検索して、その遅れLとゲインβをマルチプレクサ18に送出する。このようにして、適応コードブック12の遅延Lとゲインβが決定される。
【0066】
続いて、確率コードブックのインデックスiとゲインγは、以下の処理によって決定される。
【0067】
確率コードブック14は、サブフレーム長に対応する次元数(すなわち、上述の例では40次元)の確率コードベクトルが、例えば512種類予め格納されており、各々にインデックスが付与されている。なお、このときにはスイッチ16は閉じた状態となっている。
【0068】
まず、上記処理によって決定された最適な適応コードベクトルを、乗算器13で最適ゲインβを乗じた後に、加算器17に送出する。
【0069】
次に、各確率コードベクトルを乗算器15でゲイン値を可変して乗じた後に、加算器17に入力する。加算器17は上記最適ゲインβを乗じた最適な適応コードベクトルと各確率コードベクトルの加算を行い、その結果が合成フィルタ6に入力される。
【0070】
この後の処理は、上記適応コードブックパラメータの決定処理と同様に行われる。すなわち、合成フィルタ6は線形予測パラメータα’を用いて合成処理を行い、合成ベクトルを減算器8に送出する。
【0071】
減算器8は原音声ベクトルと合成ベクトルとの減算を行うことにより誤差ベクトルを生成し、得られた誤差ベクトルを聴感重み付けフィルタ9に送出する。
【0072】
聴感重み付けフィルタ9は、誤差ベクトルに対して聴感特性を考慮した重み付け処理を行い、誤差評価器10に送出する。
【0073】
誤差評価器10は、誤差ベクトルの2乗平均を計算して、その2乗平均値が最小となる確率コードベクトルを検索して、そのインデックスiとゲインγをマルチプレクサ18に送出する。このようにして、確率コードブック14のインデックスiとゲインγが決定される。
【0074】
上記マルチプレクサ18は、量子化された線形予測パラメータα’、適応コードブックの遅れL、ゲインβ、確率コードブックのインデックスi、ゲインγの各々をマルチプレクスして伝送するものである。
【0075】
なお、上述したような音声符号化装置に対応する音声復号化装置の復号化動作は、上記特願平7−268756号に記載した従来例におけるものと同様である。
【0076】
また、音声判別器における音声判別方法は、上述した手段に限るものではないことはいうまでもない。
【0077】
さらに、上記実施形態においては、コード駆動線形予測符号化による音声符号化装置を一例として取り上げて説明したが、線形予測パラメータと、線形予測残差信号に相当する駆動音源信号のパラメータとで表現する音声符号化装置であれば、当然にして、何れのものにも適用することが可能である。
【0078】
そして、符号化パラメータに音声/非音声の情報も伝送するようにして、復号化装置に符号化装置と同様のスイッチ制御回路および切替スイッチを設け、音声/非音声の情報に基づいて切替スイッチの制御を行うことにより可変ビットレート符号化装置/復号化装置を構成し、より高い圧縮効率で符号化することも可能である。
【0079】
このような実施形態の音声符号化装置によれば、非音声フレームが所定数以上連続する場合におけるフレーム毎のパラメータの揺らぎを抑制することができるために、非音声区間における音質が安定して、良好に音声信号を符号化することができる高品質な音声符号化装置となる。
【0080】
【発明の効果】
以上説明したように請求項1に記載の発明によれば、符号化された非音声信号のフレーム毎の揺らぎが小さくなり、良好に音声信号を符号化することができる高品質な音声符号化装置を得ることができる。
【0081】
また、請求項2に記載の発明によれば、請求項1に記載の発明と同様の効果を奏するとともに、所定の背景ノイズに基づくスペクトルパラメータの値を非音声用スペクトルパラメータの初期値として用いるために、符号化された非音声信号に違和感が生じることはない。
【0082】
さらに、請求項3に記載の発明によれば、請求項1または請求項2に記載の発明と同様の効果を奏するとともに、符号化された非音声信号のフレーム毎の揺らぎを一層抑制することができて、より円滑に平滑化することができる。
【0083】
そして、請求項4に記載の発明によれば、請求項1、請求項2または請求項3に記載の発明と同様の効果を奏するとともに、非音声スペクトルパラメータを記憶するパラメータ記憶手段を備えたために、次の平滑化の処理が容易になる。
【図面の簡単な説明】
【図1】本発明の一実施形態の音声符号化装置の構成を示すブロック図。
【図2】上記実施形態の音声判別器のより詳細な構成を示すブロック図。
【図3】上記実施形態において、音声判別器の閾値決定回路により決定される閾値と背景雑音エネルギーとの関係の一例を示す線図。
【図4】上記実施形態の音声符号化装置の動作を示すフローチャート。
【符号の説明】
2…音声判別器(音声判別手段)
3…スイッチ制御回路(制御手段)
5…LPC分析器(線形予測分析手段)
6…合成フィルタ
11…遅延回路(駆動音源信号生成手段の一部)
12…適応コードブック(駆動音源信号生成手段の一部)
14…確率コードブック(駆動音源信号生成手段の一部)
19…パラメータ平滑化器(非音声フレーム用スペクトル平滑化手段)
19a…パラメータメモリ(パラメータ記憶手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a speech coding apparatus, and more particularly to a speech coding apparatus that records or transmits a speech signal by compressing digital information.
[0002]
[Prior art]
As a widely used means for efficiently compressing an audio signal, there is a method of encoding an audio signal using a linear prediction parameter representing a spectral envelope and an excitation parameter corresponding to the linear prediction residual signal. . Speech coding systems using such linear prediction means can obtain relatively high-quality synthesized speech with a small transmission capacity, so various applied systems are actively studied in conjunction with recent advances in hardware technology. Has been developed.
[0003]
Among them, as a method for obtaining a good sound quality, it is described in a paper entitled “Improved speed quality and efficiency vectorization in SELP” (ICASP'88 s4.4, pp.155-158, 1988) by Kleijin et al., A CELP (Code Excited Linear Predictive Coding) system that uses an adaptive codebook obtained by repeating past sound source signals is well known.
[0004]
A speech coding apparatus based on linear prediction analysis as described above has an advantage that high-quality coding performance can be obtained at a relatively low bit rate. A speech coding apparatus based on such linear prediction analysis is configured on the assumption of an approximately periodic voiced sound generated by a human, and an analysis length of one frame is considered to be about 20 ms.
[0005]
However, the conventional speech encoding apparatus as described above cannot satisfactorily encode non-speech signal sections other than the speech signal section, and the sound quality deteriorates rapidly particularly when background noise or the like is mixed. There was a problem.
[0006]
As a field of application of the speech encoding apparatus as described above, mobile telephones and speech recording apparatuses are considered, and these are assumed to be used in various environments including cases where background noise is mixed. Therefore, the above problem of sound quality degradation is an indispensable problem that must be solved in order to realize an attractive product.
[0007]
In view of such a problem, the applicant of the present application, in Japanese Patent Application No. 7-268756, is a voice discrimination means for discriminating whether an input signal divided into predetermined frame intervals is a voice signal or a non-voice signal; Linear prediction analysis means for outputting a spectrum parameter of the input signal, and linear prediction analysis means as a spectrum parameter of the input signal when the discrimination result by the speech discrimination means is a non-speech signal for a predetermined number of frames. Control means for continuously outputting a spectral parameter in a predetermined preceding frame, driving excitation signal generating means for generating a driving excitation signal corresponding to a linear prediction residual signal, and from the driving excitation signal based on the spectral parameter We have proposed a speech coding device with a synthesis filter that synthesizes speech, Even if input audio signal is set to sound good speech coding apparatus capable of satisfactorily coded.
[0008]
[Problems to be solved by the invention]
However, in the above-mentioned Japanese Patent Application No. 7-268756, it is possible to suppress deterioration in sound quality at the time of switching the spectrum parameter in the non-speech section, but when the non-speech section continues for a long time, the non-speech It does not contribute to the improvement of the sound quality for the speech section, and the sound quality degradation remains large.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a high-quality speech coding apparatus that can satisfactorily encode speech signals.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a first speech coding apparatus according to the present invention comprises speech discrimination means for discriminating whether an input signal divided into predetermined frame intervals is a speech signal or a non-speech signal. A linear prediction analysis means for outputting a spectral parameter of the input signal, and a spectral parameter in a preceding frame as a spectral parameter of the input signal when the discrimination result by the speech discrimination means is a non-speech signal for a predetermined number of frames. Control means for controlling the continuous use of the non-speech signal and the non-speech spectrum parameter prepared in advance when the frame determined to be a non-speech signal exceeds the predetermined number of frames and the current frame. Non-sound that is smoothed with spectral parameters and outputs the smoothed spectral parameters A spectrum smoothing unit for frames; a driving excitation signal generating unit that generates a driving excitation signal corresponding to a linear prediction residual signal; and a synthesis filter that synthesizes speech from the driving excitation signal based on the spectrum parameter. Is.
[0011]
In the second speech encoding apparatus of the present invention, in the first speech encoding apparatus, a spectral parameter value based on a predetermined background noise is used as an initial value of the non-speech spectral parameter.
[0012]
Further, the third speech coding apparatus according to the present invention is characterized in that, in the first or second speech coding apparatus, the weighting of the non-speech spectral parameter is made larger than the weighting of the spectral parameter of the current frame. It is to become.
[0013]
The fourth speech coding apparatus according to the present invention uses the spectrum parameter output from the spectrum smoothing means for non-speech frames in the first, second, or third speech coding apparatus as a next frame. Parameter storage means for storing as a non-speech spectrum parameter for use in smoothing.
[0014]
Therefore, in the first speech coding apparatus of the present invention, the speech discrimination means discriminates whether the input signal divided into predetermined frame intervals is a speech signal or a non-speech signal, and the linear prediction analysis means The spectrum parameter of the input signal is output, and when the discrimination result by the voice discrimination means is a non-speech signal for a predetermined number of frames, the control means continues the spectrum parameter in the preceding frame as the spectrum parameter of the input signal. When the frames determined to be non-speech signals are continued beyond the predetermined number of frames, the non-speech spectrum parameter prepared in advance by the non-speech frame spectrum smoothing means Perform smoothing with the spectral parameters of the frame and change the smoothed spectral parameters And force excitation signal generating means generates an excitation signal corresponding to the linear prediction residual signal, synthesis filter to synthesize speech from the excitation signal based on said spectrum parameter.
[0015]
The second speech encoding apparatus of the present invention uses a spectral parameter value based on a predetermined background noise as an initial value of the non-speech spectral parameter.
[0016]
Furthermore, the third speech coding apparatus according to the present invention smoothes the non-speech spectrum parameter by making the weight of the non-speech spectrum parameter larger than the weight of the spectrum parameter of the current frame.
[0017]
In the fourth speech encoding apparatus of the present invention, the parameter storage means uses the spectral parameter output from the non-speech frame spectrum smoothing means as a non-speech spectrum parameter for use in smoothing the next frame. Remember.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
1 to 4 show an embodiment of the present invention, and FIG. 1 is a block diagram showing the configuration of a speech encoding apparatus.
[0019]
This speech encoding apparatus is based on code-driven linear predictive encoding. As shown in FIG. 1, the output terminal of the buffer memory 1 connected to the input terminal is branched into three, and the first output The end is connected to the subtracter 8 via the subframe divider 7, the second output end is connected to the input end of the LPC analyzer 5 which is a linear prediction analysis means, and the third output end is a voice which is a speech discrimination means. The discriminator 2 is connected to a switch control circuit 3 as control means for controlling the selector switches 4A and 4B described later.
[0020]
The LPC analyzer 5 is connected to the input terminal b of the changeover switch 4A and stores the output in the parameter memory 5a. The parameter memory 5a is connected to the input terminal a of the changeover switch 4A. Has been.
[0021]
The output terminal of the changeover switch 4A is connected to the input terminal of the changeover switch 4B, which is subsequently arranged. The output terminal a of the changeover switch 4B is connected to the synthesis filter 6 and the output terminal b is the spectrum for non-voice frames. It is connected to a parameter smoother 19 which is a smoothing means.
[0022]
The parameter smoother 19 is connected to a parameter memory 19a serving as parameter storage means for storing the output and reading it out as necessary. The output terminal of the parameter smoother 19 is connected to the synthesis filter 6. Has been.
[0023]
A signal generated using the adaptive code book 12 and the probability code book 14 is input to the synthesis filter 6.
[0024]
That is, the adaptive code book 12 is connected to the first input terminal of the adder 17 via the multiplier 13, and the probability code book 14 is connected to the adder via the multiplier 15 and the switch 16. 17 is connected to the second input terminal.
[0025]
The output terminal of the adder 17 is connected to the input terminal of the subtracter 8 through the synthesis filter 6, and is connected to the adaptive codebook 12 through the delay circuit 11.
[0026]
The output terminal of the synthesis filter 6 is connected to an input terminal of an error evaluator 10 through a subtracter 8 and an audibility weighting filter 9 to which a subframe divider 7 is connected. The evaluation result by the error evaluator 10 is fed back to the above-described adaptive codebook 12, the probability codebook 14, and the multipliers 13 and 15 so as to be used for selecting an optimum code and adjusting the gain. The error evaluator 10 is also connected to the multiplexer 18.
[0027]
In the speech encoding apparatus as described above, the driving excitation signal generating means for generating the driving excitation signal corresponding to the linear prediction residual signal includes the delay circuit 11, the adaptive code book 12, the probability code book 14, the multiplier 13, 15, a switch 16, an adder 17, and the like.
[0028]
Next, FIG. 2 is a block diagram showing a more detailed configuration of the voice discriminator 2.
[0029]
The output signal of the buffer memory 1 input to the voice discriminator 2 is branched into two, one input to the frame energy analysis circuit 2a and the other input to the initial frame energy analysis circuit 2b. .
[0030]
The frame energy analysis circuit 2a is connected to the first input terminal which is the + terminal of the adder 2c, and the initial frame energy analysis circuit 2b is connected to the second input terminal which is the-terminal of the adder 2c. In addition, the initial frame energy analysis circuit 2b is also connected to a threshold value determination circuit 2d.
[0031]
The output terminal of the adder 2c and the output terminal of the threshold value determination circuit 2d are both connected to the determination circuit 2e, and the output of the determination circuit 2e is output to the switch control circuit 3. Yes.
[0032]
Next, the signal flow in the configuration shown in FIGS. 1 and 2 will be described.
[0033]
For example, an original audio signal sampled at 8 kHz (ie, 1/8 ms per sample) is input from the input terminal, and an audio signal at a predetermined frame interval (eg, 20 ms, ie 160 samples) is stored in the buffer memory 1. To do.
[0034]
The buffer memory 1 sends the input signal to the subframe divider 7, LPC analyzer 5, and speech discriminator 2 in units of frames.
[0035]
The voice discriminator 2 discriminates whether the input signal of the frame is voice or non-voice by, for example, a method described below.
[0036]
In the speech discriminator 2 configured as shown in FIG. 2, the frame energy analysis circuit 2a calculates the frame energy Ef of the input frame input signal by the following mathematical formula.
[0037]
[Expression 1]
Figure 0003607774
Here, s (n) indicates an input signal in the sample n, and N indicates a frame length.
[0038]
The initial frame energy analysis circuit 2b calculates the frame energy Eb at the start of encoding using the same mathematical expression as the mathematical expression 1.
[0039]
The threshold value determination circuit 2d determines a threshold value according to the magnitude of background noise energy. For example, as shown in FIG. 3, as the background noise energy increases in dB, the threshold is determined based on the relationship of decreasing the threshold in dB. Then, the result is sent to the discrimination circuit 2e.
[0040]
In the adder 2c, the frame energy Ef is input as positive, the initial frame energy Eb is input as negative, and these are added to subtract the initial frame energy Eb from the frame energy Ef. Send to 2e.
[0041]
Then, the discrimination circuit 2e compares the input subtraction result with a threshold value, and if the subtraction result is larger than the threshold value, it determines that the frame input signal is a voice interval, and otherwise determines that it is a non-voice interval. .
[0042]
Returning to FIG. 1, the sub-frame divider 7 divides the input signal of the frame into predetermined sub-frame intervals (for example, 5 ms, that is, 40 samples). That is, four subframe signals from the first subframe to the fourth subframe are generated from one frame of the input signal.
[0043]
The LPC analyzer 5 performs linear prediction analysis (LPC analysis) on the input signal, extracts a linear prediction parameter α which is a spectral parameter representing the spectral characteristics, and sends it to the parameter memory 5a, as well as the changeover switches 4A and 4B. Is sent to the synthesis filter 6 or the parameter smoother 19.
[0044]
Next, the operation of the switch control circuit 3 will be described with reference to the flowchart of FIG.
[0045]
First, when encoding is started (step S1), i indicating the number of consecutive non-speech frames is set to 0 (step S2).
[0046]
Next, it is determined whether the discrimination result in the voice discriminator 2 is voice (v) or non-voice (uv) (step S3). If the discrimination result is non-voice, i is set to 1. (Step S4). Then, it is determined whether or not i is larger than a predetermined number R (for example, 5) (step S5). If i is larger, both the terminals of the changeover switch 4A and the terminals of the changeover switch 4B are closed to the a side (step S5). S6) The spectrum parameter of the preceding frame output from the parameter memory 5a is continuously used (step S7).
[0047]
Subsequently, it is determined whether i is larger than R + 1 (step S8). If it is larger, both the terminal of the changeover switch 4A and the terminal of the changeover switch 4B are closed to the b side (step S9), and LPC analysis is performed. The LPC analysis is performed by the device 5 (step S10), and the result is input to the parameter smoother 19.
[0048]
The parameter smoother 19 performs parameter smoothing as described below (step S11).
[0049]
An initial k parameter Noise_α for background noise is prepared in advance and stored in the parameter memory 19a, and smoothing is performed by weighting as shown in Formula 2.
[0050]
[Expression 2]
Figure 0003607774
The background noise initial k parameter Noise_α is a value representative of a certain spectrum parameter when background noise in an office environment, for example, is input.
[0051]
Thus, by setting the weight of the initial k parameter Noise_α for background noise to be heavier than the weight of the spectrum parameter α [i] of the current frame, even if the value of the parameter α [i] fluctuates, the influence of the fluctuation is suppressed to a small level. It is supposed to be.
[0052]
Subsequently, the background noise initial k parameter Noise_α [i] is updated as shown in Equation 3 (step S12).
[0053]
[Equation 3]
Figure 0003607774
Thereafter, processing for the next frame is awaited (step S13).
[0054]
Further, when i is equal to or less than R + 1 in step S8, the process proceeds to step S13.
[0055]
In this way, the sound source signal in the non-speech part can suppress fluctuations while reflecting the result of the LPC analysis.
[0056]
On the other hand, if the determination result in step S3 is speech, after i indicating the number of consecutive non-speech frames is reset to 0 (step S14), the switch 4A terminal is closed to the b side and the switch 4B The terminal is closed to the a side (step S15), the LPC analysis is performed, and the spectrum parameter is updated (step S16). Thereafter, the process proceeds to step S13 to wait for processing of the next frame.
[0057]
Further, when i is equal to or less than the predetermined number R in step S5, the process proceeds to step S14.
[0058]
Returning to the description of FIG. 1, the adaptive codebook delay L, gain β, probability codebook index i, and gain γ are determined by the following means.
[0059]
First, the delay L and the gain β of the adaptive codebook are determined by the following processing.
[0060]
The delay circuit 11 creates an adaptive code vector by giving a delay corresponding to the pitch period to the input signal of the synthesis filter 6 in the preceding subframe, that is, the driving sound source signal.
[0061]
For example, assuming an assumed pitch period of 40 to 167 samples, 128 types of signals with a delay of 40 to 167 samples are created as adaptive code vectors and stored in the adaptive code book 12.
[0062]
At this time, the switch 16 is in an open state, and each adaptive code vector is multiplied by the multiplier 13 while changing the gain value, and then passes through the adder 17 and is input to the synthesis filter 6 as it is.
[0063]
The synthesis filter 6 performs a synthesis process using the linear prediction parameter α ′ and sends a synthesis vector to the subtracter 8. The subtracter 8 generates an error vector by subtracting the original speech vector and the synthesized vector, and sends the obtained error vector to the perceptual weighting filter 9.
[0064]
This perceptual weighting filter 9 performs weighting processing on the error vector in consideration of perceptual characteristics and sends it to the error evaluator 10.
[0065]
The error evaluator 10 calculates the mean square of the error vector, searches for an adaptive code vector that minimizes the mean square value, and sends the delay L and the gain β to the multiplexer 18. In this way, the delay L and gain β of the adaptive codebook 12 are determined.
[0066]
Subsequently, the index i and the gain γ of the probability codebook are determined by the following processing.
[0067]
In the probability code book 14, for example, 512 types of probability code vectors corresponding to the subframe length (that is, 40 dimensions in the above example) are stored in advance, and an index is assigned to each. At this time, the switch 16 is closed.
[0068]
First, the optimum adaptive code vector determined by the above processing is multiplied by the optimum gain β by the multiplier 13 and then sent to the adder 17.
[0069]
Next, each probability code vector is multiplied by a multiplier 15 with a variable gain value and then input to an adder 17. The adder 17 adds the optimum adaptive code vector multiplied by the optimum gain β and each probability code vector, and the result is input to the synthesis filter 6.
[0070]
The subsequent processing is performed in the same manner as the adaptive code book parameter determination processing. That is, the synthesis filter 6 performs a synthesis process using the linear prediction parameter α ′ and sends the synthesis vector to the subtracter 8.
[0071]
The subtracter 8 generates an error vector by subtracting the original speech vector and the synthesized vector, and sends the obtained error vector to the perceptual weighting filter 9.
[0072]
The perceptual weighting filter 9 performs a weighting process in consideration of perceptual characteristics on the error vector and sends it to the error evaluator 10.
[0073]
The error evaluator 10 calculates the mean square of the error vector, searches for a probability code vector that minimizes the mean square value, and sends the index i and the gain γ to the multiplexer 18. In this way, the index i and the gain γ of the probability codebook 14 are determined.
[0074]
The multiplexer 18 multiplexes and transmits each of the quantized linear prediction parameter α ′, adaptive codebook delay L, gain β, probability codebook index i, and gain γ.
[0075]
The decoding operation of the speech decoding apparatus corresponding to the speech encoding apparatus as described above is the same as that in the conventional example described in the above Japanese Patent Application No. 7-268756.
[0076]
Needless to say, the speech discrimination method in the speech discriminator is not limited to the above-described means.
[0077]
Furthermore, in the above-described embodiment, the speech coding apparatus based on code-driven linear prediction coding has been described as an example. However, the speech coding apparatus is represented by a linear prediction parameter and a parameter of a driving sound source signal corresponding to the linear prediction residual signal. Of course, the present invention can be applied to any speech encoding device.
[0078]
Then, the decoding parameter is provided with a switch control circuit and a changeover switch similar to those of the encoding device so that the audio / non-audio information is transmitted as the encoding parameter. It is also possible to configure a variable bit rate encoding device / decoding device by performing control, and to perform encoding with higher compression efficiency.
[0079]
According to the speech encoding apparatus of such an embodiment, since the fluctuation of the parameter for each frame when a predetermined number or more of non-speech frames continue can be suppressed, the sound quality in the non-speech section is stable, It becomes a high-quality speech encoding apparatus that can encode speech signals satisfactorily.
[0080]
【The invention's effect】
As described above, according to the first aspect of the present invention, the fluctuation of each encoded non-speech signal for each frame is reduced, and a high-quality speech encoding apparatus capable of encoding a speech signal satisfactorily. Can be obtained.
[0081]
According to the second aspect of the invention, the same effect as that of the first aspect of the invention can be obtained, and the value of the spectral parameter based on the predetermined background noise is used as the initial value of the non-speech spectral parameter. In addition, there is no sense of incongruity in the encoded non-voice signal.
[0082]
Furthermore, according to the third aspect of the present invention, the same effects as the first or second aspect of the present invention can be obtained, and the fluctuation of the encoded non-speech signal for each frame can be further suppressed. Can be smoothed more smoothly.
[0083]
According to the invention described in claim 4, since the same effect as that of the invention described in claim 1, claim 2, or claim 3 is achieved, the parameter storage means for storing the non-speech spectrum parameter is provided. The next smoothing process becomes easy.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of a speech encoding apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a more detailed configuration of the speech discriminator of the embodiment.
FIG. 3 is a diagram illustrating an example of a relationship between a threshold value determined by a threshold value determination circuit of a speech discriminator and background noise energy in the embodiment.
FIG. 4 is a flowchart showing the operation of the speech encoding apparatus according to the embodiment.
[Explanation of symbols]
2 ... Voice discriminator (voice discrimination means)
3 ... Switch control circuit (control means)
5 ... LPC analyzer (linear prediction analysis means)
6 ... Synthetic filter 11 ... Delay circuit (part of driving sound source signal generating means)
12 ... Adaptive codebook (part of driving sound source signal generation means)
14 ... Probability codebook (part of driving sound source signal generation means)
19 ... Parameter smoother (spectrum smoothing means for non-voice frames)
19a ... Parameter memory (parameter storage means)

Claims (4)

所定のフレーム間隔に分割された入力信号が、音声信号または非音声信号の何れであるかを判別する音声判別手段と、
上記入力信号のスペクトルパラメータを出力する線形予測分析手段と、
上記音声判別手段による判別結果が非音声信号であることが所定フレーム数にわたって連続した場合に、入力信号のスペクトルパラメータとして先行フレームにおけるスペクトルパラメータを継続して使用させるように制御する制御手段と、
非音声信号であると判別されたフレームが上記所定フレーム数を越えて連続した場合には、予め用意した非音声用スペクトルパラメータと現在のフレームのスペクトルパラメータとの平滑化を行い、その平滑化されたスペクトルパラメータを出力する非音声フレーム用スペクトル平滑化手段と、
線形予測残差信号に相当する駆動音源信号を生成する駆動音源信号生成手段と、
上記スペクトルパラメータに基づいて上記駆動音源信号から音声を合成する合成フィルタと、
を具備したことを特徴とする音声符号化装置。
Audio discrimination means for discriminating whether the input signal divided into predetermined frame intervals is an audio signal or a non-audio signal;
Linear predictive analysis means for outputting spectral parameters of the input signal;
Control means for controlling the spectrum parameter in the preceding frame to be continuously used as the spectrum parameter of the input signal when the discrimination result by the voice discrimination means is a non-speech signal continuously over a predetermined number of frames;
If the frames determined to be non-speech signals continue beyond the predetermined number of frames, the non-speech spectrum parameter prepared in advance and the spectrum parameter of the current frame are smoothed, and the smoothing is performed. A non-voice frame spectrum smoothing means for outputting the spectrum parameters;
Driving excitation signal generating means for generating a driving excitation signal corresponding to the linear prediction residual signal;
A synthesis filter that synthesizes speech from the driving sound source signal based on the spectral parameters;
A speech encoding apparatus comprising:
上記非音声用スペクトルパラメータの初期値として、所定の背景ノイズに基づくスペクトルパラメータの値を用いることを特徴とする請求項1に記載の音声符号化装置。2. The speech encoding apparatus according to claim 1, wherein a spectral parameter value based on predetermined background noise is used as an initial value of the non-speech spectral parameter. 上記非音声用スペクトルパラメータの重み付けを現在のフレームのスペクトルパラメータに対する重み付けよりも大きくして平滑化することを特徴とする請求項1または請求項2に記載の音声符号化装置。3. The speech encoding apparatus according to claim 1, wherein the non-speech spectrum parameter is weighted more smoothly than the weight of the spectrum parameter of the current frame. 上記非音声フレーム用スペクトル平滑化手段から出力されたスペクトルパラメータを、次のフレームの平滑化に用いるために非音声スペクトルパラメータとして記憶するパラメータ記憶手段を具備したことを特徴とする請求項1、請求項2または請求項3に記載の音声符号化装置。2. A parameter storage means for storing the spectrum parameter output from the spectrum smoothing means for non-speech frames as a non-speech spectrum parameter for use in smoothing the next frame. The speech encoding device according to claim 2 or claim 3.
JP09117796A 1996-04-12 1996-04-12 Speech encoding device Expired - Lifetime JP3607774B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP09117796A JP3607774B2 (en) 1996-04-12 1996-04-12 Speech encoding device
GB9707087A GB2312360B (en) 1996-04-12 1997-04-08 Voice signal coding apparatus
GB0023246A GB2350763B (en) 1996-04-12 1997-04-08 Voice signal coding apparatus
GB0023247A GB2351211B (en) 1996-04-12 1997-04-08 Voice signal coding apparatus
DE19715126A DE19715126C2 (en) 1996-04-12 1997-04-11 Speech signal coding device
US08/845,543 US6272459B1 (en) 1996-04-12 1997-04-11 Voice signal coding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09117796A JP3607774B2 (en) 1996-04-12 1996-04-12 Speech encoding device

Publications (2)

Publication Number Publication Date
JPH09281999A JPH09281999A (en) 1997-10-31
JP3607774B2 true JP3607774B2 (en) 2005-01-05

Family

ID=14019189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09117796A Expired - Lifetime JP3607774B2 (en) 1996-04-12 1996-04-12 Speech encoding device

Country Status (1)

Country Link
JP (1) JP3607774B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220172703A1 (en) * 2019-08-20 2022-06-02 Ai, Inc. Acoustic model learning apparatus, method and program and speech synthesis apparatus, method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2008221657B2 (en) * 2007-03-05 2010-12-02 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for smoothing of stationary background noise

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220172703A1 (en) * 2019-08-20 2022-06-02 Ai, Inc. Acoustic model learning apparatus, method and program and speech synthesis apparatus, method and program

Also Published As

Publication number Publication date
JPH09281999A (en) 1997-10-31

Similar Documents

Publication Publication Date Title
KR100417634B1 (en) Perceptual weighting device and method for efficient coding of wideband signals
US5873059A (en) Method and apparatus for decoding and changing the pitch of an encoded speech signal
US6272459B1 (en) Voice signal coding apparatus
EP1096476B1 (en) Speech signal decoding
US6424942B1 (en) Methods and arrangements in a telecommunications system
JPH09152896A (en) Sound path prediction coefficient encoding/decoding circuit, sound path prediction coefficient encoding circuit, sound path prediction coefficient decoding circuit, sound encoding device and sound decoding device
EP1073039A2 (en) Speech decoder with gain processing
JP3266178B2 (en) Audio coding device
JPH08305398A (en) Voice decoding device
JPH0944195A (en) Voice encoding device
JP3270922B2 (en) Encoding / decoding method and encoding / decoding device
JPH09185397A (en) Speech information recording device
JP3607774B2 (en) Speech encoding device
JP3329216B2 (en) Audio encoding device and audio decoding device
JP3417362B2 (en) Audio signal decoding method and audio signal encoding / decoding method
JP3303580B2 (en) Audio coding device
JP3510643B2 (en) Pitch period processing method for audio signal
JP3496618B2 (en) Apparatus and method for speech encoding / decoding including speechless encoding operating at multiple rates
JP3490325B2 (en) Audio signal encoding method and decoding method, and encoder and decoder thereof
JP3006790B2 (en) Voice encoding / decoding method and apparatus
JP4826580B2 (en) Audio signal reproduction method and apparatus
JPH10149200A (en) Linear predictive encoder
JP3063087B2 (en) Audio encoding / decoding device, audio encoding device, and audio decoding device
JPH09281997A (en) Voice coding device
JPH09114498A (en) Speech encoding device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 9

EXPY Cancellation because of completion of term