JPH113099A - 音声符号化復号化システム、音声符号化装置及び音声復号化装置 - Google Patents
音声符号化復号化システム、音声符号化装置及び音声復号化装置Info
- Publication number
- JPH113099A JPH113099A JP10097513A JP9751398A JPH113099A JP H113099 A JPH113099 A JP H113099A JP 10097513 A JP10097513 A JP 10097513A JP 9751398 A JP9751398 A JP 9751398A JP H113099 A JPH113099 A JP H113099A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- spectrum
- audio
- decoding
- sample sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
(57)【要約】
【課題】 音声符号化・復号化において、復号化音声に
おける語頭部分や音節先頭部分の音声品質を向上させ
る。 【解決手段】 音声符号化装置に、入力音声を蓄積しこ
の蓄積結果を蓄積時とは逆方向に出力するバッファ20
を設け、音声復号化装置に、復号処理によって得られた
音声データを蓄積しこの蓄積結果を蓄積時とは逆方向に
出力するバッファ21を設けた。この構成によれば、音
源情報の符号化処理の順序において語頭部分の前に有声
音の部分が来るので、語頭部分においてもピッチ周期及
びピッチピークのある音源信号を得ることができ、復号
化音声の語頭部分の品質を向上させることができる。ま
た、過去のフレームからの予測による音声スペクトルの
符号化を用いる構成では、符号化の際音節先頭部分の前
に定常部が来るので、音節先頭部分において効率の良い
スペクトル量子化を行うことができ、復号化音声の音節
先頭部分の品質を向上させることができる。
おける語頭部分や音節先頭部分の音声品質を向上させ
る。 【解決手段】 音声符号化装置に、入力音声を蓄積しこ
の蓄積結果を蓄積時とは逆方向に出力するバッファ20
を設け、音声復号化装置に、復号処理によって得られた
音声データを蓄積しこの蓄積結果を蓄積時とは逆方向に
出力するバッファ21を設けた。この構成によれば、音
源情報の符号化処理の順序において語頭部分の前に有声
音の部分が来るので、語頭部分においてもピッチ周期及
びピッチピークのある音源信号を得ることができ、復号
化音声の語頭部分の品質を向上させることができる。ま
た、過去のフレームからの予測による音声スペクトルの
符号化を用いる構成では、符号化の際音節先頭部分の前
に定常部が来るので、音節先頭部分において効率の良い
スペクトル量子化を行うことができ、復号化音声の音節
先頭部分の品質を向上させることができる。
Description
【0001】
【発明の属する技術分野】この発明は、音声信号をディ
ジタル信号に圧縮符号化する音声符号化装置、及びこの
音声符号化装置で圧縮符号化された信号を復号化して音
声信号を再生する音声復号化装置に関する。
ジタル信号に圧縮符号化する音声符号化装置、及びこの
音声符号化装置で圧縮符号化された信号を復号化して音
声信号を再生する音声復号化装置に関する。
【0002】
【従来の技術】低ビットレートにおいても比較的良好な
音声品質を得られる音声符号化方式として、符号駆動線
形予測(CELP:Code Excited Linear Prediction、
以下「CELP」と呼ぶ)方式が知られている。
音声品質を得られる音声符号化方式として、符号駆動線
形予測(CELP:Code Excited Linear Prediction、
以下「CELP」と呼ぶ)方式が知られている。
【0003】図19は、CELP方式による従来の音声
符号化装置を示す。また図20は、CELP方式による
従来の音声復号化装置を示す。
符号化装置を示す。また図20は、CELP方式による
従来の音声復号化装置を示す。
【0004】これらは、Draft Recommendation G.729,"
Coding of Speech at 8kbit/s Using Conjugate-struct
ure Algebraic-Code Excited Linear Prediction(CS-AC
ELP)",ITU-T Study Group 15 Contribution Q.12/15, F
eb. 1996に示されたものである。
Coding of Speech at 8kbit/s Using Conjugate-struct
ure Algebraic-Code Excited Linear Prediction(CS-AC
ELP)",ITU-T Study Group 15 Contribution Q.12/15, F
eb. 1996に示されたものである。
【0005】まず、図19に示すように、従来の音声符
号化装置は、音声符号化部1と多重化処理部8とで構成
されている。音声符号化部1は、スペクトル分析部2、
スペクトル符号化部3、及び音源符号化部50を含む。
そして、音源符号化部50は、合成フィルタ4、適応音
源符号帳5、雑音音源符号帳6、び最適音源探索部7で
構成されている。
号化装置は、音声符号化部1と多重化処理部8とで構成
されている。音声符号化部1は、スペクトル分析部2、
スペクトル符号化部3、及び音源符号化部50を含む。
そして、音源符号化部50は、合成フィルタ4、適応音
源符号帳5、雑音音源符号帳6、び最適音源探索部7で
構成されている。
【0006】また、図20に示すように、従来の音声復
号化装置は、分離処理部9と音声復号化部10とで構成
されている。音声復号化部10は、スペクトル復号化部
11、合成フィルタ14、及び音源復号化部51を含
む。そして、音源復号化部51は、適応音源符号帳1
2、雑音音源符号帳13で構成されている。
号化装置は、分離処理部9と音声復号化部10とで構成
されている。音声復号化部10は、スペクトル復号化部
11、合成フィルタ14、及び音源復号化部51を含
む。そして、音源復号化部51は、適応音源符号帳1
2、雑音音源符号帳13で構成されている。
【0007】以下、従来の音声符号化装置及び音声復号
化装置の動作について説明する。
化装置の動作について説明する。
【0008】まず、図19の音声符号化装置の動作につ
いて説明する。この音声符号化装置に入力される入力音
声は、アナログ音声信号をA/D変換器で予め離散デー
タ化して得た音声サンプルの時系列である。スペクトル
分析部2は、この入力音声を分析フレーム毎に線形予測
分析して線形予測係数を求めるとともに、更にこの線形
予測係数をLSP(Line Spectrum Pair:線スペクトル
対)係数ωiにに変換してスペクトル符号化部3に出力す
る。スペクトル符号化部3は、先ず現在のフレームmに
おける量子化すべき目的ベクトルLi(m)を、過去の1又
は複数のフレームの量子化された目的ベクトルL'i(m-
k)を用いて次式で求める(m,kは自然数)。
いて説明する。この音声符号化装置に入力される入力音
声は、アナログ音声信号をA/D変換器で予め離散デー
タ化して得た音声サンプルの時系列である。スペクトル
分析部2は、この入力音声を分析フレーム毎に線形予測
分析して線形予測係数を求めるとともに、更にこの線形
予測係数をLSP(Line Spectrum Pair:線スペクトル
対)係数ωiにに変換してスペクトル符号化部3に出力す
る。スペクトル符号化部3は、先ず現在のフレームmに
おける量子化すべき目的ベクトルLi(m)を、過去の1又
は複数のフレームの量子化された目的ベクトルL'i(m-
k)を用いて次式で求める(m,kは自然数)。
【数1】 この式においてPi,kはMA(Moving Average)予測係数
であり、ωi(m)は現在のフレームmのLSP係数であ
る。次に、求めたLi(m)をベクトル量子化してL'i(m)
を求め、これに対応する符号を生成して多重化処理部8
に出力する。上式のように量子化すべき目的ベクトルL
i(m)は、以前のフレームの量子化された目的ベクトル
L'i(m-k)とMA予測係数との積の線形和(MA予測値)
と、現フレームのLSP係数ωiとの差分(MA予測誤
差)で与えられるので、以前のフレームと現フレームm
のLSP係数の相関が大きくMA予測誤差が小さくなる
場合(例えば定常母音が継続する場合)はLi(m)の各次
元の値が減少し量子化誤差の少ない効率的な量子化が行
える。逆に以前のフレームと現フレームmとの相関が少
ない場合はMA予測誤差が大きくなり量子化の効率が劣
化する。
であり、ωi(m)は現在のフレームmのLSP係数であ
る。次に、求めたLi(m)をベクトル量子化してL'i(m)
を求め、これに対応する符号を生成して多重化処理部8
に出力する。上式のように量子化すべき目的ベクトルL
i(m)は、以前のフレームの量子化された目的ベクトル
L'i(m-k)とMA予測係数との積の線形和(MA予測値)
と、現フレームのLSP係数ωiとの差分(MA予測誤
差)で与えられるので、以前のフレームと現フレームm
のLSP係数の相関が大きくMA予測誤差が小さくなる
場合(例えば定常母音が継続する場合)はLi(m)の各次
元の値が減少し量子化誤差の少ない効率的な量子化が行
える。逆に以前のフレームと現フレームmとの相関が少
ない場合はMA予測誤差が大きくなり量子化の効率が劣
化する。
【0009】次にスペクトル符号化部3は量子化したL
SP係数ω'i(m)を次式を用いて求める。
SP係数ω'i(m)を次式を用いて求める。
【0010】
【数2】 そして、スペクトル符号化部3は、求めた量子化LSP
係数ω'i(m)を線形予測係数に変換して合成フィルタ4
に出力する。
係数ω'i(m)を線形予測係数に変換して合成フィルタ4
に出力する。
【0011】適応音源符号帳5には、過去に求めた音源
信号が記憶されており、最適音源探索部7より入力され
る適応音源符号Lに対応した適応音源ベクトルを出力す
る。図21を用いて適応音源ベクトルの生成方法を説明
する。この図に示すように、適応音源ベクトルは、適応
音源符号帳5内の過去の音源信号から、適応音源符号L
の長さ(ピッチ周期)のベクトルを切り出し、これを予
め設定されたサブフレーム長になるまで繰り返すことに
より生成する。適応音源符号帳5から出力された適応音
源ベクトルには、適応音源利得βが乗じられる。
信号が記憶されており、最適音源探索部7より入力され
る適応音源符号Lに対応した適応音源ベクトルを出力す
る。図21を用いて適応音源ベクトルの生成方法を説明
する。この図に示すように、適応音源ベクトルは、適応
音源符号帳5内の過去の音源信号から、適応音源符号L
の長さ(ピッチ周期)のベクトルを切り出し、これを予
め設定されたサブフレーム長になるまで繰り返すことに
より生成する。適応音源符号帳5から出力された適応音
源ベクトルには、適応音源利得βが乗じられる。
【0012】また、雑音音源符号帳6には、例えばラン
ダム雑音から生成したN個の雑音音源ベクトルが記憶さ
れており、最適音源探索部7より入力される雑音音源符
号Iに対応した雑音音源ベクトルを出力する。雑音音源
符号帳6から出力された雑音音源ベクトルには、雑音音
源利得γが乗じられる。
ダム雑音から生成したN個の雑音音源ベクトルが記憶さ
れており、最適音源探索部7より入力される雑音音源符
号Iに対応した雑音音源ベクトルを出力する。雑音音源
符号帳6から出力された雑音音源ベクトルには、雑音音
源利得γが乗じられる。
【0013】合成フィルタ4は、適応音源ベクトル、雑
音音源ベクトルに対してそれぞれ適応音源利得β、雑音
音源利得γを乗じて加算したベクトル(以下「音源信
号」と呼ぶ)と、スペクトル符号化部3から供給される
量子化した線形予測係数とを用いて、合成音声を生成す
る。
音音源ベクトルに対してそれぞれ適応音源利得β、雑音
音源利得γを乗じて加算したベクトル(以下「音源信
号」と呼ぶ)と、スペクトル符号化部3から供給される
量子化した線形予測係数とを用いて、合成音声を生成す
る。
【0014】最適音源探索部7は、合成フィルタ4で生
成された合成音声と入力音声との誤差を評価し、この誤
差が最小になる適応音源符号L、雑音音源符号I、適応
音源利得β、雑音音源利得γを求め、これら適応音源符
号L、雑音音源符号I及び量子化した適応音源利得β及
び雑音音源利得γをそれぞれ多重化処理部8に出力す
る。
成された合成音声と入力音声との誤差を評価し、この誤
差が最小になる適応音源符号L、雑音音源符号I、適応
音源利得β、雑音音源利得γを求め、これら適応音源符
号L、雑音音源符号I及び量子化した適応音源利得β及
び雑音音源利得γをそれぞれ多重化処理部8に出力す
る。
【0015】適応音源符号帳5は、前記誤差が最小にな
る適応音源符号Lに対応する適応音源ベクトル、雑音音
源符号Iに対応する雑音音源ベクトル、量子化した適応
音源利得β及び雑音音源利得γを用いて生成した音源信
号により、符号帳の内容を更新する。
る適応音源符号Lに対応する適応音源ベクトル、雑音音
源符号Iに対応する雑音音源ベクトル、量子化した適応
音源利得β及び雑音音源利得γを用いて生成した音源信
号により、符号帳の内容を更新する。
【0016】なお、これまで説明した音源符号化部50
内の合成フィルタ4、適応音源符号帳5、雑音音源符号
帳6、最適音源探索部7の処理をCELPにおける音源
符号化と呼ぶ。
内の合成フィルタ4、適応音源符号帳5、雑音音源符号
帳6、最適音源探索部7の処理をCELPにおける音源
符号化と呼ぶ。
【0017】多重化処理部8は、スペクトル符号化部3
から入力されたLSP係数に対応する符号と、最適音源
探索部7から入力される適応音源符号L、駆動音源符号
I、及び量子化した適応音源利得β、雑音音源利得γに
対応する符号と、を多重化し、符号化データとして外部
へ出力する。
から入力されたLSP係数に対応する符号と、最適音源
探索部7から入力される適応音源符号L、駆動音源符号
I、及び量子化した適応音源利得β、雑音音源利得γに
対応する符号と、を多重化し、符号化データとして外部
へ出力する。
【0018】次に、図20に示した音声復号化装置の動
作について説明する。分離処理部9は、図19の音声符
号化装置から受信した符号化データを多重分離し、適応
音源符号Lは適応音源符号帳12に、雑音音源符号Iは
雑音音源符号帳13に、LSP係数の符号はスペクトル
復号化部11に、それぞれ供給する。また、分離処理部
9は、受信した符号かデータから適応音源利得β及び雑
音音源利得γに対応する符号をそれぞれ分離する。
作について説明する。分離処理部9は、図19の音声符
号化装置から受信した符号化データを多重分離し、適応
音源符号Lは適応音源符号帳12に、雑音音源符号Iは
雑音音源符号帳13に、LSP係数の符号はスペクトル
復号化部11に、それぞれ供給する。また、分離処理部
9は、受信した符号かデータから適応音源利得β及び雑
音音源利得γに対応する符号をそれぞれ分離する。
【0019】適応音源符号帳12は、受け取った適応音
源符号Lに対応した適応音源ベクトルを出力する。この
適応音源ベクトルには、分離処理部9にて分離された符
号を復号化して得た適応音源利得βが乗じられる。雑音
音源符号帳13は、受け取った雑音音源符号Iに対応し
た雑音音源ベクトルを出力する。この雑音音源ベクトル
には、分離処理部9にて分離された符号を復号化して得
た雑音音源利得γが乗じられる。スペクトル復号化部1
1は、受け取ったLSP係数の符号から量子化された目
的ベクトルLi'(m)を求め、以前のフレームで求めた量
子化されたL'(m-k)を用い、スペクトル符号化部3と同
様に、量子化されたLSP係数ω'iを求める。そして、
スペクトル復号化部11は、このωiから線形予測係数
を求めて合成フィルタ14に出力する。
源符号Lに対応した適応音源ベクトルを出力する。この
適応音源ベクトルには、分離処理部9にて分離された符
号を復号化して得た適応音源利得βが乗じられる。雑音
音源符号帳13は、受け取った雑音音源符号Iに対応し
た雑音音源ベクトルを出力する。この雑音音源ベクトル
には、分離処理部9にて分離された符号を復号化して得
た雑音音源利得γが乗じられる。スペクトル復号化部1
1は、受け取ったLSP係数の符号から量子化された目
的ベクトルLi'(m)を求め、以前のフレームで求めた量
子化されたL'(m-k)を用い、スペクトル符号化部3と同
様に、量子化されたLSP係数ω'iを求める。そして、
スペクトル復号化部11は、このωiから線形予測係数
を求めて合成フィルタ14に出力する。
【0020】合成フィルタ14は、適応音源利得βを乗
じた適応音源ベクトルと雑音音源利得γを乗じた雑音音
源ベクトルとを加算して得た音源信号と、スペクトル復
号化部11で求められた線形予測係数を用いて、復号化
音声を生成する。このようにして求められた復号化音声
は音声サンプルの時系列である。
じた適応音源ベクトルと雑音音源利得γを乗じた雑音音
源ベクトルとを加算して得た音源信号と、スペクトル復
号化部11で求められた線形予測係数を用いて、復号化
音声を生成する。このようにして求められた復号化音声
は音声サンプルの時系列である。
【0021】なお、適応音源符号帳12は、音声符号化
装置の適応音源符号帳5と同様に、前記音源信号で符号
帳の内容を更新する。
装置の適応音源符号帳5と同様に、前記音源信号で符号
帳の内容を更新する。
【0022】これまで説明した音源復号化部51内の合
成フィルタ14、適応音源符号帳12、雑音音源符号帳
13の処理をCELPにおける音源復号化と呼ぶ。
成フィルタ14、適応音源符号帳12、雑音音源符号帳
13の処理をCELPにおける音源復号化と呼ぶ。
【0023】
【発明が解決しようとする課題】先ず従来の音声符号化
装置及び音声復号化装置の第一の問題を説明する。
装置及び音声復号化装置の第一の問題を説明する。
【0024】定常母音のような有声音声の波形は、数十
ms(ミリ秒)程度の短い範囲では顕著なピッチ周期性
を持っている。このような有声音声をCELP方式で符
号化する場合、良好な品質の復号化音声を得るために
は、音源信号にもピッチ周期性とピッチ周期毎のパワー
の偏り(以下「ピッチピーク」と呼ぶ)を持つことが必
要とされる。図21に示したように、適応音源ベクトル
は過去の音源信号の一部をピッチ周期に相当する周期L
で繰り返すことで得られるので、過去の音源信号にピッ
チ周期性とピッチピークがあれば現在の音源信号に必要
なピッチ周期性とピッチピークをうまく生成できる。
ms(ミリ秒)程度の短い範囲では顕著なピッチ周期性
を持っている。このような有声音声をCELP方式で符
号化する場合、良好な品質の復号化音声を得るために
は、音源信号にもピッチ周期性とピッチ周期毎のパワー
の偏り(以下「ピッチピーク」と呼ぶ)を持つことが必
要とされる。図21に示したように、適応音源ベクトル
は過去の音源信号の一部をピッチ周期に相当する周期L
で繰り返すことで得られるので、過去の音源信号にピッ
チ周期性とピッチピークがあれば現在の音源信号に必要
なピッチ周期性とピッチピークをうまく生成できる。
【0025】しかしながら、単語音声の語頭のように、
初めて有声音になる部分については、その直前の部分の
音源信号にピッチ周期性が無いので、ピッチ周期性のあ
る適応音源ベクトルが得られない。したがって、従来の
音声符号化装置及び音声復号化装置の第一の問題とし
て、ピッチ周期性のある適応音源ベクトルが単語音声の
語頭部分で得られず、その部分の復号化音声の品質が劣
化するという点があった。人間の聴覚は、音声の音韻を
判断する上で語頭部のスペクトル変化を重要な手がかり
としているため、この語頭部分の品質劣化は他の部分以
上に聴覚上重大な問題となる。
初めて有声音になる部分については、その直前の部分の
音源信号にピッチ周期性が無いので、ピッチ周期性のあ
る適応音源ベクトルが得られない。したがって、従来の
音声符号化装置及び音声復号化装置の第一の問題とし
て、ピッチ周期性のある適応音源ベクトルが単語音声の
語頭部分で得られず、その部分の復号化音声の品質が劣
化するという点があった。人間の聴覚は、音声の音韻を
判断する上で語頭部のスペクトル変化を重要な手がかり
としているため、この語頭部分の品質劣化は他の部分以
上に聴覚上重大な問題となる。
【0026】図22において、(a)は語頭を含む入力
音声の波形の一例を示す。そして、(b)はこの入力音
声に対して従来の音声符号化装置及び音声復号化装置で
生成される音源信号の波形を示し、(c)はこの入力音
声を従来の音声符号化装置で符号化し、従来の音声符号
化装置で復号化した場合に得られる復号化音声の波形を
示す。図22によれば、従来の音声符号化装置及び音声
復号化装置では、音源信号及び復号化音声において語頭
部分の情報が劣化していることがわかる。
音声の波形の一例を示す。そして、(b)はこの入力音
声に対して従来の音声符号化装置及び音声復号化装置で
生成される音源信号の波形を示し、(c)はこの入力音
声を従来の音声符号化装置で符号化し、従来の音声符号
化装置で復号化した場合に得られる復号化音声の波形を
示す。図22によれば、従来の音声符号化装置及び音声
復号化装置では、音源信号及び復号化音声において語頭
部分の情報が劣化していることがわかる。
【0027】次に従来の音声符号化装置及び音声復号化
装置の第二の問題を説明する。
装置の第二の問題を説明する。
【0028】従来の音声符号化装置及び音声復号化装置
では、以前のフレームと現フレームのスペクトル(LS
P係数)の相関が大きくMA予測誤差が小さくなる場合
(例えば定常母音が継続する場合)は量子化誤差の少ない
効率的な量子化が行え、従って良好品質の復号音声を得
ることができるが、逆に以前のフレームと現フレームと
のスペクトルの相関が少ない部分、例えば語頭部分や語
中で音韻が変化する部分では、MA予測誤差が大きくな
りスペクトルの量子化の効率が劣化し、良好な品質の復
号音声を得られないという問題があった。
では、以前のフレームと現フレームのスペクトル(LS
P係数)の相関が大きくMA予測誤差が小さくなる場合
(例えば定常母音が継続する場合)は量子化誤差の少ない
効率的な量子化が行え、従って良好品質の復号音声を得
ることができるが、逆に以前のフレームと現フレームと
のスペクトルの相関が少ない部分、例えば語頭部分や語
中で音韻が変化する部分では、MA予測誤差が大きくな
りスペクトルの量子化の効率が劣化し、良好な品質の復
号音声を得られないという問題があった。
【0029】この発明は上記問題を解決するためになさ
れたものであり、その目的は、音声符号化復号化システ
ムにおいて、語頭部分などのように無音(又は無声音)
から有声音へ変化する区間の復号音声の品質を向上させ
ることである。また本発明の目的は、以前のフレームと
現フレームのスペクトルの相関が少ない部分の復号音声
の品質を向上させることにある。
れたものであり、その目的は、音声符号化復号化システ
ムにおいて、語頭部分などのように無音(又は無声音)
から有声音へ変化する区間の復号音声の品質を向上させ
ることである。また本発明の目的は、以前のフレームと
現フレームのスペクトルの相関が少ない部分の復号音声
の品質を向上させることにある。
【0030】
【課題を解決するための手段】この発明に係る音声符号
化復号化システムは、入力音声を符号駆動線形予測符号
化方式で符号化する音声符号化装置と、この音声符号化
装置から出力された符号化データを符号駆動線形予測復
号化方式で復号化して音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、前記音
声符号化装置は、入力音声の音声サンプル列を所定量蓄
積するごとに、蓄積した音声サンプル列を蓄積時とは逆
方向に出力するバッファと、このバッファから出力され
た音声サンプル列に対し符号駆動線形予測符号化式によ
る符号化を行う音声符号化部とを備え、前記音声復号化
装置は、前記音声符号化装置から出力された音声符号化
データを符号駆動線形予測復号化方式によって音声に復
号化する音声復号化部と、この音声復号化部での復号化
により得られた音声サンプル列を所定量蓄積するごと
に、蓄積した音声サンプル列を蓄積時とは逆方向に出力
するバッファとを備えるものである。
化復号化システムは、入力音声を符号駆動線形予測符号
化方式で符号化する音声符号化装置と、この音声符号化
装置から出力された符号化データを符号駆動線形予測復
号化方式で復号化して音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、前記音
声符号化装置は、入力音声の音声サンプル列を所定量蓄
積するごとに、蓄積した音声サンプル列を蓄積時とは逆
方向に出力するバッファと、このバッファから出力され
た音声サンプル列に対し符号駆動線形予測符号化式によ
る符号化を行う音声符号化部とを備え、前記音声復号化
装置は、前記音声符号化装置から出力された音声符号化
データを符号駆動線形予測復号化方式によって音声に復
号化する音声復号化部と、この音声復号化部での復号化
により得られた音声サンプル列を所定量蓄積するごと
に、蓄積した音声サンプル列を蓄積時とは逆方向に出力
するバッファとを備えるものである。
【0031】この発明に係る音声符号化装置は、入力音
声の音声サンプル列を所定量蓄積するごとに、蓄積した
音声サンプル列を蓄積時とは逆方向に出力するバッファ
と、このバッファから出力された音声サンプル列に対し
符号駆動線形予測符号化式による符号化を行う音声符号
化部とを備えるものである。
声の音声サンプル列を所定量蓄積するごとに、蓄積した
音声サンプル列を蓄積時とは逆方向に出力するバッファ
と、このバッファから出力された音声サンプル列に対し
符号駆動線形予測符号化式による符号化を行う音声符号
化部とを備えるものである。
【0032】この発明に係る音声復号化装置は、符号化
された音声データを符号駆動線形予測復号化方式によっ
て音声に復号化する音声復号化部と、この音声復号化部
での復号化により得られた音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファとを備えるものである。
された音声データを符号駆動線形予測復号化方式によっ
て音声に復号化する音声復号化部と、この音声復号化部
での復号化により得られた音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファとを備えるものである。
【0033】また、この発明に係る音声符号化復号化シ
ステムは、入力音声から音声スペクトルと音源情報とを
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積した音声サンプル列を蓄積時とは逆方向
に出力するバッファと、このバッファから出力された音
声サンプル列をフレーム毎にスペクトル分析して音声ス
ペクトルを求めるスペクトル分析部と、このスペクトル
分析部から出力される音声スペクトルを以前の1又は複
数のフレームの音声スペクトルによる予測処理を用いて
符号化するスペクトル符号化部と、前記バッファから出
力された音声サンプル列から音源情報を求めて符号化す
る音源符号化部とを備え、前記音声復号化装置は、前記
音声符号化装置から出力された符号化音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて復号化するスペクトル復号化部と、前記
音声符号化装置から出力された符号化音源情報を復号化
する音源復号化部と、前記スペクトル復号化部で復号化
された音声スペクトルと前記音源復号化部で復号化され
た音源情報とから音声を合成する合成フィルタと、この
合成フィルタで合成された音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファとを備えるものである。
ステムは、入力音声から音声スペクトルと音源情報とを
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積した音声サンプル列を蓄積時とは逆方向
に出力するバッファと、このバッファから出力された音
声サンプル列をフレーム毎にスペクトル分析して音声ス
ペクトルを求めるスペクトル分析部と、このスペクトル
分析部から出力される音声スペクトルを以前の1又は複
数のフレームの音声スペクトルによる予測処理を用いて
符号化するスペクトル符号化部と、前記バッファから出
力された音声サンプル列から音源情報を求めて符号化す
る音源符号化部とを備え、前記音声復号化装置は、前記
音声符号化装置から出力された符号化音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて復号化するスペクトル復号化部と、前記
音声符号化装置から出力された符号化音源情報を復号化
する音源復号化部と、前記スペクトル復号化部で復号化
された音声スペクトルと前記音源復号化部で復号化され
た音源情報とから音声を合成する合成フィルタと、この
合成フィルタで合成された音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファとを備えるものである。
【0034】また、この発明に係る音声符号化装置は、
入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積した音声サンプル列を蓄積時とは逆方向に出力するバ
ッファと、このバッファから出力された音声サンプル列
をフレーム毎にスペクトル分析して音声スペクトルを求
めるスペクトル分析部と、このスペクトル分析部から出
力される音声スペクトルを以前の1又は複数のフレーム
の音声スペクトルによる予測処理を用いて符号化するス
ペクトル符号化部と、前記バッファから出力された音声
サンプル列から音源情報を求めて符号化する音源符号化
部とを備えるものである。
入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積した音声サンプル列を蓄積時とは逆方向に出力するバ
ッファと、このバッファから出力された音声サンプル列
をフレーム毎にスペクトル分析して音声スペクトルを求
めるスペクトル分析部と、このスペクトル分析部から出
力される音声スペクトルを以前の1又は複数のフレーム
の音声スペクトルによる予測処理を用いて符号化するス
ペクトル符号化部と、前記バッファから出力された音声
サンプル列から音源情報を求めて符号化する音源符号化
部とを備えるものである。
【0035】また、この発明に係る音声復号化装置は、
符号化された音声スペクトルを、以前の1又は複数のフ
レームの音声スペクトルによる予測処理を用いて復号化
するスペクトル復号化部と、符号化された音源情報を復
号化する音源復号化部と、前記スペクトル復号化部で復
号化された音声スペクトルと前記音源復号化部で復号化
された音源情報とから音声を合成する合成フィルタと、
この合成フィルタで合成された音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を蓄積時とは
逆方向に出力するバッファとを備えるものである。
符号化された音声スペクトルを、以前の1又は複数のフ
レームの音声スペクトルによる予測処理を用いて復号化
するスペクトル復号化部と、符号化された音源情報を復
号化する音源復号化部と、前記スペクトル復号化部で復
号化された音声スペクトルと前記音源復号化部で復号化
された音源情報とから音声を合成する合成フィルタと、
この合成フィルタで合成された音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を蓄積時とは
逆方向に出力するバッファとを備えるものである。
【0036】また、この発明に係る音声符号化復号化シ
ステムは、入力音声を符号駆動線形予測符号化方式で符
号化する音声符号化装置と、この音声符号化装置から出
力された符号化データを符号駆動線形予測復号化方式で
復号化して音声を再生する音声復号化装置と、を含む音
声符号化復号化システムにおいて、前記音声符号化装置
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列を符号駆動線形予測
符号化方式で符号化するとともに、この符号化処理に伴
い内部的に生成される合成音声のサンプル列と前記入力
音声の音声サンプル列との誤差を算出する音声符号化部
と、前記各方向についての前記誤差を比較し、前記音声
符号化部で求められた符号化データのうち前記誤差の小
さい方の方向についての符号化データを選択し、前記誤
差の小さい方の方向を示す時間方向情報とともに出力す
る比較制御部とを備え、前記音声復号化装置は、前記音
声符号化装置から出力された音声符号化データを符号駆
動線形予測復号化方式によって音声復号化する音声復号
化部と、この音声復号化部での復号化により得られた音
声サンプル列を所定量蓄積するごとに、蓄積した音声サ
ンプル列を、前記音声符号化装置から受け取った時間方
向情報に応じた方向に出力するバッファとを備えるもの
である。
ステムは、入力音声を符号駆動線形予測符号化方式で符
号化する音声符号化装置と、この音声符号化装置から出
力された符号化データを符号駆動線形予測復号化方式で
復号化して音声を再生する音声復号化装置と、を含む音
声符号化復号化システムにおいて、前記音声符号化装置
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列を符号駆動線形予測
符号化方式で符号化するとともに、この符号化処理に伴
い内部的に生成される合成音声のサンプル列と前記入力
音声の音声サンプル列との誤差を算出する音声符号化部
と、前記各方向についての前記誤差を比較し、前記音声
符号化部で求められた符号化データのうち前記誤差の小
さい方の方向についての符号化データを選択し、前記誤
差の小さい方の方向を示す時間方向情報とともに出力す
る比較制御部とを備え、前記音声復号化装置は、前記音
声符号化装置から出力された音声符号化データを符号駆
動線形予測復号化方式によって音声復号化する音声復号
化部と、この音声復号化部での復号化により得られた音
声サンプル列を所定量蓄積するごとに、蓄積した音声サ
ンプル列を、前記音声符号化装置から受け取った時間方
向情報に応じた方向に出力するバッファとを備えるもの
である。
【0037】また、この発明に係る音声符号化装置は、
入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積結果の音声サンプル列を、蓄積時と同方向及び逆方向
にそれぞれ出力する双方向バッファと、この双方向バッ
ファから前記各方向の音声サンプル列を受け取るごと
に、受け取った音声サンプル列を符号駆動線形予測符号
化方式で符号化するとともに、この符号化処理に伴い内
部的に生成される合成音声のサンプル列と前記入力音声
の音声サンプル列との誤差を算出する音声符号化部と、
前記各方向についての前記誤差を比較し、前記音声符号
化部で求められた符号化データのうち前記誤差の小さい
方の方向についての符号化データを選択し、前記誤差の
小さい方の方向を示す時間方向情報とともに出力する比
較制御部とを備えるものである。
入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積結果の音声サンプル列を、蓄積時と同方向及び逆方向
にそれぞれ出力する双方向バッファと、この双方向バッ
ファから前記各方向の音声サンプル列を受け取るごと
に、受け取った音声サンプル列を符号駆動線形予測符号
化方式で符号化するとともに、この符号化処理に伴い内
部的に生成される合成音声のサンプル列と前記入力音声
の音声サンプル列との誤差を算出する音声符号化部と、
前記各方向についての前記誤差を比較し、前記音声符号
化部で求められた符号化データのうち前記誤差の小さい
方の方向についての符号化データを選択し、前記誤差の
小さい方の方向を示す時間方向情報とともに出力する比
較制御部とを備えるものである。
【0038】また、この発明に係る音声復号化装置は、
符号化された音声データを符号駆動線形予測復号化方式
によって音声復号化する音声復号化部と、この音声復号
化部での復号化により得られた音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を、受け取っ
た時間方向情報に応じた方向に出力するバッファとを備
えるものである。
符号化された音声データを符号駆動線形予測復号化方式
によって音声復号化する音声復号化部と、この音声復号
化部での復号化により得られた音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を、受け取っ
た時間方向情報に応じた方向に出力するバッファとを備
えるものである。
【0039】また、この発明に係る音声符号化復号化シ
ステムは、入力音声から音声スペクトルと音源情報とを
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積結果の音声サンプル列を、蓄積時と同方
向及び逆方向にそれぞれ出力する双方向バッファと、こ
の双方向バッファから前記各方向の音声サンプル列を受
け取るごとに、受け取った音声サンプル列をフレーム毎
にスペクトル分析して音声スペクトルを求めるスペクト
ル分析部と、このスペクトル分析部から出力される音声
スペクトルを以前の1又は複数のフレームの音声スペク
トルによる予測処理を用いて符号化するスペクトル符号
化部と、前記双方向バッファから出力された音声サンプ
ル列から音源情報を求めて符号化し、この結果得られた
符号化音源情報と前記スペクトル符号化部で求められた
符号化音声スペクトルとから合成音声を合成し、この合
成音声のサンプル列と前記入力音声の音声サンプル列と
の誤差を算出する音源符号化部と、前記各方向について
の前記誤差を比較し、前記スペクトル符号化部及び音源
符号化部でそれぞれ求められた前記同方向及び逆方向の
符号化音声スペクトル及び符号化音源情報のうち、前記
誤差の小さい方の方向についての符号化音声スペクトル
及び符号化音源情報を選択し、前記誤差の小さい方の方
向を示す時間方向情報とともに出力する比較制御部とを
備え、前記音声復号化装置は、前記音声符号化装置から
出力された符号化音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、前記音声符号化装置か
ら出力された符号化音源情報を復号化する音源復号化部
と、前記スペクトル復号化部で復号化された音声スペク
トルと前記音源復号化部で復号化された音源情報とから
音声を合成する合成フィルタと、この合成フィルタで得
られた音声サンプル列を所定量蓄積するごとに、蓄積し
た音声サンプル列を、前記音声符号化装置から受け取っ
た時間方向情報に応じた方向に出力するバッファとを備
えるものである。
ステムは、入力音声から音声スペクトルと音源情報とを
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積結果の音声サンプル列を、蓄積時と同方
向及び逆方向にそれぞれ出力する双方向バッファと、こ
の双方向バッファから前記各方向の音声サンプル列を受
け取るごとに、受け取った音声サンプル列をフレーム毎
にスペクトル分析して音声スペクトルを求めるスペクト
ル分析部と、このスペクトル分析部から出力される音声
スペクトルを以前の1又は複数のフレームの音声スペク
トルによる予測処理を用いて符号化するスペクトル符号
化部と、前記双方向バッファから出力された音声サンプ
ル列から音源情報を求めて符号化し、この結果得られた
符号化音源情報と前記スペクトル符号化部で求められた
符号化音声スペクトルとから合成音声を合成し、この合
成音声のサンプル列と前記入力音声の音声サンプル列と
の誤差を算出する音源符号化部と、前記各方向について
の前記誤差を比較し、前記スペクトル符号化部及び音源
符号化部でそれぞれ求められた前記同方向及び逆方向の
符号化音声スペクトル及び符号化音源情報のうち、前記
誤差の小さい方の方向についての符号化音声スペクトル
及び符号化音源情報を選択し、前記誤差の小さい方の方
向を示す時間方向情報とともに出力する比較制御部とを
備え、前記音声復号化装置は、前記音声符号化装置から
出力された符号化音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、前記音声符号化装置か
ら出力された符号化音源情報を復号化する音源復号化部
と、前記スペクトル復号化部で復号化された音声スペク
トルと前記音源復号化部で復号化された音源情報とから
音声を合成する合成フィルタと、この合成フィルタで得
られた音声サンプル列を所定量蓄積するごとに、蓄積し
た音声サンプル列を、前記音声符号化装置から受け取っ
た時間方向情報に応じた方向に出力するバッファとを備
えるものである。
【0040】また、この発明に係わる音声符号化装置
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列をフレーム毎にスペ
クトル分析して音声スペクトルを求めるスペクトル分析
部と、このスペクトル分析部から出力される音声スペク
トルを以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて符号化するスペクトル符号化部
と、前記双方向バッファから出力された音声サンプル列
から音源情報を求めて符号化し、この結果得られた符号
化音源情報と前記スペクトル符号化部で求められた符号
化音声スペクトルとから合成音声を合成し、この合成音
声のサンプル列と前記入力音声の音声サンプル列との誤
差を算出する音源符号化部と、前記各方向についての前
記誤差を比較し、前記スペクトル符号化部及び音源符号
化部でそれぞれ求められた前記同方向及び逆方向の符号
化音声スペクトル及び符号化音源情報のうち、前記誤差
の小さい方の方向についての符号化音声スペクトル及び
符号化音源情報を選択し、前記誤差の小さい方の方向を
示す時間方向情報とともに出力する比較制御部とを備え
るものである。
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列をフレーム毎にスペ
クトル分析して音声スペクトルを求めるスペクトル分析
部と、このスペクトル分析部から出力される音声スペク
トルを以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて符号化するスペクトル符号化部
と、前記双方向バッファから出力された音声サンプル列
から音源情報を求めて符号化し、この結果得られた符号
化音源情報と前記スペクトル符号化部で求められた符号
化音声スペクトルとから合成音声を合成し、この合成音
声のサンプル列と前記入力音声の音声サンプル列との誤
差を算出する音源符号化部と、前記各方向についての前
記誤差を比較し、前記スペクトル符号化部及び音源符号
化部でそれぞれ求められた前記同方向及び逆方向の符号
化音声スペクトル及び符号化音源情報のうち、前記誤差
の小さい方の方向についての符号化音声スペクトル及び
符号化音源情報を選択し、前記誤差の小さい方の方向を
示す時間方向情報とともに出力する比較制御部とを備え
るものである。
【0041】また、この発明に係わる音声復号化装置
は、符号化された音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、符号化された音源情報
を復号化する音源復号化部と、前記スペクトル復号化部
で復号化された音声スペクトルと前記音源復号化部で復
号化された音源情報とから音声を合成する合成フィルタ
と、この合成フィルタで得られた音声サンプル列を所定
量蓄積するごとに、蓄積した音声サンプル列を、前記符
号化された音声スペクトルと音源情報とに対応して受け
取った時間方向情報に応じた方向に出力するバッファと
を備えるものである。
は、符号化された音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、符号化された音源情報
を復号化する音源復号化部と、前記スペクトル復号化部
で復号化された音声スペクトルと前記音源復号化部で復
号化された音源情報とから音声を合成する合成フィルタ
と、この合成フィルタで得られた音声サンプル列を所定
量蓄積するごとに、蓄積した音声サンプル列を、前記符
号化された音声スペクトルと音源情報とに対応して受け
取った時間方向情報に応じた方向に出力するバッファと
を備えるものである。
【0042】また、この発明に関わる音声符号化復号化
システムは、入力音声から音声スペクトルと音源情報を
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積結果の音声サンプル列を、蓄積時と同方
向及び逆方向にそれぞれ出力する双方向バッファと、こ
の双方向バッファから前記各方向の音声サンプル列を受
け取るごとに、受け取った音声サンプル列をフレーム毎
にスペクトル分析して音声スペクトルを求めるスペクト
ル分析部とを備えるものである。
システムは、入力音声から音声スペクトルと音源情報を
求めてそれぞれ符号化する音声符号化装置と、この音声
符号化装置から出力された符号化音声スペクトル及び符
号化音源情報を復号化し、この結果得られた音声スペク
トルと音源情報から音声を再生する音声復号化装置と、
を含む音声符号化復号化システムにおいて、前記音声符
号化装置は、入力音声の音声サンプル列を所定量蓄積す
るごとに、蓄積結果の音声サンプル列を、蓄積時と同方
向及び逆方向にそれぞれ出力する双方向バッファと、こ
の双方向バッファから前記各方向の音声サンプル列を受
け取るごとに、受け取った音声サンプル列をフレーム毎
にスペクトル分析して音声スペクトルを求めるスペクト
ル分析部とを備えるものである。
【0043】また、この発明に係わる音声符号化装置
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列をフレーム毎にスペ
クトル分析して音声スペクトルを求めるスペクトル分析
部と、このスペクトル分析部から出力される音声スペク
トルを以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて符号化すると共に、この符号化処
理の際の音声スペクトルの量子化誤差を算出するスペク
トル符号化部と、前記双方向バッファから出力された音
声サンプル列から音源情報を求めて符号化する音源符号
化部と、前記各方向についての前記量子化誤差を比較
し、前記スペクトル符号化部及び音源符号化部でそれぞ
れ求められた前記同方向及び逆方向の符号化音声スペク
トル及び符号化音源情報のうち、前記量子化誤差の小さ
い方の方向についての符号化音声スペクトル及び符号化
音源情報を選択し、前記量子化誤差の小さい方の方向を
示す時間方向情報とともに出力する比較制御部とを備え
るものである。
は、入力音声の音声サンプル列を所定量蓄積するごと
に、蓄積結果の音声サンプル列を、蓄積時と同方向及び
逆方向にそれぞれ出力する双方向バッファと、この双方
向バッファから前記各方向の音声サンプル列を受け取る
ごとに、受け取った音声サンプル列をフレーム毎にスペ
クトル分析して音声スペクトルを求めるスペクトル分析
部と、このスペクトル分析部から出力される音声スペク
トルを以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて符号化すると共に、この符号化処
理の際の音声スペクトルの量子化誤差を算出するスペク
トル符号化部と、前記双方向バッファから出力された音
声サンプル列から音源情報を求めて符号化する音源符号
化部と、前記各方向についての前記量子化誤差を比較
し、前記スペクトル符号化部及び音源符号化部でそれぞ
れ求められた前記同方向及び逆方向の符号化音声スペク
トル及び符号化音源情報のうち、前記量子化誤差の小さ
い方の方向についての符号化音声スペクトル及び符号化
音源情報を選択し、前記量子化誤差の小さい方の方向を
示す時間方向情報とともに出力する比較制御部とを備え
るものである。
【0044】また、本発明に係る音声符号化復号化シス
テムは、入力音声を符号駆動線形予測符号化方式で符号
化する音声符号化装置と、この音声符号化装置から出力
された符号化データを符号駆動線形予測復号化方式で復
号化して音声を再生する音声復号化装置と、を含む音声
符号化復号化システムにおいて、前記音声符号化装置
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列を符号駆動線形予測符号化方式で符号化すると
ともに、この符号化処理に伴い内部的に生成される合成
音声のサンプル列と前記入力音声の音声サンプル列との
誤差を算出する音声符号化部と、前記有音フレーム区間
については、前記各方向についての前記誤差を比較し、
前記音声符号化部で求められた符号化データのうち前記
誤差の小さい方の方向について求められた符号化データ
を選択し、前記誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備え、前記音声復号
化装置は、前記音声符号化装置から出力された音声符号
化データを符号駆動線形予測復号化方式によって音声復
号化する音声復号化部と、この音声復号化部での復号化
により得られた音声サンプル列を蓄積しフレーム単位で
出力するバッファであって、前記音声符号化装置から取
得した有音/無音情報に基づき有音フレーム区間を検出
し、この有音フレーム区間については該区間を単位とし
て前記音声符号化装置から受け取った時間方向情報に応
じた方向に音声サンプル列を出力するバッファとを備え
るものである。
テムは、入力音声を符号駆動線形予測符号化方式で符号
化する音声符号化装置と、この音声符号化装置から出力
された符号化データを符号駆動線形予測復号化方式で復
号化して音声を再生する音声復号化装置と、を含む音声
符号化復号化システムにおいて、前記音声符号化装置
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列を符号駆動線形予測符号化方式で符号化すると
ともに、この符号化処理に伴い内部的に生成される合成
音声のサンプル列と前記入力音声の音声サンプル列との
誤差を算出する音声符号化部と、前記有音フレーム区間
については、前記各方向についての前記誤差を比較し、
前記音声符号化部で求められた符号化データのうち前記
誤差の小さい方の方向について求められた符号化データ
を選択し、前記誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備え、前記音声復号
化装置は、前記音声符号化装置から出力された音声符号
化データを符号駆動線形予測復号化方式によって音声復
号化する音声復号化部と、この音声復号化部での復号化
により得られた音声サンプル列を蓄積しフレーム単位で
出力するバッファであって、前記音声符号化装置から取
得した有音/無音情報に基づき有音フレーム区間を検出
し、この有音フレーム区間については該区間を単位とし
て前記音声符号化装置から受け取った時間方向情報に応
じた方向に音声サンプル列を出力するバッファとを備え
るものである。
【0045】また、この発明に係る音声符号化装置は、
入力音声の音声サンプル列を所定長のフレーム単位に分
割し、各フレームが有音フレーム、無音フレームのいず
れであるかを判定するとともに、この判定結果を示す有
音/無音情報を出力する有音/無音判定部と、入力音声
の音声サンプル列を蓄積しフレーム単位で出力するバッ
ファであって、有音フレームについては、無音フレーム
から次の無音フレームまでの間の連続する1以上の有音
フレームからなる有音フレーム区間を単位とし、この有
音フレーム区間の音声サンプル列を蓄積時と同方向及び
逆方向に順次出力するバッファと、このバッファから音
声サンプル列を受け取るごとに、受け取った音声サンプ
ル列を符号駆動線形予測符号化方式で符号化するととも
に、この符号化処理に伴い内部的に生成される合成音声
のサンプル列と前記入力音声の音声サンプル列との誤差
を算出する音声符号化部と、前記有音フレーム区間につ
いては、前記各方向についての前記誤差を比較し、前記
音声符号化部で求められた符号化データのうち前記誤差
の小さい方の方向について求められた符号化データを選
択し、前記誤差の小さい方の方向を示す時間方向情報と
ともに出力する比較制御部とを備えるものである。
入力音声の音声サンプル列を所定長のフレーム単位に分
割し、各フレームが有音フレーム、無音フレームのいず
れであるかを判定するとともに、この判定結果を示す有
音/無音情報を出力する有音/無音判定部と、入力音声
の音声サンプル列を蓄積しフレーム単位で出力するバッ
ファであって、有音フレームについては、無音フレーム
から次の無音フレームまでの間の連続する1以上の有音
フレームからなる有音フレーム区間を単位とし、この有
音フレーム区間の音声サンプル列を蓄積時と同方向及び
逆方向に順次出力するバッファと、このバッファから音
声サンプル列を受け取るごとに、受け取った音声サンプ
ル列を符号駆動線形予測符号化方式で符号化するととも
に、この符号化処理に伴い内部的に生成される合成音声
のサンプル列と前記入力音声の音声サンプル列との誤差
を算出する音声符号化部と、前記有音フレーム区間につ
いては、前記各方向についての前記誤差を比較し、前記
音声符号化部で求められた符号化データのうち前記誤差
の小さい方の方向について求められた符号化データを選
択し、前記誤差の小さい方の方向を示す時間方向情報と
ともに出力する比較制御部とを備えるものである。
【0046】また、この発明に係る音声復号化装置は、
符号化データを符号駆動線形予測復号化方式によって音
声復号化する音声復号化部と、この音声復号化部での復
号化により得られた音声サンプル列を蓄積しフレーム単
位で出力するバッファであって、有音/無音情報に基づ
き有音フレーム区間を検出し、この有音フレーム区間に
ついては該区間を単位として時間方向情報に応じた方向
に音声サンプル列を出力するバッファとを備えるもので
ある。
符号化データを符号駆動線形予測復号化方式によって音
声復号化する音声復号化部と、この音声復号化部での復
号化により得られた音声サンプル列を蓄積しフレーム単
位で出力するバッファであって、有音/無音情報に基づ
き有音フレーム区間を検出し、この有音フレーム区間に
ついては該区間を単位として時間方向情報に応じた方向
に音声サンプル列を出力するバッファとを備えるもので
ある。
【0047】また、この発明に関わる音声符号化復号化
システムは、入力音声から音声スペクトルと音源情報と
を求めてそれぞれ符号化する音声符号化装置と、この音
声符号化装置から出力された符号化音声スペクトル及び
符号化音源情報を復号化し、この結果得られた音声スペ
クトルと音源情報から音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、前記音
声符号化装置は、入力音声の音声サンプル列を所定長の
フレーム単位に分割し、各フレームが有音フレーム、無
音フレームのいずれであるかを判定するとともに、この
判定結果を示す有音/無音情報を出力する有音/無音判
定部と、入力音声の音声サンプル列を蓄積しフレーム単
位で出力するバッファであって、有音フレームについて
は、無音フレームから次の無音フレームまでの間の連続
する1以上の有音フレームからなる有音フレーム区間を
単位とし、この有音フレーム区間の音声サンプル列を蓄
積時と同方向及び逆方向に順次出力するバッファと、こ
のバッファから音声サンプル列を受け取るごとに、受け
取った音声サンプル列をフレーム毎にスペクトル分析し
て音声スペクトルを求めるスペクトル分析部と、このス
ペクトル分析部から出力される音声スペクトルを以前の
1又は複数のフレームの音声スペクトルによる予測処理
を用いて符号化するスペクトル符号化部と、前記バッフ
ァから出力された音声サンプル列から音源情報を求めて
符号化し、この結果得られた符号化音源情報と前記スペ
クトル符号化部で求められた符号化音声スペクトルから
合成音声を合成し、この合成音声のサンプル列と前記入
力音声の音声サンプル列との誤差を算出する音源符号化
部と、前記有音フレーム区間については、前記各方向に
ついての前記誤差を比較し、前記スペクトル符号化部及
び音源符号化部でそれぞれ求められた前記同方向及び逆
方向の符号化音声スペクトル及び符号化音源情報のう
ち、前記誤差の小さい方の方向についての符号化音声ス
ペクトル及び符号化音源情報を選択し、前記誤差の小さ
い方の方向を示す時間方向情報とともに出力する比較制
御部とを備え、前記音声復号化装置は、前記音声符号化
装置から出力された符号化音声スペクトルを、以前の1
又は複数のフレームの音声スペクトルによる予測処理を
用いて復号化するスペクトル復号化部と、前記音声符号
化装置から出力された符号化音源情報を復号化する音源
復号化部と、前記スペクトル復号化部で復号化された音
声スペクトルと前記音源復号化部で復号化された音源情
報より音声を合成する合成フィルタと、この合成フィル
タで得られた音声サンプル列を蓄積しフレーム単位で出
力するバッファであって、前記音声符号化装置から取得
した有音/無音情報に基づき有音フレーム区間を検出
し、この有音フレーム区間については該区間を単位とし
て前記音声符号化装置から受け取った時間方向情報に応
じた方向に音声サンプル列を出力するバッファとを備え
るものである。
システムは、入力音声から音声スペクトルと音源情報と
を求めてそれぞれ符号化する音声符号化装置と、この音
声符号化装置から出力された符号化音声スペクトル及び
符号化音源情報を復号化し、この結果得られた音声スペ
クトルと音源情報から音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、前記音
声符号化装置は、入力音声の音声サンプル列を所定長の
フレーム単位に分割し、各フレームが有音フレーム、無
音フレームのいずれであるかを判定するとともに、この
判定結果を示す有音/無音情報を出力する有音/無音判
定部と、入力音声の音声サンプル列を蓄積しフレーム単
位で出力するバッファであって、有音フレームについて
は、無音フレームから次の無音フレームまでの間の連続
する1以上の有音フレームからなる有音フレーム区間を
単位とし、この有音フレーム区間の音声サンプル列を蓄
積時と同方向及び逆方向に順次出力するバッファと、こ
のバッファから音声サンプル列を受け取るごとに、受け
取った音声サンプル列をフレーム毎にスペクトル分析し
て音声スペクトルを求めるスペクトル分析部と、このス
ペクトル分析部から出力される音声スペクトルを以前の
1又は複数のフレームの音声スペクトルによる予測処理
を用いて符号化するスペクトル符号化部と、前記バッフ
ァから出力された音声サンプル列から音源情報を求めて
符号化し、この結果得られた符号化音源情報と前記スペ
クトル符号化部で求められた符号化音声スペクトルから
合成音声を合成し、この合成音声のサンプル列と前記入
力音声の音声サンプル列との誤差を算出する音源符号化
部と、前記有音フレーム区間については、前記各方向に
ついての前記誤差を比較し、前記スペクトル符号化部及
び音源符号化部でそれぞれ求められた前記同方向及び逆
方向の符号化音声スペクトル及び符号化音源情報のう
ち、前記誤差の小さい方の方向についての符号化音声ス
ペクトル及び符号化音源情報を選択し、前記誤差の小さ
い方の方向を示す時間方向情報とともに出力する比較制
御部とを備え、前記音声復号化装置は、前記音声符号化
装置から出力された符号化音声スペクトルを、以前の1
又は複数のフレームの音声スペクトルによる予測処理を
用いて復号化するスペクトル復号化部と、前記音声符号
化装置から出力された符号化音源情報を復号化する音源
復号化部と、前記スペクトル復号化部で復号化された音
声スペクトルと前記音源復号化部で復号化された音源情
報より音声を合成する合成フィルタと、この合成フィル
タで得られた音声サンプル列を蓄積しフレーム単位で出
力するバッファであって、前記音声符号化装置から取得
した有音/無音情報に基づき有音フレーム区間を検出
し、この有音フレーム区間については該区間を単位とし
て前記音声符号化装置から受け取った時間方向情報に応
じた方向に音声サンプル列を出力するバッファとを備え
るものである。
【0048】また、この発明に関わる音声符号化装置
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列をフレーム毎にスペクトル分析して音声スペク
トルを求めるスペクトル分析部と、このスペクトル分析
部から出力される音声スペクトルを以前の1又は複数の
フレームの音声スペクトルによる予測処理を用いて符号
化するスペクトル符号化部とを備えるものである。
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列をフレーム毎にスペクトル分析して音声スペク
トルを求めるスペクトル分析部と、このスペクトル分析
部から出力される音声スペクトルを以前の1又は複数の
フレームの音声スペクトルによる予測処理を用いて符号
化するスペクトル符号化部とを備えるものである。
【0049】また、この発明に関わる音声復号化装置
は、符号化された音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、符号化された音源情報
を復号化する音源復号化部と、前記スペクトル復号化部
で復号化された音声スペクトルと前記音源復号化部で復
号化された音源情報より音声を合成する合成フィルタ
と、この合成フィルタで得られた音声サンプル列を蓄積
しフレーム単位で出力するバッファであって、前記音声
符号化装置から取得した有音/無音情報に基づき有音フ
レーム区間を検出し、この有音フレーム区間については
該区間を単位として前記音声符号化装置から受け取った
時間方向情報に応じた方向に音声サンプル列を出力する
バッファとを備えるものである。
は、符号化された音声スペクトルを、以前の1又は複数
のフレームの音声スペクトルによる予測処理を用いて復
号化するスペクトル復号化部と、符号化された音源情報
を復号化する音源復号化部と、前記スペクトル復号化部
で復号化された音声スペクトルと前記音源復号化部で復
号化された音源情報より音声を合成する合成フィルタ
と、この合成フィルタで得られた音声サンプル列を蓄積
しフレーム単位で出力するバッファであって、前記音声
符号化装置から取得した有音/無音情報に基づき有音フ
レーム区間を検出し、この有音フレーム区間については
該区間を単位として前記音声符号化装置から受け取った
時間方向情報に応じた方向に音声サンプル列を出力する
バッファとを備えるものである。
【0050】また、この発明に関わる音声符号化復号化
システムは、入力音声から音声スペクトルと音源情報と
を求めてそれぞれ符号化する音声符号化装置と、この音
声符号化装置から出力された符号化音声スペクトル及び
符音源情報を復号化し、この結果得られた音声スペクト
ルと音源情報から音声を再生する音声復号化装置と、を
含む音声符号化復号化システムにおいて、前記音声符号
化装置は、入力音声の音声サンプル列を所定長のフレー
ム単位に分割し、各フレームが有音フレーム、無音フレ
ームのいずれであるかを判定するとともに、この判定結
果を示す有音/無音情報を出力する有音/無音判定部
と、入力音声の音声サンプル列を蓄積しフレーム単位で
出力するバッファであって、有音フレームについては、
無音フレームから次の無音フレームまでの間の連続する
1以上の有音フレームからなる有音フレーム区間を単位
とし、この有音フレーム区間の音声サンプル列を蓄積時
と同方向及び逆方向に順次出力するバッファと、このバ
ッファから音声サンプル列を受け取るごとに、受け取っ
た音声サンプル列をフレーム毎にスペクトル分析して音
声スペクトルを求めるスペクトル分析部と、このスペク
トル分析部から出力される音声スペクトルを以前の1又
は複数のフレームの音声スペクトルによる予測処理を用
いて符号化すると共に、この符号化処理の際の音声スペ
クトルの量子化誤差を算出するスペクトル符号化部と、
前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、前記有音フレー
ム区間については、前記各方向についての前記誤差を比
較し、前記スペクトル符号化部と音源符号化部でそれぞ
れ求められた符号化音声スペクトル及び符号化音源情報
のうち前記量子化誤差の小さい方の方向について求めら
れた符号化音声スペクトル及び符号化音源情報を選択
し、前記量子化誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備え、前記音声復号
化装置は、前記音声符号化装置から出力された符号化音
声スペクトルを、以前の1又は複数のフレームの音声ス
ペクトルによる予測処理を用いて復号化するスペクトル
復号化部と、前記音声符号化装置から出力された符号化
音源情報を復号化する音源復号化部と、前記スペクトル
復号化部で復号化された音声スペクトルと前記音源復号
化部で復号化された音源情報より音声を合成する合成フ
ィルタと、この合成フィルタで得られた音声サンプル列
を蓄積しフレーム単位で出力するバッファであって、前
記音声符号化装置から取得した有音/無音情報に基づき
有音フレーム区間を検出し、この有音フレーム区間につ
いては該区間を単位として前記音声符号化装置から受け
取った時間方向情報に応じた方向に音声サンプル列を出
力するバッファとを備えるものである。
システムは、入力音声から音声スペクトルと音源情報と
を求めてそれぞれ符号化する音声符号化装置と、この音
声符号化装置から出力された符号化音声スペクトル及び
符音源情報を復号化し、この結果得られた音声スペクト
ルと音源情報から音声を再生する音声復号化装置と、を
含む音声符号化復号化システムにおいて、前記音声符号
化装置は、入力音声の音声サンプル列を所定長のフレー
ム単位に分割し、各フレームが有音フレーム、無音フレ
ームのいずれであるかを判定するとともに、この判定結
果を示す有音/無音情報を出力する有音/無音判定部
と、入力音声の音声サンプル列を蓄積しフレーム単位で
出力するバッファであって、有音フレームについては、
無音フレームから次の無音フレームまでの間の連続する
1以上の有音フレームからなる有音フレーム区間を単位
とし、この有音フレーム区間の音声サンプル列を蓄積時
と同方向及び逆方向に順次出力するバッファと、このバ
ッファから音声サンプル列を受け取るごとに、受け取っ
た音声サンプル列をフレーム毎にスペクトル分析して音
声スペクトルを求めるスペクトル分析部と、このスペク
トル分析部から出力される音声スペクトルを以前の1又
は複数のフレームの音声スペクトルによる予測処理を用
いて符号化すると共に、この符号化処理の際の音声スペ
クトルの量子化誤差を算出するスペクトル符号化部と、
前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、前記有音フレー
ム区間については、前記各方向についての前記誤差を比
較し、前記スペクトル符号化部と音源符号化部でそれぞ
れ求められた符号化音声スペクトル及び符号化音源情報
のうち前記量子化誤差の小さい方の方向について求めら
れた符号化音声スペクトル及び符号化音源情報を選択
し、前記量子化誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備え、前記音声復号
化装置は、前記音声符号化装置から出力された符号化音
声スペクトルを、以前の1又は複数のフレームの音声ス
ペクトルによる予測処理を用いて復号化するスペクトル
復号化部と、前記音声符号化装置から出力された符号化
音源情報を復号化する音源復号化部と、前記スペクトル
復号化部で復号化された音声スペクトルと前記音源復号
化部で復号化された音源情報より音声を合成する合成フ
ィルタと、この合成フィルタで得られた音声サンプル列
を蓄積しフレーム単位で出力するバッファであって、前
記音声符号化装置から取得した有音/無音情報に基づき
有音フレーム区間を検出し、この有音フレーム区間につ
いては該区間を単位として前記音声符号化装置から受け
取った時間方向情報に応じた方向に音声サンプル列を出
力するバッファとを備えるものである。
【0051】また、この発明に関わる音声符号化装置
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列をフレーム毎にスペクトル分析して音声スペク
トルを求めるスペクトル分析部と、このスペクトル分析
部から出力される音声スペクトルを以前の1又は複数の
フレームの音声スペクトルによる予測処理を用いて符号
化すると共に、この符号化処理の際の音声スペクトルの
量子化誤差を算出するスペクトル符号化部と、前記バッ
ファから出力された音声サンプル列から音源情報を求め
て符号化する音源符号化部と、前記バッファから出力さ
れた音声サンプル列から音源情報を求めて符号化する音
源符号化部と、前記有音フレーム区間については、前記
各方向についての前記量子化誤差を比較し、前記スペク
トル符号化部及び音源符号化部でそれぞれ求められた前
記同方向及び逆方向の符号化音声スペクトル及び符号化
音源情報のうち前記量子化誤差の小さい方の方向につい
ての符号化音声スペクトル及び符号化音源情報を選択
し、前記量子化誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備えるものである。
は、入力音声の音声サンプル列を所定長のフレーム単位
に分割し、各フレームが有音フレーム、無音フレームの
いずれであるかを判定するとともに、この判定結果を示
す有音/無音情報を出力する有音/無音判定部と、入力
音声の音声サンプル列を蓄積しフレーム単位で出力する
バッファであって、有音フレームについては、無音フレ
ームから次の無音フレームまでの間の連続する1以上の
有音フレームからなる有音フレーム区間を単位とし、こ
の有音フレーム区間の音声サンプル列を蓄積時と同方向
及び逆方向に順次出力するバッファと、このバッファか
ら音声サンプル列を受け取るごとに、受け取った音声サ
ンプル列をフレーム毎にスペクトル分析して音声スペク
トルを求めるスペクトル分析部と、このスペクトル分析
部から出力される音声スペクトルを以前の1又は複数の
フレームの音声スペクトルによる予測処理を用いて符号
化すると共に、この符号化処理の際の音声スペクトルの
量子化誤差を算出するスペクトル符号化部と、前記バッ
ファから出力された音声サンプル列から音源情報を求め
て符号化する音源符号化部と、前記バッファから出力さ
れた音声サンプル列から音源情報を求めて符号化する音
源符号化部と、前記有音フレーム区間については、前記
各方向についての前記量子化誤差を比較し、前記スペク
トル符号化部及び音源符号化部でそれぞれ求められた前
記同方向及び逆方向の符号化音声スペクトル及び符号化
音源情報のうち前記量子化誤差の小さい方の方向につい
ての符号化音声スペクトル及び符号化音源情報を選択
し、前記量子化誤差の小さい方の方向を示す時間方向情
報とともに出力する比較制御部とを備えるものである。
【0052】
実施の形態1.この実施の形態1の音声符号化復号化シ
ステムは、図1に示す音声符号化装置と、図2に示す音
声復号化装置とから構成される。図1及び図2におい
て、前述の図19及び図20の構成要素と同一又はそれ
に相当する構成要素には、同一の符号を付した。
ステムは、図1に示す音声符号化装置と、図2に示す音
声復号化装置とから構成される。図1及び図2におい
て、前述の図19及び図20の構成要素と同一又はそれ
に相当する構成要素には、同一の符号を付した。
【0053】図1に示すように、この実施の形態1の音
声符号化装置は、音声データをCELP方式で符号化す
る音声符号化部1と、音声符号化部1で生成された各符
号を多重化して通信路に送出する多重化処理部8とに加
えて、入力音声を所定量だけ蓄え、この蓄積結果を蓄積
時とは逆方向(すなわち、蓄積順序とは逆順)に前記音
声符号化部1に出力するバッファ20を備えている。こ
こで、音声符号化装置に入力される入力音声は、アナロ
グ音声信号をA/D変換器で予め離散データ化して得た
音声サンプルの時系列であり、バッファ20は、この音
声サンプルを時系列的に蓄えていき、音声サンプルが所
定データ量だけ蓄積されると、それら音声サンプルを逆
方向(すなわち未来から過去に向かう方向)に出力す
る。このようにバッファ20は、いわゆるLIFO(後
入れ先出し方式)の記憶装置である。以下、このように
入力音声の音声サンプルの時系列を逆向きに並べ換えて
得られる系列を「逆方向入力音声」と呼ぶ。
声符号化装置は、音声データをCELP方式で符号化す
る音声符号化部1と、音声符号化部1で生成された各符
号を多重化して通信路に送出する多重化処理部8とに加
えて、入力音声を所定量だけ蓄え、この蓄積結果を蓄積
時とは逆方向(すなわち、蓄積順序とは逆順)に前記音
声符号化部1に出力するバッファ20を備えている。こ
こで、音声符号化装置に入力される入力音声は、アナロ
グ音声信号をA/D変換器で予め離散データ化して得た
音声サンプルの時系列であり、バッファ20は、この音
声サンプルを時系列的に蓄えていき、音声サンプルが所
定データ量だけ蓄積されると、それら音声サンプルを逆
方向(すなわち未来から過去に向かう方向)に出力す
る。このようにバッファ20は、いわゆるLIFO(後
入れ先出し方式)の記憶装置である。以下、このように
入力音声の音声サンプルの時系列を逆向きに並べ換えて
得られる系列を「逆方向入力音声」と呼ぶ。
【0054】音声符号化部1において、スペクトル分析
部2は、スペクトル分析して音声スペクトルを求める。
このスペクトル分析では、まずバッファ20から供給さ
れる逆方向入力音声を線形予測分析して線形予測係数を
算出し、これをLSP(LineSpectrum Pair:線スペク
トル対)係数ωiに変換する。LSP係数が音声スペク
トルの情報を表す。ここで行う線形予測分析処理及び線
形予測係数のLSP係数への変換処理は公知のものでよ
い。スペクトル符号化部3は、このLSP係数ωiを図
19のスペクトル符号化部3と同様、まず現在のフレー
ムmにおける量子化すべき目的ベクトルLi(m)を、kフ
レーム分過去のフレームの量子化された目的ベクトル
L'i(m-k)を用いて、次の(1)式により求める。
部2は、スペクトル分析して音声スペクトルを求める。
このスペクトル分析では、まずバッファ20から供給さ
れる逆方向入力音声を線形予測分析して線形予測係数を
算出し、これをLSP(LineSpectrum Pair:線スペク
トル対)係数ωiに変換する。LSP係数が音声スペク
トルの情報を表す。ここで行う線形予測分析処理及び線
形予測係数のLSP係数への変換処理は公知のものでよ
い。スペクトル符号化部3は、このLSP係数ωiを図
19のスペクトル符号化部3と同様、まず現在のフレー
ムmにおける量子化すべき目的ベクトルLi(m)を、kフ
レーム分過去のフレームの量子化された目的ベクトル
L'i(m-k)を用いて、次の(1)式により求める。
【0055】
【数3】 この式は、従来技術の説明において示した目的ベクトル
Liの算出式と同様であり、Pi,kはMA(Moving Averag
e)予測係数、ωi(m)は現在のフレームmのLSP係数を
示す。目的ベクトルLiは、当該フレームの音声スペク
トルを表す。この式では、現在のフレームmからみて1
フレーム前〜4フレーム前(すなわちkが1〜4)まで
の量子化目的ベクトルL'i(m-k)を演算に用いている
が、幾つ前までのフレームを用いるかは、要求される予
測精度やこのシステムがインプリメントされるコンピュ
ータ等の処理負荷などに基づき変更可能である。もちろ
ん1フレーム前のデータのみを用いることも可能であ
る。
Liの算出式と同様であり、Pi,kはMA(Moving Averag
e)予測係数、ωi(m)は現在のフレームmのLSP係数を
示す。目的ベクトルLiは、当該フレームの音声スペク
トルを表す。この式では、現在のフレームmからみて1
フレーム前〜4フレーム前(すなわちkが1〜4)まで
の量子化目的ベクトルL'i(m-k)を演算に用いている
が、幾つ前までのフレームを用いるかは、要求される予
測精度やこのシステムがインプリメントされるコンピュ
ータ等の処理負荷などに基づき変更可能である。もちろ
ん1フレーム前のデータのみを用いることも可能であ
る。
【0056】そして、スペクトル符号化部3は、次の
(2)式に基づき、量子化したLSP係数ω'i(m)を求
める。
(2)式に基づき、量子化したLSP係数ω'i(m)を求
める。
【0057】
【数4】 この式は、従来技術の説明において示した量子化したL
SP係数の算出式と同様である。この式でも、現在のフ
レームmからみて1〜4フレーム前のデータを演算に用
いているが、何フレーム前までを利用するかは、個々の
事情に応じて変更可能である。
SP係数の算出式と同様である。この式でも、現在のフ
レームmからみて1〜4フレーム前のデータを演算に用
いているが、何フレーム前までを利用するかは、個々の
事情に応じて変更可能である。
【0058】そして、スペクトル符号化部3は、求めた
量子化LSP係数ω'i(m)を合成フィルタ4に供給する
とともに、その量子化したLSP係数を符号化して多重
化処理部8に出力する。合成フィルタ4は、音源信号
と、スペクトル符号化部3から供給される量子化された
線形予測係数とに基づき、合成音声を生成する。ここ
で、音源信号は、適応音源符号帳5から出力される適応
音源ベクトルに適応音源利得βを乗じ、雑音音源符号帳
6から出力される雑音音源ベクトルに雑音音源利得γを
乗じ、これら両乗算結果の和をとったものである。最適
音源探索部7は、合成フィルタ4で生成された合成音声
と、バッファ20から供給された逆方向入力音声との誤
差を評価し、この誤差が最小になる適応音源符号L、雑
音音源符号I、適応音源利得β及び雑音音源利得γを求
める。そして、最適音源探索部7は、これら適応音源符
号L、雑音音源符号I、量子化した適応音源利得β及び
雑音音源利得γをそれぞれ多重化処理部8に出力する。
また、最適音源探索部7は、適応音源符号Lを適応音源
符号帳5に供給するとともに、雑音音源符号Iを雑音音
源符号帳6に供給する。
量子化LSP係数ω'i(m)を合成フィルタ4に供給する
とともに、その量子化したLSP係数を符号化して多重
化処理部8に出力する。合成フィルタ4は、音源信号
と、スペクトル符号化部3から供給される量子化された
線形予測係数とに基づき、合成音声を生成する。ここ
で、音源信号は、適応音源符号帳5から出力される適応
音源ベクトルに適応音源利得βを乗じ、雑音音源符号帳
6から出力される雑音音源ベクトルに雑音音源利得γを
乗じ、これら両乗算結果の和をとったものである。最適
音源探索部7は、合成フィルタ4で生成された合成音声
と、バッファ20から供給された逆方向入力音声との誤
差を評価し、この誤差が最小になる適応音源符号L、雑
音音源符号I、適応音源利得β及び雑音音源利得γを求
める。そして、最適音源探索部7は、これら適応音源符
号L、雑音音源符号I、量子化した適応音源利得β及び
雑音音源利得γをそれぞれ多重化処理部8に出力する。
また、最適音源探索部7は、適応音源符号Lを適応音源
符号帳5に供給するとともに、雑音音源符号Iを雑音音
源符号帳6に供給する。
【0059】スペクトル符号化部3で行う上記(1)式
の計算において、過去のフレームの量子化された目的ベ
クトルL'i(m-k)は、所定長の各区間の中では時間的に
逆方向(すなわち未来から過去に向かう方向)のデータ列
となっているが、全体としてはそれら各区間が時間的に
順方向(すなわち過去から未来に向かう方向)に並んだも
のとなっている。
の計算において、過去のフレームの量子化された目的ベ
クトルL'i(m-k)は、所定長の各区間の中では時間的に
逆方向(すなわち未来から過去に向かう方向)のデータ列
となっているが、全体としてはそれら各区間が時間的に
順方向(すなわち過去から未来に向かう方向)に並んだも
のとなっている。
【0060】適応音源符号帳5は、過去に求めた音源信
号を記憶しており、最適音源探索部7より入力される適
応音源符号Lに基づき適応音源ベクトルを生成する。適
応音源ベクトルは、記憶した過去の音源信号から適応音
源符号Lの長さ(ピッチ周期)のベクトルを切り出し、
これを予め設定されたサブフレーム長になるまで繰り返
すことにより生成する。生成された適応音源ベクトル
は、適応音源利得βと乗じられ、音源信号の元の一つと
なる。なお、適応音源符号帳5には、過去に合成フィル
タ4の入力として用いられた音源信号が順次蓄積され、
これにより符号帳のデータが更新されていく。したがっ
て、適応音源符号帳5に蓄積される過去の音源信号は、
所定長の各区間の中では時間的に逆方向(すなわち未来
から過去に向かう方向)のデータ列となっているが、全
体としてはそれら各区間が時間的に順方向(すなわち過
去から未来に向かう方向)に並んだものとなっている。
号を記憶しており、最適音源探索部7より入力される適
応音源符号Lに基づき適応音源ベクトルを生成する。適
応音源ベクトルは、記憶した過去の音源信号から適応音
源符号Lの長さ(ピッチ周期)のベクトルを切り出し、
これを予め設定されたサブフレーム長になるまで繰り返
すことにより生成する。生成された適応音源ベクトル
は、適応音源利得βと乗じられ、音源信号の元の一つと
なる。なお、適応音源符号帳5には、過去に合成フィル
タ4の入力として用いられた音源信号が順次蓄積され、
これにより符号帳のデータが更新されていく。したがっ
て、適応音源符号帳5に蓄積される過去の音源信号は、
所定長の各区間の中では時間的に逆方向(すなわち未来
から過去に向かう方向)のデータ列となっているが、全
体としてはそれら各区間が時間的に順方向(すなわち過
去から未来に向かう方向)に並んだものとなっている。
【0061】また、雑音音源符号帳6は、例えばランダ
ム雑音から生成したN個の雑音音源ベクトルを保持して
おり、最適音源探索部7より入力される雑音音源符号I
に対応した雑音音源ベクトルを決定し、出力する。な
お、雑音音源符号帳6が保持している各雑音音源ベクト
ルは、時間的に逆方向のデータ列である。雑音音源符号
帳6から出力された雑音音源ベクトルは、雑音音源利得
γと乗じられ、音源信号の元の一つとなる。
ム雑音から生成したN個の雑音音源ベクトルを保持して
おり、最適音源探索部7より入力される雑音音源符号I
に対応した雑音音源ベクトルを決定し、出力する。な
お、雑音音源符号帳6が保持している各雑音音源ベクト
ルは、時間的に逆方向のデータ列である。雑音音源符号
帳6から出力された雑音音源ベクトルは、雑音音源利得
γと乗じられ、音源信号の元の一つとなる。
【0062】また、図2に示すように、この実施の形態
1の音声復号化装置は、多重化された符号化データを多
重分離する分離処理部9と、分離処理部9から供給され
る符号をCELP方式で復号化する音声復号化部10と
に加え、音声復号化部10により得られた音声サンプル
列を所定量だけ蓄え、この蓄積結果を蓄積時とは逆方向
に出力するバッファ21を備えている。
1の音声復号化装置は、多重化された符号化データを多
重分離する分離処理部9と、分離処理部9から供給され
る符号をCELP方式で復号化する音声復号化部10と
に加え、音声復号化部10により得られた音声サンプル
列を所定量だけ蓄え、この蓄積結果を蓄積時とは逆方向
に出力するバッファ21を備えている。
【0063】音声復号化部10において、スペクトル復
号化部11は、分離処理部9で分離されたLSP係数の
符号を受け取り、これを図20のスペクトル復号化部1
1と同じ方法で復号化してLSP係数ω'iを求め、これ
を線形予測係数に変換する。適応音源符号帳12は、過
去の音源信号を保持しており、分離処理部9で分離され
た適応音源符号Lを受け取り、これに対応した適応音源
ベクトルを生成する。適応音源ベクトルの生成の方法
は、図1の音声符号化装置の適応音源符号帳5の場合と
同様でよい。この適応音源ベクトルには、分離処理部9
にて分離された符号を復号化して得た適応音源利得βが
乗じられる。雑音音源符号帳13は、音声符号化装置の
雑音音源符号帳6と同様、ランダム雑音などから生成し
た所定数の雑音音源ベクトルを保持している。雑音音源
符号帳13は、分離処理部9で分離された雑音音源符号
Iを受け取り、保持している雑音音源ベクトル群からこ
の雑音音源符号Iに対応する雑音音源ベクトルを決定
し、出力する。出力された雑音音源ベクトルには、分離
処理部9にて分離された符号を復号化して得た雑音音源
利得γが乗じられる。この乗算結果は、前述の適応音源
ベクトルと適応音源利得βとの乗算結果と加算され、こ
の加算結果が音源信号となる。この音源信号は、合成フ
ィルタ14に入力されるとともに、適応音源符号帳12
にフィードバックされ、過去の音源信号として符号帳に
加えられる。
号化部11は、分離処理部9で分離されたLSP係数の
符号を受け取り、これを図20のスペクトル復号化部1
1と同じ方法で復号化してLSP係数ω'iを求め、これ
を線形予測係数に変換する。適応音源符号帳12は、過
去の音源信号を保持しており、分離処理部9で分離され
た適応音源符号Lを受け取り、これに対応した適応音源
ベクトルを生成する。適応音源ベクトルの生成の方法
は、図1の音声符号化装置の適応音源符号帳5の場合と
同様でよい。この適応音源ベクトルには、分離処理部9
にて分離された符号を復号化して得た適応音源利得βが
乗じられる。雑音音源符号帳13は、音声符号化装置の
雑音音源符号帳6と同様、ランダム雑音などから生成し
た所定数の雑音音源ベクトルを保持している。雑音音源
符号帳13は、分離処理部9で分離された雑音音源符号
Iを受け取り、保持している雑音音源ベクトル群からこ
の雑音音源符号Iに対応する雑音音源ベクトルを決定
し、出力する。出力された雑音音源ベクトルには、分離
処理部9にて分離された符号を復号化して得た雑音音源
利得γが乗じられる。この乗算結果は、前述の適応音源
ベクトルと適応音源利得βとの乗算結果と加算され、こ
の加算結果が音源信号となる。この音源信号は、合成フ
ィルタ14に入力されるとともに、適応音源符号帳12
にフィードバックされ、過去の音源信号として符号帳に
加えられる。
【0064】合成フィルタ14は、適応音源ベクトル及
び適応音源利得βの乗算結果と雑音音源ベクトル及び雑
音音源利得γの乗算結果とを加算して得た音源信号と、
スペクトル復号化部11で求められた線形予測係数を用
いて、音声を合成する。音源信号と線形予測係数とに基
づく音声合成は、線形予測分析方式における従来公知の
方法で行えばよい。この実施の形態1では、音声復号化
部10には音声符号化装置からの逆方向入力音声の符号
化データが入力されるので、合成フィルタ14で合成さ
れた音声は、時間的に逆方向の系列となっている。合成
フィルタ14で合成された音声を「逆方向復号化音声」
と呼ぶ。このようにして生成された逆方向復号化音声
は、バッファ21に入力される。
び適応音源利得βの乗算結果と雑音音源ベクトル及び雑
音音源利得γの乗算結果とを加算して得た音源信号と、
スペクトル復号化部11で求められた線形予測係数を用
いて、音声を合成する。音源信号と線形予測係数とに基
づく音声合成は、線形予測分析方式における従来公知の
方法で行えばよい。この実施の形態1では、音声復号化
部10には音声符号化装置からの逆方向入力音声の符号
化データが入力されるので、合成フィルタ14で合成さ
れた音声は、時間的に逆方向の系列となっている。合成
フィルタ14で合成された音声を「逆方向復号化音声」
と呼ぶ。このようにして生成された逆方向復号化音声
は、バッファ21に入力される。
【0065】バッファ21は、LIFO方式の記憶装置
であり、入力される逆方向復号化音声のデータを順次蓄
えていき、蓄積データ量が所定量に達するごとに、この
蓄積結果を蓄積時とは逆方向に(すなわち、末尾から先
頭に向かって)出力する。したがって、バッファ21か
ら出力された音声信号は、時間的に順方向(すなわち過
去から未来に向かう向き)の復号化音声となる。
であり、入力される逆方向復号化音声のデータを順次蓄
えていき、蓄積データ量が所定量に達するごとに、この
蓄積結果を蓄積時とは逆方向に(すなわち、末尾から先
頭に向かって)出力する。したがって、バッファ21か
ら出力された音声信号は、時間的に順方向(すなわち過
去から未来に向かう向き)の復号化音声となる。
【0066】次に、この実施の形態1における音声の符
号化及び復号化の処理手順について説明する。
号化及び復号化の処理手順について説明する。
【0067】まず、図1の音声符号化装置の処理動作に
ついて説明する。
ついて説明する。
【0068】入力音声は、バッファ20に入力される。
バッファ20は、入力音声のデータ列を蓄積し、蓄積量
が所定量に達するごとに、それまでの蓄積結果を後端部
から逆方向に出力する。この結果得られた逆方向入力音
声は、音声符号化部1に入力される。音声符号化部1
は、バッファ20から与えられた逆方向入力音声をCE
LP方式で符号化する。この結果得られたLSP係数の
符号、適応音源符号L、雑音音源符号I、適応音源利得
βの符号及び雑音音源利得γの符号は、多重化処理部8
で多重化され、通信路に送出される。
バッファ20は、入力音声のデータ列を蓄積し、蓄積量
が所定量に達するごとに、それまでの蓄積結果を後端部
から逆方向に出力する。この結果得られた逆方向入力音
声は、音声符号化部1に入力される。音声符号化部1
は、バッファ20から与えられた逆方向入力音声をCE
LP方式で符号化する。この結果得られたLSP係数の
符号、適応音源符号L、雑音音源符号I、適応音源利得
βの符号及び雑音音源利得γの符号は、多重化処理部8
で多重化され、通信路に送出される。
【0069】次に、図2の音声復号化装置の動作につい
て説明する。
て説明する。
【0070】通信路から到来した多重化された符号化デ
ータは、分離処理部9にてLSP係数の符号や適応音源
符号などに多重分離される。音声復号化部10は、分離
処理部9から受け取ったこれら各符号から、CELP方
式に従った復号化処理により逆方向復号化音声を合成
し、バッファ21に出力する。バッファ21は、入力さ
れる逆方向復号化音声を所定長だけ蓄えた後、蓄積結果
を後端部から逆方向に出力する。この結果、時間的に順
方向の復号化音声が得られる。
ータは、分離処理部9にてLSP係数の符号や適応音源
符号などに多重分離される。音声復号化部10は、分離
処理部9から受け取ったこれら各符号から、CELP方
式に従った復号化処理により逆方向復号化音声を合成
し、バッファ21に出力する。バッファ21は、入力さ
れる逆方向復号化音声を所定長だけ蓄えた後、蓄積結果
を後端部から逆方向に出力する。この結果、時間的に順
方向の復号化音声が得られる。
【0071】なお、以上の構成においては、過去のフレ
ームのデータから現フレームのLSP係数を予測する方
法としてMA予測を用いたが、これに限らず、AR(Aut
o Regressive)予測や、前フレームとの差分による予測
方式を用いてもよい。また、以上の構成においては、C
ELP方式における量子化対象となるスペクトルパラメ
ータとしてLSP係数を用いたが、これに限らず、例え
ば線形予測係数、PARCOR係数、ケプストラム係数
など他の係数を用いてもよい。すなわち、本実施形態の
手法は、どのパラメータを用いるかにかかわりなく有効
である。LSP係数以外を利用する場合は、スペクトル
分析部2及びスペクトル符号化部3を、その係数に応じ
た分析又は量子化処理を行う処理モジュールに変更する
だけでよく、その他の部分については上記構成と同様で
よい。
ームのデータから現フレームのLSP係数を予測する方
法としてMA予測を用いたが、これに限らず、AR(Aut
o Regressive)予測や、前フレームとの差分による予測
方式を用いてもよい。また、以上の構成においては、C
ELP方式における量子化対象となるスペクトルパラメ
ータとしてLSP係数を用いたが、これに限らず、例え
ば線形予測係数、PARCOR係数、ケプストラム係数
など他の係数を用いてもよい。すなわち、本実施形態の
手法は、どのパラメータを用いるかにかかわりなく有効
である。LSP係数以外を利用する場合は、スペクトル
分析部2及びスペクトル符号化部3を、その係数に応じ
た分析又は量子化処理を行う処理モジュールに変更する
だけでよく、その他の部分については上記構成と同様で
よい。
【0072】例えば、線形予測係数を利用するシステム
構成では、音声符号化装置において、LSP符号を求め
るスペクトル分析部2の代わりに、入力音声を線形予測
分析して線形予測係数を求める線形予測分析部を設けれ
ばよい。また、LSP係数を量子化するスペクトル符号
化部3の代わりに、線形予測係数を量子化して合成フィ
ルタ4に入力し、その量子化した線形予測係数を符号化
して多重化処理部8に出力する線形予測係数符号化部を
設ければよい。また、音声復号化装置においては、符号
化されたLSP係数の復号化及び線形予測係数への変換
を行うスペクトル復号化部10の代わりに、符号化され
た線形予測係数を復号化する線形予測係数復号化部を設
ければよい。
構成では、音声符号化装置において、LSP符号を求め
るスペクトル分析部2の代わりに、入力音声を線形予測
分析して線形予測係数を求める線形予測分析部を設けれ
ばよい。また、LSP係数を量子化するスペクトル符号
化部3の代わりに、線形予測係数を量子化して合成フィ
ルタ4に入力し、その量子化した線形予測係数を符号化
して多重化処理部8に出力する線形予測係数符号化部を
設ければよい。また、音声復号化装置においては、符号
化されたLSP係数の復号化及び線形予測係数への変換
を行うスペクトル復号化部10の代わりに、符号化され
た線形予測係数を復号化する線形予測係数復号化部を設
ければよい。
【0073】図3は、この実施の形態1による効果を説
明するための図であり、語頭部分を含む入力音声から符
号化・復号化の各段階で生成され処理される信号の波形
を示している。図3において、(a)は語頭部分を含む
入力音声の波形であり、バッファ20及び21に蓄積可
能なデータ量に相当する長さが図示されている。同図
(b)はこの入力音声をバッファ20にて時間的に逆方
向に並べ換えて得られる逆方向入力音声の波形であり、
(c)は(b)の逆方向入力音声をCELP符号化した
ときの音源信号の波形である。また、(d)は(b)の
逆方向入力音声の符号化データを音声復号化部10で復
号化した結果得られる逆方向復号化音声の波形であり、
(e)は(d)の逆方向復号化音声をバッファ21にて
時間的に順方向に並べ換えて得られる復号化音声の波形
である。
明するための図であり、語頭部分を含む入力音声から符
号化・復号化の各段階で生成され処理される信号の波形
を示している。図3において、(a)は語頭部分を含む
入力音声の波形であり、バッファ20及び21に蓄積可
能なデータ量に相当する長さが図示されている。同図
(b)はこの入力音声をバッファ20にて時間的に逆方
向に並べ換えて得られる逆方向入力音声の波形であり、
(c)は(b)の逆方向入力音声をCELP符号化した
ときの音源信号の波形である。また、(d)は(b)の
逆方向入力音声の符号化データを音声復号化部10で復
号化した結果得られる逆方向復号化音声の波形であり、
(e)は(d)の逆方向復号化音声をバッファ21にて
時間的に順方向に並べ換えて得られる復号化音声の波形
である。
【0074】この実施の形態では、逆方向入力音声に対
して符号化処理を施している。この処理は、未来の信号
から過去の信号を予測する処理といえる。すなわち、符
号化処理は、図3(b)に示すように、有声音(この有
声音は、時間的に言えば語頭部分の後に続く部分であ
る)の部分から語頭部分へと、時間的に見れば逆方向に
進行していく。このように語頭部分の前に有声音部分が
処理されるので、音源信号においては、図3(c)に示
すように、語頭部分の前にはピッチ周期性とピッチピー
クが現れる。語頭部分の音源信号は、このピッチ周期性
とピッチピークのある未来時刻の音源信号に基づき生成
されるので、図3(c)に示すように、音源信号の語頭
部分におけるピッチ周期性とピッチピークがよく再生さ
れる。このように、音源信号において語頭部分の直前か
ら語頭部分にかけてピッチ周期性とピッチピークがよく
再生されているので、これに基づき得られる復号結果
(すなわち逆方向復号化音声)には、(d)に示すよう
に語頭部分にピッチ周期性が良く現れている。この逆方
向復号化音声をバッファ21により逆向き(すなわち時
間的に順方向)に並べ換えることにより、結果的に
(e)に示すような語頭部分の品質が良い復号化音声が
得られる。
して符号化処理を施している。この処理は、未来の信号
から過去の信号を予測する処理といえる。すなわち、符
号化処理は、図3(b)に示すように、有声音(この有
声音は、時間的に言えば語頭部分の後に続く部分であ
る)の部分から語頭部分へと、時間的に見れば逆方向に
進行していく。このように語頭部分の前に有声音部分が
処理されるので、音源信号においては、図3(c)に示
すように、語頭部分の前にはピッチ周期性とピッチピー
クが現れる。語頭部分の音源信号は、このピッチ周期性
とピッチピークのある未来時刻の音源信号に基づき生成
されるので、図3(c)に示すように、音源信号の語頭
部分におけるピッチ周期性とピッチピークがよく再生さ
れる。このように、音源信号において語頭部分の直前か
ら語頭部分にかけてピッチ周期性とピッチピークがよく
再生されているので、これに基づき得られる復号結果
(すなわち逆方向復号化音声)には、(d)に示すよう
に語頭部分にピッチ周期性が良く現れている。この逆方
向復号化音声をバッファ21により逆向き(すなわち時
間的に順方向)に並べ換えることにより、結果的に
(e)に示すような語頭部分の品質が良い復号化音声が
得られる。
【0075】図4はこの実施形態による他の効果を示す
説明図であり、2つのCV(Consonant+Vowel:子音+母
音)で構成される2音節の入力音声のパワーの時間変化
を示している。同図において、時間軸の下に示される記
号a,b,c等は、フレーム毎のスペクトル特徴を示す
記号である。また、その下には、フレーム毎のスペクト
ルの順方向のMA予測誤差及び逆方向のMA予測誤差の
大小が示されている。スペクトル特徴を示す記号につい
ては、フレーム間でスペクトルが類似している場合は、
同じ記号にダッシュを付けてそれぞれを区別する。例え
ば、記号d、d’及びd”で示される各フレームは、ス
ペクトルが互いに類似している。一方、スペクトル特徴
が異なる場合は、異なる記号を与えてスペクトルの差異
を表現している。例えば、記号cで示されるフレーム
と、記号dで示されるフレームとはスペクトルが類似し
ていない。
説明図であり、2つのCV(Consonant+Vowel:子音+母
音)で構成される2音節の入力音声のパワーの時間変化
を示している。同図において、時間軸の下に示される記
号a,b,c等は、フレーム毎のスペクトル特徴を示す
記号である。また、その下には、フレーム毎のスペクト
ルの順方向のMA予測誤差及び逆方向のMA予測誤差の
大小が示されている。スペクトル特徴を示す記号につい
ては、フレーム間でスペクトルが類似している場合は、
同じ記号にダッシュを付けてそれぞれを区別する。例え
ば、記号d、d’及びd”で示される各フレームは、ス
ペクトルが互いに類似している。一方、スペクトル特徴
が異なる場合は、異なる記号を与えてスペクトルの差異
を表現している。例えば、記号cで示されるフレーム
と、記号dで示されるフレームとはスペクトルが類似し
ていない。
【0076】音声のスペクトルは一般に音節の始めの部
分で変化が大きく、その後定常母音が現れ変化が少なく
なり音節の終わりで変化が大きくなる。図4にはこの様
子が模式的に示されている。なお人間の聴覚は音節の始
めのスペクトル変化の大きい部分を聞いて音韻を判断す
るので、この部分は聴覚上非常に重要である。このよう
な音節の先頭部分では、スペクトルの特徴がフレーム間
で大きく相違するため、従来の手法ではMA予測誤差が
大きくなって量子化効率が劣化し、その結果良好な復号
音声が得られなかった。
分で変化が大きく、その後定常母音が現れ変化が少なく
なり音節の終わりで変化が大きくなる。図4にはこの様
子が模式的に示されている。なお人間の聴覚は音節の始
めのスペクトル変化の大きい部分を聞いて音韻を判断す
るので、この部分は聴覚上非常に重要である。このよう
な音節の先頭部分では、スペクトルの特徴がフレーム間
で大きく相違するため、従来の手法ではMA予測誤差が
大きくなって量子化効率が劣化し、その結果良好な復号
音声が得られなかった。
【0077】これに対し、この実施の形態では、未来の
信号から過去の信号を予測する処理を行っているので、
図4の逆方向のMA予測誤差が(1)式における量子化
すべき目的ベクトルLiとなる。そして、図4の矢印で
示す音節先頭部分のフレーム60a及び60bにおける
逆方向のMA予測誤差は、予測が未来の定常母音からな
されるので、値が順方向のMA予測誤差より小さくな
る。このため、この実施の形態では、音節の先頭部分に
ついて効率的な量子化が行え、誤差の少ない量子化LS
P係数が得られる。このように音節の始めの部分で量子
化誤差の少ないLSP係数が得られるので、結果的に音
節の先頭の部分の復号音声のスペクトル特性が良好にな
る。
信号から過去の信号を予測する処理を行っているので、
図4の逆方向のMA予測誤差が(1)式における量子化
すべき目的ベクトルLiとなる。そして、図4の矢印で
示す音節先頭部分のフレーム60a及び60bにおける
逆方向のMA予測誤差は、予測が未来の定常母音からな
されるので、値が順方向のMA予測誤差より小さくな
る。このため、この実施の形態では、音節の先頭部分に
ついて効率的な量子化が行え、誤差の少ない量子化LS
P係数が得られる。このように音節の始めの部分で量子
化誤差の少ないLSP係数が得られるので、結果的に音
節の先頭の部分の復号音声のスペクトル特性が良好にな
る。
【0078】このように、実施の形態1によれば、入力
音声を時間的に逆方向に並べ換えるためのバッファ20
を音声符号化装置に設け、これによって得られた逆方向
入力音声に対してCELP符号化における音源符号化を
施すため、語頭部分においてもピッチ周期性とピッチピ
ークのある音源信号を得ることができ、復号化において
語頭部分を高い品質で復号化することができる。また、
逆方向入力音声に対して過去のLSP係数からの予測を
伴うLSP係数符号化処理を行うので、フレーム間のス
ペクトルの相関が少ない音節の先頭部分において、良好
なスペクトル特性を得ることができる。そして、この復
号化音声をバッファ21で逆向きに並べ換えて出力する
ことにより、語頭部分や音節の先頭部分で品質のよい順
方向の復号化音声を得ることができる。
音声を時間的に逆方向に並べ換えるためのバッファ20
を音声符号化装置に設け、これによって得られた逆方向
入力音声に対してCELP符号化における音源符号化を
施すため、語頭部分においてもピッチ周期性とピッチピ
ークのある音源信号を得ることができ、復号化において
語頭部分を高い品質で復号化することができる。また、
逆方向入力音声に対して過去のLSP係数からの予測を
伴うLSP係数符号化処理を行うので、フレーム間のス
ペクトルの相関が少ない音節の先頭部分において、良好
なスペクトル特性を得ることができる。そして、この復
号化音声をバッファ21で逆向きに並べ換えて出力する
ことにより、語頭部分や音節の先頭部分で品質のよい順
方向の復号化音声を得ることができる。
【0079】実施の形態2.この発明の実施の形態2に
係る音声符号化復号化システムは、実施の形態1に示し
たバッファを利用する手法を、いわゆる音声分析合成手
法による音声符号化・復号化を行うシステムに適用した
ものであり、図5に示す音声符号化装置と図6に示す音
声復号化装置とから構成される。すなわち、実施の形態
1では、CELP方式の音声符号化復号化に対するこの
発明の適用例を説明したが、この実施の形態2では、音
声分析合成手法を例にとり、この発明がCELP方式以
外の音声符号化復号化方式を利用するシステムにも適用
可能であることを示す。なお、図5、図6において、図
1と図2の構成要素と同様の構成要素については、同一
の符号を付してその説明を省略する。
係る音声符号化復号化システムは、実施の形態1に示し
たバッファを利用する手法を、いわゆる音声分析合成手
法による音声符号化・復号化を行うシステムに適用した
ものであり、図5に示す音声符号化装置と図6に示す音
声復号化装置とから構成される。すなわち、実施の形態
1では、CELP方式の音声符号化復号化に対するこの
発明の適用例を説明したが、この実施の形態2では、音
声分析合成手法を例にとり、この発明がCELP方式以
外の音声符号化復号化方式を利用するシステムにも適用
可能であることを示す。なお、図5、図6において、図
1と図2の構成要素と同様の構成要素については、同一
の符号を付してその説明を省略する。
【0080】実施の形態1の構成と比較してこの実施の
形態2に特有の構成は、音声符号化装置の音声符号化部
15の音源符号化部52と音声復号化部16の音源復号
化部53である。
形態2に特有の構成は、音声符号化装置の音声符号化部
15の音源符号化部52と音声復号化部16の音源復号
化部53である。
【0081】音源符号化部52は音声分析合成手法によ
る音声符号化・復号化を行う際の音源情報抽出と符号化
処理を行うものであり、バッファ20から入力された音
声サンプル列から、分析フレーム毎にその音声サンプル
列のピッチ周期と有声か無声かを示す有声/無声情報及
び音源のゲインを算出し、各々を量子化して符号化し多
重化処理部8に出力する。これらのパラメータの算出、
量子化には公知の方法を用いてよい。
る音声符号化・復号化を行う際の音源情報抽出と符号化
処理を行うものであり、バッファ20から入力された音
声サンプル列から、分析フレーム毎にその音声サンプル
列のピッチ周期と有声か無声かを示す有声/無声情報及
び音源のゲインを算出し、各々を量子化して符号化し多
重化処理部8に出力する。これらのパラメータの算出、
量子化には公知の方法を用いてよい。
【0082】音源復号化部53は音声分析合成手法によ
る音声符号化・復号化を行う際の音源情報の復号化処理
を行うものであり、まず分離処理部9から出力された符
号化されたピッチ周期と有声/無声判定情報及び音源ゲ
インを復号化する。次に、有声/無声情報が有声の場
合、ピッチ周期間隔で音源ゲインに応じた振幅のパルス
列を生成し、合成フィルタ14に出力する。また、有声
/無声情報が無声の場合、音源ゲインに応じた振幅の雑
音を生成し合成フィルタ14に出力する。合成フィルタ
14はこの音源復号化部53から出力されたピッチ周期
間隔のパルス列あるいは雑音と、スペクトル復号化部1
1で得られた線形予測係数を用いて復号化音声を生成
し、バッファ21に出力する。
る音声符号化・復号化を行う際の音源情報の復号化処理
を行うものであり、まず分離処理部9から出力された符
号化されたピッチ周期と有声/無声判定情報及び音源ゲ
インを復号化する。次に、有声/無声情報が有声の場
合、ピッチ周期間隔で音源ゲインに応じた振幅のパルス
列を生成し、合成フィルタ14に出力する。また、有声
/無声情報が無声の場合、音源ゲインに応じた振幅の雑
音を生成し合成フィルタ14に出力する。合成フィルタ
14はこの音源復号化部53から出力されたピッチ周期
間隔のパルス列あるいは雑音と、スペクトル復号化部1
1で得られた線形予測係数を用いて復号化音声を生成
し、バッファ21に出力する。
【0083】なお、以上の構成において、過去のフレー
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態2も、実施の形態1と同様、スペクトルパ
ラメータの種類によらず有効であり、LSP係数の代わ
りに線形予測係数、PARCOR係数、ケプストラム係
数などの他の係数を用いることが可能である。LSP以
外の係数を用いるシステムを構成するには、スペクトル
分析部2及びスペクトル符号化部3をその係数の種類に
合った分析又は量子化処理を行うモジュールに置き換え
ればよい。
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態2も、実施の形態1と同様、スペクトルパ
ラメータの種類によらず有効であり、LSP係数の代わ
りに線形予測係数、PARCOR係数、ケプストラム係
数などの他の係数を用いることが可能である。LSP以
外の係数を用いるシステムを構成するには、スペクトル
分析部2及びスペクトル符号化部3をその係数の種類に
合った分析又は量子化処理を行うモジュールに置き換え
ればよい。
【0084】このように、実施の形態2によれば、入力
音声を時間的に逆方向に並べ換えるためのバッファ20
を音声符号化装置に設け、これによって得られた逆方向
入力音声に対して逆方向入力音声に対してMA予測を伴
うLSP係数の符号化を行うので、音声分析合成手法に
よって音声符号化・復号化を行う場合にも、音節の始ま
りの部分において良好なスペクトル特性を得ることがで
きる。そして、この復号化結果をバッファ21で逆向き
に並べ換えて出力することにより、音節の始まりの部分
で品質のよい順方向の復号化音声を得ることができる。
音声を時間的に逆方向に並べ換えるためのバッファ20
を音声符号化装置に設け、これによって得られた逆方向
入力音声に対して逆方向入力音声に対してMA予測を伴
うLSP係数の符号化を行うので、音声分析合成手法に
よって音声符号化・復号化を行う場合にも、音節の始ま
りの部分において良好なスペクトル特性を得ることがで
きる。そして、この復号化結果をバッファ21で逆向き
に並べ換えて出力することにより、音節の始まりの部分
で品質のよい順方向の復号化音声を得ることができる。
【0085】以上の説明から明らかなように、入力音声
を時間的に逆方向に並べ換えるバッファ20と、復号化
結果を時間的に逆方向に並べ換えるバッファ21とを利
用する手法は、CELP方式以外の音声スペクトルを利
用する符号化復号化方式にも適用可能である。このよう
な方式としては、音声分析合成手法による符号化復号化
方式の他に、例えばAPC方式やMPC方式がある。
を時間的に逆方向に並べ換えるバッファ20と、復号化
結果を時間的に逆方向に並べ換えるバッファ21とを利
用する手法は、CELP方式以外の音声スペクトルを利
用する符号化復号化方式にも適用可能である。このよう
な方式としては、音声分析合成手法による符号化復号化
方式の他に、例えばAPC方式やMPC方式がある。
【0086】実施の形態3.この発明の実施の形態3に
係る音声符号化復号化システムは、図7に示す音声符号
化装置と図8に示す音声復号化装置とから構成される。
図7、図8において、図1と図2の構成要素と同様の構
成要素については、同一の符号を付してその説明を省略
する。
係る音声符号化復号化システムは、図7に示す音声符号
化装置と図8に示す音声復号化装置とから構成される。
図7、図8において、図1と図2の構成要素と同様の構
成要素については、同一の符号を付してその説明を省略
する。
【0087】この実施の形態3に特有の構成は、音声符
号化装置の音声符号化部1の前段、及び音声復号化装置
の音声復号化部10の後段に設けた双方向バッファ22
及び23と、音声符号化装置において最適音源探索部7
の後段に設けた比較制御部30である。
号化装置の音声符号化部1の前段、及び音声復号化装置
の音声復号化部10の後段に設けた双方向バッファ22
及び23と、音声符号化装置において最適音源探索部7
の後段に設けた比較制御部30である。
【0088】双方向バッファ22及び23は、蓄積した
音声サンプル列を蓄積時と同方向及び逆方向のいずれに
も出力可能なバッファである。
音声サンプル列を蓄積時と同方向及び逆方向のいずれに
も出力可能なバッファである。
【0089】図7の音声符号化装置において、双方向バ
ッファ22は、所定長の入力音声を蓄えると、まず蓄積
時と同方向、すなわち時間的に順方向に音声符号化部1
に出力する。この時間的に順方向の入力音声を順方向入
力音声と呼ぶ。音声符号化部1は、双方向バッファ22
から入力された順方向入力音声をCELP符号化する。
ここでの符号化処理(以下「順方向CELP符号化処
理」と呼ぶ)は、処理対象とする音声データの時間的な
方向が異なるだけで、実質的な処理内容は実施の形態1
で説明したものと同様である。この順方向CELP符号
化処理において、最適音源探索部7は、合成フィルタ4
にて生成された合成音声と双方向バッファ22からの順
方向入力音声との誤差を評価し、この誤差を最小とする
適応音源符号L、雑音音源符号I、適応音源利得β及び
雑音音源利得γを求め、これらの符号とこのときの最小
の誤差値(以下「順方向波形誤差」と呼ぶ)とを比較制
御部30に入力する。
ッファ22は、所定長の入力音声を蓄えると、まず蓄積
時と同方向、すなわち時間的に順方向に音声符号化部1
に出力する。この時間的に順方向の入力音声を順方向入
力音声と呼ぶ。音声符号化部1は、双方向バッファ22
から入力された順方向入力音声をCELP符号化する。
ここでの符号化処理(以下「順方向CELP符号化処
理」と呼ぶ)は、処理対象とする音声データの時間的な
方向が異なるだけで、実質的な処理内容は実施の形態1
で説明したものと同様である。この順方向CELP符号
化処理において、最適音源探索部7は、合成フィルタ4
にて生成された合成音声と双方向バッファ22からの順
方向入力音声との誤差を評価し、この誤差を最小とする
適応音源符号L、雑音音源符号I、適応音源利得β及び
雑音音源利得γを求め、これらの符号とこのときの最小
の誤差値(以下「順方向波形誤差」と呼ぶ)とを比較制
御部30に入力する。
【0090】以上の順方向入力音声についての処理が終
わると、次に双方向バッファ22は、蓄積している入力
音声を蓄積時の時系列と逆方向、すなわち時間的に逆方
向に音声符号化部1に出力する。音声符号化部1は、こ
のようにして得られた逆方向入力音声を順方向入力音声
の場合と同様にCELP符号化する(この符号化処理を
以下「逆方向CELP符号化処理」と呼ぶ)。この逆方
向CELP符号化処理において、最適音源探索部7は、
合成フィルタ4にて生成された合成音声と双方向バッフ
ァ22からの逆方向入力音声との誤差を評価し、この誤
差を最小とする適応音源符号L、雑音音源符号I、適応
音源利得β及び雑音音源利得γを求め、これらの符号と
このときの最小の誤差値(以下「逆方向波形誤差」と呼
ぶ)とを比較制御部30に入力する。
わると、次に双方向バッファ22は、蓄積している入力
音声を蓄積時の時系列と逆方向、すなわち時間的に逆方
向に音声符号化部1に出力する。音声符号化部1は、こ
のようにして得られた逆方向入力音声を順方向入力音声
の場合と同様にCELP符号化する(この符号化処理を
以下「逆方向CELP符号化処理」と呼ぶ)。この逆方
向CELP符号化処理において、最適音源探索部7は、
合成フィルタ4にて生成された合成音声と双方向バッフ
ァ22からの逆方向入力音声との誤差を評価し、この誤
差を最小とする適応音源符号L、雑音音源符号I、適応
音源利得β及び雑音音源利得γを求め、これらの符号と
このときの最小の誤差値(以下「逆方向波形誤差」と呼
ぶ)とを比較制御部30に入力する。
【0091】なお、以上では順方向符号化処理が終了し
てから逆方向符号化処理を開始していたが、例えばパイ
プライン処理を行えば、処理時間を短縮することができ
る。また、以上では順方向符号化処理の次に逆方向符号
化処理という順序で処理を行ったが、この順序は逆でも
よい。
てから逆方向符号化処理を開始していたが、例えばパイ
プライン処理を行えば、処理時間を短縮することができ
る。また、以上では順方向符号化処理の次に逆方向符号
化処理という順序で処理を行ったが、この順序は逆でも
よい。
【0092】比較制御部30は、順方向波形誤差と逆方
向波形誤差とを比較し、誤差値が小さい方の時間方向を
求める。そして、比較制御部30は、誤差値の小さい方
の時間方向についての各符号(雑音音源符号や適応音源
符号など)を多重化処理部8に出力するとともに、この
誤差値の小さい方の時間方向(すなわち順方向及び逆方
向のいずれか)を表す符号データ(「時間方向情報」と
呼ぶ)を多重化処理部8に出力する。
向波形誤差とを比較し、誤差値が小さい方の時間方向を
求める。そして、比較制御部30は、誤差値の小さい方
の時間方向についての各符号(雑音音源符号や適応音源
符号など)を多重化処理部8に出力するとともに、この
誤差値の小さい方の時間方向(すなわち順方向及び逆方
向のいずれか)を表す符号データ(「時間方向情報」と
呼ぶ)を多重化処理部8に出力する。
【0093】多重化処理部8は、スペクトル符号化部3
から入力された順方向及び逆方向についての各LSP係
数の符号のうち、比較処理部30から入力された時間方
向情報に適合する方の方向の符号を選択し、これと比較
処理部30から入力された各符号とを多重化して通信路
に送出する。
から入力された順方向及び逆方向についての各LSP係
数の符号のうち、比較処理部30から入力された時間方
向情報に適合する方の方向の符号を選択し、これと比較
処理部30から入力された各符号とを多重化して通信路
に送出する。
【0094】なお、以上の構成において、例えば語頭部
分に対して他の部分よりも大きな重みを付けて誤差の計
算を行えば、聴覚上重要な語頭部分の誤差が小さくなる
ような適切な符号化を実現することができる。
分に対して他の部分よりも大きな重みを付けて誤差の計
算を行えば、聴覚上重要な語頭部分の誤差が小さくなる
ような適切な符号化を実現することができる。
【0095】また、以上の音声符号化装置において、適
応音源符号帳5に蓄積される過去の音源信号のデータ及
び雑音音源符号帳6に蓄積される所定種類の雑音音源ベ
クトルは、時間的に順方向又は逆方向のいずれか一方の
方向に沿った系列となっている。例えば、それらデータ
が適応音源符号帳5及び雑音音源符号帳6に時間的に順
方向の系列で保持されている場合は、適応音源符号帳5
及び雑音音源符号帳6は、順方向符号化ではそれらのデ
ータをそのままの方向で出力し、逆方向符号化ではそれ
らのを逆向きに並べ換えて出力する。また、この場合、
適応音源符号帳5のデータ内容の更新は、順方向符号化
の場合は合成フィルタに4に入力した音源信号をそのま
ま符号帳に追加し、逆方向符号化の場合は合成フィルタ
4に入力した音声信号を逆向きに変換してから符号帳に
追加する。適応音源符号帳5は、比較制御部30で誤差
値が小さいと判定された時間方向についての音源信号を
上記のような処理により符号帳に追加する。なお、適応
音源符号帳5及び雑音音源符号帳6の保持データが時間
的に逆方向(すなわち実施の形態1と同様)の場合は、
逆方向符号化では保持データをそのまま用い、順方向符
号化では保持データを逆向きに用いればよい。
応音源符号帳5に蓄積される過去の音源信号のデータ及
び雑音音源符号帳6に蓄積される所定種類の雑音音源ベ
クトルは、時間的に順方向又は逆方向のいずれか一方の
方向に沿った系列となっている。例えば、それらデータ
が適応音源符号帳5及び雑音音源符号帳6に時間的に順
方向の系列で保持されている場合は、適応音源符号帳5
及び雑音音源符号帳6は、順方向符号化ではそれらのデ
ータをそのままの方向で出力し、逆方向符号化ではそれ
らのを逆向きに並べ換えて出力する。また、この場合、
適応音源符号帳5のデータ内容の更新は、順方向符号化
の場合は合成フィルタに4に入力した音源信号をそのま
ま符号帳に追加し、逆方向符号化の場合は合成フィルタ
4に入力した音声信号を逆向きに変換してから符号帳に
追加する。適応音源符号帳5は、比較制御部30で誤差
値が小さいと判定された時間方向についての音源信号を
上記のような処理により符号帳に追加する。なお、適応
音源符号帳5及び雑音音源符号帳6の保持データが時間
的に逆方向(すなわち実施の形態1と同様)の場合は、
逆方向符号化では保持データをそのまま用い、順方向符
号化では保持データを逆向きに用いればよい。
【0096】次に、図8の音声復号化装置においては、
まず分離処理部9が通信路から受信した多重化されたデ
ータを多重分離する。音声復号化部10は、分離処理部
9から受け取った各符号に基づき、CELP方式にて音
声の復号化を行う。この復号化処理においては、適応音
源符号帳12及び雑音音源符号帳13は、分離処理部9
で分離された時間方向情報に基づき、入力された各符号
の時間方向(順方向又は逆方向のいずれか)と同じ方向
の適応音源ベクトル及び雑音音源ベクトルを生成して出
力する。なお、適応音源符号帳12は、前述の適応音源
符号帳5と同様に、データの時間方向に応じた適切な方
法で更新される。そして、合成フィルタ14は、これら
各音源ベクトルと線形予測係数とに基づき、音声を合成
する。合成された音声は、時間方向情報に対応した向き
の時系列データとなっている。この合成音声は、双方向
バッファ23に蓄積される。双方向バッファ23は、音
声情報の蓄積量が所定量に達すると、その蓄積内容を分
離処理部9から受け取った時間方向情報に応じた向きに
出力する。すなわち、時間方向情報が順方向ならば、蓄
積内容を蓄積時と同方向に出力して復号化音声を得る。
また、時間方向情報が逆方向ならば、蓄積内容を蓄積時
とは逆方向に出力して復号化音声を得る。このような処
理により、最終的に時間の流れの方向に沿った順方向の
復号化音声を得ることができる。
まず分離処理部9が通信路から受信した多重化されたデ
ータを多重分離する。音声復号化部10は、分離処理部
9から受け取った各符号に基づき、CELP方式にて音
声の復号化を行う。この復号化処理においては、適応音
源符号帳12及び雑音音源符号帳13は、分離処理部9
で分離された時間方向情報に基づき、入力された各符号
の時間方向(順方向又は逆方向のいずれか)と同じ方向
の適応音源ベクトル及び雑音音源ベクトルを生成して出
力する。なお、適応音源符号帳12は、前述の適応音源
符号帳5と同様に、データの時間方向に応じた適切な方
法で更新される。そして、合成フィルタ14は、これら
各音源ベクトルと線形予測係数とに基づき、音声を合成
する。合成された音声は、時間方向情報に対応した向き
の時系列データとなっている。この合成音声は、双方向
バッファ23に蓄積される。双方向バッファ23は、音
声情報の蓄積量が所定量に達すると、その蓄積内容を分
離処理部9から受け取った時間方向情報に応じた向きに
出力する。すなわち、時間方向情報が順方向ならば、蓄
積内容を蓄積時と同方向に出力して復号化音声を得る。
また、時間方向情報が逆方向ならば、蓄積内容を蓄積時
とは逆方向に出力して復号化音声を得る。このような処
理により、最終的に時間の流れの方向に沿った順方向の
復号化音声を得ることができる。
【0097】なお、以上の構成においては、過去のフレ
ームのデータから現フレームのLSP係数を予測する方
法としてMA予測を用いたが、これに限らずAR予測や
前フレームとの差分による予測など、他の予測方式を用
いてもよい。また、この実施の形態3も、実施の形態1
と同様、スペクトルパラメータの種類によらず有効であ
り、LSP係数の代わりに線形予測係数、PARCOR
係数、ケプストラム係数などの他の係数を用いることが
可能である。LSP以外の係数を用いるシステムを構成
するには、スペクトル分析部2及びスペクトル符号化部
3をその係数の種類に合った分析又は量子化処理を行う
モジュールに置き換えればよい。
ームのデータから現フレームのLSP係数を予測する方
法としてMA予測を用いたが、これに限らずAR予測や
前フレームとの差分による予測など、他の予測方式を用
いてもよい。また、この実施の形態3も、実施の形態1
と同様、スペクトルパラメータの種類によらず有効であ
り、LSP係数の代わりに線形予測係数、PARCOR
係数、ケプストラム係数などの他の係数を用いることが
可能である。LSP以外の係数を用いるシステムを構成
するには、スペクトル分析部2及びスペクトル符号化部
3をその係数の種類に合った分析又は量子化処理を行う
モジュールに置き換えればよい。
【0098】図9は、この実施の形態3における各処理
段階での信号波形を示す図である。図9において、
(a)は音声符号化装置に入力される順方向の入力音声
の波形の一例を示している。図示の時間幅は、双方向バ
ッファ22及び23の蓄積容量に対応するものである。
この例は、ピッチ周期性が途中で崩れる入力音声を示し
たものであり、このような入力音声では、ピッチ周期が
変化する区間100aの部分が聴覚的に重要となる場合
がある。図9において、(b)はこの順方向入力音声を
CELP符号化したときに生成される順方向の音源信号
の波形であり、区間101aは順方向入力音声の区間1
00aに対応する。また、(c)は入力音声を双方向バ
ッファ22によって時間的に逆方向に並べ換えて得られ
る逆方向入力音声の波形であり、区間100bは順方向
入力音声の区間100aに対応する。そして、(d)は
この逆方向入力音声をCELP符号化したときに生成さ
れる逆方向音源信号の波形であり、区間101bは順方
向入力音声の区間100aに対応する。
段階での信号波形を示す図である。図9において、
(a)は音声符号化装置に入力される順方向の入力音声
の波形の一例を示している。図示の時間幅は、双方向バ
ッファ22及び23の蓄積容量に対応するものである。
この例は、ピッチ周期性が途中で崩れる入力音声を示し
たものであり、このような入力音声では、ピッチ周期が
変化する区間100aの部分が聴覚的に重要となる場合
がある。図9において、(b)はこの順方向入力音声を
CELP符号化したときに生成される順方向の音源信号
の波形であり、区間101aは順方向入力音声の区間1
00aに対応する。また、(c)は入力音声を双方向バ
ッファ22によって時間的に逆方向に並べ換えて得られ
る逆方向入力音声の波形であり、区間100bは順方向
入力音声の区間100aに対応する。そして、(d)は
この逆方向入力音声をCELP符号化したときに生成さ
れる逆方向音源信号の波形であり、区間101bは順方
向入力音声の区間100aに対応する。
【0099】図9の(a)に示した入力音声では、区間
100aの波形は、逆方向に見た場合よりも順方向に見
た場合の方が、直前の波形との類似度が大きい。したが
って、この区間にとっては図9(b)のような順方向に
ついての音源信号を生成した方が、図9(d)のような
逆方向の音源信号を生成するより良好な音源信号が得ら
れ、結果的に良好な音質の復号化音声が得られる。した
がって、比較制御部30で入力音声との誤差が小さい時
間方向を選び、その時間方向の符号を伝送することによ
り、常に誤差の小さい方の符号に基づき復号化音声を生
成することができ、品質の良い復号化音声を得ることが
できる。
100aの波形は、逆方向に見た場合よりも順方向に見
た場合の方が、直前の波形との類似度が大きい。したが
って、この区間にとっては図9(b)のような順方向に
ついての音源信号を生成した方が、図9(d)のような
逆方向の音源信号を生成するより良好な音源信号が得ら
れ、結果的に良好な音質の復号化音声が得られる。した
がって、比較制御部30で入力音声との誤差が小さい時
間方向を選び、その時間方向の符号を伝送することによ
り、常に誤差の小さい方の符号に基づき復号化音声を生
成することができ、品質の良い復号化音声を得ることが
できる。
【0100】図10はこの実施の形態による他の効果を
示す説明図であり、2つのCVで構成される2音節の入
力音声について、図4と同様のパワー、スペクトル特徴
の記号、スペクトルの順方向のMA予測誤差及び逆方向
のMA予測誤差の大小を示している。図10は、スペク
トルの変化が図4の例より複雑で、各音節の先頭部分
(図10では矢印62a、62bで示す)では逆方向よ
り順方向の方がMA予測誤差が少ない場合を示してい
る。この例では、矢印62a及び62bで示すフレーム
については、順方向でLSP係数を量子化した方が量子
化誤差の少ないLSP係数が得られる。
示す説明図であり、2つのCVで構成される2音節の入
力音声について、図4と同様のパワー、スペクトル特徴
の記号、スペクトルの順方向のMA予測誤差及び逆方向
のMA予測誤差の大小を示している。図10は、スペク
トルの変化が図4の例より複雑で、各音節の先頭部分
(図10では矢印62a、62bで示す)では逆方向よ
り順方向の方がMA予測誤差が少ない場合を示してい
る。この例では、矢印62a及び62bで示すフレーム
については、順方向でLSP係数を量子化した方が量子
化誤差の少ないLSP係数が得られる。
【0101】この実施の形態では、比較制御部30で入
力音声との誤差が小さい時間方向を選び、その時間方向
のLSP係数の符号を伝送しているので、常に量子化誤
差の小さい方の符号に基づき復号化音声を生成すること
ができ、スペクトル変化の複雑な音節先頭部分について
も復号音声のスペクトル特性が良好になり、ひいては高
品質の復号化音声を得ることができる。
力音声との誤差が小さい時間方向を選び、その時間方向
のLSP係数の符号を伝送しているので、常に量子化誤
差の小さい方の符号に基づき復号化音声を生成すること
ができ、スペクトル変化の複雑な音節先頭部分について
も復号音声のスペクトル特性が良好になり、ひいては高
品質の復号化音声を得ることができる。
【0102】以上説明したように、この実施の形態3に
よれば、語頭部分のみならず、ピッチ周期性が変化する
部分についても、良好な復号化音声を得ることができ
る。また、音節の始めの部分のスペクトルが複雑に変化
する部分についても良好な復号音声のスペクトル特性を
得ることができる。
よれば、語頭部分のみならず、ピッチ周期性が変化する
部分についても、良好な復号化音声を得ることができ
る。また、音節の始めの部分のスペクトルが複雑に変化
する部分についても良好な復号音声のスペクトル特性を
得ることができる。
【0103】実施の形態4.この発明の実施の形態4に
係る音声符号化復号化システムは、実施の形態3に係る
双方向バッファを利用する手法を、いわゆる音声分析合
成手法による音声符号化・復号化を行うシステムに適用
した例であり、図11に示す音声符号化装置と、図12
に示す音声復号化装置とから構成される。図11及び図
12において、それぞれ図7又は図5、図8又は図6の
構成要素と同様の構成要素については、同一の符号を付
してその説明を省略する。
係る音声符号化復号化システムは、実施の形態3に係る
双方向バッファを利用する手法を、いわゆる音声分析合
成手法による音声符号化・復号化を行うシステムに適用
した例であり、図11に示す音声符号化装置と、図12
に示す音声復号化装置とから構成される。図11及び図
12において、それぞれ図7又は図5、図8又は図6の
構成要素と同様の構成要素については、同一の符号を付
してその説明を省略する。
【0104】実施の形態3のシステム構成と比較してこ
の実施の形態4に特有の構成は、音声符号化装置の音声
符号化部15と比較制御部31、及び音声復号化部16
の音源復号化部53である。なお、これらのうち音源符
号化部52及び音源復号化部53は、実施の形態2で用
いたものと同様の機能を有する。
の実施の形態4に特有の構成は、音声符号化装置の音声
符号化部15と比較制御部31、及び音声復号化部16
の音源復号化部53である。なお、これらのうち音源符
号化部52及び音源復号化部53は、実施の形態2で用
いたものと同様の機能を有する。
【0105】図11の音声符号化装置においては、双方
向バッファ22は、蓄積している入力音声を、音声符号
化部15に対してまず順方向(すなわち蓄積時の時系列
と同じ方向に)に入力する。音声符号化部15は、入力
された順方向入力音声を音声分析合成手法によって符号
化する。ここでの符号化処理(以下「順方向分析合成符
号化処理」と呼ぶ)は、処理対象とする音声データの時
間的な方向が異なるだけで、実質的な処理内容は実施の
形態2で説明したものと同様である。
向バッファ22は、蓄積している入力音声を、音声符号
化部15に対してまず順方向(すなわち蓄積時の時系列
と同じ方向に)に入力する。音声符号化部15は、入力
された順方向入力音声を音声分析合成手法によって符号
化する。ここでの符号化処理(以下「順方向分析合成符
号化処理」と呼ぶ)は、処理対象とする音声データの時
間的な方向が異なるだけで、実質的な処理内容は実施の
形態2で説明したものと同様である。
【0106】この順方向分析合成符号化処理において、
スペクトル符号化部3は、既に説明しスペクトル算出な
どの処理に加え、LSP係数ωi(m)を量子化した時の量
子化誤差D(m)の計算処理を行う。この計算は次の
(3)式に基づき行われる。そして、スペクトル符号化
部3は、算出した量子化誤差を比較制御部31に入力す
る。なお、順方向で求めたこの量子化誤差を「順方向ス
ペクトル誤差」と呼ぶ。
スペクトル符号化部3は、既に説明しスペクトル算出な
どの処理に加え、LSP係数ωi(m)を量子化した時の量
子化誤差D(m)の計算処理を行う。この計算は次の
(3)式に基づき行われる。そして、スペクトル符号化
部3は、算出した量子化誤差を比較制御部31に入力す
る。なお、順方向で求めたこの量子化誤差を「順方向ス
ペクトル誤差」と呼ぶ。
【0107】
【数5】 また音源符号化部52は、求めたピッチ周期、音源ゲイ
ン、有声/無声情報の各符号を比較制御部31に入力す
る。
ン、有声/無声情報の各符号を比較制御部31に入力す
る。
【0108】以上の順方向入力音声についての処理が終
わると、次に双方向バッファ22は、蓄積している入力
音声を蓄積時の時系列と逆方向、すなわち時間的に逆方
向に音声符号化部15に出力する。音声符号化部15
は、このようにして得られた逆方向入力音声を順方向入
力音声の場合と同様に音声分析合成符号化する(この符
号化処理を以下「逆方向分析合成符号化処理」と呼
ぶ)。この逆方向分析合成符号化処理において、スペク
トル符号化部3は、LSP係数ωiを量子化した時の量
子化誤差D(m)を上記(3)式で計算し、比較制御部3
1に入力する。逆方向で求めたこの量子化誤差を「逆方
向スペクトル誤差」と呼ぶ。また音源符号化部52はピ
ッチ周期、音源ゲイン、有声/無声情報の各符号を求
め、それらを比較制御部31に入力する。
わると、次に双方向バッファ22は、蓄積している入力
音声を蓄積時の時系列と逆方向、すなわち時間的に逆方
向に音声符号化部15に出力する。音声符号化部15
は、このようにして得られた逆方向入力音声を順方向入
力音声の場合と同様に音声分析合成符号化する(この符
号化処理を以下「逆方向分析合成符号化処理」と呼
ぶ)。この逆方向分析合成符号化処理において、スペク
トル符号化部3は、LSP係数ωiを量子化した時の量
子化誤差D(m)を上記(3)式で計算し、比較制御部3
1に入力する。逆方向で求めたこの量子化誤差を「逆方
向スペクトル誤差」と呼ぶ。また音源符号化部52はピ
ッチ周期、音源ゲイン、有声/無声情報の各符号を求
め、それらを比較制御部31に入力する。
【0109】なお、以上では順方向分析合成符号化処理
が終了してから逆方向分析合成符号化処理を開始してい
たが、例えばパイプライン処理を行えば、処理時間を短
縮することができる。また、以上では順方向の符号化処
理の次に逆方向の符号化処理という順序で処理を行った
が、この順序は逆でもよい。
が終了してから逆方向分析合成符号化処理を開始してい
たが、例えばパイプライン処理を行えば、処理時間を短
縮することができる。また、以上では順方向の符号化処
理の次に逆方向の符号化処理という順序で処理を行った
が、この順序は逆でもよい。
【0110】比較制御部31は、順方向スペクトル誤差
と逆方向スペクトル誤差とを比較し、誤差値が小さい方
の時間方向を求める。そして、比較制御部31は、スペ
クトル符号化部3及び音源符号化部52から得た順方向
及び逆方向の各符号うち、誤差値の小さい方の時間方向
についての各符号(ピッチ周期、音源ゲイン等)を多重
化処理部8に出力するとともに、この誤差値の小さい方
の時間方向(すなわち順方向及び逆方向のいずれか)を
表す符号データ(すなわち時間方向情報)を多重化処理
部8に出力する。
と逆方向スペクトル誤差とを比較し、誤差値が小さい方
の時間方向を求める。そして、比較制御部31は、スペ
クトル符号化部3及び音源符号化部52から得た順方向
及び逆方向の各符号うち、誤差値の小さい方の時間方向
についての各符号(ピッチ周期、音源ゲイン等)を多重
化処理部8に出力するとともに、この誤差値の小さい方
の時間方向(すなわち順方向及び逆方向のいずれか)を
表す符号データ(すなわち時間方向情報)を多重化処理
部8に出力する。
【0111】多重化処理部8は、スペクトル符号化部3
から入力された順方向及び逆方向についての各LSP係
数の符号のうち、比較制御部31から入力された時間方
向情報に適合する方の方向の符号を選択し、これと比較
制御部31から入力された各符号とを多重化して通信路
に送出する。
から入力された順方向及び逆方向についての各LSP係
数の符号のうち、比較制御部31から入力された時間方
向情報に適合する方の方向の符号を選択し、これと比較
制御部31から入力された各符号とを多重化して通信路
に送出する。
【0112】次に、図12の音声復号化装置において
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部16は、分離処
理部9から受け取った各符号に基づき、音声分析合成方
式にて音声の復号化を行う。合成フィルタ14で生成さ
れた合成音声は、時間方向情報に対応した向きの時系列
データとなっている。この合成音声は、双方向バッファ
23に蓄積される。そして、双方向バッファ23は、音
声情報の蓄積量が所定量に達すると、それを分離処理部
9から受け取った時間方向情報に応じた方向に出力す
る。
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部16は、分離処
理部9から受け取った各符号に基づき、音声分析合成方
式にて音声の復号化を行う。合成フィルタ14で生成さ
れた合成音声は、時間方向情報に対応した向きの時系列
データとなっている。この合成音声は、双方向バッファ
23に蓄積される。そして、双方向バッファ23は、音
声情報の蓄積量が所定量に達すると、それを分離処理部
9から受け取った時間方向情報に応じた方向に出力す
る。
【0113】なお、以上の構成において、過去のフレー
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態4の構成でも、LSP係数の代わりに線形
予測係数、PARCOR係数、ケプストラム係数などの
他の係数を用いることが可能である。LSP以外の係数
を用いるシステムを構成するには、スペクトル分析部2
及びスペクトル符号化部3をその係数の種類に合った分
析又は量子化処理を行うモジュールに置き換えればよ
い。
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態4の構成でも、LSP係数の代わりに線形
予測係数、PARCOR係数、ケプストラム係数などの
他の係数を用いることが可能である。LSP以外の係数
を用いるシステムを構成するには、スペクトル分析部2
及びスペクトル符号化部3をその係数の種類に合った分
析又は量子化処理を行うモジュールに置き換えればよ
い。
【0114】この実施の形態4では、比較制御部31で
スペクトル誤差が小さい時間方向を選び、その時間方向
のLSP係数の符号を伝送しているので、常に量子化誤
差の小さい方のLSP係数の符号に基づき復号化音声を
生成することができる。したがって、この実施の形態4
によれば、音声分析合成手法による音声符号化、復号化
においても、音節の先頭の部分のスペクトル特性が良好
な高品質の復号化音声を得ることができる。
スペクトル誤差が小さい時間方向を選び、その時間方向
のLSP係数の符号を伝送しているので、常に量子化誤
差の小さい方のLSP係数の符号に基づき復号化音声を
生成することができる。したがって、この実施の形態4
によれば、音声分析合成手法による音声符号化、復号化
においても、音節の先頭の部分のスペクトル特性が良好
な高品質の復号化音声を得ることができる。
【0115】以上の説明から明らかなように、双方向バ
ッファ22及び23を利用する手法は、CELP方式の
みならず、音声分析合成手法など、音声スペクトルを利
用する他の音声符号化復号化方式にも効果がある。
ッファ22及び23を利用する手法は、CELP方式の
みならず、音声分析合成手法など、音声スペクトルを利
用する他の音声符号化復号化方式にも効果がある。
【0116】実施の形態5.この発明の実施の形態5に
係る音声符号化復号化システムは、図13に示す音声符
号化装置と、図14に示す音声復号化装置とから構成さ
れる。図13、図14において、それぞれ図1又は図
7、図2又は図8の構成要素と同様の構成要素について
は、同一の符号を付してその説明を省略する。
係る音声符号化復号化システムは、図13に示す音声符
号化装置と、図14に示す音声復号化装置とから構成さ
れる。図13、図14において、それぞれ図1又は図
7、図2又は図8の構成要素と同様の構成要素について
は、同一の符号を付してその説明を省略する。
【0117】この実施の形態5に特有の構成は、音声符
号化装置のバッファ24及び有音/無音判定部40と、
音声復号化装置のバッファ25である。バッファ24及
び25は、蓄積した音声サンプル列を複数の区間に分け
て管理することが可能で、しかも各区間ごとに蓄積時と
同方向及び逆方向の双方向に音声サンプル列を出力する
ことが可能なバッファである。また、有音/無音判定部
40は、バッファ24に蓄積された音声サンプル列にお
いて、所定の長さのフレーム単位ごとに例えば音声パワ
ーを算出し、このパワー算出結果に基づき各フレームが
有音フレームか無音フレームかを判定する。すなわち、
有音/無音判定部40は、バッファ24の蓄積結果の先
頭から末尾までを複数のフレームに分割し、先頭から順
に各フレームが有音フレーム又は無音フレームのいずれ
かを判定し、各フレームに先頭から順に与えたフレーム
番号とその判定結果を示す符号を出力する。このように
して有音/無音判定部40から出力されるデータを有音
/無音情報と呼ぶ。なお、この実施の形態5において、
バッファ24、25及び有音/無音判定部40以外の構
成は、基本的に実施の形態3と同様でよい。
号化装置のバッファ24及び有音/無音判定部40と、
音声復号化装置のバッファ25である。バッファ24及
び25は、蓄積した音声サンプル列を複数の区間に分け
て管理することが可能で、しかも各区間ごとに蓄積時と
同方向及び逆方向の双方向に音声サンプル列を出力する
ことが可能なバッファである。また、有音/無音判定部
40は、バッファ24に蓄積された音声サンプル列にお
いて、所定の長さのフレーム単位ごとに例えば音声パワ
ーを算出し、このパワー算出結果に基づき各フレームが
有音フレームか無音フレームかを判定する。すなわち、
有音/無音判定部40は、バッファ24の蓄積結果の先
頭から末尾までを複数のフレームに分割し、先頭から順
に各フレームが有音フレーム又は無音フレームのいずれ
かを判定し、各フレームに先頭から順に与えたフレーム
番号とその判定結果を示す符号を出力する。このように
して有音/無音判定部40から出力されるデータを有音
/無音情報と呼ぶ。なお、この実施の形態5において、
バッファ24、25及び有音/無音判定部40以外の構
成は、基本的に実施の形態3と同様でよい。
【0118】図13の音声符号化装置において、バッフ
ァ24は、入力音声の音声サンプル列を所定長だけ蓄え
る。有音/無音判定部40は、バッファ24の音声蓄積
と並行して、バッファ24に1フレーム分の音声サンプ
ル列が蓄積されるごとに、そのフレームの例えば音声パ
ワーを計算し、その音声パワーが所定のしきい値を越え
た場合は有音フレーム、それ以外の無音フレームと判定
する。この判定結果を表す符号は、順番に多重化処理部
8及びバッファ24に入力される。
ァ24は、入力音声の音声サンプル列を所定長だけ蓄え
る。有音/無音判定部40は、バッファ24の音声蓄積
と並行して、バッファ24に1フレーム分の音声サンプ
ル列が蓄積されるごとに、そのフレームの例えば音声パ
ワーを計算し、その音声パワーが所定のしきい値を越え
た場合は有音フレーム、それ以外の無音フレームと判定
する。この判定結果を表す符号は、順番に多重化処理部
8及びバッファ24に入力される。
【0119】バッファ24は、所定長の入力音声のサン
プル列を蓄積するごとに、次のような出力処理を行う。
まず、蓄積結果の先頭のフレームから順に、各フレーム
ごとに有音/無音判定部40からの有音/無音情報を参
照し、そのフレームが有音フレーム、無音フレームのい
ずれであるかを判定する。そのフレームが無音フレーム
の場合は、そのフレームの音声サンプル列をそのまま
(すなわち蓄積時と同方向に)音声符号化部1に出力す
る。一方、そのフレームが有音フレームの場合は、有音
/無音情報を参照してそのフレームから次に無音フレー
ムが現れるまでの連続した有音フレーム群(1以上の有
音フレームの連続。以下「有音フレーム区間」と呼ぶ)
を求め、この有音フレーム区間の音声サンプル列を音声
符号化部1に供給する。このときバッファ24は、実施
の形態2の双方向バッファ22と同様、有音フレーム区
間の音声サンプル列については、音声符号化部1に対し
てまず蓄積時と同方向(すなわち時間的に順方向)に出
力し、次に逆方向に出力する。なお、有音フレーム区間
の出力が終わると、次は無音フレームなので、以下次に
有音フレームが現れるまでは、無音フレームがフレーム
単位で順方向にのみ出力される。
プル列を蓄積するごとに、次のような出力処理を行う。
まず、蓄積結果の先頭のフレームから順に、各フレーム
ごとに有音/無音判定部40からの有音/無音情報を参
照し、そのフレームが有音フレーム、無音フレームのい
ずれであるかを判定する。そのフレームが無音フレーム
の場合は、そのフレームの音声サンプル列をそのまま
(すなわち蓄積時と同方向に)音声符号化部1に出力す
る。一方、そのフレームが有音フレームの場合は、有音
/無音情報を参照してそのフレームから次に無音フレー
ムが現れるまでの連続した有音フレーム群(1以上の有
音フレームの連続。以下「有音フレーム区間」と呼ぶ)
を求め、この有音フレーム区間の音声サンプル列を音声
符号化部1に供給する。このときバッファ24は、実施
の形態2の双方向バッファ22と同様、有音フレーム区
間の音声サンプル列については、音声符号化部1に対し
てまず蓄積時と同方向(すなわち時間的に順方向)に出
力し、次に逆方向に出力する。なお、有音フレーム区間
の出力が終わると、次は無音フレームなので、以下次に
有音フレームが現れるまでは、無音フレームがフレーム
単位で順方向にのみ出力される。
【0120】音声符号化部1は、バッファ24から受け
取った音声サンプル列をCELP符号化する。このとき
無音フレームについては、そのまま順方向符号化処理を
行い、比較制御部30は、最適音源探索部7で生成され
た各符号データを、順方向を示す時間方向情報とともに
多重化処理部8に出力する。一方、有音フレーム区間に
ついては、バッファ24からの順方向及び逆方向の音声
サンプル列の供給に応じて、実施の形態3と同様に、順
方向CELP符号化処理及び逆方向CELP符号化処理
を順次実行する。したがって、有音フレーム区間につい
ては、比較制御部30には、最適音源探索部7から、各
有音フレーム区間ごとに、順方向処理によって求めた各
符号及び誤差と、逆方向処理よって求めた各符号及び誤
差とが入力される。この場合、比較制御部30は、実施
の形態3と同様に、各有音フレーム区間ごとに、誤差の
小さい時間方向を求め、その時間方向についての各符号
と、その時間方向を表す時間方向情報とを多重化処理部
8に出力する。
取った音声サンプル列をCELP符号化する。このとき
無音フレームについては、そのまま順方向符号化処理を
行い、比較制御部30は、最適音源探索部7で生成され
た各符号データを、順方向を示す時間方向情報とともに
多重化処理部8に出力する。一方、有音フレーム区間に
ついては、バッファ24からの順方向及び逆方向の音声
サンプル列の供給に応じて、実施の形態3と同様に、順
方向CELP符号化処理及び逆方向CELP符号化処理
を順次実行する。したがって、有音フレーム区間につい
ては、比較制御部30には、最適音源探索部7から、各
有音フレーム区間ごとに、順方向処理によって求めた各
符号及び誤差と、逆方向処理よって求めた各符号及び誤
差とが入力される。この場合、比較制御部30は、実施
の形態3と同様に、各有音フレーム区間ごとに、誤差の
小さい時間方向を求め、その時間方向についての各符号
と、その時間方向を表す時間方向情報とを多重化処理部
8に出力する。
【0121】多重化処理部8は、有音フレーム区間につ
いては、実施の形態3と同様に、誤差の少ない時間方向
についてのLSP係数の符号を選択し、この符号と比較
制御部30から入力された各符号、及び有音/無音判定
部40から入力された有音/無音情報とを多重化し、通
信路に送出する。また、多重化処理部8は、無音フレー
ムについては、LSP係数の符号、比較制御部30から
入力された各符号、及び有音/無音情報を多重化し、通
信路に送出する。
いては、実施の形態3と同様に、誤差の少ない時間方向
についてのLSP係数の符号を選択し、この符号と比較
制御部30から入力された各符号、及び有音/無音判定
部40から入力された有音/無音情報とを多重化し、通
信路に送出する。また、多重化処理部8は、無音フレー
ムについては、LSP係数の符号、比較制御部30から
入力された各符号、及び有音/無音情報を多重化し、通
信路に送出する。
【0122】なお、以上の符号化処理において、適応音
源符号帳5及び雑音音源符号帳6は、有音フレーム区間
については、実施の形態3と同様の動作を有音フレーム
区間を単位として実行する。すなわち、適応音源符号帳
5及び雑音音源符号帳6は、有音フレーム区間ごとに適
切な時間方向の音源ベクトルを出力し、適応音源符号帳
5の内容は有音フレーム区間ごとに実施の形態3と同様
の手順で更新される。なお、無音フレーム区間について
は、順方向処理しか行わないので、適応音源符号帳5及
び雑音音源符号帳6は従来と同様の処理を行えばよい。
源符号帳5及び雑音音源符号帳6は、有音フレーム区間
については、実施の形態3と同様の動作を有音フレーム
区間を単位として実行する。すなわち、適応音源符号帳
5及び雑音音源符号帳6は、有音フレーム区間ごとに適
切な時間方向の音源ベクトルを出力し、適応音源符号帳
5の内容は有音フレーム区間ごとに実施の形態3と同様
の手順で更新される。なお、無音フレーム区間について
は、順方向処理しか行わないので、適応音源符号帳5及
び雑音音源符号帳6は従来と同様の処理を行えばよい。
【0123】次に、図14の音声復号化装置において
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部10は、分離処
理部9から受け取った各符号を用いて、順次CELP復
号化処理を実行する。この復号化処理はデータが入力さ
れる順に行われるので、無音フレームについてはフレー
ムを単位として、有音フレームについては有音フレーム
区間を単位として復号化処理が行われることになる。こ
の復号化処理においては、適応音源符号帳12及び雑音
音源符号帳13は、実施の形態3と同様、時間方向情報
に基づき、入力された各符号の時間方向と同じ方向の適
応音源ベクトル及び雑音音源ベクトルを生成して出力す
る。適応音源符号帳12は、適応音源符号帳5と同様
に、データの時間方向に応じた適切な方法で更新され
る。そして、合成フィルタ14は、各無音フレームごと
及び各有音フレーム区間ごとに音声を合成し、この合成
音声をバッファ25に入力する。この実施の形態では、
バッファ25に入力される合成音声の時間方向は、無音
フレームについてはすべて同じ順方向であるが、有音フ
レーム区間については各々異なる。
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部10は、分離処
理部9から受け取った各符号を用いて、順次CELP復
号化処理を実行する。この復号化処理はデータが入力さ
れる順に行われるので、無音フレームについてはフレー
ムを単位として、有音フレームについては有音フレーム
区間を単位として復号化処理が行われることになる。こ
の復号化処理においては、適応音源符号帳12及び雑音
音源符号帳13は、実施の形態3と同様、時間方向情報
に基づき、入力された各符号の時間方向と同じ方向の適
応音源ベクトル及び雑音音源ベクトルを生成して出力す
る。適応音源符号帳12は、適応音源符号帳5と同様
に、データの時間方向に応じた適切な方法で更新され
る。そして、合成フィルタ14は、各無音フレームごと
及び各有音フレーム区間ごとに音声を合成し、この合成
音声をバッファ25に入力する。この実施の形態では、
バッファ25に入力される合成音声の時間方向は、無音
フレームについてはすべて同じ順方向であるが、有音フ
レーム区間については各々異なる。
【0124】バッファ25は、分離処理部9を介して受
け取った時間方向情報及び有音/無音情報を参照し、蓄
積した合成音声の音声サンプル列を適切な時間方向に従
って出力する。すなわち、バッファ25は、出力しよう
とするフレームが無音フレームである場合には、そのフ
レームの音声サンプル列を順方向に出力する。また、バ
ッファ25は、出力しようとするフレームが有音フレー
ムである場合は、そのフレームから始まる有音フレーム
区間の末尾までの音声サンプル列を、時間方向情報に示
される方向に応じた向きに出力する。すなわち、当該有
音フレーム区間の時間方向が順方向なら蓄積時と同方向
に出力し、逆方向なら蓄積時と逆方向に出力する。この
ような出力処理により、常に時間的に順方向の時系列の
復号化音声を得ることができる。
け取った時間方向情報及び有音/無音情報を参照し、蓄
積した合成音声の音声サンプル列を適切な時間方向に従
って出力する。すなわち、バッファ25は、出力しよう
とするフレームが無音フレームである場合には、そのフ
レームの音声サンプル列を順方向に出力する。また、バ
ッファ25は、出力しようとするフレームが有音フレー
ムである場合は、そのフレームから始まる有音フレーム
区間の末尾までの音声サンプル列を、時間方向情報に示
される方向に応じた向きに出力する。すなわち、当該有
音フレーム区間の時間方向が順方向なら蓄積時と同方向
に出力し、逆方向なら蓄積時と逆方向に出力する。この
ような出力処理により、常に時間的に順方向の時系列の
復号化音声を得ることができる。
【0125】なお、以上の構成において、過去のフレー
ムから現フレームのLSP係数を予測する方法としてM
A予測を用いたが、これに限らずAR予測や前フレーム
との差分による予測を用いてもよい。また、この実施の
形態5の構成でも、LSP係数の代わりに線形予測係
数、PARCOR係数、ケプストラム係数などの他の係
数を用いることが可能である。LSP以外の係数を用い
るシステムを構成するには、スペクトル分析部2及びス
ペクトル符号化部3をその係数の種類に合った分析又は
量子化処理を行うモジュールに置き換えればよい。
ムから現フレームのLSP係数を予測する方法としてM
A予測を用いたが、これに限らずAR予測や前フレーム
との差分による予測を用いてもよい。また、この実施の
形態5の構成でも、LSP係数の代わりに線形予測係
数、PARCOR係数、ケプストラム係数などの他の係
数を用いることが可能である。LSP以外の係数を用い
るシステムを構成するには、スペクトル分析部2及びス
ペクトル符号化部3をその係数の種類に合った分析又は
量子化処理を行うモジュールに置き換えればよい。
【0126】図15は、この実施の形態5の効果を説明
するための図である。図15において、(a)は説明の
ための一例として用いる入力音声の波形である。この波
形は、途中に一続きの有音の区間を有している。(a)
に示された領域は複数のフレームから構成され、A及び
Bは、それぞれ、これら複数のフレームの区切りのなか
の一つである。そして、(a)の波形の先頭から区切り
Bまでが連続した有音フレーム群、すなわち一つの有音
フレーム区間を構成しているとする。(b)は、(a)
の入力音声を区切りAのところまでで区切り、先頭から
この区切りAまでのフレーム群の音声サンプル列を時間
的に逆方向に出力した場合の波形である。すなわち、
(b)は、有音フレーム区間を仮に途中のフレームで区
切って符号化する場合の逆方向入力音声を示している。
(c)は、(b)の逆方向入力音声をCELP符号化し
たときに得られる逆方向の音源信号の波形を示し、
(d)はこの逆方向音源信号を用いてCELP復号化を
行った時に得られる時間的に順方向の復号化音声の波形
を示す。また、(e)は、(a)の波形の先頭から区切
りBまでの一連の有音フレーム区間を、バッファ24に
よって時間的に逆方向に出力した時に得られる逆方向入
力音声の波形を示す。そして、(f)は、(e)に示し
た有音フレーム区間単位の逆方向入力音声を、CELP
符号化したときに得られる逆方向音源信号の波形を示
し、(g)は、(f)の逆方向音源信号を用いてCEL
P復号化を行ったときに得られる時間的に順方向の復号
化音声の波形である。
するための図である。図15において、(a)は説明の
ための一例として用いる入力音声の波形である。この波
形は、途中に一続きの有音の区間を有している。(a)
に示された領域は複数のフレームから構成され、A及び
Bは、それぞれ、これら複数のフレームの区切りのなか
の一つである。そして、(a)の波形の先頭から区切り
Bまでが連続した有音フレーム群、すなわち一つの有音
フレーム区間を構成しているとする。(b)は、(a)
の入力音声を区切りAのところまでで区切り、先頭から
この区切りAまでのフレーム群の音声サンプル列を時間
的に逆方向に出力した場合の波形である。すなわち、
(b)は、有音フレーム区間を仮に途中のフレームで区
切って符号化する場合の逆方向入力音声を示している。
(c)は、(b)の逆方向入力音声をCELP符号化し
たときに得られる逆方向の音源信号の波形を示し、
(d)はこの逆方向音源信号を用いてCELP復号化を
行った時に得られる時間的に順方向の復号化音声の波形
を示す。また、(e)は、(a)の波形の先頭から区切
りBまでの一連の有音フレーム区間を、バッファ24に
よって時間的に逆方向に出力した時に得られる逆方向入
力音声の波形を示す。そして、(f)は、(e)に示し
た有音フレーム区間単位の逆方向入力音声を、CELP
符号化したときに得られる逆方向音源信号の波形を示
し、(g)は、(f)の逆方向音源信号を用いてCEL
P復号化を行ったときに得られる時間的に順方向の復号
化音声の波形である。
【0127】符号化・復号化をフレーム単位で行おうと
した場合において、図15の(a)のように入力音声を
有音フレーム区間の途中のパワーの大きい区間110に
フレームの区切りAが来たとする。ここで、入力音声を
この区切りAで区切り、例えば(b)に示すように時間
的に逆方向に直して符号化を行ったとすると、(c)に
示すように音源信号のピッチ周期とピッチピークがうま
く生成できない。このため、(c)の音源信号を用いて
求めた復号化音声(d)は、入力音声の区間110に対
応する区間111の音声品質が劣化する。有音の区間に
おいてパワーの大きい部分は聴覚上重要部分であり、そ
の部分の復号音声の品質劣化は聴覚上大きな問題を生
む。
した場合において、図15の(a)のように入力音声を
有音フレーム区間の途中のパワーの大きい区間110に
フレームの区切りAが来たとする。ここで、入力音声を
この区切りAで区切り、例えば(b)に示すように時間
的に逆方向に直して符号化を行ったとすると、(c)に
示すように音源信号のピッチ周期とピッチピークがうま
く生成できない。このため、(c)の音源信号を用いて
求めた復号化音声(d)は、入力音声の区間110に対
応する区間111の音声品質が劣化する。有音の区間に
おいてパワーの大きい部分は聴覚上重要部分であり、そ
の部分の復号音声の品質劣化は聴覚上大きな問題を生
む。
【0128】これに対し、入力音声(a)において一続
きの有音フレーム区間の末尾である区切りBまでを一つ
の単位とし、これを(e)に示すように時間的に逆方向
に直して符号化すると、音源信号(f)において前述の
区間110に対応する区間のピッチ周期及びピッチピー
クが良好に再生される。したがって、この音源信号
(f)を用いて求めた復号化音声(g)は、入力音声の
区間110に対応する区間112でも良好な品質が得ら
れる。
きの有音フレーム区間の末尾である区切りBまでを一つ
の単位とし、これを(e)に示すように時間的に逆方向
に直して符号化すると、音源信号(f)において前述の
区間110に対応する区間のピッチ周期及びピッチピー
クが良好に再生される。したがって、この音源信号
(f)を用いて求めた復号化音声(g)は、入力音声の
区間110に対応する区間112でも良好な品質が得ら
れる。
【0129】なお、図15では、時間的に逆方向に沿っ
た符号化についてのみ説明したが、順方向についての符
号化も本質的には同じであり、有音の区間の途中でフレ
ームが区切られてしまうと、フレーム単位の符号化では
復号化音声の品質が劣化してしまう。これに対して、こ
の実施の形態3によれば、無音フレームから次の無音フ
レームまでの一連の有音フレーム群を一つの有音フレー
ム区間にまとめ、この有音フレーム区間を単位として符
号化を行うので、符号化処理の区切りが音声パワーの大
きな箇所に来ることがない。このため、順方向符号化及
び逆方向符号化のいずれにおいてもピッチ周期及びピッ
チピークが良好に再生され、品質の良好な復号化音声を
得ることができる。
た符号化についてのみ説明したが、順方向についての符
号化も本質的には同じであり、有音の区間の途中でフレ
ームが区切られてしまうと、フレーム単位の符号化では
復号化音声の品質が劣化してしまう。これに対して、こ
の実施の形態3によれば、無音フレームから次の無音フ
レームまでの一連の有音フレーム群を一つの有音フレー
ム区間にまとめ、この有音フレーム区間を単位として符
号化を行うので、符号化処理の区切りが音声パワーの大
きな箇所に来ることがない。このため、順方向符号化及
び逆方向符号化のいずれにおいてもピッチ周期及びピッ
チピークが良好に再生され、品質の良好な復号化音声を
得ることができる。
【0130】図16はこの実施形態による他の効果を示
す説明図であり、1つのCVによる1音節の入力音声の
パワー、スペクトル特徴、スペクトルの逆方向のMA予
測誤差の大小を示している。図4と同様に、スペクトル
特徴は、類似したものについては同じ記号にダッシュを
付けて示し、類似しないもの同士は記号自体を別のもの
にすることにより区別している。図16において、
(a)は途中に一続きの有音の区間を有しており、A及
びBは、それぞれ、複数のフレームの区切りのなかの一
つである。そして、(a)の先頭から区切りBまでが連
続した有音フレーム群、すなわち一つの有音フレーム区
間を構成しているとする。(b)は、(a)の入力音声
を区切りAのところまでで区切ったものである。(c)
は、(a)の先頭から区切りBまでの一連の有音フレー
ム区間である。
す説明図であり、1つのCVによる1音節の入力音声の
パワー、スペクトル特徴、スペクトルの逆方向のMA予
測誤差の大小を示している。図4と同様に、スペクトル
特徴は、類似したものについては同じ記号にダッシュを
付けて示し、類似しないもの同士は記号自体を別のもの
にすることにより区別している。図16において、
(a)は途中に一続きの有音の区間を有しており、A及
びBは、それぞれ、複数のフレームの区切りのなかの一
つである。そして、(a)の先頭から区切りBまでが連
続した有音フレーム群、すなわち一つの有音フレーム区
間を構成しているとする。(b)は、(a)の入力音声
を区切りAのところまでで区切ったものである。(c)
は、(a)の先頭から区切りBまでの一連の有音フレー
ム区間である。
【0131】図16の(b)のように入力音声を音声パ
ワーの大きな有音区間の途中のAで区切り、区切りAを
開始点として逆方向MA予測を行うと、(b)で示すよう
に十分な長さの定常母音区間が含まれないので語頭部の
矢印64で示したフレームでの逆方向予測誤差は小さく
ならない。また区切りAの近傍の音声パワーの大きなフ
レームの逆方向予測誤差も大きい。従ってこれらの部分
では効率的なスペクトル量子化が行えず、復号化音声で
良好なスペクトル特性が得られない。
ワーの大きな有音区間の途中のAで区切り、区切りAを
開始点として逆方向MA予測を行うと、(b)で示すよう
に十分な長さの定常母音区間が含まれないので語頭部の
矢印64で示したフレームでの逆方向予測誤差は小さく
ならない。また区切りAの近傍の音声パワーの大きなフ
レームの逆方向予測誤差も大きい。従ってこれらの部分
では効率的なスペクトル量子化が行えず、復号化音声で
良好なスペクトル特性が得られない。
【0132】これに対し、(c)のように一続きの有音フ
レーム区間の末尾である区切りBまでを一つの単位と
し、区切りBを開始点として逆方向MA予測を行うと、
十分な定常母音区間が含まれるので、語頭の矢印64で
示したフレームでの逆方向MA予測誤差が小さくなり、
また音声パワーの大きな部分の逆方向MA予測誤差も小
さくなる。従ってこれらの部分で効率的なスペクトル量
子化が行えて、復号化音声のスペクトル特性が良好にな
る。
レーム区間の末尾である区切りBまでを一つの単位と
し、区切りBを開始点として逆方向MA予測を行うと、
十分な定常母音区間が含まれるので、語頭の矢印64で
示したフレームでの逆方向MA予測誤差が小さくなり、
また音声パワーの大きな部分の逆方向MA予測誤差も小
さくなる。従ってこれらの部分で効率的なスペクトル量
子化が行えて、復号化音声のスペクトル特性が良好にな
る。
【0133】なお、図16では、時間的に逆方向に沿っ
た符号化についてのみ説明したが、順方向についての符
号化も本質的には同じであり、有音の区間の途中でフレ
ームが区切られてしまうと、復号化音声のスペクトル特
性が劣化してしまう。これに対して、この実施の形態5
によれば、無音フレームから次の無音フレームまでの一
連の有音フレーム群を一つの有音フレーム区間にまと
め、この有音フレーム区間を単位として符号化を行うの
で、符号化処理の区切りが音声パワーが大きい有音区間
の途中に来ることがない。このため、順方向CELP符
号化及び逆方向CELP符号化のいずれにおいても良好
なスペクトル特性を持つ復号化音声を得ることができ
る。
た符号化についてのみ説明したが、順方向についての符
号化も本質的には同じであり、有音の区間の途中でフレ
ームが区切られてしまうと、復号化音声のスペクトル特
性が劣化してしまう。これに対して、この実施の形態5
によれば、無音フレームから次の無音フレームまでの一
連の有音フレーム群を一つの有音フレーム区間にまと
め、この有音フレーム区間を単位として符号化を行うの
で、符号化処理の区切りが音声パワーが大きい有音区間
の途中に来ることがない。このため、順方向CELP符
号化及び逆方向CELP符号化のいずれにおいても良好
なスペクトル特性を持つ復号化音声を得ることができ
る。
【0134】このように、上記実施の形態5によれば、
各フレームごとに有音、無音を判定し、有音フレームに
ついては一続きの有音フレーム区間を単位として符号化
・復号化を行うとともに、順方向CELP符号化及び逆
方向CELP符号化の結果のうち誤差の少ない方を選ん
で伝送するので、語頭部分や有音区間内のパワーの大き
い部分で良好なスペクトル特性を持つ品質の良い復号化
音声を得ることができる。
各フレームごとに有音、無音を判定し、有音フレームに
ついては一続きの有音フレーム区間を単位として符号化
・復号化を行うとともに、順方向CELP符号化及び逆
方向CELP符号化の結果のうち誤差の少ない方を選ん
で伝送するので、語頭部分や有音区間内のパワーの大き
い部分で良好なスペクトル特性を持つ品質の良い復号化
音声を得ることができる。
【0135】なお、以上の例では音声のパワーに基づき
有音フレーム、無音フレームの判定を行ったが、この判
定処理は、音声パワーを求める以外の他の方法で行って
もよい。
有音フレーム、無音フレームの判定を行ったが、この判
定処理は、音声パワーを求める以外の他の方法で行って
もよい。
【0136】実施の形態6.この発明の実施の形態6に
係る音声符号化復号化システムは、実施の形態5に示し
た有音/無音判定を利用する手法を、いわゆる音声分析
合成手法による音声符号化・復号化のシステムに適用し
た例であり、図17に示す音声符号化装置と、図18に示
す音声復号化装置とから構成される。図17及び図18に
おいて、それぞれ図13又は図11、図14又は図12
の構成要素と同様の構成要素については、同一の符号を
付して詳細な説明を省略する。
係る音声符号化復号化システムは、実施の形態5に示し
た有音/無音判定を利用する手法を、いわゆる音声分析
合成手法による音声符号化・復号化のシステムに適用し
た例であり、図17に示す音声符号化装置と、図18に示
す音声復号化装置とから構成される。図17及び図18に
おいて、それぞれ図13又は図11、図14又は図12
の構成要素と同様の構成要素については、同一の符号を
付して詳細な説明を省略する。
【0137】図17の音声符号化装置において、バッフ
ァ24は、実施の形態5と同様の処理によって音声符号
化部15に入力音声サンプル列を入力する。音声符号化
部15は、バッファ24から受け取った音声サンプル列
を音声分析合成手法により符号化する。このとき無音フ
レームについては、そのまま順方向符号化処理を行い、
比較制御部31は、音源符号化部52で生成された各符
号データを、順方向を示す時間方向情報とともに多重化
処理部8に出力する。一方、有音フレーム区間について
は、バッファ24からの順方向及び逆方向の音声サンプ
ル列の供給に応じて、実施の形態4と同様に、順方向分
析合成符号化処理及び逆方向分析合成符号化処理を順次
実行する。したがって、有音フレーム区間については、
比較制御部31には、音源符号化部15とスペクトル符
号化部3から、各有音フレーム区間ごとに、順方向処理
によってそれぞれ求めた各符号及び順方向スペクトル誤
差と、逆方向処理よって求めた各符号及び逆方向スペク
トル誤差とが入力される。この場合、比較制御部31
は、実施の形態4と同様に、各有音フレーム区間ごと
に、スペクトル誤差の小さい時間方向を求め、その時間
方向についての各符号と、その時間方向を表す時間方向
情報とを多重化処理部8に出力する。
ァ24は、実施の形態5と同様の処理によって音声符号
化部15に入力音声サンプル列を入力する。音声符号化
部15は、バッファ24から受け取った音声サンプル列
を音声分析合成手法により符号化する。このとき無音フ
レームについては、そのまま順方向符号化処理を行い、
比較制御部31は、音源符号化部52で生成された各符
号データを、順方向を示す時間方向情報とともに多重化
処理部8に出力する。一方、有音フレーム区間について
は、バッファ24からの順方向及び逆方向の音声サンプ
ル列の供給に応じて、実施の形態4と同様に、順方向分
析合成符号化処理及び逆方向分析合成符号化処理を順次
実行する。したがって、有音フレーム区間については、
比較制御部31には、音源符号化部15とスペクトル符
号化部3から、各有音フレーム区間ごとに、順方向処理
によってそれぞれ求めた各符号及び順方向スペクトル誤
差と、逆方向処理よって求めた各符号及び逆方向スペク
トル誤差とが入力される。この場合、比較制御部31
は、実施の形態4と同様に、各有音フレーム区間ごと
に、スペクトル誤差の小さい時間方向を求め、その時間
方向についての各符号と、その時間方向を表す時間方向
情報とを多重化処理部8に出力する。
【0138】多重化処理部8は、有音フレーム区間につ
いては、実施の形態4と同様に、誤差の少ない時間方向
についてのLSP係数の符号を選択し、この符号と比較
制御部31から入力された各符号、及び有音/無音判定
部40から入力された有音/無音情報とを多重化し、通
信路に送出する。また、多重化処理部8は、無音フレー
ムについては、LSP係数の符号、比較制御部31から
入力された各符号、及び有音/無音情報を多重化し、通
信路に送出する。
いては、実施の形態4と同様に、誤差の少ない時間方向
についてのLSP係数の符号を選択し、この符号と比較
制御部31から入力された各符号、及び有音/無音判定
部40から入力された有音/無音情報とを多重化し、通
信路に送出する。また、多重化処理部8は、無音フレー
ムについては、LSP係数の符号、比較制御部31から
入力された各符号、及び有音/無音情報を多重化し、通
信路に送出する。
【0139】次に、図18の音声復号化装置において
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部16は、分離処
理部9から受け取った各符号を用いて、順次分析合成復
号化処理を実行する。この復号化処理はデータが入力さ
れる順に行われるので、無音フレームについてはフレー
ムを単位として、有音フレームについては有音フレーム
区間を単位として復号化処理が行われることになる。合
成フィルタ14は、各無音フレームごと及び各有音フレ
ーム区間ごとに音声を合成し、この合成音声をバッファ
25に入力する。この実施の形態では、バッファ25に
入力される合成音声の時間方向は、無音フレームについ
てはすべて同じ順方向であるが、有音フレーム区間につ
いては各々異なる。そこで、バッファ25は、実施の形
態5と同様、分離処理部9を介して受け取った時間方向
情報及び有音/無音情報に基づき、蓄積した合成音声の
音声サンプル列を適切な時間方向に従って出力する。こ
の結果、常に時間的に順方向の時系列の復号化音声を得
ることができる。
は、まず分離処理部9が通信路から受信した多重化され
たデータを多重分離する。音声復号化部16は、分離処
理部9から受け取った各符号を用いて、順次分析合成復
号化処理を実行する。この復号化処理はデータが入力さ
れる順に行われるので、無音フレームについてはフレー
ムを単位として、有音フレームについては有音フレーム
区間を単位として復号化処理が行われることになる。合
成フィルタ14は、各無音フレームごと及び各有音フレ
ーム区間ごとに音声を合成し、この合成音声をバッファ
25に入力する。この実施の形態では、バッファ25に
入力される合成音声の時間方向は、無音フレームについ
てはすべて同じ順方向であるが、有音フレーム区間につ
いては各々異なる。そこで、バッファ25は、実施の形
態5と同様、分離処理部9を介して受け取った時間方向
情報及び有音/無音情報に基づき、蓄積した合成音声の
音声サンプル列を適切な時間方向に従って出力する。こ
の結果、常に時間的に順方向の時系列の復号化音声を得
ることができる。
【0140】なお、以上の構成において、過去のフレー
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態6の構成でも、LSP係数の代わりに線形
予測係数、PARCOR係数、ケプストラム係数などの
他の係数を用いることが可能である。LSP以外の係数
を用いるシステムを構成するには、スペクトル分析部2
及びスペクトル符号化部3をその係数の種類に合った分
析又は量子化処理を行うモジュールに置き換えればよ
い。
ムのデータから現フレームのLSP係数を予測する方法
としてMA予測を用いたが、これに限らずAR予測や前
フレームとの差分による予測を用いてもよい。また、こ
の実施の形態6の構成でも、LSP係数の代わりに線形
予測係数、PARCOR係数、ケプストラム係数などの
他の係数を用いることが可能である。LSP以外の係数
を用いるシステムを構成するには、スペクトル分析部2
及びスペクトル符号化部3をその係数の種類に合った分
析又は量子化処理を行うモジュールに置き換えればよ
い。
【0141】このように、上記実施の形態6によれば、
各フレームごとに有音、無音を判定し、有音フレームに
ついては一続きの有音フレーム区間を単位として符号化
・復号化を行うとともに、順方向分析合成符号化及び逆
方向分析合成符号化の結果のうちスペクトルの量子化誤
差の少ない方を選んで伝送するので、語頭部分や有音区
間内のパワーの大きい部分でも良好なスペクトル特性を
持つ品質の良い復号化音声を得ることができる。
各フレームごとに有音、無音を判定し、有音フレームに
ついては一続きの有音フレーム区間を単位として符号化
・復号化を行うとともに、順方向分析合成符号化及び逆
方向分析合成符号化の結果のうちスペクトルの量子化誤
差の少ない方を選んで伝送するので、語頭部分や有音区
間内のパワーの大きい部分でも良好なスペクトル特性を
持つ品質の良い復号化音声を得ることができる。
【0142】以上から明らかなように、有音/無音判定
を利用する手法は、CELP方式だけでなく、音声分析
合成手法など、音声スペクトルを利用した他の音声符号
化復号化方式にも適用可能である。
を利用する手法は、CELP方式だけでなく、音声分析
合成手法など、音声スペクトルを利用した他の音声符号
化復号化方式にも適用可能である。
【0143】
【発明の効果】以上説明したように、この発明に係る音
声符号化復号化システム、音声符号化装置及び音声復号
化装置によれば、音声符号化装置に入力音声を時間的に
逆方向に並べ換えるためのバッファを設け、これによっ
て得られた逆方向入力音声に対してCELP方式による
音源の符号化を行うので、語頭部分においても品質の良
い音源信号を得ることができ、復号化装置において高い
品質の語頭部分の復号化音声を得ることができる。
声符号化復号化システム、音声符号化装置及び音声復号
化装置によれば、音声符号化装置に入力音声を時間的に
逆方向に並べ換えるためのバッファを設け、これによっ
て得られた逆方向入力音声に対してCELP方式による
音源の符号化を行うので、語頭部分においても品質の良
い音源信号を得ることができ、復号化装置において高い
品質の語頭部分の復号化音声を得ることができる。
【0144】また、この発明に係る音声符号化復号化シ
ステム、音声符号化装置及び音声復号化装置によれば、
逆方向入力音声に対して過去のデータからの予測を伴う
スペクトルパラメータの符号化を行うので、音節の先頭
部分について良好なスペクトル特性を得ることができ
る。そして、音声復号化装置において復号化音声をバッ
ファで逆向きに並べ換えて出力することにより、語頭部
分を含む音節先頭部分について品質のよい順方向の復号
化音声を得ることができる。このように、この発明によ
れば、音声スペクトルを用いる音声符号化復号化システ
ムにおいて、音節先頭部分の品質のよい復号化音声を得
ることができる。
ステム、音声符号化装置及び音声復号化装置によれば、
逆方向入力音声に対して過去のデータからの予測を伴う
スペクトルパラメータの符号化を行うので、音節の先頭
部分について良好なスペクトル特性を得ることができ
る。そして、音声復号化装置において復号化音声をバッ
ファで逆向きに並べ換えて出力することにより、語頭部
分を含む音節先頭部分について品質のよい順方向の復号
化音声を得ることができる。このように、この発明によ
れば、音声スペクトルを用いる音声符号化復号化システ
ムにおいて、音節先頭部分の品質のよい復号化音声を得
ることができる。
【0145】また、この発明に係る音声符号化復号化シ
ステム、音声符号化装置及び音声復号化装置によれば、
音声符号化装置では双方向バッファの働きにより順方向
及び逆方向の入力音声に対しCELP方式による音源の
符号化を行い、これら各方向の符号化データのうち波形
誤差の小さい方を比較制御部で選択して出力し、音声復
号化装置において語頭部分のみならずピーク周期性が変
化する部分についても品質がよい復号化音声を得ること
ができる。
ステム、音声符号化装置及び音声復号化装置によれば、
音声符号化装置では双方向バッファの働きにより順方向
及び逆方向の入力音声に対しCELP方式による音源の
符号化を行い、これら各方向の符号化データのうち波形
誤差の小さい方を比較制御部で選択して出力し、音声復
号化装置において語頭部分のみならずピーク周期性が変
化する部分についても品質がよい復号化音声を得ること
ができる。
【0146】また、この発明に係る音声符号化復号化シ
ステム、音声符号化装置及び音声復号化装置によれば、
順方向及び逆方向入力音声に対して過去のデータからの
予測を伴うスペクトルパラメータの符号化を行うので、
音節の先頭部分のスペクトルが複雑に変化する場合につ
いても良好な復号音声のスペクトル特性を得ることがで
きる。そして、音声復号化装置においてバッファで復号
化音声を時間方向に合わせて出力制御することにより、
語頭部分や音節の始めの部分で品質のよい順方向の復号
化音声を得ることができる。したがって、この発明によ
れば、音声スペクトルを用いる音声符号化復号化システ
ムにおいて、音節の先頭部分の品質のよい復号音声を得
ることができる。
ステム、音声符号化装置及び音声復号化装置によれば、
順方向及び逆方向入力音声に対して過去のデータからの
予測を伴うスペクトルパラメータの符号化を行うので、
音節の先頭部分のスペクトルが複雑に変化する場合につ
いても良好な復号音声のスペクトル特性を得ることがで
きる。そして、音声復号化装置においてバッファで復号
化音声を時間方向に合わせて出力制御することにより、
語頭部分や音節の始めの部分で品質のよい順方向の復号
化音声を得ることができる。したがって、この発明によ
れば、音声スペクトルを用いる音声符号化復号化システ
ムにおいて、音節の先頭部分の品質のよい復号音声を得
ることができる。
【0147】また、この発明に係る音声符号化復号化シ
ステム、音声符号化装置及び音声復号化装置によれば、
入力音声をフレーム単位で符号化・復号化する場合にお
いて、有音フレームについては、一続きの有音フレーム
からなる有音フレーム区間を単位として符号化・復号化
を行うので、有音の区間の途中で区切って符号化・復号
化することがなくなり、語頭部分の品質が良くしかも有
音区間のパワーの大きい部分でも品質の良い復号化音声
を得ることができる。
ステム、音声符号化装置及び音声復号化装置によれば、
入力音声をフレーム単位で符号化・復号化する場合にお
いて、有音フレームについては、一続きの有音フレーム
からなる有音フレーム区間を単位として符号化・復号化
を行うので、有音の区間の途中で区切って符号化・復号
化することがなくなり、語頭部分の品質が良くしかも有
音区間のパワーの大きい部分でも品質の良い復号化音声
を得ることができる。
【0148】また、この発明に係る音声符号化復号化シ
ステム、音声符号化装置及び音声復号化装置によれば、
フレームごとに有音、無音を判定し、有音フレームにつ
いては一続きの有音フレーム区間を単位として時間的に
順方向及び逆方向の双方向に符号化を行い、それら両者
の復号化結果のうち量子化誤差の少ない方を選んで伝送
する。したがって、この発明によれば、音声スペクトル
を用いる音声符号化復号化システムにおいて、語頭部分
や有音区間内のパワーの大きい部分でも良好なスペクト
ル特性を持つ品質の良い復号化音声を得ることができ
る。
ステム、音声符号化装置及び音声復号化装置によれば、
フレームごとに有音、無音を判定し、有音フレームにつ
いては一続きの有音フレーム区間を単位として時間的に
順方向及び逆方向の双方向に符号化を行い、それら両者
の復号化結果のうち量子化誤差の少ない方を選んで伝送
する。したがって、この発明によれば、音声スペクトル
を用いる音声符号化復号化システムにおいて、語頭部分
や有音区間内のパワーの大きい部分でも良好なスペクト
ル特性を持つ品質の良い復号化音声を得ることができ
る。
【図1】 この発明の実施の形態1における音声符号化
装置の構成図である。
装置の構成図である。
【図2】 この発明の実施の形態1における音声復号化
装置の構成図である。
装置の構成図である。
【図3】 この発明の実施の形態1の効果を説明するた
めの図である。
めの図である。
【図4】 この発明の実施の形態1の効果を説明するた
めの図である。
めの図である。
【図5】 この発明の実施の形態2における音声符号化
装置の構成図である。
装置の構成図である。
【図6】 この発明の実施の形態2における音声復号化
装置の構成図である。
装置の構成図である。
【図7】 この発明の実施の形態3における音声符号化
装置の構成図である。
装置の構成図である。
【図8】 この発明の実施の形態3における音声復号化
装置の構成図である。
装置の構成図である。
【図9】 この発明の実施の形態3の効果を説明するた
めの図である。
めの図である。
【図10】 この発明の実施の形態3の効果を説明する
ための図である。
ための図である。
【図11】 この発明の実施の形態4における音声符号
化装置の構成図である。
化装置の構成図である。
【図12】 この発明の実施の形態4における音声復号
化装置の構成図である。
化装置の構成図である。
【図13】 この発明の実施の形態5における音声符号
化装置の構成図である。
化装置の構成図である。
【図14】 この発明の実施の形態5における音声復号
化装置の構成図である。
化装置の構成図である。
【図15】 この発明の実施の形態5の効果を説明する
ための図である。
ための図である。
【図16】 この発明の実施の形態5の効果を説明する
ための図である。
ための図である。
【図17】 この発明の実施の形態6における音声符号
化装置の構成図である。
化装置の構成図である。
【図18】 この発明の実施の形態6における音声復号
化装置の構成図である。
化装置の構成図である。
【図19】 従来の音声符号化装置の構成図である。
【図20】 従来の音声復号化装置の構成図である。
【図21】 適応音源ベクトルの生成方法を説明するた
めの図である。
めの図である。
【図22】 従来の音声符号化装置及び音声復号化装置
における問題点を説明するための図である。
における問題点を説明するための図である。
1 音声符号化部、2 スペクトル分析部、3 スペク
トル符号化部、4 合成フィルタ、5 適応音源符号
帳、6 雑音音源符号帳、7 最適音源探索部、8 多
重化処理部、9 分離処理部、10 音声復号化部、1
1 スペクトル復号化部、12 適応音源符号帳、13
雑音音源符号帳、14 合成フィルタ、15 音声符
号化部、 16 音声復号化部、20,21 バッフ
ァ、22,23 双方向バッファ、24、25 バッフ
ァ、30、31 比較制御部、40有音/無音判定部、
50,52 音源符号化部、51,53 音源復号化
部。
トル符号化部、4 合成フィルタ、5 適応音源符号
帳、6 雑音音源符号帳、7 最適音源探索部、8 多
重化処理部、9 分離処理部、10 音声復号化部、1
1 スペクトル復号化部、12 適応音源符号帳、13
雑音音源符号帳、14 合成フィルタ、15 音声符
号化部、 16 音声復号化部、20,21 バッフ
ァ、22,23 双方向バッファ、24、25 バッフ
ァ、30、31 比較制御部、40有音/無音判定部、
50,52 音源符号化部、51,53 音源復号化
部。
Claims (22)
- 【請求項1】 入力音声を符号駆動線形予測符号化方式
で符号化する音声符号化装置と、この音声符号化装置か
ら出力された符号化データを符号駆動線形予測復号化方
式で復号化して音声を再生する音声復号化装置と、を含
む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積した音声サンプル列を蓄積時とは逆方向に出力するバ
ッファと、 このバッファから出力された音声サンプル列に対し符号
駆動線形予測符号化式による符号化を行う音声符号化部
と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された音声符号化データを
符号駆動線形予測復号化方式によって音声に復号化する
音声復号化部と、 この音声復号化部での復号化により得られた音声サンプ
ル列を所定量蓄積するごとに、蓄積した音声サンプル列
を蓄積時とは逆方向に出力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項2】 入力音声の音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファと、 このバッファから出力された音声サンプル列に対し符号
駆動線形予測符号化式による符号化を行う音声符号化部
と、 を備えることを特徴とする音声符号化装置。 - 【請求項3】 符号化された音声データを符号駆動線形
予測復号化方式によって音声に復号化する音声復号化部
と、 この音声復号化部での復号化により得られた音声サンプ
ル列を所定量蓄積するごとに、蓄積した音声サンプル列
を蓄積時とは逆方向に出力するバッファと、 を備えることを特徴とする音声復号化装置。 - 【請求項4】 入力音声から音声スペクトルと音源情報
とを求めてそれぞれ符号化する音声符号化装置と、この
音声符号化装置から出力された符号化音声スペクトル及
び符号化音源情報を復号化し、この結果得られた音声ス
ペクトルと音源情報から音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積した音声サンプル列を蓄積時とは逆方向に出力するバ
ッファと、 このバッファから出力された音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された符号化音声スペクト
ルを、以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて復号化するスペクトル復号化部
と、 前記音声符号化装置から出力された符号化音源情報を復
号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報とから音声
を合成する合成フィルタと、 この合成フィルタで合成された音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を蓄積時とは
逆方向に出力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項5】 入力音声の音声サンプル列を所定量蓄積
するごとに、蓄積した音声サンプル列を蓄積時とは逆方
向に出力するバッファと、 このバッファから出力された音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、 を備えることを特徴とする音声符号化装置。 - 【請求項6】 符号化された音声スペクトルを、以前の
1又は複数のフレームの音声スペクトルによる予測処理
を用いて復号化するスペクトル復号化部と、 符号化された音源情報を復号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報とから音声
を合成する合成フィルタと、 この合成フィルタで合成された音声サンプル列を所定量
蓄積するごとに、蓄積した音声サンプル列を蓄積時とは
逆方向に出力するバッファと、 を備えることを特徴とする音声復号化装置。 - 【請求項7】 入力音声を符号駆動線形予測符号化方式
で符号化する音声符号化装置と、この音声符号化装置か
ら出力された符号化データを符号駆動線形予測復号化方
式で復号化して音声を再生する音声復号化装置と、を含
む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積結果の音声サンプル列を、蓄積時と同方向及び逆方向
にそれぞれ出力する双方向バッファと、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列を符号駆動
線形予測符号化方式で符号化するとともに、この符号化
処理に伴い内部的に生成される合成音声のサンプル列と
前記入力音声の音声サンプル列との誤差を算出する音声
符号化部と、 前記各方向についての前記誤差を比較し、前記音声符号
化部で求められた符号化データのうち前記誤差の小さい
方の方向についての符号化データを選択し、前記誤差の
小さい方の方向を示す時間方向情報とともに出力する比
較制御部と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された音声符号化データを
符号駆動線形予測復号化方式によって音声復号化する音
声復号化部と、 この音声復号化部での復号化により得られた音声サンプ
ル列を所定量蓄積するごとに、蓄積した音声サンプル列
を、前記音声符号化装置から受け取った時間方向情報に
応じた方向に出力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項8】 入力音声の音声サンプル列を所定量蓄積
するごとに、蓄積結果の音声サンプル列を、蓄積時と同
方向及び逆方向にそれぞれ出力する双方向バッファと、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列を符号駆動
線形予測符号化方式で符号化するとともに、この符号化
処理に伴い内部的に生成される合成音声のサンプル列と
前記入力音声の音声サンプル列との誤差を算出する音声
符号化部と、 前記各方向についての前記誤差を比較し、前記音声符号
化部で求められた符号化データのうち前記誤差の小さい
方の方向についての符号化データを選択し、前記誤差の
小さい方の方向を示す時間方向情報とともに出力する比
較制御部と、 を備えることを特徴とする音声符号化装置。 - 【請求項9】 符号化された音声データを符号駆動線形
予測復号化方式によって音声復号化する音声復号化部
と、 この音声復号化部での復号化により得られた音声サンプ
ル列を所定量蓄積するごとに、蓄積した音声サンプル列
を、受け取った時間方向情報に応じた方向に出力するバ
ッファと、 を備えることを特徴とする音声復号化装置。 - 【請求項10】 入力音声から音声スペクトルと音源情
報とを求めてそれぞれ符号化する音声符号化装置と、こ
の音声符号化装置から出力された符号化音声スペクトル
及び符号化音源情報を復号化し、この結果得られた音声
スペクトルと音源情報から音声を再生する音声復号化装
置と、を含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積結果の音声サンプル列を、蓄積時と同方向及び逆方向
にそれぞれ出力する双方向バッファと、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記双方向バッファから出力された音声サンプル列から
音源情報を求めて符号化し、この結果得られた符号化音
源情報と前記スペクトル符号化部で求められた符号化音
声スペクトルとから合成音声を合成し、この合成音声の
サンプル列と前記入力音声の音声サンプル列との誤差を
算出する音源符号化部と、 前記各方向についての前記誤差を比較し、前記スペクト
ル符号化部及び音源符号化部でそれぞれ求められた前記
同方向及び逆方向の符号化音声スペクトル及び符号化音
源情報のうち、前記誤差の小さい方の方向についての符
号化音声スペクトル及び符号化音源情報を選択し、前記
誤差の小さい方の方向を示す時間方向情報とともに出力
する比較制御部と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された符号化音声スペクト
ルを、以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて復号化するスペクトル復号化部
と、 前記音声符号化装置から出力された符号化音源情報を復
号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報とから音声
を合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を所定量蓄
積するごとに、蓄積した音声サンプル列を、前記音声符
号化装置から受け取った時間方向情報に応じた方向に出
力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項11】 入力音声の音声サンプル列を所定量蓄
積するごとに、蓄積結果の音声サンプル列を、蓄積時と
同方向及び逆方向にそれぞれ出力する双方向バッファ
と、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記双方向バッファから出力された音声サンプル列から
音源情報を求めて符号化し、この結果得られた符号化音
源情報と前記スペクトル符号化部で求められた符号化音
声スペクトルとから合成音声を合成し、この合成音声の
サンプル列と前記入力音声の音声サンプル列との誤差を
算出する音源符号化部と、 前記各方向についての前記誤差を比較し、前記スペクト
ル符号化部及び音源符号化部でそれぞれ求められた前記
同方向及び逆方向の符号化音声スペクトル及び符号化音
源情報のうち、前記誤差の小さい方の方向についての符
号化音声スペクトル及び符号化音源情報を選択し、前記
誤差の小さい方の方向を示す時間方向情報とともに出力
する比較制御部と、 を備えることを特徴とする音声符号化装置。 - 【請求項12】 符号化された音声スペクトルを、以前
の1又は複数のフレームの音声スペクトルによる予測処
理を用いて復号化するスペクトル復号化部と、 符号化された音源情報を復号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報とから音声
を合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を所定量蓄
積するごとに、蓄積した音声サンプル列を、前記符号化
された音声スペクトルと音源情報とに対応して受け取っ
た時間方向情報に応じた方向に出力するバッファと、 を備えることを特徴とする音声復号化装置。 - 【請求項13】 入力音声から音声スペクトルと音源情
報を求めてそれぞれ符号化する音声符号化装置と、この
音声符号化装置から出力された符号化音声スペクトル及
び符号化音源情報を復号化し、この結果得られた音声ス
ペクトルと音源情報から音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定量蓄積するごとに、蓄
積結果の音声サンプル列を、蓄積時と同方向及び逆方向
にそれぞれ出力する双方向バッファと、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化すると共に、この符号化処理の際
の音声スペクトルの量子化誤差を算出するスペクトル符
号化部と、 前記双方向バッファから出力された音声サンプル列から
音源情報を求めて符号化する音源符号化部と、 前記各方向についての前記量子化誤差を比較し、前記ス
ペクトル符号化部及び音源符号化部でそれぞれ求められ
た前記同方向及び逆方向の符号化音声スペクトル及び符
号化音源情報のうち、前記量子化誤差の小さい方の方向
についての符号化音声スペクトル及び符号化音源データ
を選択し、前記量子化誤差の小さい方の方向を示す時間
方向情報とともに出力する比較制御部と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された符号化音声スペクト
ルを、以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて復号化するスペクトル復号化部
と、 前記音声符号化装置から出力された符号化音源情報を復
号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報より音声を
合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を所定量蓄
積するごとに、蓄積した音声サンプル列を、前記音声符
号化装置から受け取った時間方向情報に応じた方向に出
力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項14】 入力音声の音声サンプル列を所定量蓄
積するごとに、蓄積結果の音声サンプル列を、蓄積時と
同方向及び逆方向にそれぞれ出力する双方向バッファ
と、 この双方向バッファから前記各方向の音声サンプル列を
受け取るごとに、受け取った音声サンプル列をフレーム
毎にスペクトル分析して音声スペクトルを求めるスペク
トル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化すると共に、この符号化処理の際
の音声スペクトルの量子化誤差を算出するスペクトル符
号化部と、 前記双方向バッファから出力された音声サンプル列から
音源情報を求めて符号化する音源符号化部と、 前記各方向についての前記量子化誤差を比較し、前記ス
ペクトル符号化部及び音源符号化部でそれぞれ求められ
た前記同方向及び逆方向の符号化音声スペクトル及び符
号化音源情報のうち、前記量子化誤差の小さい方の方向
についての符号化音声スペクトル及び符号化音源情報を
選択し、前記量子化誤差の小さい方の方向を示す時間方
向情報とともに出力する比較制御部と、 を備えることを特徴とする音声符号化装置。 - 【請求項15】 入力音声を符号駆動線形予測符号化方
式で符号化する音声符号化装置と、この音声符号化装置
から出力された符号化データを符号駆動線形予測復号化
方式で復号化して音声を再生する音声復号化装置と、を
含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定長のフレーム単位に分
割し、各フレームが有音フレーム、無音フレームのいず
れであるかを判定するとともに、この判定結果を示す有
音/無音情報を出力する有音/無音判定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列を符号駆動線形予測符号化方式
で符号化するとともに、この符号化処理に伴い内部的に
生成される合成音声のサンプル列と前記入力音声の音声
サンプル列との誤差を算出する音声符号化部と、 前記有音フレーム区間については、前記各方向について
の前記誤差を比較し、前記音声符号化部で求められた符
号化データのうち前記誤差の小さい方の方向について求
められた符号化データを選択し、前記誤差の小さい方の
方向を示す時間方向情報とともに出力する比較制御部
と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された音声符号化データを
符号駆動線形予測復号化方式によって音声復号化する音
声復号化部と、 この音声復号化部での復号化により得られた音声サンプ
ル列を蓄積しフレーム単位で出力するバッファであっ
て、前記音声符号化装置から取得した有音/無音情報に
基づき有音フレーム区間を検出し、この有音フレーム区
間については該区間を単位として前記音声符号化装置か
ら受け取った時間方向情報に応じた方向に音声サンプル
列を出力するバッファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項16】 入力音声の音声サンプル列を所定長の
フレーム単位に分割し、各フレームが有音フレーム、無
音フレームのいずれであるかを判定するとともに、この
判定結果を示す有音/無音情報を出力する有音/無音判
定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列を符号駆動線形予測符号化方式
で符号化するとともに、この符号化処理に伴い内部的に
生成される合成音声のサンプル列と前記入力音声の音声
サンプル列との誤差を算出する音声符号化部と、 前記有音フレーム区間については、前記各方向について
の前記誤差を比較し、前記音声符号化部で求められた符
号化データのうち前記誤差の小さい方の方向について求
められた符号化データを選択し、前記誤差の小さい方の
方向を示す時間方向情報とともに出力する比較制御部
と、 を備えることを特徴とする音声符号化装置。 - 【請求項17】 符号化データを符号駆動線形予測復号
化方式によって音声復号化する音声復号化部と、 この音声復号化部での復号化により得られた音声サンプ
ル列を蓄積しフレーム単位で出力するバッファであっ
て、有音/無音情報に基づき有音フレーム区間を検出
し、この有音フレーム区間については該区間を単位とし
て時間方向情報に応じた方向に音声サンプル列を出力す
るバッファと、 を備えることを特徴とする音声復号化装置。 - 【請求項18】 入力音声から音声スペクトルと音源情
報とを求めてそれぞれ符号化する音声符号化装置と、こ
の音声符号化装置から出力された符号化音声スペクトル
及び符号化音源情報を復号化し、この結果得られた音声
スペクトルと音源情報から音声を再生する音声復号化装
置と、を含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定長のフレーム単位に分
割し、各フレームが有音フレーム、無音フレームのいず
れであるかを判定するとともに、この判定結果を示す有
音/無音情報を出力する有音/無音判定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列をフレーム毎にスペクトル分析
して音声スペクトルを求めるスペクトル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化し、この結果得られた符号化音源情報
と前記スペクトル符号化部で求められた符号化音声スペ
クトルから合成音声を合成し、この合成音声のサンプル
列と前記入力音声の音声サンプル列との誤差を算出する
音源符号化部と、 前記有音フレーム区間については、前記各方向について
の前記誤差を比較し、前記スペクトル符号化部及び音源
符号化部でそれぞれ求められた前記同方向及び逆方向の
符号化音声スペクトル及び符号化音源情報のうち、前記
誤差の小さい方の方向についての符号化音声スペクトル
及び符号化音源情報を選択し、前記誤差の小さい方の方
向を示す時間方向情報とともに出力する比較制御部と、 を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された符号化音声スペクト
ルを、以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて復号化するスペクトル復号化部
と、 前記音声符号化装置から出力された符号化音源情報を復
号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報より音声を
合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を蓄積しフ
レーム単位で出力するバッファであって、前記音声符号
化装置から取得した有音/無音情報に基づき有音フレー
ム区間を検出し、この有音フレーム区間については該区
間を単位として前記音声符号化装置から受け取った時間
方向情報に応じた方向に音声サンプル列を出力するバッ
ファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項19】 入力音声の音声サンプル列を所定長の
フレーム単位に分割し、各フレームが有音フレーム、無
音フレームのいずれであるかを判定するとともに、この
判定結果を示す有音/無音情報を出力する有音/無音判
定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列をフレーム毎にスペクトル分析
して音声スペクトルを求めるスペクトル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化するスペクトル符号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化し、この結果得られた符号化音源情報
と前記スペクトル符号化部で求められた符号化音声スペ
クトルから合成音声を合成し、この合成音声のサンプル
列と前記入力音声の音声サンプル列との誤差を算出する
音源符号化部と、 前記有音フレーム区間については、前記各方向について
の前記誤差を比較し、前記スペクトル符号化部及び音源
符号化部でそれぞれ求められた前記同方向及び逆方向の
符号化音声スペクトル及び符号化音源情報のうち、前記
誤差の小さい方の方向についての符号化音声スペクトル
及び符号化音源情報を選択し、前記誤差の小さい方の方
向を示す時間方向情報とともに出力する比較制御部と、 を備えることを特徴とする音声符号化装置。 - 【請求項20】 符号化された音声スペクトルを、以前
の1又は複数のフレームの音声スペクトルによる予測処
理を用いて復号化するスペクトル復号化部と、 符号化された音源情報を復号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報より音声を
合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を蓄積しフ
レーム単位で出力するバッファであって、前記音声符号
化装置から取得した有音/無音情報に基づき有音フレー
ム区間を検出し、この有音フレーム区間については該区
間を単位として前記音声符号化装置から受け取った時間
方向情報に応じた方向に音声サンプル列を出力するバッ
ファと、 を備えることを特徴とする音声復号化装置。 - 【請求項21】 入力音声から音声スペクトルと音源情
報とを求めてそれぞれ符号化する音声符号化装置と、こ
の音声符号化装置から出力された符号化音声スペクトル
及び符音源情報を復号化し、この結果得られた音声スペ
クトルと音源情報から音声を再生する音声復号化装置
と、を含む音声符号化復号化システムにおいて、 前記音声符号化装置は、 入力音声の音声サンプル列を所定長のフレーム単位に分
割し、各フレームが有音フレーム、無音フレームのいず
れであるかを判定するとともに、この判定結果を示す有
音/無音情報を出力する有音/無音判定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列をフレーム毎にスペクトル分析
して音声スペクトルを求めるスペクトル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化すると共に、この符号化処理の際
の音声スペクトルの量子化誤差を算出するスペクトル符
号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、 前記有音フレーム区間については、前記各方向について
の前記誤差を比較し、前記スペクトル符号化部と音源符
号化部でそれぞれ求められた符号化音声スペクトル及び
符号化音源情報のうち前記量子化誤差の小さい方の方向
について求められた符号化音声スペクトル及び符号化音
源情報を選択し、前記量子化誤差の小さい方の方向を示
す時間方向情報とともに出力する比較制御部と を備え、 前記音声復号化装置は、 前記音声符号化装置から出力された符号化音声スペクト
ルを、以前の1又は複数のフレームの音声スペクトルに
よる予測処理を用いて復号化するスペクトル復号化部
と、 前記音声符号化装置から出力された符号化音源情報を復
号化する音源復号化部と、 前記スペクトル復号化部で復号化された音声スペクトル
と前記音源復号化部で復号化された音源情報より音声を
合成する合成フィルタと、 この合成フィルタで得られた音声サンプル列を蓄積しフ
レーム単位で出力するバッファであって、前記音声符号
化装置から取得した有音/無音情報に基づき有音フレー
ム区間を検出し、この有音フレーム区間については該区
間を単位として前記音声符号化装置から受け取った時間
方向情報に応じた方向に音声サンプル列を出力するバッ
ファと、 を備えることを特徴とする音声符号化復号化システム。 - 【請求項22】 入力音声の音声サンプル列を所定長の
フレーム単位に分割し、各フレームが有音フレーム、無
音フレームのいずれであるかを判定するとともに、この
判定結果を示す有音/無音情報を出力する有音/無音判
定部と、 入力音声の音声サンプル列を蓄積しフレーム単位で出力
するバッファであって、有音フレームについては、無音
フレームから次の無音フレームまでの間の連続する1以
上の有音フレームからなる有音フレーム区間を単位と
し、この有音フレーム区間の音声サンプル列を蓄積時と
同方向及び逆方向に順次出力するバッファと、 このバッファから音声サンプル列を受け取るごとに、受
け取った音声サンプル列をフレーム毎にスペクトル分析
して音声スペクトルを求めるスペクトル分析部と、 このスペクトル分析部から出力される音声スペクトルを
以前の1又は複数のフレームの音声スペクトルによる予
測処理を用いて符号化すると共に、この符号化処理の際
の音声スペクトルの量子化誤差を算出するスペクトル符
号化部と、 前記バッファから出力された音声サンプル列から音源情
報を求めて符号化する音源符号化部と、 前記有音フレーム区間については、前記各方向について
の前記量子化誤差を比較し、前記スペクトル符号化部及
び音源符号化部でそれぞれ求められた前記同方向及び逆
方向の符号化音声スペクトル及び符号化音源情報のうち
前記量子化誤差の小さい方の方向についての符号化音声
スペクトル及び符号化音源情報を選択し、前記量子化誤
差の小さい方の方向を示す時間方向情報とともに出力す
る比較制御部と、 を備えることを特徴とする音声符号化装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10097513A JPH113099A (ja) | 1997-04-16 | 1998-04-09 | 音声符号化復号化システム、音声符号化装置及び音声復号化装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9-99183 | 1997-04-16 | ||
JP9918397 | 1997-04-16 | ||
JP10097513A JPH113099A (ja) | 1997-04-16 | 1998-04-09 | 音声符号化復号化システム、音声符号化装置及び音声復号化装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH113099A true JPH113099A (ja) | 1999-01-06 |
Family
ID=26438668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10097513A Pending JPH113099A (ja) | 1997-04-16 | 1998-04-09 | 音声符号化復号化システム、音声符号化装置及び音声復号化装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH113099A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003532149A (ja) * | 2000-04-24 | 2003-10-28 | クゥアルコム・インコーポレイテッド | 音声発話を予測的に量子化するための方法および装置 |
JP2005148152A (ja) * | 2003-11-11 | 2005-06-09 | Mitsubishi Electric Corp | メディア送信装置、メディア受信装置、メディア通信装置及びメディア再生装置 |
KR100656006B1 (ko) * | 2005-10-21 | 2006-12-08 | 기아자동차주식회사 | 전동 접이식 사이드 미러의 구동장치 |
JP2008310238A (ja) * | 2007-06-18 | 2008-12-25 | Akuseru:Kk | 音声符号化装置、音声復号化装置、音声符号化プログラムおよび音声復号化プログラム |
JP2010276848A (ja) * | 2009-05-28 | 2010-12-09 | Nippon Telegr & Teleph Corp <Ntt> | 双方向予測符号化装置、双方向予測復号装置、それらの方法、それらのプログラム及びその記録媒体 |
JPWO2010140306A1 (ja) * | 2009-06-01 | 2012-11-15 | 三菱電機株式会社 | 信号処理装置 |
JP2016186652A (ja) * | 2010-07-02 | 2016-10-27 | ドルビー・インターナショナル・アーベー | ポストフィルタ、デコーダシステム、エンコーダシステム及び関連する方法 |
CN110324702A (zh) * | 2019-07-04 | 2019-10-11 | 三星电子(中国)研发中心 | 视频播放过程中的信息推送方法和装置 |
-
1998
- 1998-04-09 JP JP10097513A patent/JPH113099A/ja active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003532149A (ja) * | 2000-04-24 | 2003-10-28 | クゥアルコム・インコーポレイテッド | 音声発話を予測的に量子化するための方法および装置 |
US8660840B2 (en) | 2000-04-24 | 2014-02-25 | Qualcomm Incorporated | Method and apparatus for predictively quantizing voiced speech |
JP2005148152A (ja) * | 2003-11-11 | 2005-06-09 | Mitsubishi Electric Corp | メディア送信装置、メディア受信装置、メディア通信装置及びメディア再生装置 |
KR100656006B1 (ko) * | 2005-10-21 | 2006-12-08 | 기아자동차주식회사 | 전동 접이식 사이드 미러의 구동장치 |
JP2008310238A (ja) * | 2007-06-18 | 2008-12-25 | Akuseru:Kk | 音声符号化装置、音声復号化装置、音声符号化プログラムおよび音声復号化プログラム |
JP2010276848A (ja) * | 2009-05-28 | 2010-12-09 | Nippon Telegr & Teleph Corp <Ntt> | 双方向予測符号化装置、双方向予測復号装置、それらの方法、それらのプログラム及びその記録媒体 |
JP5355690B2 (ja) * | 2009-06-01 | 2013-11-27 | 三菱電機株式会社 | 信号処理装置 |
JPWO2010140306A1 (ja) * | 2009-06-01 | 2012-11-15 | 三菱電機株式会社 | 信号処理装置 |
JP2016186652A (ja) * | 2010-07-02 | 2016-10-27 | ドルビー・インターナショナル・アーベー | ポストフィルタ、デコーダシステム、エンコーダシステム及び関連する方法 |
JP2020109529A (ja) * | 2010-07-02 | 2020-07-16 | ドルビー・インターナショナル・アーベー | 復号方法、コンピュータプログラム及び復号システム |
US10811024B2 (en) | 2010-07-02 | 2020-10-20 | Dolby International Ab | Post filter for audio signals |
JP2021060601A (ja) * | 2010-07-02 | 2021-04-15 | ドルビー・インターナショナル・アーベー | 復号方法、コンピュータプログラム及び復号システム |
US11183200B2 (en) | 2010-07-02 | 2021-11-23 | Dolby International Ab | Post filter for audio signals |
US11996111B2 (en) | 2010-07-02 | 2024-05-28 | Dolby International Ab | Post filter for audio signals |
CN110324702A (zh) * | 2019-07-04 | 2019-10-11 | 三星电子(中国)研发中心 | 视频播放过程中的信息推送方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3134817B2 (ja) | 音声符号化復号装置 | |
KR100615480B1 (ko) | 음성 대역 확장 장치 및 음성 대역 확장 방법 | |
KR20010093208A (ko) | 주기적 음성 코딩 | |
CA2271410C (en) | Speech coding apparatus and speech decoding apparatus | |
KR20010093210A (ko) | 가변 속도 음성 코딩 | |
KR100275429B1 (ko) | 음성 부호화 장치 | |
JP3137176B2 (ja) | 音声符号化装置 | |
US6768978B2 (en) | Speech coding/decoding method and apparatus | |
US7680669B2 (en) | Sound encoding apparatus and method, and sound decoding apparatus and method | |
KR100276035B1 (ko) | 가변 레이트 음성 부호화 방법 및 복호화 방법 | |
US6192334B1 (en) | Audio encoding apparatus and audio decoding apparatus for encoding in multiple stages a multi-pulse signal | |
JPH113099A (ja) | 音声符号化復号化システム、音声符号化装置及び音声復号化装置 | |
JP3329216B2 (ja) | 音声符号化装置及び音声復号装置 | |
JP3268750B2 (ja) | 音声合成方法及びシステム | |
JP3319396B2 (ja) | 音声符号化装置ならびに音声符号化復号化装置 | |
JP2001318698A (ja) | 音声符号化装置及び音声復号化装置 | |
JP3232701B2 (ja) | 音声符号化方法 | |
JP3431655B2 (ja) | 符号化装置及び復号化装置 | |
JP3410931B2 (ja) | 音声符号化方法及び装置 | |
JP3006790B2 (ja) | 音声符号化復号化方法及びその装置 | |
JP5084360B2 (ja) | 音声符号化装置及び音声復号装置 | |
JP3063087B2 (ja) | 音声符号化復号化装置及び音声符号化装置ならびに音声復号化装置 | |
JP3332132B2 (ja) | 音声符号化方法および装置 | |
JP2002311999A (ja) | 音声符号化装置及び音声復号装置 | |
JP2004126628A (ja) | 音声符号化装置及び音声復号装置 |