JP2004102186A - Device and method for sound encoding - Google Patents
Device and method for sound encoding Download PDFInfo
- Publication number
- JP2004102186A JP2004102186A JP2002267436A JP2002267436A JP2004102186A JP 2004102186 A JP2004102186 A JP 2004102186A JP 2002267436 A JP2002267436 A JP 2002267436A JP 2002267436 A JP2002267436 A JP 2002267436A JP 2004102186 A JP2004102186 A JP 2004102186A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- frequency
- encoding
- acoustic
- auditory masking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、楽音信号または音声信号などの音響信号を高能率に圧縮符号化する音響符号化装置及び音響符号化方法に関し、特に符号化コードの一部からでも楽音や音声を復号することができるスケーラブル符号化を行う音響符号化装置及び音響符号化方法に関する。
【0002】
【従来の技術】
楽音信号または音声信号を低ビットレートで圧縮する音響符号化技術は、移動体通信における電波等の伝送路容量及び記録媒体の有効利用のために重要である。音声信号を符号化する音声符号化に、ITU(International Telecommunication Union)で規格化されているG726、G729などの方式がある。これらの方式は、狭帯域信号(300Hz〜3.4kHz)を対象とし、8kbit/s〜32kbit/sのビットレートで高品質に符号化できる。
【0003】
また、広帯域信号(50Hz〜7kHz)を符号化する標準方式としてITUのG722、G722.1や、3GPP(The 3rd Generation Partnership Project)のAMR−WBなどが存在する。これらの方式は、6.6kbit/s〜64kbit/sのビットレートで広帯域音声信号を高品質に符号化できる。
【0004】
音声信号を低ビットレートで高能率に符号化を行う有効な方法に、CELP(Code Excited Linear Prediction)がある。CELPは、人間の音声生成モデルを工学的に模擬したモデルに基づき、乱数やパルス列で表される励振信号を周期性の強さに対応するピッチフィルタと声道特性に対応する合成フィルタに通し、その出力信号と入力信号の二乗誤差が聴覚特性の重み付けの下で最小になるよう符号化パラメータを決定する方法である(例えば、非特許文献1参照)。
【0005】
最近の標準音声符号化方式の多くがCELPに基づいており、例えばG729は、8kbit/sのビットレートで狭帯域信号の符号化でき、AMR−WBは6.6kbit/s〜23.85kbit/sのビットレートで広帯域信号を符号化できる。
【0006】
一方で、楽音信号を符号化する楽音符号化の場合、MPEG(Moving Picture Expert Group)で規格化されているレイヤ3方式やAAC方式のように、楽音信号を周波数領域に変換し、聴覚心理モデルを利用して符号化を行う変換符号化が一般的である。これらの方式は、サンプリングレートが44.1kHzの信号に対しチャネル当たり64kbit/s〜96kbit/sのビットレートでほとんど劣化が生じないことが知られている。
【0007】
しかしながら、音声信号が主体で、背景に音楽や環境音が重畳している信号を符号化する場合、音声符号化方式を適用すると背景部の音楽や環境音の影響で、背景部の信号のみならず音声信号も劣化してしまい全体的な品質が低下するという問題がある。これは、音声符号化方式が、CELPという音声モデルに特化した方式を基本にしているために生じる問題である。また、音声符号化方式が対応できる信号帯域は高々7kHzまでであり、それ以上の高域を持つ信号に対しては構成上十分に対応しきれないという問題がある。
【0008】
一方で、楽音符号化は、音楽に対して高品質に符号化を行うことができるので、前述したような背景に音楽や環境音がある音声信号についても十分な品質を得ることができる。また、楽音符号化は、対象となる信号の帯域もCD品質であるサンプリングレートが22kHz程度の信号まで対応可能である。
【0009】
その反面、高品質な符号化を実現するためにはビットレートを高くして使用する必要があり、仮にビットレートを32kbit/s程度まで低く抑えると復号信号の品質が大きく低下するという問題がある。そのため、伝送レートの低い通信網で使用できないという問題がある。
【0010】
上述した問題を回避するためにこれらの技術を組み合わせて、最初に入力信号を基本レイヤにてCELPで符号化し、次にその復号信号を入力信号から減算して得られる誤差信号を求め、この信号を拡張レイヤにて変換符号化を行うスケーラブル符号化が考えられる。
【0011】
この方法では、基本レイヤはCELPを用いているため音声信号を高品質に符号化でき、かつ拡張レイヤは基本レイヤで表しきれない背景の音楽や環境音、基本レイヤでカバーする周波数帯よりも高い周波数成分の信号を効率よく符号化することができる。さらにこの構成によればビットレートを低く抑えることができる。加えて、この構成によれば、符号化コードの一部つまり基本レイヤの符号化コードのみから音響信号を復号することが可能であり、このようなスケーラブル機能は伝送容量の異なる複数のネットワークに対するマルチキャストの実現に有効である。
【0012】
しかしながら、音声ではなく音楽を入力したときに十分な品質を確保するためには、拡張レイヤへのビット配分を多くする必要があり、その結果ビットレートが高くなってしまうという問題がある。
【0013】
基本レイヤの符号化において、CELPのような音声に特化した符号化方式を用いているが、このCELPでは音楽に対する符号化効率が高くない。音楽信号を符号化すると、入力信号と基本レイヤの復号信号との誤差信号(拡張レイヤの入力信号)のパワーが大きくなるので、パワーの大きくなった誤差信号に対応するために拡張レイヤに多くのビットを配分して、最終的な復号信号の品質を上げる必要があった。
【0014】
この問題を解決するために、拡張レイヤで聴覚マスキングを利用して符号化効率を上げることが考えられる。聴覚マスキングとは、ある信号が与えられたときその信号の周波数の近傍に位置する信号が聞こえなくなる(マスクされる)という人間の聴覚特性を利用したものである。
【0015】
図28は、音響(音楽)信号のスペクトルの一例を示す図である。図28において、実線は聴覚マスキングを表し、破線は誤差スペクトルを表している。ここでいう誤差スペクトルとは、入力信号と基本レイヤの復号信号との誤差信号(拡張レイヤの入力信号)のスペクトルを指す。
【0016】
図28の斜線部で表される誤差スペクトルは、聴覚マスキングよりも振幅値が小さいため人間の聴覚では聞こえず、それ以外の領域では誤差スペクトルの振幅値が聴覚マスキングを超えているので量子化歪が知覚される。
【0017】
そこで、拡張レイヤでは図28の白地部に含まれる誤差スペクトルを符号化してその領域の量子化歪が聴覚マスキングよりも小さくなるようにすればよい。また、斜線部に属する係数は既に聴覚マスキングよりも小さくので量子化する必要がない。
【0018】
【非特許文献1】
”Code−Excited Linear Prediction (CELP): high quality speech at very low bit rates”, Proc. ICASSP 85, pp.937−940, 1985.
【0019】
【発明が解決しようとする課題】
しかしながら、従来の装置においては、聴覚マスキングにより量子化が必要な周波数の情報を伝送する必要があり、伝送する情報量が増加してビットレートを低くすることができないという問題がある。
【0020】
本発明はかかる点に鑑みてなされたものであり、声が主体で背景に音楽や雑音が重畳しているような信号であっても、低ビットレートで高品質に符号化を行うことができる音響符号化装置及び音響符号化方法を提供することを目的とする。
【0021】
【課題を解決するための手段】
本発明の音響符号化装置は、入力信号のサンプリングレートを下げるダウンサンプリング手段と、サンプリングレートが下げられた入力信号を符号化する基本レイヤ符号化手段と、符号化された入力信号を復号化して復号信号を得る復号化手段と、前記復号信号のサンプリングレートを入力時の入力信号のサンプリングレートと同一のレートに上げるアップサンプリング手段と、入力時の入力信号とサンプリングレートが上げられた復号信号との差分から誤差信号を得る減算手段と、サンプリングレートが上げられた復号信号に基づいて前記誤差信号を符号化する対象の周波数を決定する周波数決定手段と、前記周波数にある前記差分信号を符号化する拡張レイヤ符号化手段と、を具備する構成を採る。
【0022】
この構成によれば、符号化信号の復号化した信号から拡張レイヤの符号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化信号のみで拡張レイヤの符号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0023】
本発明の音響符号化装置は、前記基本レイヤ符号化手段は、符号励振線形予測法を用いて入力信号を符号化する構成を採る。
【0024】
この構成によれば、送信側において、基本レイヤにCELPを適用して入力信号を符号化し、受信側において、この符号化した入力信号にCELPを適用して復号することにより、低ビットレートで高品質な基本レイヤを実現することができる。
【0025】
本発明の音響符号化装置は、前記拡張レイヤ符号化手段は、前記差分信号を時間領域から周波数領域に直交変換し、変換後の前記差分信号を符号化する構成を採る。
【0026】
この構成によれば、差分信号を時間領域から周波数領域に変換し、変換後の信号について基本レイヤの符号化によりカバーできない周波数領域を拡張レイヤで符号化することにより、音楽のようにスペクトルの変化が大きい信号にも対応することができる。
【0027】
本発明の音響符号化装置は、聴覚に寄与しない振幅値を表す聴覚マスキングを算出する聴覚マスキング手段を具備し、前記拡張レイヤ符号化手段は、前記周波数決定手段において前記聴覚マスキング内の信号を符号化の対象としないように符号化する対象を決定して前記誤差信号のスペクトルである誤差スペクトルを符号化する構成を採る。
【0028】
本発明の音響符号化装置は、前記聴覚マスキング手段は、サンプリングレートが上げられた復号信号を周波数領域の係数に変換する周波数領域変換手段と、前記周波数領域の係数を用いて推定聴覚マスキングを算出する推定聴覚マスキング算出手段と、前記復号信号のスペクトルの振幅値が前記推定聴覚マスキングの振幅値を超える周波数を求める決定手段と、を具備し、前記拡張レイヤ符号化手段は、前記周波数に位置する前記誤差スペクトルを符号化する構成を採る。
【0029】
これらの構成によれば、マスキング効果の特性を利用して、入力信号のスペクトルから聴覚マスキングを算出し、拡張レイヤの符号化において、量子化歪をこのマスキング値以下になるように量子化を行うことにより、品質の劣化を伴わずに量子化の対象となるMDCT係数の数を減らすことができ、低ビットレートで高品質に符号化を行うことができる。
【0030】
本発明の音響符号化装置は、前記聴覚マスキング手段は、前記周波数領域の係数を用いて推定誤差スペクトルを算出する推定誤差スペクトル算出手段を具備し、前記決定手段は、前記推定誤差スペクトルの振幅値が前記推定聴覚マスキングの振幅値を超える周波数を求める構成を採る。
【0031】
この構成によれば、基本レイヤの復号信号のスペクトルから推定した残差スペクトルを平滑化することにより、推定誤差スペクトルを残差スペクトルに近似することができ、拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0032】
本発明の音響符号化装置は、前記聴覚マスキング手段は、前記推定聴覚マスキング算出手段において算出された推定聴覚マスキングを平滑化する修正手段を具備し、前記決定手段は、前記復号信号のスペクトルまたは前記推定誤差スペクトルの振幅値が平滑化された前記推定聴覚マスキングの振幅値を超える周波数を求める構成を採る。
【0033】
この構成によれば、基本レイヤ復号信号の振幅スペクトルから推定した推定聴覚マスキングを、基本レイヤ符号化器の符号化コードの情報を基に修正を加えることにより、推定聴覚マスキングの精度を向上させることができ、結果拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0034】
本発明の音響符号化装置は、前記拡張レイヤ符号化手段は、推定誤差スペクトルまたは誤差スペクトルのいずれかと聴覚マスキングまたは推定聴覚マスキングのいずれかとの振幅値の差を周波数毎に算出し、前記振幅値の差の大きさに基づいて符号化の情報量を決定する構成を採る。
【0035】
この構成によれば、拡張レイヤでの符号化において、推定誤差スペクトルが推定聴覚マスキングを超える量が大きい周波数に多くの情報量を配分して符号化することにより、量子化効率の向上を図ることができる。
【0036】
本発明の音響符号化装置は、前記拡張レイヤ符号化手段は、前記決定手段で求めた周波数に加えて、予め定められた帯域にある前記誤差スペクトルを符号化する構成を採る。
【0037】
この構成によれば、符号化の対象として選択されにくいが聴覚的に重要な帯域を強制的に量子化することにより、本来符号化の対象として選択されるべき周波数が選択されない場合でも、聴覚的に重要な帯域に含まれる周波数に位置する誤差スペクトルは必ず量子化されることになり、品質の改善することができる。
【0038】
本発明の音響復号化装置は、符号化側において入力信号を所定の基本フレーム単位で符号化した第1符号化コードを復号化して第1復号信号を得る基本レイヤ復号化手段と、第1復号信号のサンプリングレートを第2復号信号のサンプリングレートと同一のサンプリングレートに上げるアップサンプリング手段と、前記アップサンプリングされた第1復号信号に基づいて入力信号と符号化側において第1符号化コードを復号した信号との残差信号を符号化した第2符号化コードを復号化する対象の周波数を決定する周波数決定手段と、前記周波数の情報を用いて前記第2符号化コードを復号化して第2復号信号を得る拡張レイヤ復号化手段と、前記第2復号信号とサンプリングレートを上げられた第1復号信号を加算する加算手段と、を具備する構成を採る。
【0039】
この構成によれば、基本レイヤの符号化信号の復号化した信号から拡張レイヤの符号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化信号のみで拡張レイヤの符号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0040】
本発明の音響復号化装置は、基本レイヤ復号化手段は、符号励振線形予測法を用いて第1符号化コードを復号化する構成を採る。
【0041】
この構成によれば、送信側において、基本レイヤにCELPを適用して入力信号を符号化し、受信側において、この符号化した入力信号にCELPを適用して復号することにより、低ビットレートで高品質な基本レイヤを実現することができる。
【0042】
本発明の音響復号化装置は、拡張レイヤ復号化手段は、第2符号化コードを復号化した信号を周波数領域から時間領域に直交変換する構成を採る。
【0043】
この構成によれば、差分信号を時間領域から周波数領域に変換し、変換後の信号について基本レイヤの符号化によりカバーできない周波数領域を拡張レイヤで符号化することにより、音楽のようにスペクトルの変化が大きい信号にも対応することができる。
【0044】
本発明の音響復号化装置は、聴覚に寄与しない振幅値を表す聴覚マスキングを算出する聴覚マスキング手段を具備し、前記拡張レイヤ復号化手段は、前記周波数決定手段において前記聴覚マスキング内の信号を復号化の対象としないように復号化する対象を決定する構成を採る。
【0045】
本発明の音響復号化装置は、前記聴覚マスキング手段は、サンプリングレートの上げられた基本レイヤの復号信号を周波数領域の係数に変換する周波数領域変換手段と、前記周波数領域の係数を用いて推定聴覚マスキングを算出する推定聴覚マスキング算出手段と、前記復号信号のスペクトルの振幅値が前記推定聴覚マスキングの振幅値を超える周波数を求める決定手段と、を具備し、前記拡張レイヤ復号化手段は、前記周波数に位置する前記誤差スペクトルを復号化する構成を採る。
【0046】
これらの構成によれば、マスキング効果の特性を利用して、入力信号のスペクトルから聴覚マスキングを算出し、拡張レイヤの符号化において、量子化歪をこのマスキング値以下になるように量子化を行うことにより、品質の劣化を伴わずに量子化の対象となるMDCT係数の数を減らすことができ、低ビットレートで高品質に符号化を行うことができる。
【0047】
本発明の音響復号化装置は、前記聴覚マスキング手段は、前記周波数領域の係数を用いて推定誤差スペクトルを算出する推定誤差スペクトル算出手段を具備し、前記決定手段は、前記推定誤差スペクトルの振幅値が前記推定聴覚マスキングの振幅値を超える周波数を求める構成を採る。
【0048】
この構成れば、基本レイヤの復号信号のスペクトルから推定した残差スペクトルを平滑化することにより、推定誤差スペクトルを残差スペクトルに近似することができ、拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0049】
本発明の音響復号化装置は、前記聴覚マスキング手段は、前記推定聴覚マスキング算出手段において算出された推定聴覚マスキングを平滑化する修正手段を具備し、前記決定手段は、前記復号信号のスペクトルまたは前記推定誤差スペクトルの振幅値が平滑化された前記推定聴覚マスキングの振幅値を超える周波数を求める構成を採る。
【0050】
この構成によれば、基本レイヤ復号信号の振幅スペクトルから推定した推定聴覚マスキングを、基本レイヤ符号化器の符号化コードの情報を基に修正を加えることにより、推定聴覚マスキングの精度を向上させることができ、結果拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0051】
本発明の音響復号化装置は、前記拡張レイヤ復号化手段は、推定誤差スペクトルまたは誤差スペクトルのいずれかと聴覚マスキングまたは推定聴覚マスキングのいずれかとの振幅値の差を周波数毎に算出し、前記振幅値の差の大きさに基づいて復号化の情報量を決定する構成を採る。
【0052】
この構成によれば、拡張レイヤでの符号化において、推定誤差スペクトルが推定聴覚マスキングを超える量に応じて適応ビット配分されたベクトル量子化を行うことにより、量子化効率の向上を図ることができる。
【0053】
本発明の音響復号化装置は、前記拡張レイヤ復号化手段は、前記決定手段で求めた周波数に加えて、予め定められた帯域にある前記誤差スペクトルとを復号化する構成を採る。
【0054】
この構成によれば、あらかじめ定めておいた帯域に含まれるMDCT係数を復号化することにより、符号化の対象として選択されにくいが聴覚的に重要な帯域を強制的に量子化された信号を復号化することができ、符号化側において本来符号化の対象として選択されるべき周波数が選択されない場合でも、聴覚的に重要な帯域に含まれる周波数に位置する誤差スペクトルは必ず量子化されることになり、品質の改善することができる。
【0055】
本発明の音響信号送信装置は、音響信号を電気的信号に変換する音響入力手段と、この音響入力手段から出力された信号をディジタル信号に変換するA/D変換手段と、このA/D変換手段から出力されたディジタル信号を符号化する上記音響符号化装置と、この符号化装置から出力された符号化コードを無線周波数の信号に変調するRF変調手段と、このRF変調手段から出力された信号を電波に変換して送信する送信アンテナとを具備する構成を採る。
【0056】
本発明の音響信号受信装置は、電波を受信する受信アンテナと、この受信アンテナに受信された信号を復調するRF復調手段と、このRF復調手段にて得られた情報を復号する上記音響復号化装置と、この復号化装置から出力された信号をアナログ信号に変換するD/A変換手段と、このD/A変換手段から出力された電気的信号を音響信号に変換する音響出力手段とを具備する構成を採る。
【0057】
本発明の通信端末装置は、上記音響信号送信装置あるいは上記音響信号受信装置の少なくとも一方を具備する構成を採る。本発明の基地局装置は、上記音響信号送信装置あるいは上記音響信号受信装置の少なくとも一方を具備する構成を採る。
【0058】
これらの構成によれば、符号化信号の復号化した信号から拡張レイヤの符号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化信号のみで拡張レイヤの符号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0059】
本発明の音響符号化方法は、符号化側において、サンプリングレートが下げられた入力信号を符号化して第1符号化コードを作成し、前記第1符号化コードを復号化した第1復号信号のサンプリングレートを入力時の入力信号のサンプリングレートと同一のレートに上げ、サンプリングレートが上げられた復号信号に基づいて前記誤差信号を符号化する対象の周波数を決定し、入力時の入力信号とサンプリングレートが上げられた復号信号との差分信号のうち前記周波数にある前記差分信号を符号化して第2符号化コードを作成し、復号化側において、前記第1符号化コードを復号化して第2復号信号を得て、前記第2復号信号のサンプリングレートを第3復号信号のサンプリングレートと同一のレートに上げ、このサンプリングレートの上げられた第2復号信号に基づいて第2符号化コードを復号化する対象の周波数を決定し、前記周波数の情報を用いて前記第2符号化コードを復号化して第3復号信号を得て、前記サンプリングレートの上げられた第2復号信号と前記第3復号信号とを加算するようにした。
【0060】
この方法によれば、符号化信号の復号化した信号から拡張レイヤの符号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化信号のみで拡張レイヤの符号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0061】
【発明の実施の形態】
本発明者は、入力信号の代わりに基本レイヤの符号化コードを復号化した信号を使って拡張レイヤで符号化する周波数を推定しても、この復号信号は入力信号との歪が小さくなるよう決定されているため、充分に近似され大きな問題は生じないということに着目し本発明をするに至った。
【0062】
本発明の骨子は、入力信号をダウンサンプリングして符号化し、符号化した信号を復号化してアップサンプリングし、このアップサンプリングした復号信号と入力信号との差分信号を符号化する符号化方法において、符号化側と復号化側の両方で算出されるアップサンプリングした復号信号から拡張レイヤで符号化もしくは復号化の対象となる周波数を決定することにより、符号化側から復号化側にこの周波数の情報を伝送ことなく、低ビットレートで高品質に符号化を行うことである。
【0063】
以下、本発明の実施の形態について図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る音響符号化装置の構成を示すブロック図である。図1の音響符号化装置100は、ダウンサンプリング器101と、基本レイヤ符号化器102と、局所復号化器103と、アップサンプリング器104と、遅延器105と、減算器106と、周波数決定部107と、拡張レイヤ符号化器108と、多重化器109とから主に構成される。
【0064】
図1において、ダウンサンプリング器101は、サンプリングレートFHの入力データ(音響データ)を受けつけ、この入力データをサンプリングレートFHより低いサンプリングレートFLに変換して基本レイヤ符号化器102に出力する。
【0065】
基本レイヤ符号化器102は、サンプリングレートFLの入力データを所定の基本フレーム単位で符号化し、入力データを符号化した第1符号化コードを局所復号化器103と多重化器109に出力する。例えば、基本レイヤ符号化器102は、入力データをCELP方式で符号化する。
【0066】
局所復号化器103は、第1符号化コードを復号化し、復号化により得られた復号信号をアップサンプリング器104に出力する。アップサンプリング器104は、復号信号のサンプリングレートをFHに上げて減算器106と周波数決定部107に出力する。
【0067】
遅延器105は、入力信号を所定の時間遅延して減算器106に出力する。この遅延の大きさをダウンサンプリング器101と基本レイヤ符号化器102と局所復号化器103とアップサンプリング器104で生じる時間遅れと同値とすることにより、次の減算処理での位相のずれを防ぐ役割を持つ。例えば、この遅延時間は、ダウンサンプリング器101、基本レイヤ符号化器102、局所復号化器103、及びアップサンプリング器104における処理の時間の総和とする。減算器106は、入力信号を復号信号で減算し、減算結果を誤差信号として拡張レイヤ符号化器108に出力する。
【0068】
周波数決定部107は、サンプリングレートをFHに上げた復号信号から誤差信号の符号化する領域と、符号化しない領域を決定して拡張レイヤ符号化器108に通知する。例えば、周波数決定部107は、サンプリングレートをFHに上げた復号信号から聴覚マスキングする周波数を決定して拡張レイヤ符号化器108に出力する。
【0069】
拡張レイヤ符号化器108は、誤差信号を周波数領域の係数に変換して誤差スペクトルを生成し、周波数決定部107から得られる符号化の対象となる周波数情報に基づき誤差スペクトルの符号化を行う。多重化器109は、基本レイヤ符号化器102で符号化された信号と、拡張レイヤ符号化器108で符号化された信号を多重化する。
【0070】
以下、基本レイヤ符号化器102と拡張レイヤ符号化器108とがそれぞれ符号化する信号について説明する。図2は、音響信号の情報の分布の一例を示す図である。図2において、縦軸は情報量を示し、横軸は周波数を示す。図2では、入力信号に含まれる音声情報と背景音楽・背景雑音情報がどの周波数帯にどれだけ存在しているかを表している。
【0071】
図2に示すように、音声情報は、周波数の低い領域に情報が多く存在し、高域に向かうほど情報量は減少する。一方、背景音楽・背景雑音情報は、音声情報と比べると相対的に低域の情報は少なく、高域に含まれる情報が大きい。
【0072】
そこで、基本レイヤではCELPを用いて音声信号を高品質に符号化し、拡張レイヤでは基本レイヤで表しきれない背景の音楽や環境音、基本レイヤでカバーする周波数帯よりも高い周波数成分の信号を効率よく符号化する。
【0073】
図3は、基本レイヤと拡張レイヤで符号化の対象とする領域の一例を示す図である。図3において、縦軸は情報量を示し、横軸は周波数を示す。図3は、基本レイヤ符号化器102と拡張レイヤ符号化器108がそれぞれ符号化する情報の対象となる領域を表している。
【0074】
基本レイヤ符号化器102は、0〜FL間の周波数帯の音声情報を効率よく表すように設計されており、この領域での音声情報は品質良く符号化することができる。しかし、基本レイヤ符号化器102では、0〜FL間の周波数帯の背景音楽・背景雑音情報の符号化品質が高くない。
【0075】
拡張レイヤ符号化器108は、上記説明にある基本レイヤ符号化器102の能力不足の部分と、FL〜FH間の周波数帯の信号をカバーするように設計されている。よって、基本レイヤ符号化器102と拡張レイヤ符号化器108を組み合わせることで広い帯域で高品質な符号化が実現できる。
【0076】
図3に示すように、基本レイヤ符号化器102における符号化により得られた第1符号化コードには、0〜FL間の周波数帯の音声情報が含まれているので、少なくとも第1符号化コードのみでも復号信号が得られるというスケーラブル機能が実現できる。
【0077】
また、拡張レイヤで聴覚マスキングを利用して符号化効率を上げることが考えられる。聴覚マスキングとは、ある信号が与えられたときその信号の周波数の近傍に位置する信号が聞こえなくなる(マスクされる)という人間の聴覚特性を利用したものである。
【0078】
図28は、音響(音楽)信号のスペクトルの一例を示す図である。図28において、実線は聴覚マスキングを表し、破線は誤差スペクトルを表している。ここでいう誤差スペクトルとは、入力信号と基本レイヤの復号信号との誤差信号(拡張レイヤの入力信号)のスペクトルを指す。
【0079】
図28の斜線部で表される誤差スペクトルは、聴覚マスキングよりも振幅値が小さいため人間の聴覚では聞こえず、それ以外の領域では誤差スペクトルの振幅値が聴覚マスキングを超えているので量子化歪が知覚される。
【0080】
そこで、拡張レイヤでは図28の白地部に含まれる誤差スペクトルを符号化してその領域の量子化歪が聴覚マスキングよりも小さくなるようにすればよい。また、斜線部に属する係数は既に聴覚マスキングよりも小さくので量子化する必要がない。
【0081】
本実施の形態の音響符号化装置100では、聴覚マスキング等により残差信号を符号化する周波数を符号化側から復号化側に伝送することをせず、符号化側と復号側でそれぞれアップサンプリングされた基本レイヤの復号信号を用いて拡張レイヤが符号化する誤差スペクトルの周波数を決定する。
【0082】
基本レイヤの符号化コードを復号化した復号信号は、符号化側と復号化側で同じ信号が得られるので、符号化側は、この復号化信号から聴覚マスキングする周波数を決定して信号を符号化し、復号化側は、この復号化信号から聴覚マスキングされた周波数の情報を得て信号を復号化することにより、誤差スペクトルの周波数の情報を付加情報として符号化して伝送する必要は無くなり、ビットレートの低減を実現することができる。
【0083】
次に、本実施の形態に係る音響符号化装置の各ブロックの詳細な動作について説明する。最初にアップサンプリングされた基本レイヤの復号信号(以後、基本レイヤ復号信号と呼ぶ)から拡張レイヤにて符号化される誤差スペクトルの周波数を決定する周波数決定部107の動作の説明を行う。図4は、本実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図である。
【0084】
図4において、周波数決定部107は、FFT部401と、推定聴覚マスキング算出器402と、決定部403とから主に構成される。
【0085】
FFT部401は、アップサンプリング器104から出力された基本レイヤ復号信号x(n)を直交変換して振幅スペクトルP(m)を算出して推定聴覚マスキング算出器402と決定部403に出力する。具体的には、FFT部401は、以下の式(1)を用いて振幅スペクトルP(m)を算出する。
【0086】
【数1】
ここで、Re(m)とIm(m)は基本レイヤ復号信号x(n)のフーリエ係数の実部と虚部、mは周波数を表す。
【0087】
次に、推定聴覚マスキング算出器402は、基本レイヤ復号信号の振幅スペクトルP(m)を用いて推定聴覚マスキングM’(m)を算出して決定部403に出力する。一般的には、聴覚マスキングは、入力信号のスペクトルを基に算出されるものであるが、本実施例では入力信号の代わりに基本レイヤ復号信号x(n)を使って聴覚マスキングを推定する。これは、基本レイヤ復号信号x(n)は入力信号との歪が小さくなるよう決定されているため、入力信号の代わりに基本レイヤ復号信号x(n)を用いても充分に近似され大きな問題は生じないという考えに基づいている。
【0088】
次に、決定部403は、基本レイヤ復号信号の振幅スペクトルP(m)と推定聴覚マスキング算出器402で得られる推定聴覚マスキングM’(m)を用いて拡張レイヤ符号化器108で誤差スペクトルを符号化する対象の周波数を決定する。決定部403は、基本レイヤ復号信号の振幅スペクトルP(m)を誤差スペクトルの近似値とみなし、次の式(2)が成り立つ周波数mを拡張レイヤ符号化器108に出力する。
【0089】
【数2】
【0090】
式(2)において、P(m)の項は、誤差スペクトルの大きさを推定しており、M’(m)の項は、聴覚マスキングを推定している。そして、決定部403は、推定誤差スペクトルと推定聴覚マスキングの大きさを比較し、式(2)を満たす場合、すなわち推定聴覚マスキングの大きさを推定誤差スペクトルの大きさが超える場合に、その周波数の誤差スペクトルはノイズとして知覚されるとして拡張レイヤ符号化器108で符号化する対象とする。
【0091】
逆に推定聴覚マスキングの大きさより推定誤差スペクトルの大きさが下回る場合に、決定部403は、マスキング効果によりその周波数の誤差スペクトルはノイズとして知覚されないとみなし、この周波数の誤差スペクトルは量子化の対象から外す。
【0092】
次に、推定聴覚マスキング算出器402の動作を説明する。図5は、本実施の形態の音響符号化装置の聴覚マスキング算出器の内部構成の一例を示す図である。図5において、推定聴覚マスキング算出器402は、バークスペクトル算出器501と、スプレッド関数畳み込み器502と、トーナリティ算出器503と、聴覚マスキング算出器504とから主に構成される。
【0093】
図5において、バークスペクトル算出器501は、以下の式(3)を用いてバークスペクトルB(k)を算出する。
【0094】
【数3】
ここで、P(m)は振幅スペクトルを表し、上述の式(1)より求められる。また、kはバークスペクトルの番号に対応し、FL(k)、FH(k)はそれぞれ第kバークスペクトルの最低周波数、最高周波数を表す。バークスペクトルB(k)はバークスケール上で等間隔に帯域分割されたときのスペクトル強度を表す。ヘルツスケールをf、バークスケールをBと表したとき、ヘルツスケールとバークスケールの関係は以下の式(4)で表される。
【0095】
【数4】
【0096】
スプレッド関数畳み込み器502は、以下に示す式(5)を用いてバークスペクトルB(k)にスプレッド関数SF(k)を畳み込み、C(k)を算出する。
【0097】
【数5】
【0098】
トーナリティ算出器503は、以下の式(6)を用い、各バークスペクトルのスペクトル平坦度SFM(k)を求める。
【0099】
【数6】
ここで、μg(k)は第kバークスペクトルに含まれるパワースペクトルの幾何平均、μa(k)は第kバークスペクトルに含まれるパワースペクトルの算術平均を表す。そして、トーナリティ算出器503は、以下の式(7)を用いてスペクトル平坦度SFM(k)のデシベル値SFMdB(k)からトーナリティ係数α(k)を算出する。
【0100】
【数7】
【0101】
聴覚マスキング算出器504は、以下の式(8)を用いてトーナリティ算出器503で算出したトーナリティ係数α(k)から各バークスケールのオフセットO(k)を求める。
【0102】
【数8】
【0103】
そして、聴覚マスキング算出器504は、以下の式(9)を用いてスプレッド関数畳み込み器502で求めたC(k)からオフセットO(k)を減算して聴覚マスキングT(k)を算出する。
【0104】
【数9】
ここで、Tq(k)は絶対閾値を表す。絶対閾値は、人間の聴覚特性として観測される聴覚マスキングの最小値を表す。そして、聴覚マスキング算出器504は、バークスケールで表される聴覚マスキングT(k)をヘルツスケールに変換して推定聴覚マスキングM’(m)を求め、決定部403に出力する。
【0105】
このようにして求められた量子化の対象となる周波数mを使って、拡張レイヤ符号化器108にてMDCT係数の符号化を行う。図6は、本実施の形態の拡張レイヤ符号化器の内部構成の一例を示すブロック図である。図6の拡張レイヤ符号化器108は、MDCT部601と、MDCT係数量子化器602とから主に構成される。
【0106】
MDCT部601は、減算器106から出力された入力信号に分析窓を乗じた後、MDCT変換(変形離散コサイン変換)してMDCT係数を求める。MDCT変換は、前後の隣接フレームと分析フレームを半分ずつ完全に重ね合わせ、分析フレームの前半部は奇関数、後半部は偶関数という直交基底を用いる。MDCT変換は、波形を合成する際、逆変換後の波形を重ね合わせて加算することにより、フレーム境界歪が発生しないという特徴がある。MDCTを行う際には、sin窓などの窓関数を入力信号に乗ずる。MDCT係数をX(n)とすると、MDCT係数は、式(10)に従い算出される。
【0107】
【数10】
【0108】
MDCT係数量子化器602は、MDCT部601から出力された入力信号に周波数決定部107から出力された量子化の対象となる周波数に対応する係数を量子化する。そして、MDCT係数量子化器602は、量子化したMDCT係数の符号化コードを多重化器109に出力する。
【0109】
このように、本実施の形態の音響符号化装置によれば、基本レイヤの符号化コードを復号化した信号から拡張レイヤの符号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化信号のみで拡張レイヤの符号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0110】
なお、上記実施の形態では、FFTを使った聴覚マスキングの算出法について説明しているが、FFTの代わりMDCTを使って聴覚マスキングを算出することもできる。図7は、本実施の形態の周波数決定部の内部構成の一例を示すブロック図である。但し、図5と同一の構成となるものについては、図5と同一番号を付し、詳しい説明を省略する。
【0111】
MDCT部701は、MDCT係数を使って振幅スペクトルP(m)を近似する。具体的には、MDCT部701は、以下の式(11)を用いてP(m)を近似する。
【0112】
【数11】
ここで、R(m)は、アップサンプリング器104から与えられる信号をMDCT変換して求めたMDCT係数を表す。
【0113】
推定聴覚マスキング算出器402は、MDCT部701において近似されたP(m)からバークスペクトルB(k)を算出する。それ以後は上述した方法に従い量子化の対象となる周波数情報を算出する。
【0114】
このように、本実施の形態の音響符号化装置は、MDCTを使って聴覚マスキングを算出することもできる。
【0115】
次に、復号化側について説明する。図8は、本発明の実施の形態1に係る音響復号化装置の構成を示すブロック図である。図8の音響復号化装置800は、分離器801と、基本レイヤ復号化器802と、アップサンプリング器803と、周波数決定部804と、拡張レイヤ復号化器805と、加算器806とから主に構成される。
【0116】
分離器801は、音響符号化装置100において符号化されたコードを基本レイヤ用の第1符号化コードと拡張レイヤ用の第2符号化コードに分離し、第1符号化コードを基本レイヤ復号化器802に出力し、第2符号化コードを拡張レイヤ復号化器805に出力する。
【0117】
基本レイヤ復号化器802は、第1符号化コードを復号してサンプリングレートFLの復号信号を得る。そして、基本レイヤ復号化器802は、復号信号をアップサンプリング器803に出力する。アップサンプリング器803は、サンプリングレートFLの復号信号をサンプリングレートFHの復号信号に変換して周波数決定部804と加算器806に出力する。
【0118】
周波数決定部804は、アップサンプリングされた基本レイヤの復号信号を用いて拡張レイヤ復号化器805で復号化の対象となる誤差スペクトルの周波数を決定する。この周波数決定部804は、図1の周波数決定部107と同様の構成をとる。
【0119】
拡張レイヤ復号化器805は、第2符号化コードを復号してサンプリングレートFHの復号信号を得る。そして、拡張レイヤ復号化器805は、復号された拡張フレーム単位の復号信号を重ね合わせ、重ね合わせた復号信号を加算器806に出力する。具体的には、拡張レイヤ復号化器805は、復号信号に合成用の窓関数を乗じ、前フレームで復号された時間領域の信号とフレームの半分だけオーバーラップさせて加算して出力信号を生成する。
【0120】
加算器806は、アップサンプリング器803においてアップサンプリングされた基本レイヤの復号信号と、加算器806において復号化された拡張レイヤの復号信号とを加算して出力する。
【0121】
次に、本実施の形態に係る音響復号化装置の各ブロックの詳細な動作について説明する。図9は、本実施の形態の音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図である。図9は、図8の拡張レイヤ復号化器805の内部構成の一例を示す図である。図9の拡張レイヤ復号化器805は、MDCT係数復号化器901と、IMDCT部902と、重ね合わせ加算器903とから主に構成される。
【0122】
MDCT係数復号化器901は、周波数決定部804から出力される復号化の対象となる誤差スペクトルの周波数に基づいて分離器801から出力される第2符号化コードから量子化されたMDCT係数を復号する。具体的には、周波数決定部804から示された信号の周波数に対応する復号MDCT係数を配置し、それ以外の周波数にはゼロを与える。
【0123】
IMDCT部902は、MDCT係数復号化器901から出力されるMDCT係数に逆MDCT変換を施し、時間領域の信号を生成して重ね合わせ加算器903に出力する。
【0124】
重ね合わせ加算器903は、復号された拡張フレーム単位の復号信号を重ね合わせ、重ね合わせた復号信号を加算器806に出力する。具体的には、重ね合わせ加算器903は、復号信号に合成用の窓関数を乗じ、前フレームで復号された時間領域の信号とフレームの半分だけオーバーラップさせて加算して出力信号を生成する。
【0125】
このように、本実施の形態の音響復号化装置によれば、基本レイヤの符号化コードを復号化した信号から拡張レイヤの復号化の対象となる周波数を決定することにより、符号化側から復号化側に伝送する基本レイヤの符号化コードのみで拡張レイヤの復号化の対象となる周波数を決定することができ、符号化側から復号化側にこの周波数の情報を伝送する必要がなくなり、低ビットレートで高品質に符号化を行うことができる。
【0126】
(実施の形態2)
本実施の形態では、基本レイヤの符号化においてCELPを用いる例について説明する。図10は、本発明の実施の形態2の基本レイヤ符号化器の内部構成の一例を示すブロック図である。図10は、図1の基本レイヤ符号化器102の内部構成を示す図である。図10の基本レイヤ符号化器102は、LPC分析器1001と、聴感重み部1002と、適応符号帳探索器1003と、適応ゲイン量子化器1004と、目標ベクトル生成器1005と、雑音符号帳探索器1006と、雑音ゲイン量子化器1007と、多重化器1008とから主に構成される。
【0127】
LPC分析器1001は、サンプリングレートFLの入力信号のLPC係数を算出し、このLPC係数をLSP係数などの量子化に適したパラメータに変換して量子化する。そして、LPC分析器1001は、この量子化で得られる符号化コードを多重化器1008に出力する。
【0128】
また、LPC分析器1001は、符号化コードから量子化後のLSP係数を算出してLPC係数に変換し、量子化後のLPC係数を、適応符号帳探索器1003、適応ゲイン量子化器1004、雑音符号帳探索器1006、及び雑音ゲイン量子化器1007に出力する。さらに、LPC分析器1001は、量子化前のLPC係数を聴感重み部1002、適応符号帳探索器1003、適応ゲイン量子化器1004、雑音符号帳探索器1006、及び雑音ゲイン量子化器1007に出力する。
【0129】
聴感重み部1002は、LPC分析器1001で求められたLPC係数に基づいてダウンサンプリング器101から出力された入力信号に重み付けを行う。これは、量子化歪のスペクトルを入力信号のスペクトル包絡にマスクされるようスペクトル整形を行うことを目的としている。
【0130】
適応符号帳探索器1003では、聴覚重み付けされた入力信号を目標信号として適応符号帳の探索が行われる。過去の音源系列をピッチ周期で繰り返した信号を適応ベクトルと呼び、あらかじめ定められた範囲のピッチ周期で生成された適応ベクトルによって適応符号帳は構成される。
【0131】
聴覚重み付けされた入力信号をt(n)、ピッチ周期iの適応ベクトルに量子化前のLPC係数と量子化後のLPC係数で構成される重み付き合成フィルタのインパルス応答を畳み込んだ信号をpi(n)としたとき、適応符号帳探索器1003は、式(12)の評価関数Dを最小とする適応ベクトルのピッチ周期iをパラメータとして多重化器1008に出力する。
【0132】
【数12】
ここで、Nはベクトル長を表す。式(12)の第1項はピッチ周期iに独立なので、実際には、適応符号帳探索器1003は第2項のみを計算する。
【0133】
適応ゲイン量子化器1004は、適応ベクトルに乗じられる適応ゲインの量子化を行う。適応ゲインβは、以下の式(13)で表され、適応ゲイン量子化器1004は、この適応ゲインβをスカラー量子化し、量子化時に得られる符号を多重化器1008に出力する。
【0134】
【数13】
【0135】
目標ベクトル生成器1005は、入力信号から適応ベクトルの影響を減算して、雑音符号帳探索器1006と雑音ゲイン量子化器1007で用いる目標ベクトルを生成して出力する。目標ベクトル生成器1005は、pi(n)を式12で表される評価関数Dを最小とするときの適応ベクトルに重み付き合成フィルタのインパルス応答を畳み込んだ信号、βqを式13で表される適応ベクトルβをスカラー量子化したときの量子化値としたとき、目標ベクトルt2(n)は、以下に示す式(14)のように表される。
【0136】
【数14】
【0137】
雑音符号帳探索器1006は、前記目標ベクトルt2(n)と量子化前のLPC係数と量子化後のLPC係数を用いて雑音符号帳の探索を行う。例えば、雑音符号帳探索器1006には、ランダム雑音や大規模な音声信号を使って学習した信号を用いることができる。また、雑音符号帳探索器1006が備える雑音符号帳は、代数(Algebraic)符号帳のように、振幅1のパルスをあらかじめ定められた非常に少ない数だけ有するベクトルで表されることができる。この代数符号長は、パルスの位置とパルスの符号(極性)の最適な組み合わせを少ない計算量で決定することができるという特徴がある。
【0138】
雑音符号帳探索器1006は、目標ベクトルをt2(n)、コードjに対応する雑音ベクトルに重み付き合成フィルタのインパルス応答を畳み込んだ信号をcj(n)としたとき、以下に示す式(15)の評価関数Dを最小とする雑音ベクトルのインデックスjを多重化器1008に出力する。
【0139】
【数15】
【0140】
雑音ゲイン量子化器1007は、雑音ベクトルに乗じる雑音ゲインを量子化する。雑音ゲイン量子化器1007は、以下に示す式(16)を用いて雑音ゲインγを算出し、この雑音ゲインγをスカラー量子化して多重化器1008に出力する。
【0141】
【数16】
【0142】
多重化器1008は、送られてきたLPC係数、適応ベクトル、適応ゲイン、雑音ベクトル、雑音ゲインの符号化コードを多重化して局所復号化器103及び多重化器109に出力する。
【0143】
次に、復号化側について説明する。図11は、本実施の形態の基本レイヤ復号化器の内部構成の一例を示すブロック図である。図11は、図6の基本レイヤ復号化器802の内部構成を示す図である。図11の基本レイヤ復号化器802は、分離器1101と、音源生成器1102と、合成フィルタ1103とから主に構成される。
【0144】
分離器1101は、分離器801から出力された第1符号化コードをLPC係数、適応ベクトル、適応ゲイン、雑音ベクトル、雑音ゲインの符号化コードに分離して、適応ベクトル、適応ゲイン、雑音ベクトル、雑音ゲインの符号化コードを音源生成器1102に出力する。同様に、分離器1101は、LPC係数の符号化コードを合成フィルタ1103に出力する。
【0145】
音源生成器1102は、適応ベクトル、適応ベクトルゲイン、雑音ベクトル、雑音ベクトルゲインの符号化コードを復号し、以下に示す式(17)を用いて音源ベクトルex(n)を生成する。
【0146】
【数17】
ここで、q(n)は適応ベクトル、βqは適応ベクトルゲイン、c(n)は雑音ベクトル、γqは雑音ベクトルゲインを表す。
【0147】
合成フィルタ1103では、LPC係数の符号化コードからLPC係数を復号し、以下に示す式(18)を用いて復号されたLPC係数から合成信号syn(n)を生成する。
【0148】
【数18】
ここで、αqは復号されたLPC係数、NPはLPC係数の次数を表す。そして、合成フィルタ1103は、復号された復号信号syn(n)をアップサンプリング器803に出力する。
【0149】
このように、本実施の形態の音響符号化装置及び音響復号化装置によれば、送信側において、基本レイヤにCELPを適用して入力信号を符号化し、受信側において、この符号化した入力信号にCELPを適用して復号することにより、低ビットレートで高品質な基本レイヤを実現することができる。
【0150】
なお、本実施の形態の音声符号化装置は、量子化歪の知覚を抑制するために、合成フィルタ1103の後にポストフィルタを従属接続する構成を採ることもできる。図12は、本実施の形態の基本レイヤ復号化器の内部構成の一例を示すブロック図である。但し、図11と同一の構成となるものについては、図11と同一番号を付し、詳しい説明を省略する。
【0151】
ポストフィルタ1201は、量子化歪の知覚の抑制の実現のために様々な構成を適用しうるが、代表的な方法として、分離器1101で復号されて得られるLPC係数から構成されるホルマント強調フィルタを用いる方法がある。ホルマント強調フィルタHf(z)は以下に示す式(19)で表される。
【0152】
【数19】
ここで、A(z)は復号LPC係数から構成される合成フィルタ、γn、γd、μはフィルタの特性を決定する定数を表す。
【0153】
(実施の形態3)
図13は、本発明の実施の形態3に係る音響符号化装置の周波数決定部の内部構成の一例を示すブロック図である。但し、図4と同一の構成となるものについては、図4と同一番号を付し、詳しい説明を省略する。図13の周波数決定部107は、推定誤差スペクトル算出器1301と、決定部1302とを具備し、基本レイヤ復号信号の振幅スペクトルP(m)から推定誤差スペクトルE’(m)を推定し、推定誤差スペクトルE’(m)と推定聴覚マスキングM’(m)とを用いて拡張レイヤ符号化器108で符号化される誤差スペクトルの周波数を決定する点が図4と異なる。
【0154】
FFT部401は、アップサンプリング器104から出力された基本レイヤ復号信号x(n)を直交変換して振幅スペクトルP(m)を算出して推定聴覚マスキング算出器402と推定誤差スペクトル算出器1301に出力する。
【0155】
推定誤差スペクトル算出器1301は、FFT部401で算出される基本レイヤ復号信号の振幅スペクトルP(m)から推定誤差スペクトルE’(m)を算出して決定部1302に出力する。推定誤差スペクトルE’(m)は、基本レイヤ復号信号の振幅スペクトルP(m)を平坦に近づける処理を施し算出される。具体的には、推定誤差スペクトル算出器1301は、以下の式(20)を用いて推定誤差スペクトルE’(m)を算出する。
【0156】
【数20】
ここでaとγは0以上1未満の定数を表す。
【0157】
決定部1302は、推定誤差スペクトル算出器1301において推定された推定誤差スペクトルE’(m)と推定聴覚マスキング算出器402で得られる推定聴覚マスキングM’(m)を用いて拡張レイヤ符号化器108で誤差スペクトルを符号化する対象の周波数を決定する。
【0158】
次に、本実施の形態の推定誤差スペクトル算出器1301が算出する推定誤差スペクトルについて説明する。図14は、本実施の形態の推定誤差スペクトル算出器が算出する残差スペクトルの一例を示す図である。
【0159】
誤差スペクトルE(m)は、図14に示すように基本レイヤ復号信号の振幅スペクトルP(m)に比べスペクトルの形状が平坦になり、かつ全帯域のパワーが小さくなっている。よって、振幅スペクトルP(m)をγ(0<γ<1)乗することによりスペクトル形状を平坦化し、a(0<a<1)倍することにより全体域のパワーを減少させることにより、誤差スペクトルの推定精度を向上させることができる。
【0160】
同様に、復号化側も音響復号化装置800の周波数決定部804の内部構成を符号化側の図13の周波数決定部107と同じ構成とする。
【0161】
このように、本実施の形態の音響符号化装置によれば、基本レイヤの復号信号のスペクトルから推定した残差スペクトルを平滑化することにより、推定誤差スペクトルを残差スペクトルに近似することができ、拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0162】
なお、本実施の形態では、FFTを用いた場合について説明したが、前述した実施の形態1と同様に、FFTの代わりにMDCTを用いる構成も可能である。
【0163】
(実施の形態4)
図15は、本発明の実施の形態4に係る音響符号化装置の周波数決定部の内部構成の一例を示すブロック図である。但し、図4と同一の構成となるものについては、図4と同一番号を付し、詳しい説明を省略する。図15の周波数決定部107は、推定聴覚マスキング修正部1501と、決定部1502とを具備し、周波数決定部107において、基本レイヤ復号信号の振幅スペクトルP(m)から推定聴覚マスキング算出器402にて推定聴覚マスキングM’(m)を算出した後に、この推定聴覚マスキングM’(m)に基本レイヤ符号化器102の符号化コードの情報を基に修正を加える点が図4と異なる。
【0164】
FFT部401は、アップサンプリング器104から出力された基本レイヤ復号信号x(n)を直交変換して振幅スペクトルP(m)を算出して推定聴覚マスキング算出器402と決定部1502に出力する。推定聴覚マスキング算出器402は、基本レイヤ復号信号の振幅スペクトルP(m)を用いて推定聴覚マスキングM’(m)を算出して推定聴覚マスキング修正部1501に出力する。
【0165】
推定聴覚マスキング修正部1501は、基本レイヤ符号化器102から入力される基本レイヤの符号化コードの情報を用いて推定聴覚マスキング算出器402で求められる推定聴覚マスキングM’(m)に修正を加える。
【0166】
ここでは、基本レイヤの符号化コードの情報として、復号LPC係数から算出される1次のPARCOR係数が与えられるものとする。一般にLPC係数やPARCOR係数は入力信号のスペクトル包絡を表現する。PARCOR係数の次数を下げていくと、PARCOR係数の性質から、スペクトル包絡の形状が簡略化されてゆき、PARCOR係数の次数が1次のときにスペクトルの傾きの程度を表すようになる。
【0167】
一方で、入力信号として与えられる楽音や音声のスペクトル特性には、高域に対して低域にパワーが偏っている場合(例えば母音)やその逆の場合(例えば子音)が存在する。基本レイヤ復号信号はこういった入力信号のスペクトル特性に影響を受けやすく、必要以上にスペクトルのパワーの偏りを強調してしまう傾向にある。
【0168】
そこで、本実施の形態の音響符号化装置は、推定聴覚マスキング修正部1501において、前述した1次のPARCOR係数を利用して過度に強調されたスペクトルの偏りを補正することにより、推定マスキングM’(m)の精度を向上させることができる。
【0169】
推定聴覚マスキング修正部1501は、以下に示す式(21)を用いて基本レイヤ符号化器102から出力された1次のPARCOR係数k(1)から修正フィルタHk(z)を算出する。
【0170】
【数21】
ここでβは1未満の正の定数を表す。次に、推定聴覚マスキング修正部1501は、以下に示す式(22)を用いてHk(z)の振幅特性K(m)を算出する。
【0171】
【数22】
【0172】
そして、推定聴覚マスキング修正部1501は、以下の式(23)を用いて修正フィルタの振幅特性K(m)から修正後の推定聴覚マスキングM’’(m)を算出する。
【0173】
【数23】
【0174】
そして、推定聴覚マスキング修正部1501は、推定聴覚マスキングM’(m)の代わりに修正後の聴覚マスキングM’’(m)を決定部1502に出力する。
【0175】
決定部1502は、基本レイヤ復号信号の振幅スペクトルP(m)と推定聴覚マスキング修正部1501から出力される修正後の聴覚マスキングM’’(m)を用いて拡張レイヤ符号化器108で誤差スペクトルを符号化する対象の周波数を決定する。
【0176】
このように本実施の形態の音響符号化装置によれば、マスキング効果の特性を利用して、入力信号のスペクトルから聴覚マスキングを算出し、拡張レイヤの符号化において、量子化歪をこのマスキング値以下になるように量子化を行うことにより、品質の劣化を伴わずに量子化の対象となるMDCT係数の数を減らすことができ、低ビットレートで高品質に符号化を行うことができる。
【0177】
このように、本実施の形態の音響符号化装置によれば、基本レイヤ復号信号の振幅スペクトルから推定した推定聴覚マスキングを、基本レイヤ符号化器の符号化コードの情報を基に修正を加えることにより、推定聴覚マスキングの精度を向上させることができ、結果拡張レイヤにて誤差スペクトルを効率よく符号化することができる。
【0178】
同様に、復号化側も音響復号化装置800の周波数決定部804の内部構成を符号化側の図15の周波数決定部107と同じ構成とする。
【0179】
なお、本実施の形態の周波数決定部107は、本実施の形態と実施の形態3とを組み合わせた構成を採ることもできる。図16は、本実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図である。但し、図4と同一の構成となるものについては、図4と同一番号を付し、詳しい説明を省略する。
【0180】
FFT部401は、アップサンプリング器104から出力された基本レイヤ復号信号x(n)を直交変換して振幅スペクトルP(m)を算出して推定聴覚マスキング算出器402と推定誤差スペクトル算出器1301に出力する。
【0181】
推定聴覚マスキング算出器402は、基本レイヤ復号信号の振幅スペクトルP(m)を用いて推定聴覚マスキングM’(m)を算出して推定聴覚マスキング修正部1501に出力する。
【0182】
推定聴覚マスキング修正部1501は、基本レイヤ符号化器102から入力される基本レイヤの符号化コードの情報が推定聴覚マスキング修正部1501を用いて推定聴覚マスキング算出器402で求められる推定聴覚マスキングM’(m)に修正を加える。
【0183】
推定誤差スペクトル算出器1301は、FFT部401で算出される基本レイヤ復号信号の振幅スペクトルP(m)から推定誤差スペクトルE’(m)を算出して決定部1601に出力する。
【0184】
決定部1601は、推定誤差スペクトル算出器1301において推定された推定誤差スペクトルE’(m)と推定聴覚マスキング修正部1501から出力される修正後の聴覚マスキングM’’(m)を用いて拡張レイヤ符号化器108で誤差スペクトルを符号化する対象の周波数を決定する。
【0185】
また、本実施の形態では、FFTを用いた場合について説明したが、前述した実施の形態1と同様に、FFTの代わりにMDCTを用いる構成も可能である。
【0186】
(実施の形態5)
図17は、本発明の実施の形態5に係る音響符号化装置の拡張レイヤ符号化器の内部構成の一例を示すブロック図である。但し、図6と同一の構成となるものについては、図6と同一番号を付し、詳しい説明を省略する。図17の拡張レイヤ符号化器は、順序づけ部1701と、MDCT係数量子化器1702を具備し、周波数決定部107から与えられる周波数を推定歪値D(m)の大きさに従い周波数別で符号化後の情報量に重み付けを行う点が図6の拡張レイヤ符号化器と異なる。
【0187】
図17において、MDCT部601は、減算器106から出力された入力信号に分析窓を乗じた後、MDCT変換(変形離散コサイン変換)してMDCT係数を求め、MDCT係数量子化器1702に出力する。
【0188】
順序づけ部1701は、周波数決定部107で求められた周波数情報を受けつけ、各周波数の推定誤差スペクトルE’(m)が推定聴覚マスキングM’(m)を超える量(以後、推定歪値と呼ぶ)D(m)を算出する。この推定歪値D(m)は、以下に示す式(24)で定義される。
【0189】
【数24】
【0190】
ここで、順序づけ部1701は、以下に示す式(25)を満たす推定歪値D(m)のみ算出する。
【0191】
【数25】
【0192】
そして、順序づけ部1701は、推定歪値D(m)の大きさが大きいものから順序付けを行い、その周波数情報をMDCT係数量子化器1702に出力する。MDCT係数量子化器1702では、推定歪値D(m)により順序付けされた周波数情報を基に、推定歪値D(m)の大きいものからその周波数に位置する誤差スペクトルE(m)にビットを多く配分して量子化を行う。
【0193】
ここでは例として、周波数決定手段から送られてくる周波数と推定歪値が図18である場合について説明する。図18は、本実施の形態の順序づけ部の推定歪値の順位づけの一例を示す図である。
【0194】
順序づけ部1701は、図18の情報から、推定歪値D(m)が大きい順に周波数の並べ替えを行う。この例では、順序づけ部1701の処理の結果、周波数m=7、8、4、9、1、11、3、12の順序が得られる。順序づけ部1701は、この順序付けの情報をMDCT係数量子化器1702に出力する。
【0195】
MDCT係数量子化器1702では、MDCT部601から与えられる誤差スペクトルE(m)の内、順序づけ部1701から与えられる順序付けの情報を基にして、E(7)、E(8)、E(4)、E(9)、E(1)、E(11)、E(3)、E(12)を量子化する。
【0196】
このとき、順序づけの先頭に位置する誤差スペクトルの量子化に用いられるビット数は多く配分され、末尾にいくに従いビット数は少なく配分される。すなわち、推定歪値D(m)が大きい周波数ほど誤差スペクトルの量子化に用いられるビット数は多く配分され、推定歪値D(m)が小さい周波数ほど誤差スペクトルの量子化に用いられるビット数は少なく配分される。
【0197】
例えば、E(7)を8ビット、E(8)、E(4)を7ビット、E(9)、E(1)を6ビット、E(11)、E(3)、E(12)を5ビットというようなビット配分を実施する。このような推定歪値D(m)に応じた適応ビット配分を行うことにより、量子化の効率が向上することになる。
【0198】
ベクトル量子化を適用する場合には、拡張レイヤ符号化器108は、先頭に位置する誤差スペクトルから順にベクトルを構成し、それぞれのベクトルに対してベクトル量子化を行う。このとき、先頭に位置する誤差スペクトルのビット配分が多くなり、末尾に位置する誤差スペクトルのビット配分が小さくなるようなベクトルの構成と量子化ビット配分が成される。図18の例では、V1=(E(7)、E(8))、V2=(E(4)、E(9))、V3=(E(1)、E(11)、E(3)、E(12))のように、2次元、2次元、4次元の3ベクトルを構成し、V1を10ビット、V2を8ビット、V3を8ビットというようなビット配分を行う。
【0199】
このように、本実施の形態の音響符号化装置によれば、拡張レイヤでの符号化において、推定誤差スペクトルが推定聴覚マスキングを超える量が大きい周波数に多くの情報量を配分して符号化することにより、量子化効率の向上を図ることができる。
【0200】
次に復号化側について説明する。図19は、本発明の実施の形態5に係るの音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図である。但し、図9と同一の構成となるものについては、図9と同一番号を付し、詳しい説明を省略する。図19の拡張レイヤ復号化器805は、順序づけ部1901と、MDCT係数復号化器1902とを具備し、周波数決定部804から与えられる周波数を推定歪値D(m)の大きさに従い順序付けを行う点が図9と異なる。
【0201】
順序づけ部1901は、上述の式(24)を用いて推定歪値D(m)を算出する。順序づけ部1901は、上述の順序づけ部1701と同一の構成を採る。この構成により適応ビット配分を行い量子化効率の向上を図ることができる上述の音響符号化法の符号化コードを復号することができる。
【0202】
MDCT係数復号化器1902は、推定歪値D(m)の大きさに従い順序付けされた周波数の情報を用いて分離器801から出力された第2符号化コードを復号化する。具体的には、MDCT係数復号化器1902は、周波数決定部804から与えられる周波数に対応する復号MDCT係数を配置し、それ以外の周波数にはゼロを与える。次にIMDCT部902は、MDCT係数復号化器1902から得られるMDCT係数に逆MDCT変換を施し、時間領域の信号を生成する。
【0203】
重ね合わせ加算器903は、前記信号に合成用の窓関数を乗じ、前フレームで復号された時間領域の信号とフレームの半分だけオーバーラップさせて加算して出力信号を生成する。重ね合わせ加算器903は、この出力信号を加算器806に出力する。
【0204】
このように、本実施の形態の音響復号化装置によれば、拡張レイヤでの符号化において、推定誤差スペクトルが推定聴覚マスキングを超える量に応じて適応ビット配分されたベクトル量子化を行うことにより、量子化効率の向上を図ることができる。
【0205】
(実施の形態6)
図20は、本発明の実施の形態6に係る音響符号化装置の拡張レイヤ符号化器の内部構成の一例を示すブロック図である。但し、図6と同一の構成となるものについては、図6と同一番号を付し、詳しい説明を省略する。図20の拡張レイヤ符号化器は、固定帯域指定部2001と、MDCT係数量子化器2002とを具備し、あらかじめ定めておいた帯域に含まれるMDCT係数を周波数決定部107から得られる周波数と共に量子化する点が図6の拡張レイヤ符号化器と異なる。
【0206】
図20において、固定帯域指定部2001には、あらかじめ聴感上重要な帯域が設定されている。ここでは、設定されている帯域に含まれる周波数をm=15、16とする。
【0207】
MDCT係数量子化器2002は、MDCT部601から出力された入力信号に周波数決定部107から出力された聴覚マスキングを用いて入力信号を量子化する係数と量子化しない係数に分類し、量子化する係数と、さらに固定帯域指定部2001が設定する帯域にある係数を符号化する。
【0208】
その周波数が図18で示されたものであるとすると、MDCT係数量子化器2002では、誤差スペクトルE(1)、E(3)、E(4)、E(7)、E(8)、E(9)、E(11)、E(12)および、固定帯域指定部2001で指定される周波数の誤差スペクトルE(15)、E(16)が量子化される。
【0209】
このように、本実施の形態の音響符号化装置によれば、符号化の対象として選択されにくいが聴覚的に重要な帯域を強制的に量子化することにより、本来符号化の対象として選択されるべき周波数が選択されない場合でも、聴覚的に重要な帯域に含まれる周波数に位置する誤差スペクトルは必ず量子化されることになり、品質を改善することができる。
【0210】
次に、復号化側について説明する。図21は、本発明の実施の形態6に係る音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図である。但し、図9と同一の構成となるものについては、図9と同一番号を付し、詳しい説明を省略する。図21の拡張レイヤ復号化器は、固定帯域指定部2101と、MDCT係数復号化器2102とを具備し、あらかじめ定めておいた帯域に含まれるMDCT係数を周波数決定部804から得られる周波数と共に復号化する点が図9の拡張レイヤ復号化器と異なる。
【0211】
図21において、固定帯域指定部2101には、あらかじめ聴感上重要な帯域が設定されている。
【0212】
MDCT係数復号化器2102は、周波数決定部804から出力される復号化の対象となる誤差スペクトルの周波数に基づいて分離器801から出力される第2符号化コードから量子化されたMDCT係数を復号する。具体的には、周波数決定部804と固定帯域指定部2101から示された信号の周波数に対応する復号MDCT係数を配置し、それ以外の周波数にはゼロを与える。
【0213】
IMDCT部902は、MDCT係数復号化器2102から出力されるMDCT係数に逆MDCT変換を施し、時間領域の信号を生成して重ね合わせ加算器903に出力する。
【0214】
このように、本実施の形態の音響復号化装置によれば、あらかじめ定めておいた帯域に含まれるMDCT係数を復号化することにより、符号化の対象として選択されにくいが聴覚的に重要な帯域を強制的に量子化された信号を復号化することができ、符号化側において本来符号化の対象として選択されるべき周波数が選択されない場合でも、聴覚的に重要な帯域に含まれる周波数に位置する誤差スペクトルは必ず量子化されることになり、品質の改善することができる。
【0215】
なお、本実施の形態の拡張レイヤ符号化器及び拡張レイヤ復号化器は、本実施の形態と実施の形態5とを組み合わせた構成を採ることもできる。図22は、本実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図である。但し、図6と同一の構成となるものについては、図6と同一番号を付し、詳しい説明を省略する。
【0216】
図22において、MDCT部601は、減算器106から出力された入力信号に分析窓を乗じた後、MDCT変換(変形離散コサイン変換)してMDCT係数を求め、MDCT係数量子化器2201に出力する。
【0217】
順序づけ部1701は、周波数決定部107で求められた周波数情報を受けつけ、各周波数の推定誤差スペクトルE’(m)が推定聴覚マスキングM’(m)を超える量(以後、推定歪値と呼ぶ)D(m)を算出する。
固定帯域指定部2001には、あらかじめ聴感上重要な帯域が設定されている。
【0218】
MDCT係数量子化器2201では、推定歪値D(m)により順序付けされた周波数情報を基に、推定歪値D(m)の大きいものからその周波数に位置する誤差スペクトルE(m)にビットを多く配分して量子化を行う。また、MDCT係数量子化器2201は、固定帯域指定部2001が設定する帯域にある係数を符号化する。
【0219】
次に復号化側について説明する。図23は、本発明の実施の形態6に係る音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図である。但し、図9と同一の構成となるものについては、図9と同一番号を付し、詳しい説明を省略する。
【0220】
図23において、順序づけ部1901は、周波数決定部804で求められた周波数情報を受けつけ、各周波数の推定誤差スペクトルE’(m)が推定聴覚マスキングM’(m)を超える量(以後、推定歪値と呼ぶ)D(m)を算出する。
【0221】
そして、順序づけ部1901は、推定歪値D(m)の大きさが大きいものから順序付けを行い、その周波数情報をMDCT係数復号化器2301に出力する。固定帯域指定部2101には、あらかじめ聴感上重要な帯域が設定されている。
【0222】
MDCT係数復号化器2301は、順序づけ部1901から出力される復号化の対象となる誤差スペクトルの周波数に基づいて分離器801から出力される第2符号化コードから量子化されたMDCT係数を復号する。具体的には、周波数決定部804と固定帯域指定部2101から示された信号の周波数に対応する復号MDCT係数を配置し、それ以外の周波数にはゼロを与える。
【0223】
IMDCT部902は、MDCT係数復号化器2301から出力されるMDCT係数に逆MDCT変換を施し、時間領域の信号を生成して重ね合わせ加算器903に出力する。
【0224】
(実施の形態7)
次に、本発明の実施の形態7について、図面を参照して説明する。図24は、本発明の実施の形態7に係る通信装置の構成を示すブロック図である。図23における信号処理装置2403は前述した実施の形態1から実施の形態6に示した音響符号化装置の中の1つによって構成されている点に本実施の形態の特徴がある。
【0225】
図24に示すように、本発明の実施の形態7に係る通信装置2400は、入力装置2401、A/D変換装置2402及びネットワーク2404に接続されている信号処理装置2403を具備している。
【0226】
A/D変換装置2402は、入力装置2401の出力端子に接続されている。信号処理装置2403の入力端子は、A/D変換装置2402の出力端子に接続されている。信号処理装置2403の出力端子はネットワーク2404に接続されている。
【0227】
入力装置2401は、人間の耳に聞こえる音波を電気的信号であるアナログ信号に変換してA/D変換装置2402に与える。A/D変換装置2402はアナログ信号をディジタル信号に変換して信号処理装置2403に与える。信号処理装置2403は入力されてくるディジタル信号を符号化してコードを生成し、ネットワーク2404に出力する。
【0228】
このように、本発明の実施の形態の通信装置によれば、通信において前述した実施の形態1〜6に示したような効果を享受でき、少ないビット数で効率よく音響信号を符号化する音響符号化装置を提供することができる。
【0229】
(実施の形態8)
次に、本発明の実施の形態8について、図面を参照して説明する。図25は、本発明の実施の形態8に係る通信装置の構成を示すブロック図である。図25における信号処理装置2503は前述した実施の形態1から実施の形態6に示した音響復号化装置の中の1つによって構成されている点に本実施の形態の特徴がある。
【0230】
図25に示すように、本発明の実施の形態8に係る通信装置2500は、ネットワーク2501に接続されている受信装置2502、信号処理装置2503、及びD/A変換装置2504及び出力装置2505を具備している。
【0231】
受信装置2502の入力端子は、ネットワーク2501に接続されている。信号処理装置2503の入力端子は、受信装置2502の出力端子に接続されている。D/A変換装置2504の入力端子は、信号処理装置2503の出力端子に接続されている。出力装置2505の入力端子は、D/A変換装置2504の出力端子に接続されている。
【0232】
受信装置2502は、ネットワーク2501からのディジタルの符号化音響信号を受けてディジタルの受信音響信号を生成して信号処理装置2503に与える。信号処理装置2503は、受信装置2502からの受信音響信号を受けてこの受信音響信号に復号化処理を行ってディジタルの復号化音響信号を生成してD/A変換装置2504に与える。D/A変換装置2504は、信号処理装置2503からのディジタルの復号化音声信号を変換してアナログの復号化音声信号を生成して出力装置2505に与える。出力装置2505は、電気的信号であるアナログの復号化音響信号を空気の振動に変換して音波として人間の耳に聴こえるように出力する。
【0233】
このように、本実施の形態の通信装置によれば、通信において前述した実施の形態1〜6に示したような効果を享受でき、少ないビット数で効率よく符号化された音響信号を復号することができるので、良好な音響信号を出力することができる。
【0234】
(実施の形態9)
次に、本発明の実施の形態9について、図面を参照して説明する。図26は、本発明の実施の形態9に係る通信装置の構成を示すブロック図である。本発明の実施の形態9において、図26における信号処理装置2603は、前述した実施の形態1から実施の形態6に示した音響符号化器の中の1つによって構成されている点に本実施の形態の特徴がある。
【0235】
図26に示すように、本発明の実施の形態9に係る通信装置2600は、入力装置2601、A/D変換装置2602、信号処理装置2603、RF変調装置2604及びアンテナ2605を具備している。
【0236】
入力装置2601は人間の耳に聞こえる音波を電気的信号であるアナログ信号に変換してA/D変換装置2602に与える。A/D変換装置2602はアナログ信号をディジタル信号に変換して信号処理装置2603に与える。信号処理装置2603は入力されてくるディジタル信号を符号化して符号化音響信号を生成し、RF変調装置2604に与える。RF変調装置2604は、符号化音響信号を変調して変調符号化音響信号を生成し、アンテナ2605に与える。アンテナ2605は、変調符号化音響信号を電波として送信する。
【0237】
このように、本実施の形態の通信装置によれば、無線通信において前述した実施の形態1〜6に示したような効果を享受でき、少ないビット数で効率よく音響信号を符号化することができる。
【0238】
なお、本発明は、オーディオ信号を用いる送信装置、送信符号化装置又は音響信号符号化装置に適用することができる。また、本発明は、移動局装置又は基地局装置にも適用することができる。
【0239】
(実施の形態10)
次に、本発明の実施の形態10について、図面を参照して説明する。図27は、本発明の実施の形態10に係る通信装置の構成を示すブロック図である。本発明の実施の形態10において、図27における信号処理装置2703は、前述した実施の形態1から実施の形態6に示した音響復号化器の中の1つによって構成されている点に本実施の形態の特徴がある。
【0240】
図27に示すように、本発明の実施の形態10に係る通信装置2700は、アンテナ2701、RF復調装置2702、信号処理装置2703、D/A変換装置2704及び出力装置2705を具備している。
【0241】
アンテナ2701は、電波としてのディジタルの符号化音響信号を受けて電気信号のディジタルの受信符号化音響信号を生成してRF復調装置2702に与える。RF復調装置2702は、アンテナ2701からの受信符号化音響信号を復調して復調符号化音響信号を生成して信号処理装置2703に与える。
【0242】
信号処理装置2703は、RF復調装置2702からのディジタルの復調符号化音響信号を受けて復号化処理を行ってディジタルの復号化音響信号を生成してD/A変換装置2704に与える。D/A変換装置2704は、信号処理装置2703からのディジタルの復号化音声信号を変換してアナログの復号化音声信号を生成して出力装置2705に与える。出力装置2705は、電気的信号であるアナログの復号化音声信号を空気の振動に変換して音波として人間の耳に聴こえるように出力する。
【0243】
このように、本実施の形態の通信装置によれば、無線通信において前述した実施の形態1〜6に示したような効果を享受でき、少ないビット数で効率よく符号化された音響信号を復号することができるので、良好な音響信号を出力することができる。
【0244】
なお、本発明は、オーディオ信号を用いる受信装置、受信復号化装置又は音声信号復号化装置に適用することができる。また、本発明は、移動局装置又は基地局装置にも適用することができる。
【0245】
また、本発明は上記実施の形態に限定されず、種々変更して実施することが可能である。例えば、上記実施の形態では、信号処理装置として行う場合について説明しているが、これに限られるものではなく、この信号処理方法をソフトウェアとして行うことも可能である。
【0246】
例えば、上記信号処理方法を実行するプログラムを予めROM(Read Only Memory)に格納しておき、そのプログラムをCPU(Central Processor Unit)によって動作させるようにしても良い。
【0247】
また、上記信号処理方法を実行するプログラムをコンピュータで読み取り可能な記憶媒体に格納し、記憶媒体に格納されたプログラムをコンピュータのRAM(Random Access memory)に記録して、コンピュータをそのプログラムにしたがって動作させるようにしても良い。
【0248】
なお、上記説明では、時間領域から周波数領域への変換法にMDCTを用いる場合について説明を行っているがこれに限定されず直交変換であればいずれも適用できる。例えば、離散フーリエ変換または離散コサイン変換等を適用することもできる。
【0249】
なお、本発明は、オーディオ信号を用いる受信装置、受信復号化装置又は音声信号復号化装置に適用することができる。また、本発明は、移動局装置又は基地局装置にも適用することができる。
【0250】
【発明の効果】
以上説明したように、本発明の音響符号化装置及び音響符号化方法によれば、入力信号をダウンサンプリングして符号化し、符号化した信号を復号化してアップサンプリングし、このアップサンプリングした復号信号と入力信号との差分信号を符号化する符号化方法において、このアップサンプリングした復号信号から拡張レイヤで符号化の対象となる周波数を決定するため、符号化側と復号化側の両方にある信号のみで前記周波数を決定することができ、よって符号化側から復号化側にこの周波数の情報を伝送ことなく、低ビットレートで高品質に符号化を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1に係る音響符号化装置の構成を示すブロック図
【図2】音響信号の情報の分布の一例を示す図
【図3】基本レイヤと拡張レイヤで符号化の対象とする領域の一例を示す図
【図4】上記実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図
【図5】上記実施の形態の音響符号化装置の聴覚マスキング算出器の内部構成の一例を示す図
【図6】上記実施の形態の拡張レイヤ符号化器の内部構成の一例を示すブロック図
【図7】上記実施の形態の聴覚マスキング算出器の内部構成の一例を示すブロック図
【図8】本発明の実施の形態1に係る音響復号化装置の構成を示すブロック図
【図9】上記実施の形態の音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図
【図10】本発明の実施の形態2の基本レイヤ符号化器の内部構成の一例を示すブロック図
【図11】上記実施の形態の基本レイヤ復号化器の内部構成の一例を示すブロック図
【図12】上記実施の形態の基本レイヤ復号化器の内部構成の一例を示すブロック図
【図13】本発明の実施の形態3に係る音響符号化装置の周波数決定部の内部構成の一例を示すブロック図
【図14】上記実施の形態の推定誤差スペクトル算出器が算出する残差スペクトルの一例を示す図
【図15】本発明の実施の形態4に係る音響符号化装置の周波数決定部の内部構成の一例を示すブロック図
【図16】上記実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図
【図17】本発明の実施の形態5に係る音響符号化装置の拡張レイヤ符号化器の内部構成の一例を示すブロック図
【図18】上記実施の形態の順序づけ部の推定歪値の順位づけの一例を示す図
【図19】本発明の実施の形態5に係るの音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図
【図20】本発明の実施の形態6に係る音響符号化装置の拡張レイヤ符号化器の内部構成の一例を示すブロック図
【図21】本発明の実施の形態6に係る音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図
【図22】上記実施の形態の音響符号化装置の周波数決定部の内部構成の一例を示すブロック図
【図23】本発明の実施の形態6に係る音響復号化装置の拡張レイヤ復号化器の内部構成の一例を示すブロック図
【図24】本発明の実施の形態7に係る通信装置の構成を示すブロック図
【図25】本発明の実施の形態8に係る通信装置の構成を示すブロック図
【図26】本発明の実施の形態9に係る通信装置の構成を示すブロック図
【図27】本発明の実施の形態10に係る通信装置の構成を示すブロック図
【図28】音響(音楽)信号のスペクトルの一例を示す図
【符号の説明】
101 ダウンサンプリング器
102 基本レイヤ符号化器
103 局所復号化器
104 アップサンプリング器
105 遅延器
106 減算器
107、804 周波数決定部
108 拡張レイヤ符号化器
109 多重化器
401 FFT部
402 推定聴覚マスキング算出器
403 決定部
601、701 MDCT部
602 MDCT係数量子化器
801、1101 分離器
802 基本レイヤ復号化器
803 アップサンプリング器
805 拡張レイヤ復号化器
806、903 加算器
901 MDCT係数復号化器
902 IMDCT部
1102 音源生成器
1103 合成フィルタ
1301 推定誤差スペクトル算出器
1302、1502、1601 決定部
1501 推定聴覚マスキング修正部
1701、1901 順序づけ部
1702、2002、2201 MDCT係数量子化器
1902、2102、2301 MDCT係数復号化器
2001、2101 固定帯域指定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an acoustic encoding device and an acoustic encoding method for compressing and encoding an acoustic signal such as a musical tone signal or an audio signal with high efficiency. In particular, the present invention can decode musical tones and speech even from a part of the encoded code. The present invention relates to an acoustic encoding apparatus and an acoustic encoding method that perform scalable encoding.
[0002]
[Prior art]
An acoustic coding technique for compressing a musical sound signal or a voice signal at a low bit rate is important for the effective use of a transmission path capacity such as radio waves and a recording medium in mobile communication. There are methods such as G726 and G729 standardized by ITU (International Telecommunication Union) for speech coding for coding speech signals. These systems target narrowband signals (300 Hz to 3.4 kHz), and can encode with high quality at a bit rate of 8 kbit / s to 32 kbit / s.
[0003]
In addition, ITU G722 and G722.1, 3GPP (The 3rd Generation Partnership Project) AMR-WB, and the like exist as standard systems for encoding a wideband signal (50 Hz to 7 kHz). These systems can encode a wideband audio signal with high quality at a bit rate of 6.6 kbit / s to 64 kbit / s.
[0004]
CELP (Code Excited Linear Prediction) is an effective method for encoding an audio signal at a low bit rate with high efficiency. CELP is based on an engineered model of a human voice generation model, and passes excitation signals represented by random numbers and pulse trains through a pitch filter corresponding to the strength of periodicity and a synthesis filter corresponding to vocal tract characteristics, In this method, the encoding parameter is determined so that the square error between the output signal and the input signal is minimized under the weighting of auditory characteristics (see, for example, Non-Patent Document 1).
[0005]
Many of the recent standard speech coding schemes are based on CELP. For example, G729 can encode a narrowband signal at a bit rate of 8 kbit / s, and AMR-WB is 6.6 kbit / s to 23.85 kbit / s. A wideband signal can be encoded at a bit rate of.
[0006]
On the other hand, in the case of musical sound encoding for encoding a musical sound signal, the musical sound signal is converted into a frequency domain as in the
[0007]
However, when encoding a signal that is mainly an audio signal and music or environmental sound is superimposed on the background, if the audio encoding method is applied, only the signal in the background part is affected by the music in the background part or the environmental sound. There is also a problem that the audio signal is deteriorated and the overall quality is lowered. This is a problem that occurs because the speech coding method is based on a method specialized for a speech model called CELP. In addition, the signal band that can be handled by the speech coding method is up to 7 kHz, and there is a problem that it cannot fully cope with a signal having a higher frequency than that.
[0008]
On the other hand, since musical sound encoding can perform high-quality encoding on music, sufficient quality can be obtained even for audio signals having music and environmental sounds in the background as described above. In addition, the musical sound encoding can be applied to a signal whose target signal band is CD quality and whose sampling rate is about 22 kHz.
[0009]
On the other hand, in order to realize high-quality encoding, it is necessary to use a higher bit rate. If the bit rate is reduced to about 32 kbit / s, the quality of the decoded signal is greatly reduced. . Therefore, there is a problem that it cannot be used in a communication network with a low transmission rate.
[0010]
In order to avoid the above-described problems, these techniques are combined to first encode the input signal with CELP in the base layer, and then subtract the decoded signal from the input signal to obtain an error signal. A scalable coding in which transform coding is performed in the enhancement layer is conceivable.
[0011]
In this method, since the base layer uses CELP, the audio signal can be encoded with high quality, and the enhancement layer is higher than the background music and environmental sounds that cannot be represented by the base layer, and the frequency band covered by the base layer. It is possible to efficiently encode the frequency component signal. Furthermore, according to this configuration, the bit rate can be kept low. In addition, according to this configuration, it is possible to decode the acoustic signal from only a part of the encoded code, that is, the encoded code of the base layer, and such a scalable function is a multicast for a plurality of networks having different transmission capacities. It is effective for realizing.
[0012]
However, in order to ensure sufficient quality when music is input instead of voice, it is necessary to increase the bit allocation to the enhancement layer, resulting in a problem that the bit rate increases.
[0013]
In the coding of the base layer, a coding method specialized for speech, such as CELP, is used. However, the coding efficiency for music is not high in this CELP. When music signals are encoded, the power of the error signal (enhancement layer input signal) between the input signal and the decoded signal of the base layer increases. It was necessary to allocate bits to improve the quality of the final decoded signal.
[0014]
In order to solve this problem, it is conceivable to increase the coding efficiency by using auditory masking in the enhancement layer. Auditory masking uses human auditory characteristics that when a signal is given, a signal located in the vicinity of the frequency of the signal cannot be heard (masked).
[0015]
FIG. 28 is a diagram illustrating an example of a spectrum of an acoustic (music) signal. In FIG. 28, the solid line represents auditory masking, and the broken line represents an error spectrum. The error spectrum here refers to the spectrum of the error signal (enhancement layer input signal) between the input signal and the decoded signal of the base layer.
[0016]
The error spectrum represented by the hatched portion in FIG. 28 is not audible to human hearing because the amplitude value is smaller than that of auditory masking, and the amplitude value of the error spectrum exceeds the auditory masking in other regions. Is perceived.
[0017]
Therefore, in the enhancement layer, the error spectrum included in the white background portion in FIG. 28 may be encoded so that the quantization distortion in that region is smaller than the auditory masking. Also, since the coefficients belonging to the shaded area are already smaller than auditory masking, there is no need to quantize.
[0018]
[Non-Patent Document 1]
“Code-Excited Linear Prediction (CELP): high quality speech at very low bit rates”, Proc. ICASSP 85, pp. 937-940, 1985.
[0019]
[Problems to be solved by the invention]
However, in the conventional apparatus, it is necessary to transmit information of a frequency that needs to be quantized by auditory masking, and there is a problem that the amount of information to be transmitted increases and the bit rate cannot be lowered.
[0020]
The present invention has been made in view of the above points, and can encode a high-quality signal at a low bit rate even if the signal is mainly a voice and music or noise is superimposed on the background. An object is to provide an acoustic encoding device and an acoustic encoding method.
[0021]
[Means for Solving the Problems]
An acoustic encoding apparatus according to the present invention includes a downsampling unit that reduces a sampling rate of an input signal, a base layer encoding unit that encodes an input signal whose sampling rate is reduced, and a coded input signal that is decoded. Decoding means for obtaining a decoded signal; up-sampling means for increasing the sampling rate of the decoded signal to the same rate as the sampling rate of the input signal at the time of input; Subtracting means for obtaining an error signal from the difference between them, frequency determining means for determining a target frequency for encoding the error signal based on a decoded signal whose sampling rate is increased, and encoding the difference signal at the frequency And an enhancement layer encoding means.
[0022]
According to this configuration, only the base layer encoded signal transmitted from the encoding side to the decoding side is determined by determining the frequency to be encoded by the enhancement layer from the decoded signal of the encoded signal. The frequency to be encoded in the layer can be determined, and it is not necessary to transmit information on this frequency from the encoding side to the decoding side, and encoding can be performed with a low bit rate and high quality.
[0023]
The acoustic encoding apparatus of the present invention employs a configuration in which the base layer encoding means encodes an input signal using a code-excited linear prediction method.
[0024]
According to this configuration, at the transmitting side, CELP is applied to the base layer to encode an input signal, and at the receiving side, CELP is applied to the encoded input signal to perform decoding, so that a high bit rate can be achieved. A quality basic layer can be realized.
[0025]
The acoustic encoding apparatus according to the present invention employs a configuration in which the enhancement layer encoding means orthogonally transforms the difference signal from the time domain to the frequency domain and encodes the converted difference signal.
[0026]
According to this configuration, the difference signal is converted from the time domain to the frequency domain, and the frequency domain that cannot be covered by the encoding of the base layer is encoded by the enhancement layer for the converted signal, thereby changing the spectrum like music. It is possible to cope with a signal having a large value.
[0027]
The acoustic encoding apparatus of the present invention includes an auditory masking unit that calculates an auditory masking that represents an amplitude value that does not contribute to hearing, and the enhancement layer encoding unit encodes a signal in the auditory masking in the frequency determining unit. A configuration is adopted in which an encoding target is determined so as not to be an encoding target, and an error spectrum that is a spectrum of the error signal is encoded.
[0028]
In the audio encoding device of the present invention, the auditory masking means calculates the estimated auditory masking using the frequency domain conversion means for converting the decoded signal whose sampling rate is increased into a frequency domain coefficient, and the frequency domain coefficient. Estimated auditory masking calculating means, and determining means for obtaining a frequency at which the amplitude value of the spectrum of the decoded signal exceeds the amplitude value of the estimated auditory masking, wherein the enhancement layer encoding means is located at the frequency A configuration for encoding the error spectrum is adopted.
[0029]
According to these configurations, auditory masking is calculated from the spectrum of the input signal using the characteristics of the masking effect, and quantization is performed so that the quantization distortion is less than or equal to the masking value in the encoding of the enhancement layer. As a result, the number of MDCT coefficients to be quantized can be reduced without quality deterioration, and high-quality encoding can be performed at a low bit rate.
[0030]
In the acoustic encoding device of the present invention, the auditory masking means includes estimated error spectrum calculating means for calculating an estimated error spectrum using the frequency domain coefficient, and the determining means is an amplitude value of the estimated error spectrum. Adopts a configuration for obtaining a frequency exceeding the amplitude value of the estimated auditory masking.
[0031]
According to this configuration, the estimated error spectrum can be approximated to the residual spectrum by smoothing the residual spectrum estimated from the spectrum of the decoded signal of the base layer, and the error spectrum can be efficiently encoded in the enhancement layer. Can be
[0032]
In the acoustic encoding apparatus according to the present invention, the auditory masking means includes a correcting means for smoothing the estimated auditory masking calculated by the estimated auditory masking calculating means, and the determining means includes the spectrum of the decoded signal or the A configuration is employed in which a frequency exceeding the amplitude value of the estimated auditory masking in which the amplitude value of the estimated error spectrum is smoothed is obtained.
[0033]
According to this configuration, the estimated auditory masking estimated from the amplitude spectrum of the base layer decoded signal is modified based on the information of the encoded code of the base layer encoder, thereby improving the accuracy of the estimated auditory masking. Thus, the error spectrum can be efficiently encoded in the result enhancement layer.
[0034]
In the acoustic encoding device of the present invention, the enhancement layer encoding means calculates, for each frequency, a difference in amplitude value between either the estimated error spectrum or the error spectrum and either auditory masking or estimated auditory masking, and the amplitude value A configuration is adopted in which the amount of information for encoding is determined based on the magnitude of the difference.
[0035]
According to this configuration, in the encoding in the enhancement layer, it is possible to improve the quantization efficiency by allocating a large amount of information to the frequency where the estimated error spectrum exceeds the estimated auditory masking and having a large amount. Can do.
[0036]
The acoustic encoding apparatus according to the present invention employs a configuration in which the enhancement layer encoding unit encodes the error spectrum in a predetermined band in addition to the frequency obtained by the determination unit.
[0037]
According to this configuration, even if a frequency that should be originally selected as an encoding target is not selected by forcibly quantizing an acoustically important band that is difficult to be selected as an encoding target, The error spectrum located in the frequency included in the important band is always quantized, and the quality can be improved.
[0038]
The acoustic decoding apparatus of the present invention includes a base layer decoding unit that decodes a first encoded code obtained by encoding an input signal in units of a predetermined basic frame on the encoding side to obtain a first decoded signal, and a first decoding Up-sampling means for raising the sampling rate of the signal to the same sampling rate as that of the second decoded signal, and decoding the first encoded code on the input signal and encoding side based on the up-sampled first decoded signal A frequency determining means for determining a frequency to which a second encoded code obtained by encoding a residual signal from the encoded signal is to be decoded, and a second by decoding the second encoded code using the frequency information. Enhancement layer decoding means for obtaining a decoded signal; and addition means for adding the second decoded signal and the first decoded signal whose sampling rate is increased. A configuration that.
[0039]
According to this configuration, the base layer encoded signal transmitted from the encoding side to the decoding side is determined by determining the frequency to be encoded by the enhancement layer from the decoded signal of the base layer encoded signal. It is possible to determine the frequency of the enhancement layer encoding only by this, and it is not necessary to transmit information of this frequency from the encoding side to the decoding side, and encoding at a low bit rate with high quality Can do.
[0040]
The acoustic decoding apparatus of the present invention employs a configuration in which the base layer decoding means decodes the first encoded code using the code-excited linear prediction method.
[0041]
According to this configuration, at the transmitting side, CELP is applied to the base layer to encode an input signal, and at the receiving side, CELP is applied to the encoded input signal to perform decoding, so that a high bit rate can be achieved. A quality basic layer can be realized.
[0042]
The acoustic decoding apparatus according to the present invention employs a configuration in which the enhancement layer decoding means orthogonally transforms a signal obtained by decoding the second encoded code from the frequency domain to the time domain.
[0043]
According to this configuration, the difference signal is converted from the time domain to the frequency domain, and the frequency domain that cannot be covered by the encoding of the base layer is encoded by the enhancement layer for the converted signal, thereby changing the spectrum like music. It is possible to cope with a signal having a large value.
[0044]
The acoustic decoding apparatus according to the present invention includes an auditory masking unit that calculates an auditory masking that represents an amplitude value that does not contribute to hearing, and the enhancement layer decoding unit decodes the signal in the auditory masking by the frequency determining unit. A configuration is adopted in which an object to be decoded is determined so as not to be an object to be converted.
[0045]
In the acoustic decoding apparatus according to the present invention, the auditory masking means uses a frequency domain transforming means for transforming a base layer decoded signal with an increased sampling rate into a frequency domain coefficient, and an estimated auditory perception using the frequency domain coefficient. An estimated auditory masking calculating means for calculating masking; and a determining means for obtaining a frequency at which an amplitude value of a spectrum of the decoded signal exceeds an amplitude value of the estimated auditory masking, wherein the enhancement layer decoding means includes the frequency The error spectrum located at is decoded.
[0046]
According to these configurations, auditory masking is calculated from the spectrum of the input signal using the characteristics of the masking effect, and quantization is performed so that the quantization distortion is less than or equal to the masking value in the encoding of the enhancement layer. As a result, the number of MDCT coefficients to be quantized can be reduced without quality deterioration, and high-quality encoding can be performed at a low bit rate.
[0047]
In the acoustic decoding apparatus of the present invention, the auditory masking means includes estimated error spectrum calculating means for calculating an estimated error spectrum using a coefficient in the frequency domain, and the determining means is an amplitude value of the estimated error spectrum. Adopts a configuration for obtaining a frequency exceeding the amplitude value of the estimated auditory masking.
[0048]
With this configuration, the estimated error spectrum can be approximated to the residual spectrum by smoothing the residual spectrum estimated from the spectrum of the decoded signal of the base layer, and the error spectrum can be efficiently encoded in the enhancement layer. can do.
[0049]
In the acoustic decoding apparatus according to the present invention, the auditory masking means includes a correcting means for smoothing the estimated auditory masking calculated by the estimated auditory masking calculating means, and the determining means includes the spectrum of the decoded signal or the A configuration is employed in which a frequency exceeding the amplitude value of the estimated auditory masking in which the amplitude value of the estimated error spectrum is smoothed is obtained.
[0050]
According to this configuration, the estimated auditory masking estimated from the amplitude spectrum of the base layer decoded signal is modified based on the information of the encoded code of the base layer encoder, thereby improving the accuracy of the estimated auditory masking. Thus, the error spectrum can be efficiently encoded in the result enhancement layer.
[0051]
In the acoustic decoding device of the present invention, the enhancement layer decoding means calculates, for each frequency, a difference in amplitude value between either the estimated error spectrum or the error spectrum and either auditory masking or estimated auditory masking, and the amplitude value A configuration is adopted in which the amount of information for decoding is determined based on the magnitude of the difference.
[0052]
According to this configuration, it is possible to improve quantization efficiency by performing vector quantization in which adaptive bit allocation is performed according to the amount that the estimated error spectrum exceeds the estimated auditory masking in encoding in the enhancement layer. .
[0053]
The acoustic decoding apparatus according to the present invention employs a configuration in which the enhancement layer decoding unit decodes the error spectrum in a predetermined band in addition to the frequency obtained by the determination unit.
[0054]
According to this configuration, by decoding MDCT coefficients included in a predetermined band, it is possible to decode a signal that is hard to be selected as an encoding target but forcibly quantized an audibly important band. Even if the encoding side does not select a frequency that should originally be selected as an encoding target, an error spectrum located at a frequency included in an auditory important band is necessarily quantized. And quality can be improved.
[0055]
The acoustic signal transmitting apparatus according to the present invention includes an acoustic input unit that converts an acoustic signal into an electrical signal, an A / D conversion unit that converts a signal output from the acoustic input unit into a digital signal, and the A / D conversion. The above-described acoustic encoding device for encoding the digital signal output from the means, the RF modulation means for modulating the encoded code output from the encoding device into a radio frequency signal, and the RF modulation means A configuration including a transmission antenna that converts a signal into a radio wave and transmits the signal is employed.
[0056]
The acoustic signal receiving apparatus of the present invention includes a receiving antenna for receiving radio waves, an RF demodulating means for demodulating a signal received by the receiving antenna, and the acoustic decoding for decoding information obtained by the RF demodulating means. Apparatus, D / A conversion means for converting the signal output from the decoding apparatus into an analog signal, and acoustic output means for converting the electrical signal output from the D / A conversion means into an acoustic signal The structure to do is taken.
[0057]
The communication terminal device of the present invention employs a configuration including at least one of the acoustic signal transmitting device and the acoustic signal receiving device. The base station apparatus of the present invention employs a configuration including at least one of the acoustic signal transmitting apparatus and the acoustic signal receiving apparatus.
[0058]
According to these configurations, only the base layer encoded signal transmitted from the encoding side to the decoding side is determined by determining the frequency to be encoded by the enhancement layer from the decoded signal of the encoded signal. It is possible to determine the frequency to be encoded in the enhancement layer, and it is not necessary to transmit information on this frequency from the encoding side to the decoding side, and encoding can be performed at a low bit rate and with high quality. .
[0059]
In the acoustic encoding method of the present invention, on the encoding side, a first encoded code is generated by encoding an input signal with a reduced sampling rate, and the first encoded code is decoded. Raise the sampling rate to the same rate as the sampling rate of the input signal at the time of input, determine the frequency to encode the error signal based on the decoded signal with the increased sampling rate, and sample the input signal at the time of input Of the difference signal from the decoded signal whose rate has been increased, the difference signal at the frequency is encoded to generate a second encoded code, and on the decoding side, the first encoded code is decoded to obtain a second encoded code. A decoded signal is obtained, the sampling rate of the second decoded signal is increased to the same rate as the sampling rate of the third decoded signal, and the sampling rate is increased. Determining a target frequency for decoding the second encoded code based on the second decoded signal, obtaining the third decoded signal by decoding the second encoded code using the frequency information, The second decoded signal and the third decoded signal having the increased sampling rate are added.
[0060]
According to this method, the frequency to be encoded in the enhancement layer is determined from the decoded signal of the encoded signal, and only the base layer encoded signal transmitted from the encoding side to the decoding side is extended. The frequency to be encoded in the layer can be determined, and it is not necessary to transmit information on this frequency from the encoding side to the decoding side, and encoding can be performed with a low bit rate and high quality.
[0061]
DETAILED DESCRIPTION OF THE INVENTION
Even if the inventor estimates the frequency to be encoded in the enhancement layer using a signal obtained by decoding the base layer encoding code instead of the input signal, the decoded signal is less distorted with the input signal. Since it has been determined, the present invention has been made paying attention to the fact that it is sufficiently approximate and does not cause a large problem.
[0062]
The gist of the present invention is an encoding method in which an input signal is downsampled and encoded, an encoded signal is decoded and upsampled, and a differential signal between the upsampled decoded signal and the input signal is encoded. By determining the frequency to be encoded or decoded in the enhancement layer from the upsampled decoded signal calculated on both the encoding side and the decoding side, information on this frequency is transmitted from the encoding side to the decoding side. Encoding with high quality at a low bit rate without transmitting the data.
[0063]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an acoustic encoding apparatus according to
[0064]
In FIG. 1, a
[0065]
[0066]
The
[0067]
The
[0068]
The
[0069]
The
[0070]
Hereinafter, signals encoded by
[0071]
As shown in FIG. 2, the audio information has a lot of information in a low frequency region, and the information amount decreases as it goes to a high region. On the other hand, the background music / background noise information has relatively less low-frequency information and larger information contained in the high frequency than audio information.
[0072]
Therefore, the basic layer uses CELP to encode audio signals with high quality, and the enhancement layer efficiently uses background music and environmental sounds that cannot be represented by the basic layer, and signals with higher frequency components than the frequency band covered by the basic layer. Encode well.
[0073]
FIG. 3 is a diagram illustrating an example of regions to be encoded in the base layer and the enhancement layer. In FIG. 3, the vertical axis indicates the amount of information, and the horizontal axis indicates the frequency. FIG. 3 shows areas that are the targets of information to be encoded by the
[0074]
The
[0075]
The
[0076]
As shown in FIG. 3, since the first encoded code obtained by encoding in the
[0077]
Further, it is conceivable to increase the coding efficiency by using auditory masking in the enhancement layer. Auditory masking uses human auditory characteristics that when a signal is given, a signal located in the vicinity of the frequency of the signal cannot be heard (masked).
[0078]
FIG. 28 is a diagram illustrating an example of a spectrum of an acoustic (music) signal. In FIG. 28, the solid line represents auditory masking, and the broken line represents an error spectrum. The error spectrum here refers to the spectrum of the error signal (enhancement layer input signal) between the input signal and the decoded signal of the base layer.
[0079]
The error spectrum represented by the hatched portion in FIG. 28 is not audible to human hearing because the amplitude value is smaller than that of auditory masking, and the amplitude value of the error spectrum exceeds the auditory masking in other regions. Is perceived.
[0080]
Therefore, in the enhancement layer, the error spectrum included in the white background portion in FIG. 28 may be encoded so that the quantization distortion in that region is smaller than the auditory masking. Also, since the coefficients belonging to the shaded area are already smaller than auditory masking, there is no need to quantize.
[0081]
In the
[0082]
Since the decoded signal obtained by decoding the base layer coding code can obtain the same signal on the coding side and the decoding side, the coding side determines the frequency for auditory masking from this decoded signal and codes the signal. Therefore, the decoding side obtains the information of the frequency that is aurally masked from this decoded signal and decodes the signal, so that it is not necessary to encode and transmit the frequency information of the error spectrum as additional information. Rate reduction can be realized.
[0083]
Next, a detailed operation of each block of the acoustic encoding device according to the present embodiment will be described. The operation of the
[0084]
In FIG. 4, the
[0085]
The
[0086]
[Expression 1]
Here, Re (m) and Im (m) are the real and imaginary parts of the Fourier coefficients of the base layer decoded signal x (n), and m is the frequency.
[0087]
Next, estimated
[0088]
Next, the
[0089]
[Expression 2]
[0090]
In Equation (2), the term P (m) estimates the magnitude of the error spectrum, and the term M ′ (m) estimates auditory masking. Then, the
[0091]
Conversely, when the size of the estimated error spectrum is smaller than the size of the estimated auditory masking, the
[0092]
Next, the operation of the estimated
[0093]
In FIG. 5, the
[0094]
[Equation 3]
Here, P (m) represents an amplitude spectrum and is obtained from the above-described equation (1). K corresponds to the number of the Bark spectrum, and FL (k) and FH (k) represent the lowest frequency and the highest frequency of the k-th Bark spectrum, respectively. The Bark spectrum B (k) represents the spectrum intensity when the band is divided at equal intervals on the Bark scale. When the Hertz scale is represented by f and the Bark scale is represented by B, the relationship between the Hertz scale and the Bark scale is represented by the following equation (4).
[0095]
[Expression 4]
[0096]
The spread
[0097]
[Equation 5]
[0098]
The
[0099]
[Formula 6]
Here, μg (k) represents the geometric average of the power spectrum included in the k-th bark spectrum, and μa (k) represents the arithmetic average of the power spectrum included in the k-th bark spectrum. Then, the
[0100]
[Expression 7]
[0101]
The
[0102]
[Equation 8]
[0103]
Then, the
[0104]
[Equation 9]
Where T q (K) represents an absolute threshold. The absolute threshold represents the minimum value of auditory masking observed as a human auditory characteristic. Then, the
[0105]
The
[0106]
The
[0107]
[Expression 10]
[0108]
The
[0109]
As described above, according to the acoustic encoding device of the present embodiment, decoding is performed from the encoding side by determining the frequency to be subjected to encoding of the enhancement layer from the signal obtained by decoding the encoded code of the base layer. The frequency to be encoded in the enhancement layer can be determined only by the base layer encoded signal transmitted to the encoding side, and there is no need to transmit information on this frequency from the encoding side to the decoding side. It is possible to perform high quality encoding at a bit rate.
[0110]
In the above embodiment, a method for calculating auditory masking using FFT has been described. However, auditory masking can also be calculated using MDCT instead of FFT. FIG. 7 is a block diagram illustrating an example of an internal configuration of the frequency determination unit of the present embodiment. 5 identical to those in FIG. 5 are assigned the same reference numerals as in FIG. 5 and detailed descriptions thereof are omitted.
[0111]
The
[0112]
## EQU11 ##
Here, R (m) represents an MDCT coefficient obtained by MDCT conversion of the signal given from the
[0113]
The estimated
[0114]
As described above, the acoustic coding apparatus according to the present embodiment can also calculate auditory masking using MDCT.
[0115]
Next, the decoding side will be described. FIG. 8 is a block diagram showing the configuration of the acoustic decoding apparatus according to
[0116]
[0117]
[0118]
The
[0119]
The
[0120]
The
[0121]
Next, detailed operation of each block of the acoustic decoding apparatus according to the present embodiment will be described. FIG. 9 is a block diagram showing an example of the internal configuration of the enhancement layer decoder of the acoustic decoding apparatus according to the present embodiment. FIG. 9 is a diagram showing an example of an internal configuration of
[0122]
The
[0123]
The
[0124]
[0125]
As described above, according to the acoustic decoding device of the present embodiment, decoding is performed from the encoding side by determining the frequency to be subjected to decoding of the enhancement layer from the signal obtained by decoding the encoded code of the base layer. The frequency to be decoded in the enhancement layer can be determined only by the base layer encoded code transmitted to the encoding side, and there is no need to transmit information on this frequency from the encoding side to the decoding side. It is possible to perform high quality encoding at a bit rate.
[0126]
(Embodiment 2)
In the present embodiment, an example in which CELP is used in base layer encoding will be described. FIG. 10 is a block diagram showing an example of the internal configuration of the base layer encoder according to
[0127]
The
[0128]
Further, the
[0129]
The
[0130]
The
[0131]
The perceptually weighted input signal is t (n), and the signal obtained by convolving the impulse response of the weighted synthesis filter composed of the LPC coefficient before quantization and the LPC coefficient after quantization into the adaptive vector of the pitch period i is p. i When (n) is set, the
[0132]
[Expression 12]
Here, N represents a vector length. Since the first term of equation (12) is independent of the pitch period i, in practice, the
[0133]
The
[0134]
[Formula 13]
[0135]
The
[0136]
[Expression 14]
[0137]
The
[0138]
When the target vector is t2 (n) and the signal obtained by convolving the impulse response of the weighted synthesis filter with the noise vector corresponding to the code j is cj (n), the
[0139]
[Expression 15]
[0140]
The
[0141]
[Expression 16]
[0142]
The
[0143]
Next, the decoding side will be described. FIG. 11 is a block diagram showing an example of the internal configuration of the base layer decoder of the present embodiment. FIG. 11 is a diagram showing an internal configuration of
[0144]
The
[0145]
The
[0146]
[Expression 17]
Where q (n) is the adaptation vector, β q Is the adaptive vector gain, c (n) is the noise vector, γ q Represents the noise vector gain.
[0147]
The
[0148]
[Formula 18]
Here, αq represents the decoded LPC coefficient, and NP represents the order of the LPC coefficient. Then, the
[0149]
As described above, according to the acoustic encoding device and the acoustic decoding device of the present embodiment, the input signal is encoded by applying CELP to the base layer on the transmission side, and the encoded input signal is encoded on the reception side. By applying CELP to the decoding, it is possible to realize a high-quality base layer at a low bit rate.
[0150]
Note that the speech coding apparatus according to the present embodiment can employ a configuration in which a post filter is cascade-connected after the
[0151]
Although various configurations can be applied to the
[0152]
[Equation 19]
Here, A (z) is a synthesis filter composed of decoded LPC coefficients, γ n , Γ d , Μ represents a constant that determines the characteristics of the filter.
[0153]
(Embodiment 3)
FIG. 13 is a block diagram showing an example of the internal configuration of the frequency determination unit of the acoustic encoding device according to
[0154]
The
[0155]
The estimation
[0156]
[Expression 20]
Here, a and γ represent a constant of 0 or more and less than 1.
[0157]
The
[0158]
Next, the estimation error spectrum calculated by the estimation
[0159]
As shown in FIG. 14, the error spectrum E (m) has a flat spectrum shape and a lower power in the entire band than the amplitude spectrum P (m) of the base layer decoded signal. Therefore, the spectrum shape is flattened by raising the amplitude spectrum P (m) to the power of γ (0 <γ <1), and the power of the entire region is reduced by multiplying by a (0 <a <1). Spectrum estimation accuracy can be improved.
[0160]
Similarly, on the decoding side, the internal configuration of the
[0161]
As described above, according to the acoustic encoding device of the present embodiment, the estimated error spectrum can be approximated to the residual spectrum by smoothing the residual spectrum estimated from the spectrum of the decoded signal of the base layer. The error spectrum can be efficiently encoded in the enhancement layer.
[0162]
In this embodiment, the case where FFT is used has been described. However, as in
[0163]
(Embodiment 4)
FIG. 15 is a block diagram showing an example of the internal configuration of the frequency determination unit of the acoustic encoding device according to
[0164]
The
[0165]
The estimated auditory
[0166]
Here, it is assumed that the primary PARCOR coefficient calculated from the decoded LPC coefficient is given as the information of the encoded code of the base layer. In general, the LPC coefficient and the PARCOR coefficient express the spectral envelope of the input signal. When the order of the PARCOR coefficient is lowered, the shape of the spectrum envelope is simplified due to the nature of the PARCOR coefficient, and the degree of inclination of the spectrum is expressed when the order of the PARCOR coefficient is first order.
[0167]
On the other hand, in the spectral characteristics of musical sounds and voices given as input signals, there are cases where the power is biased in the low range with respect to the high range (for example, vowels) and vice versa (for example, consonants). The base layer decoded signal is easily affected by the spectral characteristics of the input signal, and tends to emphasize the spectral power bias more than necessary.
[0168]
Therefore, in the acoustic coding apparatus according to the present embodiment, the estimated auditory
[0169]
Estimated auditory
[0170]
[Expression 21]
Here, β represents a positive constant less than 1. Next, the estimated auditory
[0171]
[Expression 22]
[0172]
Then, the estimated auditory
[0173]
[Expression 23]
[0174]
Then, the estimated auditory
[0175]
The determining
[0176]
As described above, according to the acoustic encoding apparatus of the present embodiment, the auditory masking is calculated from the spectrum of the input signal using the characteristics of the masking effect, and the quantization distortion is determined by the masking value in the enhancement layer encoding. By performing quantization as follows, the number of MDCT coefficients to be quantized can be reduced without quality degradation, and high-quality encoding can be performed at a low bit rate.
[0177]
As described above, according to the acoustic encoding device of the present embodiment, the estimated auditory masking estimated from the amplitude spectrum of the base layer decoded signal is corrected based on the information of the encoded code of the base layer encoder. Thus, the accuracy of the estimated auditory masking can be improved, and the error spectrum can be efficiently encoded in the result enhancement layer.
[0178]
Similarly, on the decoding side, the internal configuration of the
[0179]
Note that the
[0180]
The
[0181]
Estimated
[0182]
The estimated auditory
[0183]
Estimated
[0184]
The determining
[0185]
Further, in the present embodiment, the case where FFT is used has been described. However, similarly to
[0186]
(Embodiment 5)
FIG. 17 is a block diagram showing an example of the internal configuration of the enhancement layer encoder of the acoustic encoding device according to
[0187]
In FIG. 17, the
[0188]
The
[0189]
[Expression 24]
[0190]
Here, the
[0191]
[Expression 25]
[0192]
Then, ordering
[0193]
Here, as an example, the case where the frequency and the estimated distortion value sent from the frequency determining means are shown in FIG. 18 will be described. FIG. 18 is a diagram illustrating an example of ranking the estimated distortion values of the ordering unit according to the present embodiment.
[0194]
The
[0195]
The
[0196]
At this time, the number of bits used for quantization of the error spectrum located at the top of the ordering is distributed, and the number of bits is distributed as it goes to the end. That is, the number of bits used for quantization of the error spectrum is more allocated as the estimated distortion value D (m) is larger, and the number of bits used for quantization of the error spectrum is smaller as the estimated distortion value D (m) is smaller. Allocated less.
[0197]
For example, E (7) is 8 bits, E (8), E (4) is 7 bits, E (9), E (1) is 6 bits, E (11), E (3), E (12) Bit allocation such as 5 bits. By performing adaptive bit allocation according to such estimated distortion value D (m), the efficiency of quantization is improved.
[0198]
When vector quantization is applied,
[0199]
As described above, according to the acoustic encoding device of the present embodiment, in encoding in the enhancement layer, encoding is performed by allocating a large amount of information to a frequency where the estimated error spectrum exceeds the estimated auditory masking. As a result, the quantization efficiency can be improved.
[0200]
Next, the decoding side will be described. FIG. 19 is a block diagram showing an example of the internal configuration of the enhancement layer decoder of the acoustic decoding device according to
[0201]
The
[0202]
The
[0203]
The
[0204]
As described above, according to the acoustic decoding device of the present embodiment, in the encoding in the enhancement layer, by performing the vector quantization in which the estimated error spectrum is adaptively allocated according to the amount exceeding the estimated auditory masking. Thus, the quantization efficiency can be improved.
[0205]
(Embodiment 6)
FIG. 20 is a block diagram showing an example of an internal configuration of an enhancement layer encoder of the acoustic encoding device according to
[0206]
In FIG. 20, a band important for hearing is set in the fixed
[0207]
The
[0208]
If the frequency is the one shown in FIG. 18, the
[0209]
As described above, according to the acoustic encoding device of the present embodiment, it is difficult to select an encoding target, but an acoustically important band is forcibly quantized to be originally selected as an encoding target. Even when the frequency to be selected is not selected, the error spectrum located in the frequency included in the audioally important band is necessarily quantized, and the quality can be improved.
[0210]
Next, the decoding side will be described. FIG. 21 is a block diagram showing an example of an internal configuration of the enhancement layer decoder of the acoustic decoding device according to
[0211]
In FIG. 21, a band important for hearing is set in the fixed
[0212]
The
[0213]
The
[0214]
As described above, according to the acoustic decoding device of the present embodiment, by decoding MDCT coefficients included in a predetermined band, it is difficult to select an encoding target, but it is an acoustically important band. Can be decoded forcibly, and even if the encoding side does not select the frequency that should be selected as the target of encoding, it is positioned at a frequency included in the auditory important band. The error spectrum is always quantized, and the quality can be improved.
[0215]
Note that the enhancement layer encoder and enhancement layer decoder of the present embodiment can also adopt a configuration in which the present embodiment and the fifth embodiment are combined. FIG. 22 is a block diagram illustrating an example of an internal configuration of the frequency determination unit of the acoustic encoding device according to the present embodiment. 6 identical to those in FIG. 6 are assigned the same reference numerals as in FIG. 6 and detailed descriptions thereof are omitted.
[0216]
In FIG. 22, the
[0217]
The
In the fixed
[0218]
Based on the frequency information ordered by the estimated distortion value D (m), the
[0219]
Next, the decoding side will be described. FIG. 23 is a block diagram showing an example of an internal configuration of an enhancement layer decoder of the acoustic decoding device according to
[0220]
In FIG. 23, the
[0221]
Then, ordering
[0222]
The
[0223]
The
[0224]
(Embodiment 7)
Next, a seventh embodiment of the present invention will be described with reference to the drawings. FIG. 24 is a block diagram showing a configuration of a communication apparatus according to
[0225]
As shown in FIG. 24, a
[0226]
The A /
[0227]
The
[0228]
As described above, according to the communication device of the embodiment of the present invention, it is possible to enjoy the effects described in the first to sixth embodiments in communication, and to efficiently encode an acoustic signal with a small number of bits. An encoding device can be provided.
[0229]
(Embodiment 8)
Next, an eighth embodiment of the present invention will be described with reference to the drawings. FIG. 25 is a block diagram showing a configuration of a communication apparatus according to
[0230]
As shown in FIG. 25, the
[0231]
An input terminal of the
[0232]
Receiving
[0233]
As described above, according to the communication apparatus of the present embodiment, the effects as described in the first to sixth embodiments can be enjoyed in communication, and an acoustic signal encoded efficiently with a small number of bits is decoded. Therefore, a good acoustic signal can be output.
[0234]
(Embodiment 9)
Next, a ninth embodiment of the present invention will be described with reference to the drawings. FIG. 26 is a block diagram showing a configuration of a communication apparatus according to
[0235]
As shown in FIG. 26, a
[0236]
The
[0237]
As described above, according to the communication apparatus of the present embodiment, it is possible to enjoy the effects as described in the first to sixth embodiments in wireless communication, and to efficiently encode an acoustic signal with a small number of bits. it can.
[0238]
Note that the present invention can be applied to a transmission device, a transmission encoding device, or an acoustic signal encoding device that uses an audio signal. The present invention can also be applied to a mobile station apparatus or a base station apparatus.
[0239]
(Embodiment 10)
Next, a tenth embodiment of the present invention will be described with reference to the drawings. FIG. 27 is a block diagram showing a configuration of a communication apparatus according to Embodiment 10 of the present invention. In the tenth embodiment of the present invention, the
[0240]
As shown in FIG. 27, a
[0241]
The
[0242]
The
[0243]
As described above, according to the communication device of the present embodiment, the effects as described in the first to sixth embodiments can be enjoyed in wireless communication, and an acoustic signal encoded efficiently with a small number of bits can be decoded. Therefore, a good acoustic signal can be output.
[0244]
Note that the present invention can be applied to a receiving device, a receiving decoding device, or an audio signal decoding device using an audio signal. The present invention can also be applied to a mobile station apparatus or a base station apparatus.
[0245]
The present invention is not limited to the above-described embodiment, and can be implemented with various modifications. For example, although the case where the signal processing apparatus is used has been described in the above embodiment, the present invention is not limited to this, and the signal processing method may be performed as software.
[0246]
For example, a program for executing the signal processing method may be stored in advance in a ROM (Read Only Memory), and the program may be operated by a CPU (Central Processor Unit).
[0247]
Further, a program for executing the above signal processing method is stored in a computer-readable storage medium, the program stored in the storage medium is recorded in a RAM (Random Access memory) of the computer, and the computer operates according to the program. You may make it let it.
[0248]
In the above description, the case where MDCT is used for the transform method from the time domain to the frequency domain is described, but the present invention is not limited to this, and any orthogonal transform can be applied. For example, a discrete Fourier transform or a discrete cosine transform can be applied.
[0249]
Note that the present invention can be applied to a receiving device, a receiving decoding device, or an audio signal decoding device using an audio signal. The present invention can also be applied to a mobile station apparatus or a base station apparatus.
[0250]
【The invention's effect】
As described above, according to the audio encoding device and the audio encoding method of the present invention, the input signal is downsampled and encoded, the encoded signal is decoded and upsampled, and the upsampled decoded signal is decoded. In the encoding method for encoding the difference signal between the input signal and the input signal, the signal on both the encoding side and the decoding side is used to determine the frequency to be encoded in the enhancement layer from the upsampled decoded signal. Therefore, the frequency can be determined only by this, and therefore, it is possible to perform encoding at a low bit rate and high quality without transmitting information on this frequency from the encoding side to the decoding side.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an acoustic encoding apparatus according to
FIG. 2 is a diagram showing an example of information distribution of acoustic signals
FIG. 3 is a diagram illustrating an example of regions to be encoded in a base layer and an enhancement layer
FIG. 4 is a block diagram illustrating an example of an internal configuration of a frequency determination unit of the acoustic encoding device according to the embodiment.
FIG. 5 is a diagram illustrating an example of an internal configuration of an auditory masking calculator of the acoustic encoding device according to the embodiment.
FIG. 6 is a block diagram showing an example of an internal configuration of the enhancement layer encoder according to the embodiment.
FIG. 7 is a block diagram showing an example of an internal configuration of the auditory masking calculator according to the embodiment.
FIG. 8 is a block diagram showing the configuration of the acoustic decoding apparatus according to
FIG. 9 is a block diagram illustrating an example of an internal configuration of an enhancement layer decoder of the acoustic decoding device according to the above embodiment.
FIG. 10 is a block diagram showing an example of an internal configuration of a base layer encoder according to
FIG. 11 is a block diagram showing an example of an internal configuration of a base layer decoder according to the above embodiment
FIG. 12 is a block diagram showing an example of an internal configuration of a base layer decoder according to the above embodiment
FIG. 13 is a block diagram showing an example of an internal configuration of a frequency determination unit of the acoustic encoding device according to
FIG. 14 is a diagram showing an example of a residual spectrum calculated by the estimation error spectrum calculator of the above embodiment.
FIG. 15 is a block diagram showing an example of an internal configuration of a frequency determination unit of the acoustic encoding device according to
FIG. 16 is a block diagram illustrating an example of an internal configuration of a frequency determination unit of the acoustic encoding device according to the embodiment.
FIG. 17 is a block diagram showing an example of an internal configuration of an enhancement layer encoder of the acoustic encoding device according to
FIG. 18 is a diagram showing an example of ranking of estimated distortion values of the ordering unit of the embodiment.
FIG. 19 is a block diagram showing an example of an internal configuration of an enhancement layer decoder of the acoustic decoding device according to
FIG. 20 is a block diagram showing an example of an internal configuration of an enhancement layer encoder of the acoustic encoding device according to
FIG. 21 is a block diagram showing an example of an internal configuration of an enhancement layer decoder of the acoustic decoding device according to
FIG. 22 is a block diagram showing an example of an internal configuration of a frequency determination unit of the acoustic encoding device according to the embodiment.
FIG. 23 is a block diagram showing an example of an internal configuration of an enhancement layer decoder of the acoustic decoding device according to
FIG. 24 is a block diagram showing a configuration of a communication apparatus according to
FIG. 25 is a block diagram showing a configuration of a communication apparatus according to
FIG. 26 is a block diagram showing a configuration of a communication apparatus according to
FIG. 27 is a block diagram showing a configuration of a communication apparatus according to Embodiment 10 of the present invention.
FIG. 28 is a diagram showing an example of a spectrum of an acoustic (music) signal.
[Explanation of symbols]
101 Downsampler
102 Base layer encoder
103 Local decoder
104 Upsampler
105 delay device
106 Subtractor
107, 804 Frequency determining unit
108 enhancement layer encoder
109 Multiplexer
401 FFT section
402 Estimated auditory masking calculator
403 decision part
601 and 701 MDCT sections
602 MDCT coefficient quantizer
801, 1101 separator
802 Base layer decoder
803 Upsampler
805 enhancement layer decoder
806, 903 adder
901 MDCT coefficient decoder
902 IMDCT section
1102 Sound generator
1103 Synthesis filter
1301 Estimated error spectrum calculator
1302, 1502, 1601 determining unit
1501 Estimated auditory masking correction section
1701, 1901 Ordering unit
1702, 2002, 2201 MDCT coefficient quantizer
1902, 2102, 2301 MDCT coefficient decoder
2001, 2101 Fixed band designation part
Claims (23)
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267436A JP3881946B2 (en) | 2002-09-12 | 2002-09-12 | Acoustic encoding apparatus and acoustic encoding method |
CN2007101529084A CN101131820B (en) | 2002-04-26 | 2003-04-28 | Coding device, decoding device, coding method, and decoding method |
CNB038093723A CN100346392C (en) | 2002-04-26 | 2003-04-28 | Device and method for encoding, device and method for decoding |
PCT/JP2003/005419 WO2003091989A1 (en) | 2002-04-26 | 2003-04-28 | Coding device, decoding device, coding method, and decoding method |
EP03728004.7A EP1489599B1 (en) | 2002-04-26 | 2003-04-28 | Coding device and decoding device |
US10/512,407 US7752052B2 (en) | 2002-04-26 | 2003-04-28 | Scalable coder and decoder performing amplitude flattening for error spectrum estimation |
AU2003234763A AU2003234763A1 (en) | 2002-04-26 | 2003-04-28 | Coding device, decoding device, coding method, and decoding method |
US12/775,216 US8209188B2 (en) | 2002-04-26 | 2010-05-06 | Scalable coding/decoding apparatus and method based on quantization precision in bands |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267436A JP3881946B2 (en) | 2002-09-12 | 2002-09-12 | Acoustic encoding apparatus and acoustic encoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004102186A true JP2004102186A (en) | 2004-04-02 |
JP3881946B2 JP3881946B2 (en) | 2007-02-14 |
Family
ID=32265925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002267436A Expired - Lifetime JP3881946B2 (en) | 2002-04-26 | 2002-09-12 | Acoustic encoding apparatus and acoustic encoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3881946B2 (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005106850A1 (en) * | 2004-04-28 | 2005-11-10 | Matsushita Electric Industrial Co., Ltd. | Hierarchy encoding apparatus and hierarchy encoding method |
WO2005106848A1 (en) * | 2004-04-30 | 2005-11-10 | Matsushita Electric Industrial Co., Ltd. | Scalable decoder and expanded layer disappearance hiding method |
WO2006011445A1 (en) * | 2004-07-28 | 2006-02-02 | Matsushita Electric Industrial Co., Ltd. | Signal decoding apparatus |
WO2006041055A1 (en) * | 2004-10-13 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Scalable encoder, scalable decoder, and scalable encoding method |
WO2006043413A1 (en) * | 2004-10-19 | 2006-04-27 | Sony Corporation | Audio signal processing device and audio signal processing method |
WO2006049204A1 (en) * | 2004-11-05 | 2006-05-11 | Matsushita Electric Industrial Co., Ltd. | Encoder, decoder, encoding method, and decoding method |
JP2007057613A (en) * | 2005-08-22 | 2007-03-08 | Sony Corp | Speech coding and decoding device and method therefor, and speech decoding device and method therefor |
WO2007119368A1 (en) * | 2006-03-17 | 2007-10-25 | Matsushita Electric Industrial Co., Ltd. | Scalable encoding device and scalable encoding method |
JPWO2006028009A1 (en) * | 2004-09-06 | 2008-05-08 | 松下電器産業株式会社 | Scalable decoding apparatus and signal loss compensation method |
JPWO2006035705A1 (en) * | 2004-09-28 | 2008-05-15 | 松下電器産業株式会社 | Scalable encoding apparatus and scalable encoding method |
WO2008120438A1 (en) * | 2007-03-02 | 2008-10-09 | Panasonic Corporation | Post-filter, decoding device, and post-filter processing method |
WO2008120440A1 (en) * | 2007-03-02 | 2008-10-09 | Panasonic Corporation | Encoding device and encoding method |
JP2009501351A (en) * | 2005-07-13 | 2009-01-15 | フランス テレコム | Hierarchical encoding / decoding device |
WO2009016816A1 (en) * | 2007-07-27 | 2009-02-05 | Panasonic Corporation | Audio encoding device and audio encoding method |
JP2009042740A (en) * | 2007-03-02 | 2009-02-26 | Panasonic Corp | Encoding device |
JP2010526346A (en) * | 2007-05-08 | 2010-07-29 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for encoding and decoding audio signal |
JP2010538316A (en) * | 2007-08-27 | 2010-12-09 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | Improved transform coding of speech and audio signals |
JP2010540990A (en) * | 2007-09-28 | 2010-12-24 | ヴォイスエイジ・コーポレーション | Method and apparatus for efficient quantization of transform information in embedded speech and audio codecs |
JPWO2009081568A1 (en) * | 2007-12-21 | 2011-05-06 | パナソニック株式会社 | Encoding device, decoding device, and encoding method |
JP4859670B2 (en) * | 2004-10-27 | 2012-01-25 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
JP4958780B2 (en) * | 2005-05-11 | 2012-06-20 | パナソニック株式会社 | Encoding device, decoding device and methods thereof |
JP4977472B2 (en) * | 2004-11-05 | 2012-07-18 | パナソニック株式会社 | Scalable decoding device |
CN111462129A (en) * | 2019-01-22 | 2020-07-28 | 斯特拉德视觉公司 | Image segmentation method and apparatus using weighted convolution filter per grid cell |
CN115577253A (en) * | 2022-11-23 | 2023-01-06 | 四川轻化工大学 | Supervision spectrum sensing method based on geometric power |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0846517A (en) * | 1994-07-28 | 1996-02-16 | Sony Corp | High efficiency coding and decoding system |
JPH10105193A (en) * | 1996-09-26 | 1998-04-24 | Yamaha Corp | Speech encoding transmission system |
JPH1130997A (en) * | 1997-07-11 | 1999-02-02 | Nec Corp | Voice coding and decoding device |
JPH11251917A (en) * | 1998-02-26 | 1999-09-17 | Sony Corp | Encoding device and method, decoding device and method and record medium |
-
2002
- 2002-09-12 JP JP2002267436A patent/JP3881946B2/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0846517A (en) * | 1994-07-28 | 1996-02-16 | Sony Corp | High efficiency coding and decoding system |
JPH10105193A (en) * | 1996-09-26 | 1998-04-24 | Yamaha Corp | Speech encoding transmission system |
JPH1130997A (en) * | 1997-07-11 | 1999-02-02 | Nec Corp | Voice coding and decoding device |
JPH11251917A (en) * | 1998-02-26 | 1999-09-17 | Sony Corp | Encoding device and method, decoding device and method and record medium |
Cited By (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005106850A1 (en) * | 2004-04-28 | 2005-11-10 | Matsushita Electric Industrial Co., Ltd. | Hierarchy encoding apparatus and hierarchy encoding method |
JPWO2005106850A1 (en) * | 2004-04-28 | 2007-12-13 | 松下電器産業株式会社 | Hierarchical coding apparatus and hierarchical coding method |
JP4679513B2 (en) * | 2004-04-28 | 2011-04-27 | パナソニック株式会社 | Hierarchical coding apparatus and hierarchical coding method |
US7949518B2 (en) | 2004-04-28 | 2011-05-24 | Panasonic Corporation | Hierarchy encoding apparatus and hierarchy encoding method |
WO2005106848A1 (en) * | 2004-04-30 | 2005-11-10 | Matsushita Electric Industrial Co., Ltd. | Scalable decoder and expanded layer disappearance hiding method |
WO2006011444A1 (en) * | 2004-07-28 | 2006-02-02 | Matsushita Electric Industrial Co., Ltd. | Relay device and signal decoding device |
JP4558734B2 (en) * | 2004-07-28 | 2010-10-06 | パナソニック株式会社 | Signal decoding device |
US8018993B2 (en) | 2004-07-28 | 2011-09-13 | Panasonic Corporation | Relay device and signal decoding device |
WO2006011445A1 (en) * | 2004-07-28 | 2006-02-02 | Matsushita Electric Industrial Co., Ltd. | Signal decoding apparatus |
JPWO2006011445A1 (en) * | 2004-07-28 | 2008-05-01 | 松下電器産業株式会社 | Signal decoding device |
US8099291B2 (en) | 2004-07-28 | 2012-01-17 | Panasonic Corporation | Signal decoding apparatus |
JPWO2006028009A1 (en) * | 2004-09-06 | 2008-05-08 | 松下電器産業株式会社 | Scalable decoding apparatus and signal loss compensation method |
JP4989971B2 (en) * | 2004-09-06 | 2012-08-01 | パナソニック株式会社 | Scalable decoding apparatus and signal loss compensation method |
JP4555299B2 (en) * | 2004-09-28 | 2010-09-29 | パナソニック株式会社 | Scalable encoding apparatus and scalable encoding method |
JPWO2006035705A1 (en) * | 2004-09-28 | 2008-05-15 | 松下電器産業株式会社 | Scalable encoding apparatus and scalable encoding method |
WO2006041055A1 (en) * | 2004-10-13 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | Scalable encoder, scalable decoder, and scalable encoding method |
JPWO2006041055A1 (en) * | 2004-10-13 | 2008-05-15 | 松下電器産業株式会社 | Scalable encoding device, scalable decoding device, and scalable encoding method |
JP4606418B2 (en) * | 2004-10-13 | 2011-01-05 | パナソニック株式会社 | Scalable encoding device, scalable decoding device, and scalable encoding method |
US8010349B2 (en) | 2004-10-13 | 2011-08-30 | Panasonic Corporation | Scalable encoder, scalable decoder, and scalable encoding method |
WO2006043413A1 (en) * | 2004-10-19 | 2006-04-27 | Sony Corporation | Audio signal processing device and audio signal processing method |
KR101229386B1 (en) * | 2004-10-19 | 2013-02-05 | 소니 주식회사 | Audio signal processing device and audio signal processing method |
US8442241B2 (en) | 2004-10-19 | 2013-05-14 | Sony Corporation | Audio signal processing for separating multiple source signals from at least one source signal |
JP4859670B2 (en) * | 2004-10-27 | 2012-01-25 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
CN102184734B (en) * | 2004-11-05 | 2013-04-03 | 松下电器产业株式会社 | Encoder, decoder, encoding method, and decoding method |
JP4977472B2 (en) * | 2004-11-05 | 2012-07-18 | パナソニック株式会社 | Scalable decoding device |
WO2006049204A1 (en) * | 2004-11-05 | 2006-05-11 | Matsushita Electric Industrial Co., Ltd. | Encoder, decoder, encoding method, and decoding method |
US8135583B2 (en) | 2004-11-05 | 2012-03-13 | Panasonic Corporation | Encoder, decoder, encoding method, and decoding method |
US8204745B2 (en) | 2004-11-05 | 2012-06-19 | Panasonic Corporation | Encoder, decoder, encoding method, and decoding method |
US7769584B2 (en) | 2004-11-05 | 2010-08-03 | Panasonic Corporation | Encoder, decoder, encoding method, and decoding method |
CN101048814B (en) * | 2004-11-05 | 2011-07-27 | 松下电器产业株式会社 | Encoder, decoder, encoding method, and decoding method |
JPWO2006049204A1 (en) * | 2004-11-05 | 2008-05-29 | 松下電器産業株式会社 | Encoding device, decoding device, encoding method, and decoding method |
JP4958780B2 (en) * | 2005-05-11 | 2012-06-20 | パナソニック株式会社 | Encoding device, decoding device and methods thereof |
KR101303145B1 (en) | 2005-07-13 | 2013-09-09 | 프랑스 텔레콤 | A system for coding a hierarchical audio signal, a method for coding an audio signal, computer-readable medium and a hierarchical audio decoder |
JP2009501351A (en) * | 2005-07-13 | 2009-01-15 | フランス テレコム | Hierarchical encoding / decoding device |
JP2007057613A (en) * | 2005-08-22 | 2007-03-08 | Sony Corp | Speech coding and decoding device and method therefor, and speech decoding device and method therefor |
JP4682752B2 (en) * | 2005-08-22 | 2011-05-11 | ソニー株式会社 | Speech coding and decoding apparatus and method, and speech decoding apparatus and method |
US8370138B2 (en) | 2006-03-17 | 2013-02-05 | Panasonic Corporation | Scalable encoding device and scalable encoding method including quality improvement of a decoded signal |
WO2007119368A1 (en) * | 2006-03-17 | 2007-10-25 | Matsushita Electric Industrial Co., Ltd. | Scalable encoding device and scalable encoding method |
RU2471252C2 (en) * | 2007-03-02 | 2012-12-27 | Панасоник Корпорэйшн | Coding device and coding method |
US8918315B2 (en) | 2007-03-02 | 2014-12-23 | Panasonic Intellectual Property Corporation Of America | Encoding apparatus, decoding apparatus, encoding method and decoding method |
WO2008120438A1 (en) * | 2007-03-02 | 2008-10-09 | Panasonic Corporation | Post-filter, decoding device, and post-filter processing method |
WO2008120440A1 (en) * | 2007-03-02 | 2008-10-09 | Panasonic Corporation | Encoding device and encoding method |
JP2011175278A (en) * | 2007-03-02 | 2011-09-08 | Panasonic Corp | Encoding device, decoding device, encoding method and decoding method |
RU2579663C2 (en) * | 2007-03-02 | 2016-04-10 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Encoding apparatus and decoding method |
JP2009042734A (en) * | 2007-03-02 | 2009-02-26 | Panasonic Corp | Encoding device and encoding method |
RU2579662C2 (en) * | 2007-03-02 | 2016-04-10 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Encoding apparatus and decoding method |
JP2009042740A (en) * | 2007-03-02 | 2009-02-26 | Panasonic Corp | Encoding device |
US8918314B2 (en) | 2007-03-02 | 2014-12-23 | Panasonic Intellectual Property Corporation Of America | Encoding apparatus, decoding apparatus, encoding method and decoding method |
KR101414354B1 (en) | 2007-03-02 | 2014-08-14 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | Encoding device and encoding method |
US8599981B2 (en) | 2007-03-02 | 2013-12-03 | Panasonic Corporation | Post-filter, decoding device, and post-filter processing method |
US8554549B2 (en) | 2007-03-02 | 2013-10-08 | Panasonic Corporation | Encoding device and method including encoding of error transform coefficients |
JP2010526346A (en) * | 2007-05-08 | 2010-07-29 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for encoding and decoding audio signal |
WO2009016816A1 (en) * | 2007-07-27 | 2009-02-05 | Panasonic Corporation | Audio encoding device and audio encoding method |
JP5388849B2 (en) * | 2007-07-27 | 2014-01-15 | パナソニック株式会社 | Speech coding apparatus and speech coding method |
KR101369064B1 (en) * | 2007-07-27 | 2014-02-28 | 파나소닉 주식회사 | Audio encoding device and audio encoding method |
AU2008283697B2 (en) * | 2007-07-27 | 2012-05-10 | Iii Holdings 12, Llc | Audio encoding device and audio encoding method |
US8620648B2 (en) | 2007-07-27 | 2013-12-31 | Panasonic Corporation | Audio encoding device and audio encoding method |
JP2010538316A (en) * | 2007-08-27 | 2010-12-09 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | Improved transform coding of speech and audio signals |
JP2010540990A (en) * | 2007-09-28 | 2010-12-24 | ヴォイスエイジ・コーポレーション | Method and apparatus for efficient quantization of transform information in embedded speech and audio codecs |
JP5404418B2 (en) * | 2007-12-21 | 2014-01-29 | パナソニック株式会社 | Encoding device, decoding device, and encoding method |
JPWO2009081568A1 (en) * | 2007-12-21 | 2011-05-06 | パナソニック株式会社 | Encoding device, decoding device, and encoding method |
CN111462129A (en) * | 2019-01-22 | 2020-07-28 | 斯特拉德视觉公司 | Image segmentation method and apparatus using weighted convolution filter per grid cell |
CN111462129B (en) * | 2019-01-22 | 2023-08-22 | 斯特拉德视觉公司 | Image segmentation method and device using weighted convolution filter according to grid unit |
CN115577253A (en) * | 2022-11-23 | 2023-01-06 | 四川轻化工大学 | Supervision spectrum sensing method based on geometric power |
CN115577253B (en) * | 2022-11-23 | 2023-02-28 | 四川轻化工大学 | Supervision spectrum sensing method based on geometric power |
Also Published As
Publication number | Publication date |
---|---|
JP3881946B2 (en) | 2007-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3881943B2 (en) | Acoustic encoding apparatus and acoustic encoding method | |
JP3881946B2 (en) | Acoustic encoding apparatus and acoustic encoding method | |
US8209188B2 (en) | Scalable coding/decoding apparatus and method based on quantization precision in bands | |
JP5047268B2 (en) | Speech post-processing using MDCT coefficients | |
US12009003B2 (en) | Device and method for generating a high-band signal from non-linearly processed sub-ranges | |
EP3311381B1 (en) | High-band signal generation | |
JP5535241B2 (en) | Audio signal restoration apparatus and audio signal restoration method | |
JP2003323199A (en) | Device and method for encoding, device and method for decoding | |
JP4958780B2 (en) | Encoding device, decoding device and methods thereof | |
JP2001222297A (en) | Multi-band harmonic transform coder | |
JP4603485B2 (en) | Speech / musical sound encoding apparatus and speech / musical sound encoding method | |
JP4786183B2 (en) | Speech decoding apparatus, speech decoding method, program, and recording medium | |
JP2004302259A (en) | Hierarchical encoding method and hierarchical decoding method for sound signal | |
JP4287840B2 (en) | Encoder | |
JP4373693B2 (en) | Hierarchical encoding method and hierarchical decoding method for acoustic signals | |
JP3576485B2 (en) | Fixed excitation vector generation apparatus and speech encoding / decoding apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060616 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3881946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091117 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101117 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101117 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111117 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121117 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131117 Year of fee payment: 7 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |