JP2011253045A - 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム - Google Patents
符号化装置および符号化方法、復号装置および復号方法、並びにプログラム Download PDFInfo
- Publication number
- JP2011253045A JP2011253045A JP2010126780A JP2010126780A JP2011253045A JP 2011253045 A JP2011253045 A JP 2011253045A JP 2010126780 A JP2010126780 A JP 2010126780A JP 2010126780 A JP2010126780 A JP 2010126780A JP 2011253045 A JP2011253045 A JP 2011253045A
- Authority
- JP
- Japan
- Prior art keywords
- audio signal
- data
- encoding
- encoded information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000013139 quantization Methods 0.000 claims abstract description 103
- 230000005236 sound signal Effects 0.000 claims description 305
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000001228 spectrum Methods 0.000 abstract description 238
- 238000011002 quantification Methods 0.000 abstract 2
- 238000010606 normalization Methods 0.000 description 46
- 238000000354 decomposition reaction Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
Abstract
【課題】補間用データのビットレートを低減する。
【解決手段】ビットストリームは、本来復号されるべきデータB2[J]と、データB2[J+1]にエラーまたは欠落が発生した場合に代用されるデータD[J+1]により構成される。また、データB2[J]は、エンベロープF2[J]および量子化精度情報P3[J]、並びに、それらを用いて符号化が行われた結果得られる符号スペクトルH3[J]により構成される。データD[J+1]は、量子化精度情報P2[J+1]と、データB2[J]と共通のエンベロープF2[J]および量子化精度情報P2[J+1]を用いて符号化が行われた結果得られる符号スペクトルH2[J+1]により構成される。本発明は、例えば、音声データの符号化装置や復号装置に適用することができる。
【選択図】図12
【解決手段】ビットストリームは、本来復号されるべきデータB2[J]と、データB2[J+1]にエラーまたは欠落が発生した場合に代用されるデータD[J+1]により構成される。また、データB2[J]は、エンベロープF2[J]および量子化精度情報P3[J]、並びに、それらを用いて符号化が行われた結果得られる符号スペクトルH3[J]により構成される。データD[J+1]は、量子化精度情報P2[J+1]と、データB2[J]と共通のエンベロープF2[J]および量子化精度情報P2[J+1]を用いて符号化が行われた結果得られる符号スペクトルH2[J+1]により構成される。本発明は、例えば、音声データの符号化装置や復号装置に適用することができる。
【選択図】図12
Description
本発明は、符号化装置および符号化方法、復号装置および復号方法、並びにプログラムに関し、特に、補間用データのビットレートを低減することができるようにした符号化装置および符号化方法、復号装置および復号方法、並びにプログラムに関する。
音声信号の符号化方法としては、一般的に、MP3(Moving Picture Experts Group Audio Layer-3),AAC(Advanced Audio Coding),ATRAC(Adaptive Transform Acoustic Coding)といった変換符号化方法がよく知られている。
図1は、音声信号を符号化する符号化装置の構成例を示すブロック図である。
図1の符号化装置10は、MDCT(Modified Discrete Cosine Transform)部11、正規化部12、量子化部13、符号化部14、および多重化部15により構成される。
符号化装置10のMDCT部11には、所定のチャンネルの音声のPCM(Pulse Code Modulation)信号Tが、フレームと呼ばれる一定区間毎にPCM信号T[J]として入力される。なお、Jはフレームのインデックスを表している。
MDCT部11は、時間領域信号であるPCM信号T[J]に対して窓関数W[J]を窓掛けし、その結果得られるPCM信号[J]に対してMDCTを行い、周波数領域信号であるスペクトルS[J]を得る。MDCT部11は、スペクトルS[J]を正規化部12に供給する。
正規化部12は、スペクトルS[J]からエンベロープF[J]を抽出し、多重化部15に供給する。また、正規化部12は、エンベロープF[J]を用いてスペクトルS[J]を正規化し、その結果得られる正規化スペクトルN[J]を量子化部13に供給する。
量子化部13は、所定のアルゴリズムによって決定された量子化精度情報P[J]に基づき、正規化部12から供給される正規化スペクトルN[J]を量子化し、その結果得られる量子化スペクトルQ[J]を符号化部14に供給する。また、量子化部13は、量子化精度情報P[J]を多重化部15に供給する。なお、量子化精度情報P[J]を決定するための所定のアルゴリズムとしては、例えば既に一般的に知られているものを用いることができる。
符号化部14は、量子化部13から供給される量子化スペクトルQ[J]を符号化し、その結果得られる符号スペクトルH[J]を多重化部15に供給する。
多重化部15は、正規化部12から供給されるエンベロープF[J]、量子化部13から供給される量子化精度情報P[J]、および符号化部14から供給される符号スペクトルH[J]を多重化してビットストリームB[J]を生成する。多重化部15は、そのビットストリームB[J]を符号化結果として出力する。
図2は、図1の符号化装置10による符号化結果を復号する復号装置の構成例を示すブロック図である。
図2の復号装置20は、分解部21、復号化部22、逆量子化部23、逆正規化部24、および逆MDCT部25により構成される。
復号装置20の分解部21には、図1の符号化装置10による符号化結果であるビットストリームB[J]が入力される。
分解部21は、ビットストリームB[J]から、エンベロープF[J]と量子化精度情報P[J]を分解する。また、分解部21は、量子化精度情報P[J]に基づいて、ビットストリームB[J]から符号スペクトルH[J]を分解する。分解部21は、エンベロープF[J]を逆正規化部24に供給し、量子化精度情報P[J]を逆量子化部23に供給する。また、分解部21は、符号スペクトルH[J]を復号化部22に供給する。
復号化部22は、分解部21から供給される符号スペクトルH[J]を復号し、その結果得られる量子化スペクトルQ[J]を逆量子化部23に供給する。
逆量子化部23は、復号化部22から供給される量子化スペクトルQ[J]を、分解部21から供給される量子化精度情報P[J]に基づいて逆量子化し、その結果得られる正規化スペクトルN[J]を逆正規化部24に供給する。
逆正規化部24は、逆量子化部23から供給される正規化スペクトルN[J]を、分解部21から供給されるエンベロープF[J]を用いて逆正規化し、その結果得られるスペクトルS[J]を逆MDCT部25に供給する。
逆MDCT部25は、逆正規化部24から供給される周波数領域信号であるスペクトルS[J]に対して逆MDCTを行い、その結果得られる時間領域信号を窓関数W[J]に基づいて足し合わせ、音声のPCM信号T’[J]を得る。逆MDCT部25は、PCM信号T’[J]を音声信号として出力する。
以上のように、符号化装置10は、フレームごとにビットストリームB[J]を符号化して出力し、復号装置20は、フレームごとのビットストリームB[J]を復号する。このように、符号化装置10および復号装置20において、処理単位はフレームである。
図3は、PCM信号T[J]とビットストリームB[J]を説明する図である。
図3Aに示すように、PCM信号Tは時間領域信号である。なお、図3Aにおいて、横軸は時刻tを表し、縦軸はPCM信号のレベルを表している。
符号化装置10は、フレームごとに区切られたPCM信号T[J]に対して窓関数W[J]を窓掛けする。なお、この窓関数W[J]は、図3Bに示すように、前半区間が、1つ前のフレームの窓関数W[J-1]の後半区間と重なり、窓関数W[J]の後半区間は1つ後ろのフレームの窓関数W[J+1]の前半区間と重なるように設定される。図3の例では、窓関数W[J-1]の区間は、時刻t0(t0<t1)から時刻t2(t2>t1)までの区間となっており、窓関数W[J]の区間は、時刻t1から時刻t3(t3>t2)までの区間となっている。また、窓関数W[J+1]の区間は、時刻t2から時刻t4(t4>t3)までの区間となっている。
符号化装置10は、窓関数W[J-1]乃至W[J+1]で窓掛けされることにより得られたPCM信号T[J-1]乃至T[J+1]に対して、MDCT変換、符号化等を行い、図3Bに示すようなビットストリームB[J-1]乃至B[J+1]を符号化結果として出力する。
復号装置20は、このビットストリームB[J-1]乃至B[J+1]に対して復号化、逆MDCT変換等を行い、窓関数W[J-1]乃至W[J+1]の区間の時間領域信号を得る。そして、復号装置20は、窓関数W[J-1]の区間の時間領域信号の後半区間(図3の例では、時刻t1から時刻t2までの区間)と、窓関数W[J]の区間の時間領域信号の前半区間(図3の例では、時刻t1から時刻t2までの区間)を加算し、PCM信号T’[J]を得る。また、復号装置20は、窓関数W[J]の区間の時間領域信号の後半区間(図3の例では、時刻t2から時刻t3までの区間)と、窓関数W[J+1]の区間の時間領域信号の前半区間(図3の例では、時刻t2から時刻t3までの区間)を加算し、PCM信号T’[J+1]を得る。
なお、符号化装置10はMDCTを行うので、図3において窓関数W[J]の前後の重なり区間は、それぞれ全区間の50%となっているが、符号化装置10がMDCTではなくDFT(Discrete Fourier Transform)を行う場合には、重なり区間は全区間の50%でなくてもよい。また、窓掛けは、符号化装置10または復号装置20のいずれか一方でのみ行うようにしてもよい。
ところで、あるフレームのビットストリームが符号化および復号化の手順において欠落すると、そのフレームのPCM信号が欠落し、聴覚的なノイズが発生することがある。この場合について、図4を参照して説明する。なお、図4Aは、図3Aと同様であるので、説明は省略する。
図4Bに示すように、復号装置20において、ビットストリームB[J]が欠落した場合、ビットストリームB[J]に対して符号化、逆MDCT変換等が行われることにより得られるはずの窓関数W[J]の区間の時間領域信号が得られない。
その結果、窓関数W[J]の前半区間の時間領域信号を用いて生成されるPCM信号T’[J]と、窓関数W[J]の後半区間の時間領域信号を用いて生成されるPCM信号T’[J+1]を得ることができない。
従って、例えば、図4Bに示すように、PCM信号T’[J]とPCM信号T’[J+1]をゼロの信号で補間することが考えられる。しかしながら、この場合、時刻t1から時刻t3までの区間でPCM信号が不連続となるため、この区間のPCM信号に対応する音声が出力されると、ブチブチというノイズ音が聞こえる。
そこで、欠落によって得られないフレームのPCM信号T’[J]を、ゼロの信号ではなく、そのPCM信号T[J]の生成に用いられる予定であった欠落していない時間領域信号で補間する方法が考えられる。この方法について、図5を参照して説明する。なお、図5Aは、図3Aと同様であるので、説明は省略する。
上述した方法によれば、図5Bに示すように、復号装置20において、ビットストリームB[J]が欠落した場合、PCM信号T’[J]は、そのPCM信号T’[J]の生成に用いられる予定であった欠落していない窓関数W[J-1]の後半区間の時間領域信号で補間される。また、PCM信号T’[J+1]は、そのPCM信号T’[J+1]の生成に用いられる予定であった欠落していない窓関数W[J+1]の前半区間の時間領域信号で補間される。
この方法によれば、時刻t1から時刻t3までの区間でPCM信号の不連続は発生しない。しかしながら、補間に用いられる窓関数W[J-1]の後半区間の時間領域信号および窓関数W[J+1]の前半区間の時間領域信号が、本来のPCM信号T’[J]およびPCM信号T’[J+1]とは大きく異なる場合がある。この場合、時刻t1から時刻t3までの区間のPCM信号に対応する音声が出力されると、やはり、ブチブチというノイズ音が聞こえることがある。
そこで、このノイズを抑制するため、復号側で所定のフレームのビットストリームが欠落している場合に、符号化側で、そのフレームのビットストリームを再送する方法が考案されている(例えば、特許文献1参照)。しかしながら、この方法では、再送されてくるビットストリームが時間的に間に合わない場合がある。
また、符号化側で各フレームのビットストリームを複数の方法で伝送し、復号側で所定の方法で伝送されたフレームのビットストリームが欠落している場合に、そのフレームの他の方法で伝送されたビットストリームを代用する方法も考案されている(例えば、特許文献2参照)。
図6は、この方法を用いた符号化装置の構成例を示すブロック図である。
なお、図6に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図6の符号化装置30の構成は、主に、正規化部31、量子化部32、符号化部33、および多重化部34が新たに設けられている点が図1の構成と異なる。
正規化部31、量子化部32、符号化部33、および多重化部34は、それぞれ、正規化部12、量子化部13、符号化部14、および多重化部15と同様に、スペクトルS[J]からビットストリームC[J]を生成する。
但し、ビットストリームC[J]は、ビットストリームB[J]が欠落した場合に代用される予備的なビットストリームであるため、図7に示すように、ビットストリームC[J]のビットレートは、ビットストリームB[J]のビットレートより小さくなるように、ビットストリームB[J]とは異なる符号化方式で符号化される。従って、ビットストリームC[J]の復号結果に対応する音声の音質は、ビットストリームB[J]の復号結果に対応する音声に比べて良くない。
符号化装置30では、以上のようにして生成されたビットストリームC[J]と、符号化装置10と同様に生成されたビットストリームB[J]が、別の伝送路で伝送される。
図8は、図6の符号化装置30による符号化結果を復号する復号装置の構成例を示すブロック図である。
図8の復号装置50の分解部51、復号化部52、逆量子化部53、および逆正規化部54は、基本的に、図2の分解部21、復号化部22、逆量子化部23、および逆正規化部24と同様に構成されるが、ビットストリームB[J]の欠落を検出する点が異なっている。なお、ビットストリームB[J]の欠落は、ビットストリームB[J]が伝送路においてなんらかの問題で欠落した場合や、受信されたビットストリームB1[J]にエラーが発生している場合に検出され、その欠落の検出結果E[J]は、各部からスイッチ59に供給される。また、分解部51、復号化部52、逆量子化部53、および逆正規化部54により、ビットストリームB[J]から生成されたスペクトルS[J]は、スイッチ59に供給される。
また、復号装置50の分解部55、復号化部56、逆量子化部57、および逆正規化部58は、処理の対象がビットストリームC[J]である点および復号方式が異なる点を除いて、図2の分解部21、復号化部22、逆量子化部23、および逆正規化部54と同様である。分解部55、復号化部56、逆量子化部57、および逆正規化部58は、ビットストリームC[J]を復号してスペクトルS1[J]を生成し、スイッチ59に供給する。
スイッチ59は、検出結果E[J]に基づいて、ビットストリームB[J]が欠落している場合、逆正規化部58から供給されるスペクトルS1[J]を選択し、逆MDCT部60に供給する。一方、スイッチ59は、検出結果E[J]に基づいて、ビットストリームB[J]が欠落していない場合、逆正規化部54から供給されるスペクトルS[J]を選択し、逆MDCT部60に供給する。
逆MDCT部60は、スイッチ59から供給される周波数領域信号であるスペクトルS1[J]またはスペクトルS[J]に対して逆MDCTを行う。そして、逆MDCT部60は、その結果得られる時間領域信号を窓関数W[J]に基づいて足し合わせ、音声のPCM信号T’1[J]を得る。逆MDCT部60は、PCM信号T’1[J]を音声信号として出力する。
以上のように構成される復号装置50において、ビットストリームB[J]が欠落した場合について図9を参照して説明する。
図9に示すように、ビットストリームB[J]が欠落した場合、そのビットストリームB[J]から生成されるべきスペクトルS[J]を、ビットストリームC[J]から生成されるスペクトルS1[J]で補間する。これにより、窓関数W[J]の全区間の時間領域信号を得ることができ、その時間領域信号を用いてPCM信号T’1[J]とPCM信号T’1[J+1]を得ることができる。
なお、ビットストリームC[J]に対応する音声の音質は、ビットストリームB[J]に比べて良くないが、ビットストリームB[J]の欠落により音質が劣化した音声に比べれば、遥かに良いと言える。
しかしながら、特許文献2に記載されている方法では、ビットレートが高くなる。具体的には、例えば、図6の符号化装置30から出力されるビットストリームは、ビットストリームB[J]とビットストリームC[J]を加算したものであるので、符号化装置30のビットレートは、符号化装置10のビットレートに比べて高くなる。従って、補間用のビットストリームC[J]のビットレートを低減することが求められている。
本発明は、このような状況に鑑みてなされたものであり、補間用データのビットレートを低減することができるようにするものである。
本発明の第1の側面の符号化装置は、フレーム単位のオーディオ信号である第1のオーディオ信号の第1の符号化に用いられる情報である第1の符号化情報と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号の第2の符号化に用いられる情報である第2の符号化情報を、前記第1の符号化情報と前記第2の符号化情報の少なくとも一部が共通するように生成し、前記第2のオーディオ信号の前記第1の符号化に用いられる情報である第3の符号化情報と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号の前記第2の符号化に用いられる情報である第4の符号化情報を、前記第3の符号化情報と前記第4の符号化情報の少なくとも一部が共通するように生成する生成手段と、前記第1の符号化情報を用いて前記第1のオーディオ信号に対して前記第1の符号化を行うことにより第1のデータを生成し、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化を行うことにより第2のデータを生成する第1の符号化手段と、前記第2の符号化情報を用いて前記第2のオーディオ信号に対して前記第2の符号化を行うことにより第3のデータを生成し、前記第4の符号化情報を用いて前記第3のオーディオ信号に対して前記第2の符号化を行うことにより第4のデータを生成する第2の符号化手段と、前記第1のデータ、前記第1の符号化情報、前記第3のデータ、および、前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータ、前記第3の符号化情報、前記第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化して前記第2のオーディオ信号のストリームを生成する多重化手段とを備え、前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号される符号化装置である。
本発明の第1の側面の符号化方法およびプログラムは、本発明の第1の側面の符号化装置に対応する。
本発明の第1の側面においては、フレーム単位のオーディオ信号である第1のオーディオ信号の第1の符号化に用いられる情報である第1の符号化情報と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号の第2の符号化に用いられる情報である第2の符号化情報が、前記第1の符号化情報と前記第2の符号化情報の少なくとも一部が共通するように生成され、前記第2のオーディオ信号の前記第1の符号化に用いられる情報である第3の符号化情報と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号の前記第2の符号化に用いられる情報である第4の符号化情報が、前記第3の符号化情報と前記第4の符号化情報の少なくとも一部が共通するように生成され、前記第1の符号化情報を用いて前記第1のオーディオ信号に対して前記第1の符号化が行われることにより第1のデータが生成され、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われることにより第2のデータが生成され、前記第2の符号化情報を用いて前記第2のオーディオ信号に対して前記第2の符号化が行われることにより第3のデータが生成され、前記第4の符号化情報を用いて前記第3のオーディオ信号に対して前記第2の符号化が行われることにより第4のデータが生成され、前記第1のデータ、前記第1の符号化情報、前記第3のデータ、および、前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報が多重化されて前記第1のオーディオ信号のストリームが生成され、前記第2のデータ、前記第3の符号化情報、前記第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報が多重化されて前記第2のオーディオ信号のストリームが生成される。なお、前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号されるものである。
本発明の第2の側面の復号装置は、第1の符号化情報を用いてフレーム単位のオーディオ信号である第1のオーディオ信号に対して第1の符号化が行われた結果得られる第1のデータ、前記第1の符号化情報、前記第1の符号化情報と少なくとも一部が共通する第2の符号化情報を用いて前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号に対して第2の符号化が行われた結果得られる第2のデータ、および前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われた結果得られる第3のデータ、前記第3の符号化情報、前記第3の符号化情報と少なくとも一部が共通する第4の符号化情報を用いて前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号に対して前記第2の符号化が行われた結果得られる第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得手段と、前記第1の符号化情報に基づいて前記第1のデータに対して第1の復号を行い、前記第3の符号化情報に基づいて前記第3のデータに対して前記第1の復号を行う第1の復号手段と、前記第1の符号化情報と前記第2の符号化情報に基づいて前記第2のデータに対して第2の復号を行い、前記第3の符号化情報と前記第4の符号化情報に基づいて前記第4のデータに対して前記第2の復号を行う第2の復号手段と、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第2のデータの復号結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力手段とを備える復号装置である。
本発明の第2の側面の復号方法およびプログラムは、本発明の第2の側面の復号装置に対応する。
本発明の第2の側面において、第1の符号化情報を用いてフレーム単位のオーディオ信号である第1のオーディオ信号に対して第1の符号化が行われた結果得られる第1のデータ、前記第1の符号化情報、前記第1の符号化情報と少なくとも一部が共通する第2の符号化情報を用いて前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号に対して第2の符号化が行われた結果得られる第2のデータ、および前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報が多重化されることにより得られた前記第1のオーディオ信号のストリームと、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われた結果得られる第3のデータ、前記第3の符号化情報、前記第3の符号化情報と少なくとも一部が共通する第4の符号化情報を用いて前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号に対して前記第2の符号化が行われた結果得られる第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報が多重化されることにより得られた前記第2のオーディオ信号のストリームとが取得され、前記第1の符号化情報に基づいて前記第1のデータに対して第1の復号が行われ、前記第3の符号化情報に基づいて前記第3のデータに対して前記第1の復号が行われ、前記第1の符号化情報と前記第2の符号化情報に基づいて前記第2のデータに対して第2の復号が行われ、前記第3の符号化情報と前記第4の符号化情報に基づいて前記第4のデータに対して前記第2の復号が行われ、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第2のデータの復号結果が出力され、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果が出力される。
本発明の第3の側面の符号化装置は、フレーム単位のオーディオ信号である第1のオーディオ信号を符号化して第1のデータを生成し、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号を符号化して第2のデータを生成する第1の符号化手段と、前記第1のオーディオ信号と前記第2のオーディオ信号の差分を符号化して第3のデータを生成し、前記2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である前記第3のオーディオ信号の差分を符号化して第4のデータを生成する第2の符号化手段と、前記第1のデータと前記第3のデータを多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータと前記第4のデータを多重化して前記第2のオーディオ信号のストリームを生成する多重化手段とを備え、前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号され、前記第1のデータの復号結果と合成される符号化装置である。
本発明の第3の側面においては、フレーム単位のオーディオ信号である第1のオーディオ信号が符号化されて第1のデータが生成され、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号が符号化されて第2のデータが生成され、前記第1のオーディオ信号と前記第2のオーディオ信号の差分が符号化されて第3のデータが生成され、前記2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である前記第3のオーディオ信号の差分が符号化されて第4のデータが生成され、前記第1のデータと前記第3のデータが多重化されて前記第1のオーディオ信号のストリームが生成され、前記第2のデータと前記第4のデータが多重化されて前記第2のオーディオ信号のストリームが生成される。なお、前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号され、前記第1のデータの復号結果と合成されるものである。
本発明の第4の側面の復号装置は、フレーム単位のオーディオ信号である第1のオーディオ信号の符号化結果である第1のデータ、および、前記第1のオーディオ信号と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号との差分の符号化結果である第2のデータを多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第2のオーディオ信号の符号化結果である第3のデータ、および、前記第2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号との差分の符号化結果である第4のデータを多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得手段と、前記第1のデータと前記第3のデータを復号する第1の復号手段と、前記第2のデータを復号して、前記第1のデータの復号結果と前記第2のデータの復号結果を合成し、前記第4のデータを復号して、前記第3のデータの復号結果と前記第4の復号結果を合成する第2の復号手段と、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第1のデータと前記第2のデータの復号結果の合成結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力手段とを備える復号装置である。
本発明の第4の側面においては、フレーム単位のオーディオ信号である第1のオーディオ信号の符号化結果である第1のデータ、および、前記第1のオーディオ信号と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号との差分の符号化結果である第2のデータが多重化されることにより得られた前記第1のオーディオ信号のストリームと、前記第2のオーディオ信号の符号化結果である第3のデータ、および、前記第2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号との差分の符号化結果である第4のデータが多重化されることにより得られた前記第2のオーディオ信号のストリームとが取得され、前記第1のデータと前記第3のデータが復号され、前記第2のデータが復号されて、前記第1のデータの復号結果と前記第2のデータの復号結果が合成され、前記第4のデータが復号されて、前記第3のデータの復号結果と前記第4の復号結果が合成され、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第1のデータと前記第2のデータの復号結果の合成結果が出力され、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果が出力される。
本発明の第1の側面および第3の側面によれば、補間用データのビットレートを低減することができる。
また、本発明の第2の側面および第4の側面によれば、ビットレートが低減された補間用データを用いて復号を行うことができる。
<一実施の形態>
[符号化装置の一実施の形態の構成例]
図10は、本発明を適用した符号化装置の一実施の形態の構成例を示すブロック図である。
[符号化装置の一実施の形態の構成例]
図10は、本発明を適用した符号化装置の一実施の形態の構成例を示すブロック図である。
図10の符号化装置100は、MDCT部101、保持部102、正規化部103、量子化部104、符号化部105、量子化部106、符号化部107、および多重化部108により構成される。
符号化装置100のMDCT部101には、音声のPCM信号TがフレームごとにPCM信号T[J+1]として入力される。
MDCT部101は、時間領域信号である音声のPCM信号T[J+1]に対して窓関数W[J+1]を窓掛けし、その結果得られるPCM信号[J+1]に対してMDCTを行い、周波数領域信号であるスペクトルS[J+1]を得る。MDCT部101は、スペクトルS[J+1]を保持部102と正規化部103に供給する。
保持部102は、MDCT部101からスペクトルS[J+1]が供給されたとき、既に保持している1フレーム前のスペクトルS[J]を読み出して正規化部103に供給する。そして、保持部102は、MDCT部101から供給されるスペクトルS[J+1]を保持する。
正規化部103(生成手段)は、MDCT部101から供給されるスペクトルS[J+1]および保持部102から供給されるスペクトルS[J]から、スペクトルS[J+1]およびスペクトルS[J]に共通のエンベロープF2[J]を抽出し、多重化部108に供給する。また、正規化部103は、エンベロープF2[J]を用いてスペクトルS[J+1]を正規化し、その結果得られる正規化スペクトルN2[J+1]を量子化部104に供給する。さらに、正規化部103は、エンベロープF2[J]を用いてスペクトルS[J]を正規化し、その結果得られる正規化スペクトルN3[J]を量子化部106に供給する。
量子化部104は、所定のアルゴリズムによって決定された量子化精度情報P2[J+1]に基づき、正規化部103から供給される正規化スペクトルN2[J+1]を量子化し、その結果得られる量子化スペクトルQ2[J+1]を符号化部105に供給する。また、量子化部104は、量子化精度情報P2[J+1]を多重化部108に供給する。なお、量子化精度情報P2[J+1]を決定するための所定のアルゴリズムとしては、例えば既に一般的に知られているものを用いることができる。
符号化部105は、量子化部104から供給される量子化スペクトルQ2[J+1]を符号化し、その結果得られる符号スペクトルH2[J+1]を多重化部108に供給する。
量子化部106は、所定のアルゴリズムによって決定された量子化精度情報P3[J]に基づき、正規化部103から供給される正規化スペクトルN3[J]を量子化し、その結果得られる量子化スペクトルQ3[J]を符号化部107に供給する。また、量子化部106は、量子化精度情報P3[J]を多重化部108に供給する。なお、量子化精度情報P3[J]を決定するための所定のアルゴリズムとしては、例えば既に一般的に知られているものを用いることができる。
符号化部107は、量子化部106から供給される量子化スペクトルQ3[J]を符号化部105と同一の符号化方式で符号化する。このように、符号化装置100では、符号化部105と符号化部107が同一の符号化方式で符号化するので、異なる符号化方式で符号化する従来の符号化装置30(図6)に比べて、符号化装置100の構成を簡易化することができる。また、符号化部107は、符号化の結果得られる符号スペクトルH3[J]を多重化部108に供給する。
多重化部108は、正規化部103からのエンベロープF2[J]、量子化部104からの量子化精度情報P2[J+1]、符号化部105からの符号スペクトルH2[J+1]、量子化部106からの量子化精度情報P3[J]、および符号化部107からの符号スペクトルH3[J]を多重化してビットストリームB1[J]を生成する。多重化部108は、そのビットストリームB1[J]を符号化結果として出力する。
なお、ビットストリームB1[J]に含まれる符号スペクトルH3[J]は、PCM信号T[J]を符号化した結果生成されるものであり、復号装置において本来復号されるべき符号スペクトルである。一方、符号スペクトルH2[J+1]は、PCM信号T[J+1]を符号化したものであり、復号装置において、本来復号されるべき符号スペクトルH3[J+1]が欠落した場合に、符号スペクトルH3[J+1]の代わりに用いられるものである。
[ビットストリームの説明]
図11は、図10の符号化装置100から出力されるビットストリームB1[J]を説明する図である。
図11は、図10の符号化装置100から出力されるビットストリームB1[J]を説明する図である。
図11に示すように、ビットストリームB1[J]は、本来復号されるべき符号スペクトルH3[J]を含むデータB2[J]と、その符号スペクトルH3[J]のフレームの次のフレームの符号スペクトルH3[J+1]の欠落時に代用される符号スペクトルH2[J+1]を含むデータD[J+1]により構成される。
このように、同一のビットストリームB1[J]に含まれるデータB2[J]に対応するフレームと、データD[J+1]に対応するフレームとは異なっているので、同一フレームのデータB2[J]とデータD[J]が同時に欠落することを防止することができる。
図12は、従来の図6の符号化装置30による符号化結果と、図10の符号化装置100による符号化結果のデータ量について説明する図である。
図12Aに示すように、図6の符号化装置30による符号化結果は、本来復号されるべきビットストリームB[J]と、ビットストリームB[J]が欠落した場合に代用されるビットストリームC[J]とにより構成される。また、ビットストリームB[J]は、エンベロープF[J]、量子化精度情報P[J]、および符号スペクトルH[J]により構成され、ビットストリームC[J]は、エンベロープF1[J]、量子化精度情報P1[J]、および符号スペクトルH1[J]により構成される。
一方、図12Bに示すように、図10の符号化装置100による符号化結果は、本来復号されるべきデータB2[J]と、データB2[J+1]が欠落した場合に代用されるデータD[J+1]からなる。また、データB2[J]は、符号スペクトルH3[J]、符号スペクトルH3[J]の復号に必要な量子化精度情報P3[J]、および、符号スペクトルH3[J]および符号スペクトルH2[J+1]に共通のエンベロープF2[J]により構成される。データD[J+1]は、符号スペクトルH2[J+1]および量子化精度情報P2[J+1]により構成される。
このように、符号化装置100による符号化結果では、符号スペクトルH3[J]および符号スペクトルH2[J+1]のエンベロープが共通化されている。従って、符号化装置30が符号化装置100と同一の符号化方法で符号化する場合、符号化装置30による符号化結果に比べて、欠落時に代用されるデータ、即ち補間用のデータのサイズを小さくすることができる。その結果、補間用のデータのビットレートを低減し、伝送コストを低減することができる。
[エンベロープの共通化の説明]
図13乃至図18は、エンベロープの共通化について説明する図である。
図13乃至図18は、エンベロープの共通化について説明する図である。
まず、図13に示すように、PCM信号が、時刻t1から時刻t2までの区間において波高が高くエネルギー的に支配的な信号である場合について説明する。
この場合、図13に示すように、PCM信号Tの時刻t0から時刻t2までの区間の信号を用いてスペクトルS[J]が生成されると、スペクトルS[J]のスペクトル分布は、図14Aに示すようになる。また、PCM信号Tの時刻t1から時刻t3までの区間の信号を用いてスペクトルS[J+1]が生成されると、スペクトルS[J+1]のスペクトル分布は、図14Bに示すようになる。時間信号を周波数変換してスペクトルのパワーを求める場合には、時間信号の位相情報は欠落し、スペクトルのパワー情報のみが存在する。ここで、スペクトルS[J]とスペクトルS[J+1]では、エネルギーが支配的な時刻t1から時刻t2までの区間のPCM信号が共有化されているため、図14に示すように、スペクトルS[J]とスペクトルS[J+1]のスペクトル形状は類似する。なお、図14において、横軸はスペクトル番号を表し、縦軸はスペクトルのパワーを表している。このことは、後述する図17においても同様である。
ここで、エンベロープは、図14中点線で示すように、複数本のスペクトル単位で求められることが多い。図14の例では、2本のスペクトルからなるスペクトル群単位でエンベロープが求められており、そのスペクトル群のインデックスが、スペクトル番号の小さい方から順に0から付されているものとする。なお、以下では、Jフレームのインデックスiのスペクトル群をS[J][i]と表す。
図15は、スペクトル群S[J][1]とスペクトル群S[J+1][1]のエンベロープを示す図である。
図14に示すように、スペクトル群S[J][1]とスペクトル群S[J+1][1]は類似している。従って、図15に示すように、スペクトル群S[J][1]のエンベロープF3[J][1]と、スペクトル群S[J+1][1]のエンベロープF3[J+1][1]は類似している。よって、スペクトル群S[J][1]のエンベロープF3[J][1]と、スペクトル群S[J+1][1]のエンベロープF3[J+1][1]のうちの大きい方を、スペクトル群S[J][1]とスペクトル群S[J+1][1]に共通のエンベロープとして用いても、正規化スペクトルN3[J]と正規化スペクトルN2[J+1]の形状は、大きく変化しない。
従って、図13に示すように、PCM信号が、窓関数W[J]の重なり区間において、波高が高くエネルギー的に支配的な信号である場合には、スペクトル群S[J][i]のエンベロープF3[J][i]と、スペクトル群S[J+1][i]のエンベロープF3[J+1][i]のうちの大きい方を、スペクトル群S[J][i]とスペクトル群S[J+1][i]に共通のエンベロープとすることにより、スペクトル群S[J][i]とスペクトル群S[J+1][i]のエンベロープを共通化することができる。
次に、図16に示すように、PCM信号が、時刻t1から時刻t2までの区間においてエネルギーが集中しておらず、時刻t0から時刻t1までの区間において波高が高くエネルギー的に支配的な信号である場合について説明する。
この場合、図16に示すように、図13の場合と同様に、PCM信号Tの時刻t0から時刻t2までの区間の信号を用いてスペクトルS[J]が生成されると、スペクトルS[J]のスペクトル分布は、図17Aに示すようになる。また、図13の場合と同様に、PCM信号Tの時刻t1から時刻t3までの区間の信号を用いてスペクトルS[J+1]が生成されると、スペクトルS[J+1]のスペクトル分布は、図17Bに示すようになる。図17に示すように、スペクトルS[J]とスペクトルS[J+1]のスペクトル形状の類似性は低くなる。これは、波高が高くエネルギー的に支配的な時刻t0から時刻t1までの区間のPCM信号が、スペクトルS[J]には影響するが、スペクトルS[J+1]には影響しないためである。
ここで、図17の例においても、図14の場合と同様に、2本のスペクトルからなるスペクトル群単位でエンベロープが求められており、そのスペクトル群のインデックスが、スペクトル番号の小さい方から順に0から付されているものとする。
図18は、スペクトル群S[J][1]とスペクトル群S[J+1][1]のエンベロープを示す図である。
図17に示すように、スペクトル群S[J][1]とスペクトル群S[J+1][1]は類似してない。従って、図18に示すように、スペクトル群S[J][1]のエンベロープF3[J]と、スペクトル群S[J+1][1]のエンベロープF4[J]は類似していない。よって、スペクトル群S[J][1]のエンベロープF3[J][1]とスペクトル群S[J+1][1]のエンベロープF3[J+1][1]のうちの大きい方が、スペクトル群S[J][1]とスペクトル群S[J+1][1]に共通のエンベロープとして用いられる場合、スペクトル群S[J+1][1]の正規化スペクトルN2[J+1][1]が極めて小さい値になり、その後の量子化の際に全てゼロとして符号化されてしまう場合がある。従って、この場合、スペクトル群S[J+1][1]のエンベロープF3[J+1][1]を用いて正規化された場合の正規化スペクトルN2[J+1][1]と、共通のエンベロープを用いて正規化された場合の正規化スペクトルN2[J+1][1]の形状が大きく異なってしまう。
しかしながら、復号において、パワーの小さいスペクトルによるパワーの大きいスペクトルの精度悪化への影響はそもそも小さいため、問題がない。
従って、図16に示すように、PCM信号が、窓関数W[J]の重なり区間においてエネルギーが集中していない信号である場合であっても、スペクトル群S[J][i]のエンベロープF3[J][i]と、スペクトル群S[J+1][i]のエンベロープF3[J+1][i]のうちの大きい方を、スペクトル群S[J][i]とスペクトル群S[J+1][i]に共通のエンベロープとすることにより、スペクトル群S[J][i]とスペクトル群S[J+1][i]のエンベロープを共通化することができる。
なお、フレームの欠落によるノイズの発生は、殆どの場合、低域周波数成分の不連続に起因する。より具体的には、連続するフレーム間において、連続的に一定レベルで発生している低周波数成分が、特定のフレームでのみ欠落することによって聴覚的なノイズが発生する。このことを考慮すると、図16に示すようなPCM信号Tでは、そもそもJフレームとJ+1フレームにおいて低周波数成分が一定レベルで発生していない、つまり連続していないため、データD[J+1]を用いなくても聴覚的なノイズが発生しにくい信号であることがわかる。従って、実際には、データD[J+1]を伝送しなくとも良い。
しかしながら、フレームの欠落は意図せず発生するため、欠落するフレームが欠落によって聴覚的なノイズを発生しやすいフレームであるか否かを予め判定することは不可能である。従って、符号化装置100では、各フレームが、そのフレームの欠落によって聴覚的なノイズを発生しやすいフレームであるか否かに関わらず、データD[J+1]が伝送される。
また、フレームの欠落により聴覚的なノイズが発生しやすい場合、即ち低周波数成分が連続している場合には、低周波数成分において、連続するフレームのエンベロープは類似するので、データD[J]としてゼロでない値が多く符号化される。一方、フレームの欠落により聴覚的なノイズが発生しにくい場合には、低周波数成分において、連続するフレームのエンベロープは類似せず、データD[J]として、ゼロ、またはゼロに近い値が多く符号化されることがある。従って、ゼロに近い値ほど短い符号長で符号化されるようにすれば、ノイズの発生確率に応じて自動的にデータD[J]のビットレートを変動させることができる。
[符号化装置の処理の説明]
図19は、図10の符号化装置100による符号化処理を説明するフローチャートである。この符号化処理は、例えば、音声のPCM信号T[J+1]が符号化装置100に入力されたときに開始される。
図19は、図10の符号化装置100による符号化処理を説明するフローチャートである。この符号化処理は、例えば、音声のPCM信号T[J+1]が符号化装置100に入力されたときに開始される。
図19のステップS11において、MDCT部101は、時間領域信号であるPCM信号T[J+1]に対して窓関数W[J+1]を窓掛けし、その結果得られるPCM信号[J+1]に対してMDCTを行い、周波数領域信号であるスペクトルS[J+1]を得る。MDCT部101は、スペクトルS[J+1]を保持部102と正規化部103に供給する。
ステップS12において、保持部102は、既に保持している1フレーム前のスペクトルS[J]を読み出して正規化部103に供給する。
ステップS13において、保持部102は、MDCT部101から供給されるスペクトルS[J+1]を保持する。
ステップS14において、正規化部103は、保持部102から供給されるスペクトルS[J]とMDCT部101から供給されるスペクトルS[J+1]から、スペクトルS[J]とスペクトルS[J+1]に共通のエンベロープF2[J]を抽出する。具体的には、正規化部103は、スペクトルS[J+1]のエンベロープと、スペクトルS[J]のエンベロープのうちの大きい方のエンベロープを、共通のエンベロープF2[J]として抽出する。そして、正規化部103は、エンベロープF2[J]を多重化部108に供給する。
ステップS15において、正規化部103は、エンベロープF2[J]を用いてスペクトルS[J]とスペクトルS[J+1]を正規化する。正規化部103は、スペクトルS[J]の正規化の結果得られる正規化スペクトルN3[J]を量子化部106に供給する。また、正規化部103は、スペクトルS[J+1]の正規化の結果得られる正規化スペクトルN2[J+1]を量子化部104に供給する。
ステップS16において、量子化部104は、所定のアルゴリズムによって決定された量子化精度情報P2[J+1]に基づき、正規化部103から供給される正規化スペクトルN2[J+1]を量子化し、その結果得られる量子化スペクトルQ2[J+1]を符号化部105に供給する。また、量子化部104は、量子化精度情報P2[J+1]を多重化部108に供給する。同時に、量子化部106は、所定のアルゴリズムによって決定された量子化精度情報P3[J]に基づき、正規化部103から供給される正規化スペクトルN3[J]を量子化し、その結果得られる量子化スペクトルQ3[J]を符号化部107に供給する。また、量子化部106は、量子化精度情報P3[J]を多重化部108に供給する。
ステップS17において、符号化部105は、量子化部104から供給される量子化スペクトルQ2[J+1]を符号化し、その結果得られる符号スペクトルH2[J+1]を多重化部108に供給する。同時に、符号化部107は、量子化部106から供給される量子化スペクトルQ3[J]を符号化し、その結果得られる符号スペクトルH3[J]を多重化部108に供給する。
ステップS18において、多重化部108は、量子化部104からの量子化精度情報P2[J+1]、符号化部105からの符号スペクトルH2[J+1]、正規化部103からのエンベロープF2[J]、量子化部106からの量子化精度情報P3[J]、および符号化部107からの符号スペクトルH3[J]を多重化してビットストリームB1[J]を生成する。
ステップS19において、多重化部108は、生成されたビットストリームB1[J]を符号化結果として出力し、処理を終了する。
[復号装置の構成例]
図20は、図10の符号化装置100による符号化結果を復号する復号装置の構成例を示すブロック図である。
図20は、図10の符号化装置100による符号化結果を復号する復号装置の構成例を示すブロック図である。
図20の復号装置150は、分解部151、復号化部152、逆量子化部153、逆正規化部154、保持部155、復号化部156、逆量子化部157、逆正規化部158、スイッチ159、および逆MDCT部160により構成される。
復号装置150の分解部151には、符号化装置100による符号化結果であるビットストリームB1[J]が入力される。
分解部151(取得手段)は、ビットストリームB1[J]を取得する。分解部151は、ビットストリームB1[J]から、エンベロープF2[J]、量子化精度情報P2[J+1]、および量子化精度情報P3[J]を分解する。また、分解部151は、量子化精度情報P2[J+1]に基づいて、ビットストリームB1[J]から符号スペクトルH2[J+1]を分解し、量子化精度情報P3[J]に基づいて、ビットストリームB1[J]から符号スペクトルH3[J]を分解する。
また、分解部151は、エンベロープF2[J]を逆正規化部154と逆正規化部158に供給する。分解部151は、量子化精度情報P2[J+1]を逆量子化部153に供給し、量子化精度情報P3[J]を逆量子化部157に供給する。さらに、分解部151は、符号スペクトルH2[J+1]を復号化部152に供給し、符号スペクトルH3[J]を復号化部156に供給する。
復号化部152は、分解部151から供給される符号スペクトルH2[J+1]を復号し、その結果得られる量子化スペクトルQ2[J+1]を逆量子化部153に供給する。
逆量子化部153は、復号化部152から供給される量子化スペクトルQ2[J+1]を、分解部151から供給される量子化精度情報P2[J+1]に基づいて逆量子化し、その結果得られる正規化スペクトルN2[J+1]を逆正規化部154に供給する。
逆正規化部154は、逆量子化部153から供給される正規化スペクトルN2[J+1]を、分解部151から供給されるエンベロープF2[J]を用いて逆正規化し、その結果得られるスペクトルS[J+1]を保持部155に供給する。
保持部155は、逆正規化部154からスペクトルS[J+1]が供給されたとき、既に保持しているスペクトルS[J]を読み出して、スイッチ159に出力する。また、保持部155は、逆正規化部154から供給されるスペクトルS[J+1]を保持する。
復号化部156は、分解部151から供給される符号スペクトルH3[J]を復号化部152と同一の復号方式で復号化する。このように、復号装置150では、復号化部152と復号化部156が同一の復号方式で復号するので、異なる復号方式で復号する従来の復号装置50(図8)に比べて、復号装置150の構成を簡易化することができる。また、復号化部156は、復号の結果得られる量子化スペクトルQ3[J]を逆量子化部157に供給する。
逆量子化部157は、復号化部156から供給される量子化スペクトルQ3[J]を、分解部151から供給される量子化精度情報P3[J]に基づいて逆量子化し、その結果得られる正規化スペクトルN3[J]を逆正規化部158に供給する。
逆正規化部158は、逆量子化部157から供給される正規化スペクトルN3[J]を、分解部151から供給されるエンベロープF2[J]を用いて逆正規化し、その結果得られるスペクトルS[J]をスイッチ159に供給する。
なお、分解部151、復号化部156、逆量子化部157、および逆正規化部158は、それぞれ、さらに、データB2[J]が伝送路においてなんらかの問題で欠落したことや、受信されたデータB2[J]にエラーが発生していることを検出する。そして、検出結果が、欠落の検出結果E1[J]としてスイッチ159に供給される。
スイッチ159(出力手段)は、検出結果E1[J]に基づいて、保持部155から供給されるデータD[J]から得られたスペクトルS[J]、または、逆正規化部158から供給されるデータB2[J]から得られたスペクトルS[J]を選択し、逆MDCT部160に供給する。
逆MDCT部160は、スイッチ159から供給される周波数領域信号であるスペクトルS[J]に対して逆MDCTを行い、その結果得られる時間領域信号を窓関数W[J]に基づいて足し合わせ、音声のPCM信号T’2[J]を得る。逆MDCT部160は、PCM信号T’2[J]を音声信号として出力する。
[欠落時のPCM信号の説明]
図21は、データB2[J]が欠落した場合のPCM信号T2[J-1]乃至T2[J+1]を説明する図である。
図21は、データB2[J]が欠落した場合のPCM信号T2[J-1]乃至T2[J+1]を説明する図である。
図21に示すように、データB2[J]が欠落した場合、スイッチ159により、データB2[J]より前に受信された1フレーム前のビットストリームB1[J-1]に含まれるデータD[J]から得られるスペクトルS[J]が選択される。即ち、図21Aに示すように、データB2[J]により生成されるべきスペクトルS[J]が、データB2[J]より前に受信されたビットストリームB1[J-1]に含まれるデータD[J]により生成されるスペクトルS[J]で補間される。なお、データD[J]には、エンベロープが含まれていないので、同一のビットストリームB1[J-1]内のデータB2[J-1]に含まれるエンベロープF2[J-1]を用いて、スペクトルS[J]が生成される。
[復号装置の処理の説明]
図22は、図20の復号装置150による復号処理を説明するフローチャートである。この復号処理は、例えば、符号化装置100による符号化結果であるビットストリームB1[J]が復号装置150に入力されたとき、開始される。
図22は、図20の復号装置150による復号処理を説明するフローチャートである。この復号処理は、例えば、符号化装置100による符号化結果であるビットストリームB1[J]が復号装置150に入力されたとき、開始される。
ステップS31において、分解部151は、ビットストリームB1[J]から、エンベロープF2[J]、量子化精度情報P2[J+1]、および量子化精度情報P3[J]を分解する。また、分解部151は、量子化精度情報P2[J+1]に基づいて、ビットストリームB1[J]から符号スペクトルH2[J+1]を分解し、量子化精度情報P3[J]に基づいて、ビットストリームB1[J]から符号スペクトルH3[J]を分解する。
そして、分解部151は、エンベロープF2[J]を逆正規化部154と逆正規化部158に供給する。分解部151は、量子化精度情報P2[J+1]を逆量子化部153に供給し、量子化精度情報P3[J]を逆量子化部157に供給する。さらに、分解部151は、符号スペクトルH2[J+1]を復号化部152に供給し、符号スペクトルH3[J]を復号化部156に供給する。
ステップS32において、復号化部152は、分解部151から供給される符号スペクトルH2[J+1]を復号し、その結果得られる量子化スペクトルQ2[J+1]を逆量子化部153に供給する。同時に、復号化部156は、分解部151から供給される符号スペクトルH3[J]を復号し、その結果得られる量子化スペクトルQ3[J]を逆量子化部157に供給する。
ステップS33において、逆量子化部153は、復号化部152から供給される量子化スペクトルQ2[J+1]を、分解部151から供給される量子化精度情報P2[J+1]に基づいて逆量子化し、その結果得られる正規化スペクトルN2[J+1]を逆正規化部154に供給する。同時に、逆量子化部157は、復号化部156から供給される量子化スペクトルQ3[J]を、分解部151から供給される量子化精度情報P3[J]に基づいて逆量子化し、その結果得られる正規化スペクトルN3[J]を逆正規化部158に供給する。
ステップS34において、逆正規化部154は、逆量子化部153から供給される正規化スペクトルN2[J+1]を、分解部151から供給されるエンベロープF2[J]を用いて逆正規化し、その結果得られるスペクトルS[J+1]を保持部155に供給する。同時に、逆正規化部158は、逆量子化部157から供給される正規化スペクトルN3[J]を、分解部151から供給されるエンベロープF2[J]を用いて逆正規化し、その結果得られるスペクトルS[J]をスイッチ159に供給する。
ステップS35において、保持部155は、既に保持しているスペクトルS[J]を読み出して、スイッチ159に出力する。
ステップS36において、保持部155は、逆正規化部154から供給されるスペクトルS[J+1]を保持する。
ステップS37において、スイッチ159は、分解部151、復号化部156、逆量子化部157、および逆正規化部158から供給される検出結果E1[J]に基づいて、データB2[J]が欠落しているかどうかを判定する。
ステップS37でデータB2[J]が欠落していると判定された場合、ステップS38において、スイッチ159は、保持部155から供給されるデータD[J]から得られたスペクトルS[J]を選択して逆MDCT部160に出力する。そして処理はステップS40に進む。
一方、ステップS37でデータB2[J]が欠落していないと判定された場合、ステップS39において、スイッチ159は、逆正規化部158から供給されるデータB2[J]から得られたスペクトルS[J]を選択して、逆MDCT部160に出力する。そして処理はステップS40に進む。
ステップS40において、逆MDCT部160は、スイッチ159から供給される周波数領域信号であるスペクトルS[J]に対して逆MDCTを行い、その結果得られる時間領域信号を窓関数W[J]に基づいて足し合わせ、音声のPCM信号T’2[J]を得る。
ステップS41において、逆MDCT部160は、PCM信号T’2[J]を音声信号として出力し、処理を終了する。
なお、上述した説明では、スペクトルS[J+1]とスペクトルS[J]において、エンベロープF2が共通化されたが、他の符号化に用いられる情報(符号化情報)である量子化精度情報が共通化されてもよい。
また、符号化部105は、量子化スペクトルQ2[J+1]と量子化スペクトルQ3[J]の差分を符号化する差分符号化を行うようにしてもよい。この場合、復号化部152は、符号スペクトルH2[J+1]を復号し、符号スペクトルH2[J+1]の復号結果と符号スペクトルH3[J]の復号結果を合成して、量子化スペクトルQ2[J+1]を生成する。以上のように差分符号化が用いられる場合、符号化効率が向上し、ビットレートをさらに低減することができる。
さらに、上述した説明では、符号化装置100に入力されるPCM信号T[J]は1チャンネルの信号であるものとしたが、複数チャンネルの信号であってもよい。この場合には、ビットストリームB1[J]に、フレームの異なる符号ストリームが配置されるのではなく、チャンネルの異なる符号ストリームが配置される。例えば、ビットストリームB1[J]に、所定のチャンネルの所定のフレームの符号化データと、その符号化データと同一フレームで異なるチャンネルの符号化データとが配置される。
[本発明を適用したコンピュータの説明]
次に、上述した一連の符号化装置100の処理および復号装置150の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の符号化装置100の処理および復号装置150の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
次に、上述した一連の符号化装置100の処理および復号装置150の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の符号化装置100の処理および復号装置150の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図23は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部308やROM(Read Only Memory)302に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア311に格納(記録)しておくことができる。このようなリムーバブルメディア311は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア311としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア311からドライブ310を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部308にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)301を内蔵しており、CPU301には、バス304を介して、入出力インタフェース305が接続されている。
CPU301は、入出力インタフェース305を介して、ユーザによって、入力部306が操作等されることにより指令が入力されると、それに従って、ROM302に格納されているプログラムを実行する。あるいは、CPU301は、記憶部308に格納されたプログラムを、RAM(Random Access Memory)303にロードして実行する。
これにより、CPU301は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU301は、その処理結果を、必要に応じて、例えば、入出力インタフェース305を介して、出力部307から出力、あるいは、通信部309から送信、さらには、記憶部308に記録等させる。
なお、入力部306は、キーボードや、マウス、マイク等で構成される。また、出力部307は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
100 符号化装置, 103 正規化部, 105 符号化部, 107 符号化部, 108 多重化部, 150 復号装置, 152 復号化部, 156 復号化部, 159 スイッチ
Claims (18)
- フレーム単位のオーディオ信号である第1のオーディオ信号の第1の符号化に用いられる情報である第1の符号化情報と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号の第2の符号化に用いられる情報である第2の符号化情報を、前記第1の符号化情報と前記第2の符号化情報の少なくとも一部が共通するように生成し、前記第2のオーディオ信号の前記第1の符号化に用いられる情報である第3の符号化情報と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号の前記第2の符号化に用いられる情報である第4の符号化情報を、前記第3の符号化情報と前記第4の符号化情報の少なくとも一部が共通するように生成する生成手段と、
前記第1の符号化情報を用いて前記第1のオーディオ信号に対して前記第1の符号化を行うことにより第1のデータを生成し、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化を行うことにより第2のデータを生成する第1の符号化手段と、
前記第2の符号化情報を用いて前記第2のオーディオ信号に対して前記第2の符号化を行うことにより第3のデータを生成し、前記第4の符号化情報を用いて前記第3のオーディオ信号に対して前記第2の符号化を行うことにより第4のデータを生成する第2の符号化手段と、
前記第1のデータ、前記第1の符号化情報、前記第3のデータ、および、前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータ、前記第3の符号化情報、前記第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化して前記第2のオーディオ信号のストリームを生成する多重化手段と
を備え、
前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号される
符号化装置。 - 前記生成手段は、前記第1のオーディオ信号と前記第2のオーディオ信号に共通のエンベロープを含む前記第1の符号化情報と前記第2の符号化情報を生成し、前記第2のオーディオ信号と前記第3のオーディオ信号に共通のエンベロープを含む前記第3の符号化情報と前記第4の符号化情報を生成する
請求項1に記載の符号化装置。 - 前記生成手段は、前記第1のオーディオ信号と前記第2のオーディオ信号に共通の量子化制度情報を含む前記第1の符号化情報と前記第2の符号化情報を生成し、前記第2のオーディオ信号と前記第3のオーディオ信号に共通の量子化制度情報を含む前記第3の符号化情報と前記第4の符号化情報を生成する
請求項1に記載の符号化装置。 - 前記第1のオーディオ信号に対応するフレーム、前記第2のオーディオ信号に対応するフレーム、および前記第3のオーディオ信号に対応するフレームは、それぞれ異なる
請求項1に記載の符号化装置。 - 前記第1のオーディオ信号に対応するフレームは、前記第2のオーディオ信号に対応するフレームより前のフレームであり、前記第2のオーディオ信号に対応するフレームは、前記第3のオーディオ信号に対応するフレームより前のフレームである
請求項4に記載の符号化装置。 - 前記第1のオーディオ信号に対応するチャンネルおよび前記第3のオーディオ信号に対応するチャンネルは、前記第2のオーディオ信号に対応するチャンネルと異なる
請求項1に記載の符号化装置。 - 符号化装置が、
フレーム単位のオーディオ信号である第1のオーディオ信号の第1の符号化に用いられる情報である第1の符号化情報と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号の第2の符号化に用いられる情報である第2の符号化情報を、前記第1の符号化情報と前記第2の符号化情報の少なくとも一部が共通するように生成し、前記第2のオーディオ信号の前記第1の符号化に用いられる情報である第3の符号化情報と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号の前記第2の符号化に用いられる情報である第4の符号化情報を、前記第3の符号化情報と前記第4の符号化情報の少なくとも一部が共通するように生成する生成ステップと、
前記第1の符号化情報を用いて前記第1のオーディオ信号に対して前記第1の符号化を行うことにより第1のデータを生成し、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化を行うことにより第2のデータを生成する第1の符号化ステップと、
前記第2の符号化情報を用いて前記第2のオーディオ信号に対して前記第2の符号化を行うことにより第3のデータを生成し、前記第4の符号化情報を用いて前記第3のオーディオ信号に対して前記第2の符号化を行うことにより第4のデータを生成する第2の符号化ステップと、
前記第1のデータ、前記第1の符号化情報、前記第3のデータ、および、前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータ、前記第3の符号化情報、前記第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化して前記第2のオーディオ信号のストリームを生成する多重化ステップと
を含み、
前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号される
符号化方法。 - コンピュータに、
フレーム単位のオーディオ信号である第1のオーディオ信号の第1の符号化に用いられる情報である第1の符号化情報と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号の第2の符号化に用いられる情報である第2の符号化情報を、前記第1の符号化情報と前記第2の符号化情報の少なくとも一部が共通するように生成し、前記第2のオーディオ信号の前記第1の符号化に用いられる情報である第3の符号化情報と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号の前記第2の符号化に用いられる情報である第4の符号化情報を、前記第3の符号化情報と前記第4の符号化情報の少なくとも一部が共通するように生成する生成ステップと、
前記第1の符号化情報を用いて前記第1のオーディオ信号に対して前記第1の符号化を行うことにより第1のデータを生成し、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化を行うことにより第2のデータを生成する第1の符号化ステップと、
前記第2の符号化情報を用いて前記第2のオーディオ信号に対して前記第2の符号化を行うことにより第3のデータを生成し、前記第4の符号化情報を用いて前記第3のオーディオ信号に対して前記第2の符号化を行うことにより第4のデータを生成する第2の符号化ステップと、
前記第1のデータ、前記第1の符号化情報、前記第3のデータ、および、前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータ、前記第3の符号化情報、前記第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化して前記第2のオーディオ信号のストリームを生成する多重化ステップと
を含み、
前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号される
処理を実行させるためのプログラム。 - 第1の符号化情報を用いてフレーム単位のオーディオ信号である第1のオーディオ信号に対して第1の符号化が行われた結果得られる第1のデータ、前記第1の符号化情報、前記第1の符号化情報と少なくとも一部が共通する第2の符号化情報を用いて前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号に対して第2の符号化が行われた結果得られる第2のデータ、および前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われた結果得られる第3のデータ、前記第3の符号化情報、前記第3の符号化情報と少なくとも一部が共通する第4の符号化情報を用いて前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号に対して前記第2の符号化が行われた結果得られる第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得手段と、
前記第1の符号化情報に基づいて前記第1のデータに対して第1の復号を行い、前記第3の符号化情報に基づいて前記第3のデータに対して前記第1の復号を行う第1の復号手段と、
前記第1の符号化情報と前記第2の符号化情報に基づいて前記第2のデータに対して第2の復号を行い、前記第3の符号化情報と前記第4の符号化情報に基づいて前記第4のデータに対して前記第2の復号を行う第2の復号手段と、
前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第2のデータの復号結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力手段と
を備える復号装置。 - 前記第1の符号化情報および前記第2の符号化情報は、前記第1のオーディオ信号と前記第2のオーディオ信号に共通のエンベロープを含み、前記第3の符号化情報および前記第4の符号化情報は、前記第2のオーディオ信号と前記第3のオーディオ信号に共通のエンベロープを含む
請求項9に記載の復号装置。 - 前記第1の符号化情報および前記第2の符号化情報は、前記第1のオーディオ信号と前記第2のオーディオ信号に共通の量子化精度情報を含み、前記第3の符号化情報および前記第4の符号化情報は、前記第2のオーディオ信号と前記第3のオーディオ信号に共通の量子化精度情報を含む
請求項9に記載の復号装置。 - 前記第1のオーディオ信号に対応するフレーム、前記第2のオーディオ信号に対応するフレーム、および前記第3のオーディオ信号に対応するフレームは、それぞれ異なる
請求項9に記載の復号装置。 - 前記第1のオーディオ信号に対応するフレームは、前記第2のオーディオ信号に対応するフレームより前のフレームであり、前記第2のオーディオ信号に対応するフレームは、前記第3のオーディオ信号に対応するフレームより前のフレームである
請求項12に記載の復号装置。 - 前記第1のオーディオ信号に対応するチャンネルおよび前記第3のオーディオ信号に対応するチャンネルは、前記第2のオーディオ信号に対応するチャンネルと異なる
請求項9に記載の復号装置。 - 復号装置が、
第1の符号化情報を用いてフレーム単位のオーディオ信号である第1のオーディオ信号に対して第1の符号化が行われた結果得られる第1のデータ、前記第1の符号化情報、前記第1の符号化情報と少なくとも一部が共通する第2の符号化情報を用いて前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号に対して第2の符号化が行われた結果得られる第2のデータ、および前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われた結果得られる第3のデータ、前記第3の符号化情報、前記第3の符号化情報と少なくとも一部が共通する第4の符号化情報を用いて前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号に対して前記第2の符号化が行われた結果得られる第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得ステップと、
前記第1の符号化情報に基づいて前記第1のデータに対して第1の復号を行い、前記第3の符号化情報に基づいて前記第3のデータに対して前記第1の復号を行う第1の復号ステップと、
前記第1の符号化情報と前記第2の符号化情報に基づいて前記第2のデータに対して第2の復号を行い、前記第3の符号化情報と前記第4の符号化情報に基づいて前記第4のデータに対して前記第2の復号を行う第2の復号ステップと、
前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第2のデータの復号結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力ステップと
を含む復号方法。 - コンピュータに、
第1の符号化情報を用いてフレーム単位のオーディオ信号である第1のオーディオ信号に対して第1の符号化が行われた結果得られる第1のデータ、前記第1の符号化情報、前記第1の符号化情報と少なくとも一部が共通する第2の符号化情報を用いて前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号に対して第2の符号化が行われた結果得られる第2のデータ、および前記第2の符号化情報のうちの前記第1の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第3の符号化情報を用いて前記第2のオーディオ信号に対して前記第1の符号化が行われた結果得られる第3のデータ、前記第3の符号化情報、前記第3の符号化情報と少なくとも一部が共通する第4の符号化情報を用いて前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号に対して前記第2の符号化が行われた結果得られる第4のデータ、および、前記第4の符号化情報のうちの前記第3の符号化情報と共通する部分以外の情報を多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得ステップと、
前記第1の符号化情報に基づいて前記第1のデータに対して第1の復号を行い、前記第3の符号化情報に基づいて前記第3のデータに対して前記第1の復号を行う第1の復号ステップと、
前記第1の符号化情報と前記第2の符号化情報に基づいて前記第2のデータに対して第2の復号を行い、前記第3の符号化情報と前記第4の符号化情報に基づいて前記第4のデータに対して前記第2の復号を行う第2の復号ステップと、
前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第2のデータの復号結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力ステップと
を含む処理を実行させるためのプログラム。 - フレーム単位のオーディオ信号である第1のオーディオ信号を符号化して第1のデータを生成し、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号を符号化して第2のデータを生成する第1の符号化手段と、
前記第1のオーディオ信号と前記第2のオーディオ信号の差分を符号化して第3のデータを生成し、前記2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である前記第3のオーディオ信号の差分を符号化して第4のデータを生成する第2の符号化手段と、
前記第1のデータと前記第3のデータを多重化して前記第1のオーディオ信号のストリームを生成し、前記第2のデータと前記第4のデータを多重化して前記第2のオーディオ信号のストリームを生成する多重化手段と
を備え、
前記第3のデータは、前記第1のオーディオ信号および前記第2のオーディオ信号のストリームを復号する復号装置において、前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合に、その第2のオーディオ信号のストリームに含まれる前記第2のデータの代わりに復号され、前記第1のデータの復号結果と合成される
符号化装置。 - フレーム単位のオーディオ信号である第1のオーディオ信号の符号化結果である第1のデータ、および、前記第1のオーディオ信号と、前記第1のオーディオ信号とは異なるフレーム単位のオーディオ信号である第2のオーディオ信号との差分の符号化結果である第2のデータを多重化することにより得られた前記第1のオーディオ信号のストリームと、前記第2のオーディオ信号の符号化結果である第3のデータ、および、前記第2のオーディオ信号と、前記第1および第2のオーディオ信号とは異なるフレーム単位のオーディオ信号である第3のオーディオ信号との差分の符号化結果である第4のデータを多重化することにより得られた前記第2のオーディオ信号のストリームとを取得する取得手段と、
前記第1のデータと前記第3のデータを復号する第1の復号手段と、
前記第2のデータを復号して、前記第1のデータの復号結果と前記第2のデータの復号結果を合成し、前記第4のデータを復号して、前記第3のデータの復号結果と前記第4の復号結果を合成する第2の復号手段と、
前記第2のオーディオ信号のストリームに欠落またはエラーが発生した場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果の代わりに前記第1のデータと前記第2のデータの復号結果の合成結果を出力し、前記第2のオーディオ信号のストリームに欠落またはエラーが発生していない場合、その第2のオーディオ信号のストリームに含まれる前記第3のデータの復号結果を出力する出力手段と
を備える復号装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010126780A JP2011253045A (ja) | 2010-06-02 | 2010-06-02 | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム |
CN2011101510578A CN102270455A (zh) | 2010-06-02 | 2011-05-26 | 编码装置、编码方法、解码装置、解码方法以及程序 |
US13/116,030 US8849677B2 (en) | 2010-06-02 | 2011-05-26 | Coding apparatus, coding method, decoding apparatus, decoding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010126780A JP2011253045A (ja) | 2010-06-02 | 2010-06-02 | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011253045A true JP2011253045A (ja) | 2011-12-15 |
Family
ID=45052732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010126780A Withdrawn JP2011253045A (ja) | 2010-06-02 | 2010-06-02 | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8849677B2 (ja) |
JP (1) | JP2011253045A (ja) |
CN (1) | CN102270455A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9978400B2 (en) * | 2015-06-11 | 2018-05-22 | Zte Corporation | Method and apparatus for frame loss concealment in transform domain |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0416709A (ja) | 1990-05-11 | 1992-01-21 | Tokai Carbon Co Ltd | 微小突起計数器 |
JP5036317B2 (ja) * | 2004-10-28 | 2012-09-26 | パナソニック株式会社 | スケーラブル符号化装置、スケーラブル復号化装置、およびこれらの方法 |
JP4977471B2 (ja) * | 2004-11-05 | 2012-07-18 | パナソニック株式会社 | 符号化装置及び符号化方法 |
-
2010
- 2010-06-02 JP JP2010126780A patent/JP2011253045A/ja not_active Withdrawn
-
2011
- 2011-05-26 US US13/116,030 patent/US8849677B2/en active Active
- 2011-05-26 CN CN2011101510578A patent/CN102270455A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN102270455A (zh) | 2011-12-07 |
US20110301960A1 (en) | 2011-12-08 |
US8849677B2 (en) | 2014-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6208725B2 (ja) | 帯域幅拡張復号化装置 | |
US8538762B2 (en) | Method and apparatus for encoding/decoding stereo audio | |
US20210398546A1 (en) | Encoding device and encoding method, decoding device and decoding method, and program | |
AU2012297804B2 (en) | Encoding device and method, decoding device and method, and program | |
JP5942358B2 (ja) | 符号化装置および方法、復号装置および方法、並びにプログラム | |
US9167367B2 (en) | Optimized low-bit rate parametric coding/decoding | |
US9319818B2 (en) | Stereo signal down-mixing method, encoding/decoding apparatus and encoding and decoding system | |
KR101680953B1 (ko) | 인지 오디오 코덱들에서의 고조파 신호들에 대한 위상 코히어런스 제어 | |
JP2015172778A (ja) | オーディオ信号符号化方法および装置 | |
JP5299327B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
JP6465020B2 (ja) | 復号装置および方法、並びにプログラム | |
JPWO2015151451A1 (ja) | 符号化装置、復号装置、符号化方法、復号方法、およびプログラム | |
JP5799707B2 (ja) | オーディオ符号化装置およびオーディオ符号化方法、オーディオ復号装置およびオーディオ復号方法、並びにプログラム | |
KR101387808B1 (ko) | 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치 | |
JP2011253045A (ja) | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム | |
US8781134B2 (en) | Method and apparatus for encoding and decoding stereo audio | |
JP2013057895A (ja) | 音声再生装置、音声再生方法及びコンピュータプログラム | |
JP5724338B2 (ja) | 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム | |
JP2007178529A (ja) | 符号化オーディオ信号再生装置及び符号化オーディオ信号再生方法 | |
JP2006262292A (ja) | 符号化装置、復号装置、符号化方法及び復号方法 | |
JP2012032713A (ja) | 復号装置、復号方法、およびプログラム | |
JP2006195066A (ja) | 符号化オーディオ信号の再生装置及び再生方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130806 |