JP4024784B2 - Audio decoding device - Google Patents

Audio decoding device Download PDF

Info

Publication number
JP4024784B2
JP4024784B2 JP2004210342A JP2004210342A JP4024784B2 JP 4024784 B2 JP4024784 B2 JP 4024784B2 JP 2004210342 A JP2004210342 A JP 2004210342A JP 2004210342 A JP2004210342 A JP 2004210342A JP 4024784 B2 JP4024784 B2 JP 4024784B2
Authority
JP
Japan
Prior art keywords
data
time
frequency
audio
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004210342A
Other languages
Japanese (ja)
Other versions
JP2004302493A (en
Inventor
弥章 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
United Module Corp
Original Assignee
United Module Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by United Module Corp filed Critical United Module Corp
Priority to JP2004210342A priority Critical patent/JP4024784B2/en
Publication of JP2004302493A publication Critical patent/JP2004302493A/en
Application granted granted Critical
Publication of JP4024784B2 publication Critical patent/JP4024784B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明はオーディオ復号装置に関し、特に、時間/周波数変換技術を用いて周波数領域で符号化されたオーディオデータを復号する際のオーバーサンプリング方式に関するものである。   The present invention relates to an audio decoding apparatus, and more particularly to an oversampling method for decoding audio data encoded in the frequency domain using a time / frequency conversion technique.

従来、オーディオ信号の符号化方式については、様々な方式が知られている。その一例として、オーディオ信号を時間領域の信号から周波数領域の信号に変換し、周波数領域で符号化を行う方式がある。時間/周波数変換を行う方式としては、例えば、サブバンドフィルタやMDCT(Modified Discrete Cosine Transform)を用いた方式があり、このような方式を用いた符号化方式としてMPEG(Moving Picture Image Coding Experts Group )オーディオが挙げられる。   Conventionally, various methods are known for encoding audio signals. As an example, there is a method in which an audio signal is converted from a time domain signal to a frequency domain signal and encoded in the frequency domain. As a method for performing time / frequency conversion, for example, there is a method using a subband filter or MDCT (Modified Discrete Cosine Transform), and MPEG (Moving Picture Image Coding Experts Group) is an encoding method using such a method. Audio.

上記MPEGオーディオのレイヤIでは、クリティカル・バンド(ある周波数スペクトルのピーク近傍の周波数では聴感度が低下するというマスキング効果の及ぶ周波数幅)などの聴覚心理モデルを効率よく利用するために、全帯域が32の等間隔の周波数幅に分割される。そして、分割された各帯域内の信号が、元のサンプリング周波数の1/32でサブサンプリングされて符号化される。   In the above-mentioned MPEG audio layer I, in order to efficiently use a psychoacoustic model such as a critical band (a frequency range with a masking effect that a hearing sensitivity decreases at a frequency in the vicinity of a peak of a certain frequency spectrum) Divided into 32 equally spaced frequency widths. Then, the divided signals in each band are subsampled at 1/32 of the original sampling frequency and encoded.

このようにして所定のサンプリングレートに従って符号化されたオーディオデータの復号化は、基本的には上記符号化と逆の操作によって行われる。
図6は、従来のMPEGオーディオ復号装置の構成を、処理の流れが分かりやすくなるように示したブロック図である。なお、この例では、サンプリング周波数が44.1KHz 、ビット幅が16ビットでオーディオデータが符号化されているものとする。
The decoding of the audio data encoded according to the predetermined sampling rate in this way is basically performed by an operation reverse to the above encoding.
FIG. 6 is a block diagram showing the configuration of a conventional MPEG audio decoding apparatus so that the processing flow can be easily understood. In this example, it is assumed that audio data is encoded with a sampling frequency of 44.1 KHz and a bit width of 16 bits.

図6において、符号化されたオーディオデータは、まず最初にアンパック回路51に入力される。一般に、MPEGオーディオにより符号化されたオーディオデータは、主にアロケーション(Allocation)、スケールファクタ(Scale Factor)、サンプル(Sample)から構成されている。上記アンパック回路51は、入力される符号化オーディオデータのビットストリームから上記アロケーション(Allocation)、スケールファクタ(Scale Factor)、サンプル(Sample)の各データを分離して抽出する。   In FIG. 6, encoded audio data is first input to the unpack circuit 51. In general, audio data encoded by MPEG audio mainly includes an allocation, a scale factor, and a sample. The unpack circuit 51 separates and extracts the allocation, scale factor, and sample data from the input encoded audio data bit stream.

上記アンパック回路51により分離された各データは、次に周波数/時間変換回路52に入力される。周波数/時間変換回路52では、上記アンパック回路51から入力される各データに基づいて周波数領域の信号であるサブバンド情報Sk が求められ、更に以下に示す(式1)に従って上記サブバンド情報Sk から時間領域の信号であるVベクタV[i] が求められる。 Each data separated by the unpack circuit 51 is then input to the frequency / time conversion circuit 52. The frequency / time conversion circuit 52, the subband information S k is a signal in the frequency domain based on the data inputted from the unpack circuit 51 is determined, the sub-band information S in accordance with further below (Equation 1) A V vector V [i], which is a time domain signal, is obtained from k .

Figure 0004024784
Figure 0004024784

上記周波数/時間変換回路52により求められたVベクタは、Vバッファ53に一時的に格納された後、フィルタ回路54に与えられ、所定のフィルタ係数を用いてフィルタ処理が施されることにより、ディジタルのPCMデータ(44.1KHz )が生成される。そして、このようにして求められたPCMデータが16ビットDAC(ディジタル−アナログ・コンバータ)55によりアナログ信号に変換されて出力される。   The V vector obtained by the frequency / time conversion circuit 52 is temporarily stored in the V buffer 53 and then given to the filter circuit 54, and is subjected to filter processing using a predetermined filter coefficient. Digital PCM data (44.1 KHz) is generated. The PCM data thus obtained is converted into an analog signal by a 16-bit DAC (digital-analog converter) 55 and output.

ところが、上記のように構成された従来のオーディオ復号装置では、サンプリング周波数の1/2の周波数の近傍において折り返し雑音が生じることがあり、再生されるアナログ信号の波形が歪んでしまうことがあった。このため、符号化されたオーディオデータを復号化して符号化前のオーディオ信号を再生する際に、音声の再現性が悪くなってしまうという問題があった。   However, in the conventional audio decoding apparatus configured as described above, aliasing noise may occur in the vicinity of half the sampling frequency, and the waveform of the reproduced analog signal may be distorted. . For this reason, when the encoded audio data is decoded and the audio signal before encoding is reproduced, there is a problem that sound reproducibility is deteriorated.

例えば、44.1KHz のサンプリングレートで20KHz のコサイン波をデコードした場合、図6の16ビットDAC55から出力されるアナログのオーディオ信号は、図9に示すような波形となる。符号化前の波形を示す図10と比較すると、音声の再現性が著しく悪化していることが分かる。   For example, when a 20 KHz cosine wave is decoded at a sampling rate of 44.1 KHz, the analog audio signal output from the 16-bit DAC 55 of FIG. 6 has a waveform as shown in FIG. Compared with FIG. 10 showing the waveform before encoding, it can be seen that the reproducibility of speech is remarkably deteriorated.

従来、このような問題を解決するために、図6の16ビットDAC55の代わりに、図7に示すような1ビットDACシステム56を用いるようにした技術が考えられている。上記1ビットDACシステム56は、FIFOメモリ57および乗加算器58から成る補間器59と、DAC60とを備えている。   Conventionally, in order to solve such a problem, a technique in which a 1-bit DAC system 56 as shown in FIG. 7 is used instead of the 16-bit DAC 55 in FIG. 6 has been considered. The 1-bit DAC system 56 includes an interpolator 59 including a FIFO memory 57 and a multiplier / adder 58, and a DAC 60.

この1ビットDACシステム56は、MPEGオーディオデコーダ50より出力されるPCMデータをFIFOメモリ57にある程度蓄積し、その蓄積したPCMデータに対して、乗加算器58によりディジタルフィルタ処理を施す。これにより、離散的な実データ間のデータ値を推測した補間データを得て、その補間データも含めてDAC60によりD/A変換を行うことにより、アナログのオーディオ信号を出力するものである。   This 1-bit DAC system 56 accumulates PCM data output from the MPEG audio decoder 50 to a certain extent in the FIFO memory 57, and applies digital filter processing to the accumulated PCM data by a multiplier / adder 58. As a result, interpolation data in which data values between discrete real data are estimated is obtained, and analog audio signals are output by performing D / A conversion by the DAC 60 including the interpolation data.

また、図8は、図7に示した機能ブロックの構成を、ハードウェアイメージに即して書き直した図である。なお、図8において、図7に示したブロックと同じブロックには同一の符号を付している。   FIG. 8 is a diagram in which the functional block configuration shown in FIG. 7 is rewritten according to the hardware image. In FIG. 8, the same blocks as those shown in FIG. 7 are denoted by the same reference numerals.

図8に示したMPEGオーディオデコーダ50内にある乗加算器61は、図7の周波数/時間変換回路52における周波数/時間変換処理と、フィルタ回路54における所定のフィルタ処理とを行うものである。それらの処理を行う際に必要な種々の係数は、係数ROM/RAM62に記憶されているものが利用される。   The multiplier / adder 61 in the MPEG audio decoder 50 shown in FIG. 8 performs frequency / time conversion processing in the frequency / time conversion circuit 52 in FIG. 7 and predetermined filter processing in the filter circuit 54. As various coefficients necessary for performing these processes, those stored in the coefficient ROM / RAM 62 are used.

また、図8に示したメモリ63は、上記周波数/時間変換処理および所定のフィルタ処理を行う際に使用するワークメモリ、および図7に示したVバッファ53を含むものである。PCMデータ出力部64は、上記所定のフィルタ処理により生成されメモリ63に格納されたPCMデータをMPEGオーディオデコーダ50の外部に出力するものである。   The memory 63 shown in FIG. 8 includes a work memory used when performing the frequency / time conversion process and the predetermined filter process, and the V buffer 53 shown in FIG. The PCM data output unit 64 outputs the PCM data generated by the predetermined filter process and stored in the memory 63 to the outside of the MPEG audio decoder 50.

一方、図8に示した1ビットDACシステム56内にある係数ROM/RAM65は、乗加算器58によりディジタルフィルタ処理を施す際に使用するフィルタ係数等を記憶するものである。なお、フィルタ係数は複数種類記憶されていて、どれを利用するかによって再生音声の音質がある程度決められる。   On the other hand, the coefficient ROM / RAM 65 in the 1-bit DAC system 56 shown in FIG. 8 stores filter coefficients used when the digital adder 58 performs digital filter processing. A plurality of types of filter coefficients are stored, and the sound quality of the reproduced sound is determined to some extent depending on which filter coefficient is used.

図7あるいは図8に示したような1ビットDACシステム56を用いれば、補間データの利用により元の波形に比較的近い波形を再現できるようになり、音質の劣化を少なくすることができる。   If the 1-bit DAC system 56 as shown in FIG. 7 or FIG. 8 is used, a waveform that is relatively close to the original waveform can be reproduced by using the interpolation data, and deterioration in sound quality can be reduced.

しかしながら、この1ビットDACシステム56を用いた場合には、DAC60の他に、相当の演算能力を有する乗加算器58や、FIFOメモリ57、係数ROM/RAM65などの種々の構成が必要となるため、回路規模が大きくなってしまうとともに、高価になってしまうという問題があった。   However, when this 1-bit DAC system 56 is used, in addition to the DAC 60, various configurations such as a multiplier / adder 58, a FIFO memory 57, a coefficient ROM / RAM 65, and the like having considerable calculation capability are required. There is a problem that the circuit scale becomes large and the cost becomes high.

本発明はこのような問題を解決するために成されたものであり、1ビットDACシステムの機能を持たせる場合に、回路規模が大きくなるのを防ぎ、高価になるのを避けることを目的としている。   The present invention has been made to solve such problems, and it is intended to prevent an increase in circuit scale and avoid an increase in cost when a 1-bit DAC system function is provided. Yes.

本発明のオーディオ復号装置は、時間/周波数変換を用いて周波数領域で符号化されたオーディオデータを周波数領域の情報から時間領域の情報に変換して復号化し、上記復号化オーディオデータを用いた補間データを生成し、上記復号化オーディオデータおよび上記補間データを含むディジタルのオーディオデータをアナログのオーディオ信号に変換するようにしたオーディオ復号装置であって、上記復号化オーディオデータを得るための上記時間/周波数変換処理およびフィルタ処理、並びに、上記復号化オーディオデータを用いて上記補間データを生成するためのフィルタ処理を行う乗算器と、上記時間/周波数変換処理および上記フィルタ処理を行う際に使用するワークメモリ、並びに、上記復号化オーディオデータを蓄積するFIFOメモリとして機能するメモリとを備え、更に、上記時間/周波数変換処理を、符号化の規格に従った基本的な時間軸情報を生成する場合の処理レートよりも細かい処理レートを設定して行うことにより、上記基本的な時間軸情報と、上記基本的な時間軸情報を補間するための時間軸情報とを同時に生成するようにした点に特徴を有する。 The audio decoding apparatus of the present invention converts audio data encoded in the frequency domain using time / frequency conversion from information in the frequency domain to information in the time domain, decodes the audio data, and performs interpolation using the decoded audio data. An audio decoding device that generates data and converts digital audio data including the decoded audio data and the interpolated data into an analog audio signal, wherein the time / time for obtaining the decoded audio data is obtained. A multiplier for performing a frequency conversion process and a filter process, and a filter process for generating the interpolation data using the decoded audio data; and a work used when the time / frequency conversion process and the filter process are performed. FI for storing memory and decoded audio data And a memory that functions as O memory, further, performing the time / frequency conversion process, to set the fine processing rate than the processing rate when generating the basic time axis information in accordance with the coding standard Thus, the basic time axis information and the time axis information for interpolating the basic time axis information are generated at the same time.

本発明によれば、時間/周波数変換を用いて周波数領域で符号化されたオーディオデータを周波数領域の情報から時間領域の情報に変換して復号化し、上記復号化オーディオデータを用いた補間データを生成し、上記復号化オーディオデータおよび上記補間データを含むディジタルのオーディオデータをアナログのオーディオ信号に変換するようにしたオーディオ復号装置であって、上記時間/周波数変換の際に用いる乗加算器およびメモリと、上記補間データ生成の際に用いる乗加算器およびメモリとを、それぞれ1つの乗加算器およびメモリで共用する構成にしたので、D/A変換の際に補間データを得て音声の再現性を向上させるための構成を少ないハードウェア量で実現することができる。
更に、上記時間/周波数変換処理を、符号化の規格に従った基本的な時間軸情報を生成する場合の処理レートよりも細かい処理レートを設定して行うことにより、上記基本的な時間軸情報と、上記基本的な時間軸情報を補間するための時間軸情報とを同時に生成するようにしたので、上記基本的な時間軸情報を補間するための時間軸情報および上記復号化オーディオデータを用いた補間データの両方を用いることができる。
According to the present invention, audio data encoded in the frequency domain using time / frequency conversion is converted from information in the frequency domain to information in the time domain and decoded, and interpolation data using the decoded audio data is converted. An audio decoding apparatus for generating and converting digital audio data including the decoded audio data and the interpolation data into an analog audio signal, and a multiplier / adder and a memory used for the time / frequency conversion And the multiplier / adder and the memory used for generating the interpolation data are shared by one multiplier / adder and the memory, respectively, so that the interpolation data is obtained during the D / A conversion and the sound reproducibility is obtained. It is possible to realize a configuration for improving the above with a small amount of hardware.
Further, the time / frequency conversion process is performed by setting a processing rate finer than the processing rate in the case of generating basic time axis information in accordance with the encoding standard. And the time axis information for interpolating the basic time axis information are generated at the same time, the time axis information for interpolating the basic time axis information and the decoded audio data are used. Both of the interpolated data can be used.

以下、本発明によるオーディオ復号装置の一実施形態を図面に基づいて詳細に説明する。   Hereinafter, an audio decoding apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態によるオーディオ復号装置の要素的特徴を示すブロック図である。なお、このオーディオ復号装置は、時間/周波数変換を用いて周波数領域で符号化されたオーディオデータを復号するためのものであり、図1には、その一連の復号化処理の中の1つである周波数/時間変換処理を行う部分のみを示している。   FIG. 1 is a block diagram showing elemental features of the audio decoding apparatus according to the present embodiment. This audio decoding apparatus is for decoding audio data encoded in the frequency domain using time / frequency conversion. FIG. 1 shows one of a series of decoding processes. Only the part which performs a certain frequency / time conversion process is shown.

図1において、(1)(図中では丸付きで表示する)は周波数/時間変換手段であり、上記周波数領域で符号化されたオーディオデータに周波数/時間変換処理を施して、符号化の規格に従った基本的な時間軸情報を生成する。例えば、符号化方式がMPEGオーディオである場合、この周波数/時間変換手段(1)は、上記(式1)に示した規格に基づく演算式に従って基本的な時間軸情報であるVベクタV[i] を生成する。   In FIG. 1, (1) (indicated by a circle in the figure) is a frequency / time conversion means, which performs a frequency / time conversion process on the audio data encoded in the frequency domain, thereby encoding standards. Basic time axis information according to the above is generated. For example, when the encoding method is MPEG audio, the frequency / time conversion means (1) uses the V vector V [i which is basic time axis information according to the arithmetic expression based on the standard shown in the above (Expression 1). ] Is generated.

また、(2)(図中では丸付きで表示する)は補間データ生成手段であり、上記周波数/時間変換手段(1)により基本的な時間軸情報を生成する際に行う周波数/時間変換処理の演算と同様の演算によって、上記基本的な時間軸情報を補間するための補間データを生成する。例えば、符号化方式がMPEGオーディオである場合、この補間データ生成手段(2)は、以下に示す上記(式1)と同様の(式2)に従って補間データV[i] ′を生成する。   Further, (2) (displayed with circles in the figure) is an interpolation data generation means, and a frequency / time conversion process performed when basic time axis information is generated by the frequency / time conversion means (1). Interpolation data for interpolating the basic time axis information is generated by the same calculation as the above calculation. For example, when the encoding method is MPEG audio, the interpolation data generation means (2) generates interpolation data V [i] ′ according to (Expression 2) similar to (Expression 1) described below.

Figure 0004024784
Figure 0004024784

なお、図1に示したように、補間データ生成手段(2)において補間データを生成する際に使用する元データは、周波数/時間変換手段(1)で基本的な時間軸情報を生成する際に使用する元データと同じである。   As shown in FIG. 1, the original data used when generating the interpolation data in the interpolation data generation means (2) is used when the basic time axis information is generated in the frequency / time conversion means (1). It is the same as the original data used for.

(3)(図中では丸付きで表示する)はマルチプレクス手段であり、上記周波数/時間変換手段(1)により生成された基本的な時間軸情報と、上記補間データ生成手段(2)により生成された補間データとを合わせる処理を行う。その後、このマルチプレクス手段(3)より出力されるデータに対して所定の処理が施されて、ディジタルの復号化オーディオデータが生成される。そして、図示しないD/A変換手段によりアナログのオーディオ信号に変換されて出力される。   (3) (displayed with a circle in the figure) is a multiplex means, and the basic time axis information generated by the frequency / time conversion means (1) and the interpolation data generation means (2). A process of matching with the generated interpolation data is performed. Thereafter, the data output from the multiplex means (3) is subjected to a predetermined process to generate digital decoded audio data. Then, it is converted into an analog audio signal by a D / A conversion means (not shown) and output.

このように、図1の実施形態によれば、一連の復号化処理の中の周波数/時間変換処理において、符号化の規格に従った基本的な時間軸情報の他に、その基本的な時間軸情報を補間するための補間データが上記周波数/時間変換処理の演算と同様の演算によって同時に生成されるようになるので、複雑な構成の1ビットDACシステムを用いなくても補間データを得ることができるようになり、その補間データの利用により音声の再現性を向上させることができる。   As described above, according to the embodiment of FIG. 1, in the frequency / time conversion process in the series of decoding processes, in addition to the basic time axis information according to the encoding standard, the basic time axis information is used. Interpolation data for interpolating axis information is generated simultaneously by the same calculation as the calculation of the frequency / time conversion process, so that interpolation data can be obtained without using a complicated 1-bit DAC system. Thus, the reproducibility of voice can be improved by using the interpolation data.

図2は、図1に示した本発明の特徴を実現する具体的なオーディオ復号装置の構成例を示すブロック図である。この図2は、時間/周波数変換を用いた符号化方式の例として、MPEGオーディオを採用した場合のオーディオ復号装置について示したものであり、オーディオデータは、44.1KHz のサンプリング周波数で符号化されているものとする。   FIG. 2 is a block diagram showing an example of the configuration of a specific audio decoding apparatus that implements the features of the present invention shown in FIG. FIG. 2 shows an audio decoding apparatus when MPEG audio is used as an example of an encoding method using time / frequency conversion. Audio data is encoded at a sampling frequency of 44.1 KHz. It shall be.

図2に示すように、本実施形態のMPEGオーディオデコーダ1は、アンパック回路2、周波数/時間変換回路3、Vバッファ4およびフィルタ回路5により構成される。上記アンパック回路2は、入力される符号化オーディオデータのビットストリームからアロケーション(Allocation)、スケールファクタ(Scale Factor)、サンプル(Sample)の各データを分離するものである。   As shown in FIG. 2, the MPEG audio decoder 1 according to this embodiment includes an unpack circuit 2, a frequency / time conversion circuit 3, a V buffer 4, and a filter circuit 5. The unpack circuit 2 separates allocation, scale factor, and sample data from the input encoded audio data bit stream.

また、周波数/時間変換回路3は、上記アンパック回路2により分離された各データに基づいてシンセサイザ合成処理を行うことにより、Vベクタを求めるものである。すなわち、このシンセサイザ合成処理では、上記アンパック回路2により分離された各データから周波数領域の信号であるサブバンド情報Sk を求め、更に以下に示す(式3)に従って、上記サブバンド情報Sk から時間領域の信号であるVベクタV[i] を求める。 The frequency / time conversion circuit 3 obtains a V vector by performing synthesizer synthesis processing based on each data separated by the unpacking circuit 2. That is, in this synthesizer synthesis process, subband information S k that is a frequency domain signal is obtained from each data separated by the unpack circuit 2, and further, from the subband information S k according to (Equation 3) shown below. A V vector V [i], which is a time domain signal, is obtained.

Figure 0004024784
Figure 0004024784

この(式3)では、サンプルiのきざみ幅を従来の(式1)の場合よりも細かく設定している。すなわち、(式1)ではi=0,1,2,…のようにサンプルiのきざみ幅が1であったのに対して、(式3)ではi=0,0.5,1,1.5,2,…のようにサンプルiのきざみ幅を0.5 に設定している。これにより、i=0,1,2,…に対応する基本データの他に、i=0.5,1.5,…に対応する補間データをも同時に計算するようにしている。   In (Expression 3), the step width of the sample i is set finer than in the case of the conventional (Expression 1). That is, in (Equation 1), the step width of sample i is 1 as i = 0,1,2,..., Whereas in (Equation 3), i = 0,0.5,1,1.5,2 , ..., the step size of sample i is set to 0.5. As a result, in addition to basic data corresponding to i = 0, 1, 2,..., Interpolation data corresponding to i = 0.5, 1.5,.

このように、本実施形態では、1ビットDACシステムを用いてデコード後のD/A変換処理の際に補間データを生成するのではなく、一連のデコード処理の中で行う周波数/時間変換処理の際に、サンプルのきざみ幅を細かくして演算することによってオーバーサンプリングを実行し、補間データを同時に生成するようにしている。   As described above, in this embodiment, interpolation data is not generated at the time of D / A conversion processing after decoding using a 1-bit DAC system, but frequency / time conversion processing performed in a series of decoding processing. At this time, oversampling is performed by calculating with a small step size of the sample, and interpolation data is generated at the same time.

また、Vバッファ4は、上記周波数/時間変換回路3により求められたVベクタを一時的に格納するものである。フィルタ回路5は、上記Vバッファ4に格納されたVベクタに対して、所定のフィルタ係数を用いてフィルタ処理を施すことにより、ディジタルのPCMデータを生成するものである。(式3)に示したように、周波数/時間変換回路3では、レートを通常の1/2に細かく設定して処理を行っているので、生成されるPCMデータの周波数は、88.2KHz となる。   The V buffer 4 temporarily stores the V vector obtained by the frequency / time conversion circuit 3. The filter circuit 5 generates digital PCM data by subjecting the V vector stored in the V buffer 4 to filter processing using a predetermined filter coefficient. As shown in (Equation 3), in the frequency / time conversion circuit 3, since the processing is performed with the rate set to 1/2 the normal rate, the frequency of the generated PCM data is 88.2KHz. .

このようにして構成されたMPEGオーディオデコーダ1の後段に接続されているDAC6は、上記MPEGオーディオデコーダ1より出力されるディジタルのPCMデータをアナログ信号に変換して出力するものである。本実施形態においては、D/A変換の際に補間データを生成する必要がないので、構成が複雑な1ビットDACシステムを用いなくても良く、構成が簡単で安価なD/AコンバータをDAC6として使用することが可能である。   The DAC 6 connected to the subsequent stage of the MPEG audio decoder 1 thus configured converts the digital PCM data output from the MPEG audio decoder 1 into an analog signal and outputs the analog signal. In the present embodiment, since it is not necessary to generate interpolation data at the time of D / A conversion, it is not necessary to use a 1-bit DAC system having a complicated configuration, and a D / A converter having a simple configuration and an inexpensive configuration can be used. It can be used as

ここで、図10に示した元のコサイン波形を符号化して得られるオーディオデータを、本実施形態のMPEGオーディオデコーダ1で復号化した場合にDAC6から出力されるアナログのオーディオ信号の波形を、図4に示す。   Here, when the audio data obtained by encoding the original cosine waveform shown in FIG. 10 is decoded by the MPEG audio decoder 1 of the present embodiment, the waveform of the analog audio signal output from the DAC 6 is shown in FIG. 4 shows.

この図4の波形と図9の波形とを比較すれば明らかなように、本実施形態によれば、従来に比べて、図10に示した符号化前の波形により近い波形を得ることができ、音声の再現性を向上させることができている。しかも、本実施形態では、1ビットDACシステムのような複雑なDACを用いたり、その他の付加的な構成を設けたりすることなく音声の再現性を向上させることができる。   As is clear from the comparison of the waveform of FIG. 4 and the waveform of FIG. 9, according to the present embodiment, a waveform closer to the waveform before encoding shown in FIG. , The reproducibility of voice can be improved. Moreover, in this embodiment, it is possible to improve the reproducibility of voice without using a complicated DAC such as a 1-bit DAC system or providing any other additional configuration.

なお、以上の実施形態では、(式3)のようにサンプルiのきざみ幅を通常の1/2に細かく設定することによって2倍のオーバーサンプリングを実現しているが、サンプルiのきざみ幅を通常の1/Mに設定すれば、M倍のオーバーサンプリングを実現することができる。   In the above embodiment, double the oversampling is realized by finely setting the step width of the sample i to 1/2 of the normal width as shown in (Equation 3), but the step width of the sample i is reduced. If the normal 1 / M is set, M times oversampling can be realized.

図5は、サンプルのきざみ幅を0.125 に設定して8倍のオーバーサンプリングを実行した場合にDAC6から出力されるアナログのオーディオ信号の波形を示す図である。この図5を見れば明らかなように、2倍のオーバーサンプリングを行った場合に比べて、より原音に近い波形を再生することができ、音声の再現性を更に向上させることができる。   FIG. 5 is a diagram showing a waveform of an analog audio signal output from the DAC 6 when the sample step width is set to 0.125 and 8 times oversampling is executed. As apparent from FIG. 5, compared to the case where the oversampling is performed twice, a waveform closer to the original sound can be reproduced, and the reproducibility of the sound can be further improved.

このように、本実施形態では、1ビットDACシステムを用いて補間データを生成する場合に比べて、サンプルのきざみ幅を任意に設定することにより、より多くの補間データを生成することができるようになり、音声の再現性を著しく向上させることができるというメリットがある。また、周波数/時間変換処理を行うときに、その処理の演算式と同じ演算式に従って補間データを同時に生成することができるので、通常の復号化の処理プロセスを変更する必要もない。   As described above, in this embodiment, it is possible to generate more interpolation data by arbitrarily setting the step size of the sample as compared to the case of generating the interpolation data using the 1-bit DAC system. Therefore, there is a merit that the reproducibility of voice can be remarkably improved. In addition, when performing the frequency / time conversion process, the interpolation data can be generated simultaneously according to the same arithmetic expression as the arithmetic expression of the process, so that it is not necessary to change the normal decoding process.

図3は、本発明の他の実施形態を示すものであり、この他の実施形態によるオーディオ復号装置のハードウェア構成の例を示す図である。
図8に示したように、補間データを生成するために1ビットDACシステムを用いた場合、従来は、MPEGオーディオデコーダ50と1ビットDACシステム56とが別々に設けられていた。
FIG. 3 shows another embodiment of the present invention, and is a diagram showing an example of a hardware configuration of an audio decoding device according to another embodiment.
As shown in FIG. 8, when a 1-bit DAC system is used to generate interpolation data, conventionally, an MPEG audio decoder 50 and a 1-bit DAC system 56 are provided separately.

これに対して、図3に示す実施形態では、上記MPEGオーディオデコーダ50と1ビットDACシステム56とで重複して設けられていた構成を1つにまとめることにより、ハードウェア構成の簡略化を図っている。   On the other hand, in the embodiment shown in FIG. 3, the hardware configuration is simplified by combining the configurations provided redundantly in the MPEG audio decoder 50 and the 1-bit DAC system 56 into one. ing.

すなわち、図3の乗加算器11は、図8のMPEGオーディオデコーダ50内の乗加算器61と、1ビットDACシステム56内の乗加算器58とを兼用するものである。つまり、図3の乗加算器11は、図7の周波数/時間変換回路52におけるシンセイザ合成処理(上記した(式1)に従う演算処理)と、フィルタ回路54における所定のフィルタ処理と、乗加算器58におけるディジタルフィルタ処理とを行う。   That is, the multiplier / adder 11 in FIG. 3 serves as both the multiplier / adder 61 in the MPEG audio decoder 50 in FIG. 8 and the multiplier / adder 58 in the 1-bit DAC system 56. That is, the multiplier / adder 11 in FIG. 3 includes a synthesizer synthesis process (arithmetic process according to the above (Equation 1)) in the frequency / time conversion circuit 52 in FIG. 7, a predetermined filter process in the filter circuit 54, and a multiplier / adder. The digital filter processing at 58 is performed.

また、図3の係数ROM/RAM12は、図8のMPEGオーディオデコーダ50内の係数ROM/RAM62と、1ビットDACシステム56内の係数ROM/RAM65とを兼用するものである。すなわち、図7の周波数/時間変換回路52における周波数/時間変換処理やフィルタ回路54における所定のフィルタ処理、および乗加算器58におけるディジタルフィルタ処理を行う際に必要な種々の係数を記憶している。   Also, the coefficient ROM / RAM 12 in FIG. 3 serves as both the coefficient ROM / RAM 62 in the MPEG audio decoder 50 in FIG. 8 and the coefficient ROM / RAM 65 in the 1-bit DAC system 56. That is, various coefficients necessary for frequency / time conversion processing in the frequency / time conversion circuit 52 of FIG. 7, predetermined filter processing in the filter circuit 54, and digital filter processing in the multiplier / adder 58 are stored. .

また、図3のメモリ13は、図8のMPEGオーディオデコーダ50内のメモリ63と、1ビットDACシステム56内のFIFOメモリ57とを兼用するものである。つまり、上述した図3の乗加算器11における各処理は、このメモリ13をワークメモリとして使用しながら行うようになっている。   Further, the memory 13 in FIG. 3 serves as both the memory 63 in the MPEG audio decoder 50 in FIG. 8 and the FIFO memory 57 in the 1-bit DAC system 56. That is, each process in the multiplier / adder 11 of FIG. 3 described above is performed while using the memory 13 as a work memory.

図3のPCMデータ出力部14は、上記乗加算器11における各処理によって生成されメモリ13に格納されたPCMデータを外部に出力するものである。また、DAC15は、PCMデータ出力部14より出力されるディジタルのPCMデータをアナログ信号に変換して出力するものであり、図7あるいは図8に示したDAC60に対応するものである。   The PCM data output unit 14 shown in FIG. 3 outputs the PCM data generated by each process in the multiplier / adder 11 and stored in the memory 13 to the outside. The DAC 15 converts digital PCM data output from the PCM data output unit 14 into an analog signal and outputs the analog signal, and corresponds to the DAC 60 shown in FIG. 7 or FIG.

このように、図3に示す実施形態では、図8に示した従来のMPEGオーディオデコーダ50と1ビットDACシステム56とで重複して設けられていた構成を1つにまとめて共用しているので、ハードウェア量を削減することができる。なお、図3の場合と図8の場合とで係数ROM/RAMのメモリ量の合計サイズは変化しないが、図3では1つのメモリにまとめたことで構成を簡単にすることができる。   As described above, in the embodiment shown in FIG. 3, the conventional MPEG audio decoder 50 and the 1-bit DAC system 56 shown in FIG. , Can reduce the amount of hardware. The total size of the coefficient ROM / RAM memory amount does not change between the case of FIG. 3 and the case of FIG. 8, but the configuration can be simplified by combining them into one memory in FIG.

また、図3に示す実施形態では、1ビットDACシステムの機能を有しているので、復号化されたオーディオデータを用いた補間データを生成することができ、音声の再現性が悪化するのを防ぐことができるのはもちろんである。   In addition, in the embodiment shown in FIG. 3, since it has the function of a 1-bit DAC system, it is possible to generate interpolation data using decoded audio data, and the sound reproducibility is deteriorated. Of course, it can be prevented.

更に他の実施形態としては、図2に示した実施形態と、図3に示した実施形態とを合わせたものが考えられる。すなわち、本実施形態は、図3のような構成において、乗加算器11が行うシンセイザ合成処理を、(式1)ではなくて(式3)に従って行うようにしたものである。   Still another embodiment may be a combination of the embodiment shown in FIG. 2 and the embodiment shown in FIG. That is, in the present embodiment, the synthesizer combining process performed by the multiplier / adder 11 in the configuration as shown in FIG. 3 is performed according to (Expression 3) instead of (Expression 1).

このようにすれば、周波数/時間変換処理を行う際のサンプルのきざみ幅を細かく設定することによって得られる補間データと、1ビットDACシステムの機能に基づいて得られる補間データとの両方を利用してアナログオーディオ信号を再生することができ、簡単な構成で音声の再現性を更に向上させることが期待できる。   In this way, both the interpolation data obtained by finely setting the step size of the sample when performing the frequency / time conversion process and the interpolation data obtained based on the function of the 1-bit DAC system are used. Thus, it is possible to reproduce an analog audio signal, and it can be expected that the reproducibility of sound is further improved with a simple configuration.

なお、以上に述べた実施形態では、符号化方式の1つとしてMPEGオーディオを例に挙げたが、時間/周波数変換方式を採用する符号化方式であれば、復号化時における周波数/時間変換の際に上述したようなオーバーサンプリングを実行することができるので、その符号化方式は問わない。   In the embodiment described above, MPEG audio is taken as an example of one of the encoding methods, but if the encoding method adopts the time / frequency conversion method, the frequency / time conversion at the time of decoding is performed. In this case, since the oversampling as described above can be executed, the encoding method is not limited.

例えば、MDCT符号化方式、サブバンド符号化方式、AC−3符号化方式、あるいはATRAC(Adaptive TRansform Acoustic cording )などの変換符号化方式にも本発明を適用することが可能である。   For example, the present invention can also be applied to transform coding systems such as MDCT coding system, subband coding system, AC-3 coding system, or ATRAC (Adaptive TRansform Acoustic Cording).

要素的特徴を示すブロック図である。It is a block diagram which shows an element characteristic. 図1に示した特徴を実現する具体的なオーディオ復号装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a specific configuration example of an audio decoding device that realizes the characteristics illustrated in FIG. 1. 本発明を適用したオーディオ復号装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the audio decoding apparatus to which this invention is applied. 図2の実施形態において2倍のオーバーサンプリングを実行した場合に得られるアナログオーディオ信号の波形の例を示す図である。It is a figure which shows the example of the waveform of the analog audio signal obtained when 2 times oversampling is performed in embodiment of FIG. 図2の実施形態において8倍のオーバーサンプリングを実行した場合に得られるアナログオーディオ信号の波形の例を示す図である。It is a figure which shows the example of the waveform of the analog audio signal obtained when 8 times oversampling is performed in embodiment of FIG. 従来のオーディオ復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional audio decoding apparatus. 従来の問題を解決するために1ビットDACシステムを用いた場合の構成を示すブロック図である。It is a block diagram which shows the structure at the time of using a 1 bit DAC system in order to solve the conventional problem. 図7に示したオーディオ復号装置のハードウェアイメージを示すブロック図である。It is a block diagram which shows the hardware image of the audio decoding apparatus shown in FIG. 図6のオーディオ復号装置で復号化処理を行った場合に得られるアナログオーディオ信号の波形の例を示す図である。It is a figure which shows the example of the waveform of the analog audio signal obtained when a decoding process is performed with the audio decoding apparatus of FIG. 符号化前の元の音声信号の波形の例を示す図である。It is a figure which shows the example of the waveform of the original audio | voice signal before an encoding.

符号の説明Explanation of symbols

(1) 周波数/時間変換手段
(2) 補間データ生成手段
(3) マルチプレクス手段
1 MPEGオーディオデコーダ
2 アンパック回路
3 周波数/時間変換回路
4 Vバッファ
5 フィルタ回路
6 DAC
11 乗加算器
12 係数ROM/RAM
13 メモリ
14 PCMデータ出力部
15 DAC
(1) Frequency / time conversion means (2) Interpolation data generation means (3) Multiplex means 1 MPEG audio decoder 2 Unpack circuit 3 Frequency / time conversion circuit 4 V buffer 5 Filter circuit 6 DAC
11 Multiplier / adder 12 Coefficient ROM / RAM
13 Memory 14 PCM Data Output Unit 15 DAC

Claims (1)

時間/周波数変換を用いて周波数領域で符号化されたオーディオデータを周波数領域の情報から時間領域の情報に変換して復号化し、上記復号化オーディオデータを用いた補間データを生成し、上記復号化オーディオデータおよび上記補間データを含むディジタルのオーディオデータをアナログのオーディオ信号に変換するようにしたオーディオ復号装置であって、
上記復号化オーディオデータを得るための上記時間/周波数変換処理およびフィルタ処理、並びに、上記復号化オーディオデータを用いて上記補間データを生成するためのフィルタ処理を行う乗算器と、
上記時間/周波数変換処理および上記フィルタ処理を行う際に使用するワークメモリ、並びに、上記復号化オーディオデータを蓄積するFIFOメモリとして機能するメモリとを備え、
更に、上記時間/周波数変換処理を、符号化の規格に従った基本的な時間軸情報を生成する場合の処理レートよりも細かい処理レートを設定して行うことにより、上記基本的な時間軸情報と、上記基本的な時間軸情報を補間するための時間軸情報とを同時に生成するようにしたことを特徴とするオーディオ復号装置。
Audio data encoded in the frequency domain using time / frequency conversion is converted from frequency domain information to time domain information and decoded to generate interpolated data using the decoded audio data, and the decoding An audio decoding device configured to convert digital audio data including audio data and the interpolation data into an analog audio signal,
A multiplier for performing the time / frequency conversion process and the filter process for obtaining the decoded audio data, and the filter process for generating the interpolation data using the decoded audio data ;
A work memory used when performing the time / frequency conversion process and the filter process, and a memory functioning as a FIFO memory for storing the decoded audio data ;
Further, the time / frequency conversion process is performed by setting a processing rate finer than the processing rate in the case of generating basic time axis information in accordance with the encoding standard. And an audio decoding device characterized in that the time axis information for interpolating the basic time axis information is generated simultaneously.
JP2004210342A 2004-07-16 2004-07-16 Audio decoding device Expired - Lifetime JP4024784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004210342A JP4024784B2 (en) 2004-07-16 2004-07-16 Audio decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004210342A JP4024784B2 (en) 2004-07-16 2004-07-16 Audio decoding device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2210896A Division JP3593201B2 (en) 1996-01-12 1996-01-12 Audio decoding equipment

Publications (2)

Publication Number Publication Date
JP2004302493A JP2004302493A (en) 2004-10-28
JP4024784B2 true JP4024784B2 (en) 2007-12-19

Family

ID=33411433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004210342A Expired - Lifetime JP4024784B2 (en) 2004-07-16 2004-07-16 Audio decoding device

Country Status (1)

Country Link
JP (1) JP4024784B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1862969B (en) * 2005-05-11 2010-06-09 尼禄股份公司 Adaptive block length, constant converting audio frequency decoding method

Also Published As

Publication number Publication date
JP2004302493A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
CN101223821B (en) audio decoder
JP3926726B2 (en) Encoding device and decoding device
JP5048697B2 (en) Encoding device, decoding device, encoding method, decoding method, program, and recording medium
JP3881943B2 (en) Acoustic encoding apparatus and acoustic encoding method
US8321207B2 (en) Device and method for postprocessing spectral values and encoder and decoder for audio signals
JP4800645B2 (en) Speech coding apparatus and speech coding method
JP5773124B2 (en) Signal analysis control and signal control system, apparatus, method and program
AU2003243441B2 (en) Audio coding system using characteristics of a decoded signal to adapt synthesized spectral components
JP2006126826A (en) Audio signal coding/decoding method and its device
JP2002372996A (en) Method and device for encoding acoustic signal, and method and device for decoding acoustic signal, and recording medium
WO2009059632A1 (en) An encoder
KR20200123395A (en) Method and apparatus for processing audio data
WO1995021490A1 (en) Method and device for encoding information and method and device for decoding information
JP5668923B2 (en) Signal analysis control system and method, signal control apparatus and method, and program
JP4308229B2 (en) Encoding device and decoding device
JP4024784B2 (en) Audio decoding device
JP3593201B2 (en) Audio decoding equipment
JP4627737B2 (en) Digital data decoding device
JP4649351B2 (en) Digital data decoding device
JPH0833746B2 (en) Band division coding device for voice and musical sound
JP4645869B2 (en) DIGITAL SIGNAL PROCESSING METHOD, LEARNING METHOD, DEVICE THEREOF, AND PROGRAM STORAGE MEDIUM
JP2006047561A (en) Audio signal encoding device and audio signal decoding device
WO2002033831A1 (en) Audio signal encoder
JP2007515672A (en) Audio signal encoding
JP4682752B2 (en) Speech coding and decoding apparatus and method, and speech decoding apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20070515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071003

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term