JP4244226B2 - Speech encoding method and speech decoding method - Google Patents
Speech encoding method and speech decoding method Download PDFInfo
- Publication number
- JP4244226B2 JP4244226B2 JP2005374872A JP2005374872A JP4244226B2 JP 4244226 B2 JP4244226 B2 JP 4244226B2 JP 2005374872 A JP2005374872 A JP 2005374872A JP 2005374872 A JP2005374872 A JP 2005374872A JP 4244226 B2 JP4244226 B2 JP 4244226B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- signal
- channel
- data
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
本発明は、音声信号を予測符号化して圧縮するための音声符号化方法及び音声復号方法に関する。 The present invention relates to a speech encoding method and speech decoding method for predictively encoding and compressing speech signals.
音声信号を予測符号化する方法として、本発明者は先の出願(特願平9−289159号)において1チャネル(チャンネル)の原デジタル音声信号に対して、特性が異なる複数の予測器により時間領域における過去の信号から現在の信号の複数の線形予測値を算出し、原デジタル音声信号と、この複数の線形予測値から予測器毎の予測残差を算出し、この複数の予測残差の最小値を選択する方法を提案している。 As a method for predictively encoding a speech signal, the present inventor has used a plurality of predictors having different characteristics for the original digital speech signal of one channel (channel) in the previous application (Japanese Patent Application No. 9-289159). A plurality of linear prediction values of the current signal are calculated from past signals in the region, a prediction residual for each predictor is calculated from the original digital speech signal and the plurality of linear prediction values, and the prediction residuals are calculated. A method for selecting the minimum value is proposed.
しかしながら、上記方法では原デジタル音声信号がサンプリング周波数=96kHz、量子化ビット数=20ビット程度の場合に、ある程度の圧縮効果を得ることができるが、近年のDVDオーディオディスクではこの2倍のサンプリング周波数(=192kHz)が使用され、また、量子化ビット数も24ビットが使用される傾向があるので、圧縮率を改善する必要がある。また、近年のDVDオーディオディスクでは、マルチチャネルが利用され、チャネル数が最大6となるので圧縮率を改善する必要がある。 However, in the above method, when the original digital audio signal has a sampling frequency = 96 kHz and the number of quantization bits = 20 bits, a certain degree of compression effect can be obtained. (= 192 kHz) is used, and since the quantization bit number tends to be 24 bits, it is necessary to improve the compression rate. In recent DVD audio discs, multi-channel is used and the maximum number of channels is 6, so the compression rate needs to be improved.
そこで本発明は、音声信号を予測符号化する場合に圧縮率を改善することができる音声符号化方法及び音声復号方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide a speech encoding method and speech decoding method that can improve the compression rate when predictive encoding a speech signal.
本発明は上記目的を達成するために、以下の1)及び2)手段よりなる。
すなわち、
In order to achieve the above object, the present invention comprises the following means 1) and 2).
That is,
1)3以上のマルチチャネルの音声信号中の少なくとも選択された第1及び第2の2つのチャネルの音声信号をマトリクス演算して互いに相関ある2つの相関チャネルに変換するステップと、
前記ステップにより変換された2つの相関チャネルを含む音声信号を、チャネル毎に、入力される音声信号に応答して先頭サンプル値を所定時間のフレーム単位で得ると共に、特性が異なる複数の線形予測方法により時間領域の過去から現在の信号の線形予測値がそれぞれ予測され、その予測される線形予測値と前記音声信号とから得られる予測残差が最小となるような線形予測方法を、選択して予測符号化するステップと、
パケットヘッダと、圧縮PCMのプライベートヘッダ及びオーディオ圧縮PCMデータ部を含むユーザデータと、を含んだデータ構造にすると共に、前記ステップにより選択された各チャネルの線形予測方法と予測残差と所定の先頭サンプル値を含む予測符号化データを、前記オーディオ圧縮PCMデータ部内に配置される圧縮PCMアクセスユニット内のサブパケットに格納し、さらに前記圧縮PCMアクセスユニット内に前記音声信号のサンプリング周波数及び量子化ビット数を含む同期情報部を格納すると共に前記サブパケット内にフレーム毎にリスタートヘッダを設けるステップと、
からなる音声符号化方法。
2)請求項1記載の音声符号化方法により符号化されたデータから元の音声信号を復号する音声復号方法であって、
前記ユーザデータから圧縮PCMアクセスユニットを抽出するステップと、
前記リスタートヘッダを有する前記圧縮PCMアクセスユニットから前記先頭サンプル値を取り出すと共に、前記各圧縮PCMアクセスユニット内のサブパケットから予測残差および線形予測方法を含む予測符号化データを取り出すステップと、
前記予測残差をビット情報に基づいたビット数で復号し、この復号した予測残差と前記先頭サンプル値と線形予測方法とに基づいて予測値を算出するステップと、
この算出された予測値から元の音声信号を復元するステップと、
前記復元された音声信号を前記同期情報部に含まれるサンプリング周波数及び量子化ビット数に基づいてアナログ音声信号に変換するステップと、
からなる音声復号方法。
1) matrix conversion of at least selected first and second two channel audio signals among three or more multi-channel audio signals to convert them into two correlated channels;
An audio signal comprising two correlated channel converted by the step, for each channel, obtained when both a plurality of linear prediction characteristics different top sample values in response to the audio signal input in frames of a predetermined time Select a linear prediction method that predicts the linear prediction value of the current signal from the past in the time domain by the method, and minimizes the prediction residual obtained from the predicted linear prediction value and the speech signal. and predicting coding Te,
A data structure including a packet header and user data including a compressed PCM private header and an audio compressed PCM data portion, and a linear prediction method, a prediction residual, and a predetermined head of each channel selected in the above step Predictive encoded data including a sample value is stored in a subpacket in a compressed PCM access unit arranged in the audio compressed PCM data section, and a sampling frequency and a quantization bit of the audio signal are further stored in the compressed PCM access unit. Storing a synchronization information part including a number and providing a restart header for each frame in the subpacket;
A speech encoding method comprising:
2) A speech decoding method for decoding an original speech signal from data encoded by the speech encoding method according to
Extracting a compressed PCM access unit from the user data;
Extracting the first sample value from the compressed PCM access unit having the restart header and extracting predictive encoded data including a prediction residual and a linear prediction method from a subpacket in each compressed PCM access unit;
Decoding the prediction residual with the number of bits based on bit information, and calculating a prediction value based on the decoded prediction residual, the leading sample value, and a linear prediction method;
And restoring the original audio signal from the calculated prediction value,
Converting the restored audio signal into an analog audio signal based on the sampling frequency and the number of quantization bits included in the synchronization information section;
A speech decoding method comprising:
以上説明したように本発明によれば、従来以上に圧縮率を改善した音声の符号化ができると共に、不都合なく音声信号を復号できる。 As described above, according to the present invention, it is possible to encode a voice with a compression rate improved more than before and to decode a voice signal without any inconvenience.
以下、図面を参照して本発明の実施の形態を説明する。図1は本発明が適用される音声符号化装置とそれに対応した音声復号装置の第1の実施形態を示すブロック図、図2は図1のエンコーダを詳しく示すブロック図、図3は図2のマルチプレクサにより多重化される1フレームのフォーマットを示す説明図、図4はDVDのパックのフォーマットを示す説明図、図5はDVDのオーディオパックのフォーマットを示す説明図、図6は図1のデコーダを詳しく示すブロック図である。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of a speech encoding apparatus to which the present invention is applied and a speech decoding apparatus corresponding to the speech encoding apparatus, FIG. 2 is a block diagram showing in detail the encoder of FIG. 1, and FIG. FIG. 4 is a diagram illustrating the format of a DVD pack, FIG. 5 is a diagram illustrating the format of a DVD audio pack, and FIG. 6 is a diagram illustrating the decoder of FIG. It is a block diagram shown in detail.
図1に示すチャネル相関回路Aは加算回路1aと減算回路1bを有する。加算回路1aは各チャネル(以下、ch)が例えばサンプリング周波数=192kHz、量子化ビット数=24ビットのステレオ2ch信号L、Rの和信号(L+R)を算出して和ch用1chロスレス・エンコーダ2D1に出力し、減算回路1bは差信号(L−R)を算出して差ch用1chロスレス・エンコーダ2D2に出力する。エンコーダ2D1、2D2は図2に詳しく示すように、それぞれ和信号(L+R)、差信号(L−R)の差分Δ(L+R)、Δ(L−R)を予測符号化して記録媒体や通信媒体を介して伝送する。 The channel correlation circuit A shown in FIG. 1 has an addition circuit 1a and a subtraction circuit 1b. The adding circuit 1a calculates a sum signal (L + R) of stereo 2ch signals L and R with each channel (hereinafter referred to as ch) having a sampling frequency of 192 kHz and the number of quantization bits of 24 bits, for example, and a 1ch lossless encoder 2D1 for the sum ch The subtracting circuit 1b calculates the difference signal (LR) and outputs it to the 1ch lossless encoder 2D2 for the difference channel. As shown in detail in FIG. 2, the encoders 2D1 and 2D2 predictively encode the differences Δ (L + R) and Δ (LR) of the sum signal (L + R) and the difference signal (LR), respectively, to record and communicate media Is transmitted through.
そして、復号側では、図6に詳しく示すようにデコーダ3D1、3D2がそれぞれ各chの予測符号化データを和信号(L+R)、差信号(L−R)に復号し、次いでチャネル相関回路Bがこの和信号(L+R)、差信号(L−R)をステレオ2ch信号L、Rに復元する。 On the decoding side, as shown in detail in FIG. 6, the decoders 3D1, 3D2 respectively decode the prediction encoded data of each channel into a sum signal (L + R) and a difference signal (LR), and then the channel correlation circuit B The sum signal (L + R) and difference signal (LR) are restored to stereo 2ch signals L and R.
図2を参照してエンコーダ2D1、2D2について詳しく説明する。和信号(L+R)と差信号(L−R)は1フレーム毎に1フレームバッファ10に格納される。そして、1フレームの各サンプル値(L+R)、(L−R)がそれぞれ差分演算回路11D1、11D2に印加され、今回と前回の差分Δ(L+R)、Δ(L−R)、すなわち差分PCM(DPCM)データが算出される。また、各フレームの先頭サンプル値(L+R)、(L−R)がマルチプレクサ19に印加される。
The encoders 2D1 and 2D2 will be described in detail with reference to FIG. The sum signal (L + R) and the difference signal (LR) are stored in one
差分演算回路11D1により算出された差分Δ(L+R)は、予測係数が異なる複数の予測器12a−1〜12a−nと減算器13a−1〜13a−nに印加される。そして、予測器12a−1〜12a−nではそれぞれ各予測係数に基づいて差分Δ(L+R)の各予測値が算出され、減算器13a−1〜13b−nではそれぞれこの各予測値と差分Δ(L+R)の各予測残差が算出される。バッファ・選択器16D1はこの複数の予測残差を一時記憶して、選択信号生成器17により指定されたサブフレーム毎に最小の予測残差を選択し、パッキング回路18に出力する。なお、このサブフレームはフレームの数十分の1程度のサンプル長であり、一例として1フレームを80サブフレームとする。ここで、予測器12a−1〜12a−nと減算器13a−1〜13a−nは和信号chの予測回路15D1を構成し、また、この予測回路15D1とバッファ・選択器16D1は和信号chの予測符号化回路を構成している。
The difference Δ (L + R) calculated by the difference calculation circuit 11D1 is applied to a plurality of
同様に、差分演算回路11D2により算出された差分Δ(L−R)は、予測係数が異なる複数の予測器12b−1〜12b−nと減算器13b−1〜13b−nに印加される。そして、予測器12b−1〜12b−nではそれぞれ各予測係数に基づいて差分Δ(L−R)の各予測値が算出され、減算器13b−1〜13b−nではそれぞれこの各予測値と差分Δ(L−R)の各予測残差が算出される。バッファ・選択器16D2はこの複数の予測残差を一時記憶して、選択信号生成器17により指定されたサブフレーム毎に最小の予測残差を選択し、パッキング回路18に出力する。予測器12b−1〜12b−nと減算器13b−1〜13b−nは差信号chの予測回路15D2を構成し、また、この予測回路15D2とバッファ・選択器16D2は差信号chの予測符号化回路を構成している。
Similarly, the difference Δ (LR) calculated by the difference calculation circuit 11D2 is applied to a plurality of
選択信号生成器17は予測残差のビット数フラグ(5ビット)をパッキング回路18とマルチプレクサ19に対して印加し、また、予測残差が最小の予測器を示す予測器選択フラグ(その数nが2〜9個として3ビット)をマルチプレクサ19に対して印加する。パッキング回路18はバッファ・選択器16D1、16D2により選択された2ch分の予測残差を、選択信号生成器17により指定されたビット数フラグに基づいて指定ビット数でパッキングする。
The
続くマルチプレクサ19は図3に示すように1フレーム分に対して
・フレームヘッダ(40ビット)と、
・和信号ch(L+R)の1フレームの先頭サンプル値(25ビット)と、
・差信号ch(L−R)の1フレームの先頭サンプル値(25ビット)と、
・和信号ch(L+R)のサブフレーム毎の予測器選択フラグ(3ビット×80)と、
・差信号ch(L−R)のサブフレーム毎の予測器選択フラグ(3ビット×80)と、
・和信号ch(L+R)のサブフレーム毎のビット数フラグ(5ビット×80)と、
・差信号ch(L−R)のサブフレーム毎のビット数フラグ(5ビット×80)と、
・和信号ch(L+R)の予測残差データ列(可変ビット数)と、
・差信号ch(L−R)の予測残差データ列(可変ビット数)とを
アクセスユニットとして多重化し、可変レートビットストリームとして出力する。上記予測残差データ列はサブパケットを構成する。このような予測符号化によれば、原信号が例えばサンプリング周波数=192kHz、量子化ビット数=24ビット、2チャネルの場合、59%の圧縮率を実現することができる。
The succeeding
The first sample value (25 bits) of one frame of the sum signal ch (L + R),
The first sample value (25 bits) of one frame of the difference signal ch (LR),
A predictor selection flag (3 bits × 80) for each subframe of the sum signal ch (L + R);
A predictor selection flag (3 bits × 80) for each subframe of the difference signal ch (LR);
A bit number flag (5 bits × 80) for each subframe of the sum signal ch (L + R);
A bit number flag (5 bits × 80) for each subframe of the difference signal ch (LR);
A prediction residual data string (number of variable bits) of the sum signal ch (L + R);
-The prediction residual data string (number of variable bits) of the difference signal ch (LR) is multiplexed as an access unit and output as a variable rate bit stream. The prediction residual data string constitutes a subpacket. According to such predictive coding, when the original signal is, for example, sampling frequency = 192 kHz, the number of quantization bits = 24 bits, and 2 channels, a compression rate of 59% can be realized.
また、この可変レートビットストリームデータをDVDオーディオディスクに記録する場合には、図4に示す圧縮PCMのオーディオ(A)パックにパッキングされる。このパックは2034バイトのユーザデータ(Aパケット、Vパケット)に対して4バイトのパックスタート情報と、6バイトのSCR(System Clock Reference:システム時刻基準参照値)情報と、3バイトのMux レート(rate)情報と1バイトのスタッフィングの合計14バイトのパックヘッダが付加されて構成されている(1パック=合計2048バイト)。この場合、タイムスタンプであるSCR情報を、ACBユニット内の先頭パックでは「1」として同一タイトル内で連続とすることにより同一タイトル内のAパックの時間を管理することができる。 When this variable rate bit stream data is recorded on a DVD audio disk, it is packed into an audio (A) pack of compressed PCM shown in FIG. This pack consists of 2034 bytes of user data (A packet, V packet), 4 bytes of pack start information, 6 bytes of SCR (System Clock Reference) information, and 3 bytes of Mux rate ( rate) information and a 1-byte stuffing total 14-byte pack header are added (1 pack = total 2048 bytes). In this case, the time of the A pack in the same title can be managed by setting the SCR information as a time stamp as “1” in the first pack in the ACB unit and continuing in the same title.
圧縮PCMのAパケットは図5に詳しく示すように、17、9又は14バイトのパケットヘッダと、プライベートヘッダと、図3に示すフォーマットの1ないし2015バイトのオーディオ圧縮PCMデータにより構成されている。圧縮PCMのプライベートヘッダは、
・1バイトのサブストリームIDと、
・2バイトのUPC/EAN−ISRC(Universal Product Code/European Article Number-International Standard Recording Code)番号、及びUPC/EAN−ISRCデータと、
・1バイトのプライベートヘッダ長と、
・2バイトの第1アクセスユニットポインタと、
・4バイトのオーディオデータ情報(ADI)と、
・0〜7バイトのスタッフィングバイトとに、
より構成されている。
このように圧縮PCMのAパケットのADIは、4バイトに選定され、通常の非圧縮のPCMのAパケットのADIよりも4バイトだけ短くされている。したがってオーディオデータは4バイト分増加させることができる。
As shown in detail in FIG. 5, the compressed PCM A packet is composed of a 17, 9 or 14 byte packet header, a private header, and audio compressed PCM data of 1 to 2015 bytes in the format shown in FIG. The compressed PCM private header is
A 1-byte substream ID,
-2-byte UPC / EAN-ISRC (Universal Product Code / European Article Number-International Standard Recording Code) number and UPC / EAN-ISRC data;
-1 byte private header length,
A 2-byte first access unit pointer;
-4 bytes of audio data information (ADI),
・ With stuffing byte of 0-7 bytes,
It is made up of.
Thus, the ADI of the compressed PCM A packet is selected to be 4 bytes, which is 4 bytes shorter than the ADI of the normal uncompressed PCM A packet. Therefore, the audio data can be increased by 4 bytes.
次に図6を参照してデコーダ3D1、3D2について説明する。図3に示したフォーマットの可変レートビットストリームデータは、デマルチプレクサ21によりフレームヘッダに基づいて分離される。そして、和信号ch(L+R)及び差信号ch(L−R)の1フレームの先頭サンプル値はそれぞれ累積演算回路25a、25bに印加され、和信号ch(L+R)及び差信号ch(L−R)の予測器選択フラグはそれぞれ予測器(24a−1〜24a−n)、(24b−1〜24b−n)の各選択信号として印加され、和信号ch(L+R)及び差信号ch(L−R)のビット数フラグと予測残差データ列はアンパッキング回路22に印加される。ここで、予測器(24a−1〜24a−n)、(24b−1〜24b−n)はそれぞれ、符号化側の予測器(12a−1〜12a−n)、(12b−1〜12b−n)と同一の特性であり、予測器選択フラグにより同一特性のも
のが選択される。
Next, the decoders 3D1 and 3D2 will be described with reference to FIG. The variable rate bit stream data in the format shown in FIG. 3 is separated by the
アンパッキング回路22は和信号ch(L+R)及び差信号ch(L−R)の予測残差データ列をビット数フラグ毎に基づいて分離してそれぞれ加算回路23a、23bに出力する。加算回路23a、23bではそれぞれ、アンパッキング回路22からの和信号ch(L+R)及び差信号ch(L−R)の今回の予測残差データと、予測器(24a−1〜24a−n)、(24b−1〜24b−n)の内、予測器選択フラグにより選択された各1つにより予測された前回の予測値が加算されて今回の予測値が算出される。この今回の予測値は、図2に示す差分回路11a、11bによりそれぞれ算出された差分Δ(L+R)、Δ(L−R)すなわちDPCMデータであり、予測器(24a−1〜24a−n)、(24b−1〜24b−n)と累積演算回路25a、25bに印加される。
The unpacking
累積演算回路25a、25bはそれぞれ、1フレームの先頭サンプル値に対して差分Δ(L+R)、Δ(L−R)をサンプル毎に累積加算して和信号ch(L+R)、差信号ch(L−R)の各PCMデータを出力する。この和信号(L+R)、差信号(L−R)は図1に示すように加算回路4aにより2L信号が算出されるとともに、減算回路4bにより2R信号が算出される。そして、2L信号と2R信号がそれぞれ割り算器5a、5bにより1/2に割り算され、元のステレオ2チャネル信号L、Rが復元される。
The
次に図7、図8を参照して第2の実施形態について説明する。上記の実施形態では、和信号(L+R)、差信号(L−R)の各差分Δ(L+R)、Δ(L−R)、すなわちDPCMデータのみを予測符号化するように構成されているが、この第2の実施形態では和信号(L+R)、差信号(L−R)すなわちPCMデータ、又はその各差分Δ(L+R)、Δ(L−R)すなわちDPCMデータを選択的に予測符号化するように構成されている。 Next, a second embodiment will be described with reference to FIGS. The above embodiment is configured to predictively encode only the differences Δ (L + R) and Δ (LR) of the sum signal (L + R) and difference signal (LR), that is, DPCM data. In the second embodiment, the sum signal (L + R), the difference signal (LR), that is, PCM data, or the respective differences Δ (L + R), Δ (LR), that is, DPCM data are selectively predictively encoded. Is configured to do.
このため図7に示す符号化装置では、図2に示す構成に対して和信号(L+R)、差信号(L−R)をそれぞれ予測符号化するための予測回路15A、15Sとバッファ・選択器16A、16Sが追加されている。また、選択信号生成器17はバッファ・選択器16A、16Sによりそれぞれ選択された和信号(L+R)、差信号(L−R)と、バッファ・選択器16D1、16D2によりそれぞれ選択された差分Δ(L+R)、Δ(L−R)の各予測残差の最小値に基づいて、
PCMデータとDPCMデータのどちらが圧縮率が高いか否かを判断し、高い方のデータを選択する。このとき、そのPCM/DPCMの選択フラグ(予測回路選択フラグ)を追加して多重化する。
Therefore, in the encoding device shown in FIG. 7,
It is determined whether the PCM data or the DPCM data has a higher compression rate, and the higher data is selected. At this time, the PCM / DPCM selection flag (prediction circuit selection flag) is added and multiplexed.
ここで、図7に示す和信号(L+R)の予測回路15Aと差分Δ(L+R)の予測回路15D1が同一の構成であり、また、差信号(L−R)の予測回路15Sと差分Δ(L−R)の予測回路15D2が同一の構成である場合、復号装置では図8に示すようにPCMデータとDPCMデータの両方の予測回路を設ける必要はなく、1つのデータ分の予測回路でよい。そして、符号化装置から伝送された予測回路選択フラグに基づいてセレクタ26a、26bにより、DPCMデータの場合には累積演算回路25a、25bの出力を選択し、PCMデータの場合には加算回路23a、23bの出力を選択する。
Here, the
第3の実施形態では図9に示すように、原信号L、R(PCMデータ)と、和信号(L+R)、差信号(L−R)(PCMデータ)と、その各差分Δ(L+R)、Δ(L−R)(DPCMデータ)の3グループの1つを選択的に予測符号化するように構成されている。 In the third embodiment, as shown in FIG. 9, the original signals L and R (PCM data), the sum signal (L + R), the difference signal (LR) (PCM data), and their respective differences Δ (L + R) , Δ (LR) (DPCM data), one of the three groups is selectively predictively encoded.
このため図9に示す符号化装置では、図7に示す構成に対して原信号L、Rをそれぞれ予測符号化するための予測回路15L、15Rとバッファ・選択器16L、16Rが追加されている。また、選択信号生成器17はバッファ・選択器16L、16Rにより選択された原信号L、Rと、バッファ・選択器16A、16Sにより選択された和信号(L+R)、差信号(L−R)と、バッファ・選択器16D1、16D2により選択された各差分Δ(L+R)、Δ(L−R)の各予測残差の最小値に基づいて圧縮率が高いグループのデータを選択する。このとき、その選択フラグ(予測回路選択フラグ)を追加して多重化する。
For this reason, in the encoding apparatus shown in FIG. 9, prediction circuits 15L and 15R and buffer / selectors 16L and 16R for predictively encoding the original signals L and R, respectively, are added to the configuration shown in FIG. . The
また、図9に示す3グループの予測回路が同一の構成である場合、復号装置では図10に示すように3グループ分の予測回路を設ける必要はなく、1つのグループ分の予測回路でよい。そして、符号化装置から伝送された予測回路選択フラグに基づいて、DPCMデータの場合には累積演算回路25a、25bの出力を選択し、PCMデータの場合には加算回路23a、23bの出力を選択してチャネル相関回路Bにより原信号L、Rを復元する。そして、更にセレクタ27a、27bにより原信号L、Rのグループの場合には加算回路23a、23bの出力を選択し、他の場合にはチャネル相関回路Bの出力を選択する
In addition, when the three groups of prediction circuits shown in FIG. 9 have the same configuration, the decoding apparatus does not need to provide prediction circuits for three groups as shown in FIG. Based on the prediction circuit selection flag transmitted from the encoding device, the output of the cumulative
また、符号化側により予測符号化された可変レートビットストリームデータをネットワークを介して伝送する場合には、符号化側では図11に示すように伝送用にパケット化し(ステップS41)、次いでパケットヘッダを付与し(ステップS42)、次いでこのパケットをネットワーク上に送り出す(ステップS43)。復号側では図12に示すようにヘッダを除去し(ステップS51)、次いでデータを復元し(ステップS52)、次いでこのデータをメモリに格納して復号を待つ(ステップS53)。 Also, when variable rate bitstream data predictively encoded by the encoding side is transmitted via the network, the encoding side packetizes it for transmission as shown in FIG. 11 (step S41), and then packet header (Step S42), and then the packet is sent out on the network (step S43). As shown in FIG. 12, the decoding side removes the header (step S51), then restores the data (step S52), then stores this data in the memory and waits for decoding (step S53).
上記第1の実施の形態は2チャネルの場合について説明したが、2以上のマルチチャネルの場合の第2の実施の形態について以下説明する。図13は、本発明の第2の実施の形態を示すブロック図である。図13は、図1の2チャネル用の構成に対して後方の2チャネルSL、SRを加えた4チャネル用として構成され、よって入力側にはチャネル相関回路Aに加えて、同様な構成のチャネル相関回路A2が設けられている。また、出力側にもチャネル相関回路Bに加えて、同様な構成のチャネル相関回路B2が設けられている。また、ロスレス・エンコーダ2Dとロスレス・デコーダ3Dはマルチチャネル対応型として構成されている。なお、チャネル相関回路A、A2、B、B2は、それぞれLとR、SLとSRを組み合わせの対象としている。なお、ロスレス・エンコーダ2Dとロスレス・デコーダ3Dにおける一連の動作である、差分の算出、予測値の算出、最小予測残差の選択、最小予測残差を用いた予測値の算出などは、第1の実施の形態と同様に行われる。
Although the first embodiment has been described for the case of two channels, the second embodiment for the case of two or more multi-channels will be described below. FIG. 13 is a block diagram showing a second embodiment of the present invention. FIG. 13 is configured for four channels by adding the rear two channels SL and SR to the configuration for two channels of FIG. 1, so that in addition to the channel correlation circuit A on the input side, a channel having the same configuration A correlation circuit A2 is provided. In addition to the channel correlation circuit B, a channel correlation circuit B2 having a similar configuration is also provided on the output side. The lossless encoder 2D and the
次に、第2の実施の形態の変形例としての第3の実施の形態について、そのブロック図を示す図14に沿って説明する。図14は、図13の4チャネル用の構成に対して更にセンタチャネルC及び低音効果チャネルLFEを加えた合計6チャネル用として構成されている。ただし、センタチャネルC、後方の2チャネルSL、SR、及び低周波音効果チャネルLFEはLとRのように相関をとることなく、直接ロスレス・エンコーダ2Dに入力され、また直接ロスレス・デコーダ3Dから出力される。
Next, a third embodiment as a modification of the second embodiment will be described with reference to FIG. 14 showing a block diagram thereof. FIG. 14 is configured for a total of 6 channels, in which a center channel C and a bass sound effect channel LFE are further added to the configuration for 4 channels of FIG. However, the center channel C, the rear two channels SL and SR, and the low-frequency sound effect channel LFE are directly input to the lossless encoder 2D without being correlated like L and R, and directly from the
次に、第2の実施の形態及び第3の実施の形態の変形例としての第4の実施の形態について、そのブロック図を示す図15に沿って説明する。図15に示すチャネル相関回路A−1は加算回路1aと減算回路1bを有する。加算回路1aはステレオ2ch信号L、Rの和信号(L+R)を算出し、この和信号(L+R)を割り算器5aにより1/2に割り算してから、ロスレス・エンコーダ2Dに出力し、減算回路1bは差信号(L−R)を算出し、この差信号(L−R)を割り算器5bにより1/2に割り算してから、ロスレス・エンコーダ2Dに出力する。
ロスレス・エンコーダ2Dは、1/2(L+R)と1/2(L−R)を用いてこれらを多重化して多重化信号250を作る。多重化信号250はロスレス・デコーダ3Dによりデコードされて、元の1/2(L+R)と1/2(L−R)が得られ、これらが、チャネル相関回路B−1を構成する加算回路4aと減算回路4bにそれぞれ与えられ、出力信号としてステレオ2chのL信号とR信号が得られる。なお、ロスレス・エンコーダ2Dとロスレス・デコーダ3Dにおける一連の動作である、差分の算出、予測値の算出、最小予測残差の選択、最小予測残差を用いた予測値の算出などは、第1の実施の形態と同様に行われる。第4の実施の形態からわかるように、第2、第3の実施の形態におけるチャネル相関回路A、A2はL+R及びL−Rを演算するものに限らず、1/2(L+R)、1/2(
L−R)を演算するものに置き換えることができる。この場合、ロスレス・デコーダ3D側のチャネル相関回路B−1では1/2の演算は不要である。
Next, a fourth embodiment as a modification of the second embodiment and the third embodiment will be described with reference to FIG. 15 showing a block diagram thereof. The channel correlation circuit A-1 shown in FIG. 15 has an addition circuit 1a and a subtraction circuit 1b. The adder circuit 1a calculates the sum signal (L + R) of the stereo 2ch signals L and R, divides this sum signal (L + R) by ½ by the
The lossless encoder 2D multiplexes these using 1/2 (L + R) and 1/2 (LR) to create a multiplexed
LR) can be replaced with one that calculates. In this case, 1/2 calculation is unnecessary in the channel correlation circuit B-1 on the
なお、先に図3で説明したフォーマットは1例であって、本発明における信号処理において記録あるいは伝送される信号のフォーマットは、これに限られるものでない。マルチチャネルの場合は、図13に対応してL、R信号に加えて、後方2チャネルSL、SRも和信号(SL+SR)と差信号(SL−SR)の形で収納される(図16のa)。また、同様に図14に対応してL、R信号は和信号と差信号の形で収納され、これに加えて、センターチャネルC、後方2チャネルSL、SR、低周波効果チャネルLFEは、そのまま、すなわち和信号や差信号の形をとることなく収納される(図16のb)。 Note that the format described above with reference to FIG. 3 is an example, and the format of a signal recorded or transmitted in the signal processing in the present invention is not limited to this. In the case of multi-channel, in addition to the L and R signals corresponding to FIG. 13, the rear two channels SL and SR are also stored in the form of a sum signal (SL + SR) and a difference signal (SL-SR) (FIG. 16). a). Similarly, corresponding to FIG. 14, the L and R signals are stored in the form of a sum signal and a difference signal. In addition to this, the center channel C, the rear two channels SL and SR, and the low frequency effect channel LFE remain as they are. That is, they are stored without taking the form of a sum signal or a difference signal (b in FIG. 16).
図17は、図16に示すようなマルチチャネルの信号を図4のAパックのユーザデータのパケットとするときのフォーマットを示す図である。ビットストリームBS0には、和信号(L+R)と差信号(L−R)が収納され、また他のビットストリームBS1には、図16のaに対応する場合は、和信号(SL+SR)と差信号の(SL−SR)が、一方図16のbに対応する場合は、センターチャネルC、後方2チャネルSL、SR、低周波効果チャネルLFEが、そのまま収納される。 FIG. 17 is a diagram showing a format when a multi-channel signal as shown in FIG. 16 is used as a packet of user data of the A pack in FIG. The bit stream BS0 contains a sum signal (L + R) and a difference signal (LR), and the other bit stream BS1 has a sum signal (SL + SR) and a difference signal in the case corresponding to FIG. On the other hand, when (SL-SR) corresponds to b in FIG. 16, the center channel C, the rear two channels SL and SR, and the low frequency effect channel LFE are stored as they are.
図5に示す圧縮PCM(PPCM)のオーディオ(A)パケットの図3と異なる態様を図18に示す。この異なる態様では、圧縮PCM(PPCM)のオーディオ(A)パケットにおけるオーディオデータエリアは、図18に示すように複数のPPCMアクセスユニットにより構成され、PPCMアクセスユニットはPPCMシンク情報とサブパケットにより構成されている。最初のPPCMアクセスユニット内のサブパケットは、ディレクトリと、ビットストリームBS0と、CRCと、ビットストリームBS1と、CRCとエクストラ情報により構成され、ビットストリームBS0,BS1はPPCMブロックのみにより構成されている。2番目以降のPPCMアクセスユニット内のサブパケットは、ディレクトリを除いてビットストリームBS0と、CRCと、ビットストリームBS1、CRCとエクストラ情報により構成され、フレーム先頭のビットストリームBS0及びBS1はリスタートヘッダとPPCMブロックにより構成されている。フレーム先頭のPPCMブロックにフレーム先頭サンプル値を配する。 FIG. 18 shows an aspect different from FIG. 3 of the audio (A) packet of the compressed PCM (PPCM) shown in FIG. In this different aspect, the audio data area in the compressed PCM (PPCM) audio (A) packet is composed of a plurality of PPCM access units as shown in FIG. 18, and the PPCM access unit is composed of PPCM sync information and subpackets. ing. The subpacket in the first PPCM access unit is composed of a directory, a bit stream BS0, a CRC, a bit stream BS1, CRC and extra information, and the bit streams BS0 and BS1 are composed only of PPCM blocks. Sub-packets in the second and subsequent PPCM access units are composed of bit stream BS0, CRC, bit stream BS1, CRC, and extra information except for the directory. It is composed of PPCM blocks. The frame head sample value is arranged in the PPCM block at the head of the frame.
PPCMシンク情報(以下、同期情報ともいう)は次の情報を含む。
・1パケット当たりのサンプル数:サンプリング周波数fsに応じて40、80又は60が選択される。
・データレート:VBRの場合には「0」(サブパケット内のデータが圧縮データであることを示す識別子)
・サンプリング周波数fs及び量子化ビット数Qb
・チャネル割り当て情報
ここで、リスタートヘッダはフレーム毎にチャネル相関回路Aが加算回路と減算回路で構成されることを明記した情報を有している。これらのオーディオデータは図13と図14においてデマルチプレクサ21以下の構成からなるロスレス・デコーダ3D(図8)により元のマルチチャネルオーディオ信号に復号される。図18に示したフォーマットの可変レートビットストリームデータは、図1のチャネル相関回路を用いたか、図15のチャネル相関回路を用いたかを、例えばPPCMアクセスユニットのリスタートヘッダに格納した識別子(図示せず)で識別するようにしているので、いずれであってもデコーダは確実にデコードできる。なお、フレーム毎のロスレス圧縮を例に説明したが、固定の長さに限らず区間は可変の長さであってもよい。
The PPCM sync information (hereinafter also referred to as synchronization information) includes the following information.
-Number of samples per packet: 40, 80 or 60 is selected according to the sampling frequency fs.
Data rate: “0” in the case of VBR (an identifier indicating that the data in the subpacket is compressed data)
-Sampling frequency fs and number of quantization bits Qb
Channel assignment information Here, the restart header has information specifying that the channel correlation circuit A is composed of an addition circuit and a subtraction circuit for each frame. These audio data are decoded into the original multi-channel audio signal by a
1a、4a 加算回路(加算手段)
1b、4b 減算回路(減算手段)
5a、5b 割り算器
11D1 差分演算回路(第1の差分演算手段)
11D2 差分演算回路(第2の差分演算手段)
12a−1〜12a−n 予測器(減算器13a−1〜13a−n、バッファ
・選択器16D1と共に第1の予測符号化手段を構成する。)
12b−1〜12b−n 予測器(減算器13b−1〜13b−n、バッファ
・選択器16D2と共に第2の予測符号化手段を構成する。)
13a−1〜13a−n,13b−1〜13b−n 減算器
16D1,16D2,16A,16S,16L,16R バッファ・選択器
15A 予測回路(バッファ・選択器16Aと共に第3の予測符号化手段を構
成する。)
15S 予測回路(バッファ・選択器16Sと共に第4の予測符号化手段を構
成する。)
15L 予測回路(バッファ・選択器16Lと共に第5の予測符号化手段を構
成する。)
15R 予測回路
路(バッファ・選択器16Rと共に第6の予測符号化手段を構成する。)
1a, 4a Adder circuit (addition means)
1b, 4b Subtraction circuit (subtraction means)
5a, 5b Divider 11D1 Difference calculation circuit (first difference calculation means)
11D2 difference calculation circuit (second difference calculation means)
12a-1 to 12a-n Predictors (the first predictive coding means is configured together with the
12b-1 to 12b-n predictor (the second predictive encoding means is configured together with the subtracters 13b-1 to 13b-n and the buffer / selector 16D2)
13a-1 to 13a-n, 13b-1 to 13b-n Subtractors 16D1, 16D2, 16A, 16S, 16L, 16R Buffer /
15S prediction circuit (constitutes the fourth predictive encoding means together with the buffer / selector 16S)
15L prediction circuit (constitutes the fifth predictive encoding means together with the buffer / selector 16L)
15R Prediction circuit (forms sixth predictive encoding means together with buffer / selector 16R)
Claims (2)
前記ステップにより変換された2つの相関チャネルを含む音声信号を、チャネル毎に、入力される音声信号に応答して先頭サンプル値を所定時間のフレーム単位で得ると共に、特性が異なる複数の線形予測方法により時間領域の過去から現在の信号の線形予測値がそれぞれ予測され、その予測される線形予測値と前記音声信号とから得られる予測残差が最小となるような線形予測方法を、選択して予測符号化するステップと、
パケットヘッダと、圧縮PCMのプライベートヘッダ及びオーディオ圧縮PCMデータ部を含むユーザデータと、を含んだデータ構造にすると共に、前記ステップにより選択された各チャネルの線形予測方法と予測残差と所定の先頭サンプル値を含む予測符号化データを、前記オーディオ圧縮PCMデータ部内に配置される圧縮PCMアクセスユニット内のサブパケットに格納し、さらに前記圧縮PCMアクセスユニット内に前記音声信号のサンプリング周波数及び量子化ビット数を含む同期情報部を格納すると共に前記サブパケット内にフレーム毎にリスタートヘッダを設けるステップと、
からなる音声符号化方法。 Converting at least selected first and second two -channel audio signals among three or more multi-channel audio signals into a matrix operation and converting them into two correlated channels;
An audio signal comprising two correlated channel converted by the step, for each channel, obtained when both a plurality of linear prediction characteristics different top sample values in response to the audio signal input in frames of a predetermined time Select a linear prediction method that predicts the linear prediction value of the current signal from the past in the time domain by the method, and minimizes the prediction residual obtained from the predicted linear prediction value and the speech signal. and predicting coding Te,
A data structure including a packet header and user data including a compressed PCM private header and an audio compressed PCM data portion, and a linear prediction method, a prediction residual, and a predetermined head of each channel selected in the above step Predictive encoded data including a sample value is stored in a subpacket in a compressed PCM access unit arranged in the audio compressed PCM data section, and a sampling frequency and a quantization bit of the audio signal are further stored in the compressed PCM access unit. Storing a synchronization information part including a number and providing a restart header for each frame in the subpacket;
A speech encoding method comprising:
前記ユーザデータから圧縮PCMアクセスユニットを抽出するステップと、
前記リスタートヘッダを有する前記圧縮PCMアクセスユニットから前記先頭サンプル値を取り出すと共に、前記各圧縮PCMアクセスユニット内のサブパケットから予測残差および線形予測方法を含む予測符号化データを取り出すステップと、
前記予測残差をビット情報に基づいたビット数で復号し、この復号した予測残差と前記先頭サンプル値と線形予測方法とに基づいて予測値を算出するステップと、
この算出された予測値から元の音声信号を復元するステップと、
前記復元された音声信号を前記同期情報部に含まれるサンプリング周波数及び量子化ビット数に基づいてアナログ音声信号に変換するステップと、
からなる音声復号方法。 A speech decoding method for decoding an original speech signal from data encoded by the speech encoding method according to claim 1,
Extracting a compressed PCM access unit from the user data;
Extracting the first sample value from the compressed PCM access unit having the restart header and extracting predictive encoded data including a prediction residual and a linear prediction method from a subpacket in each compressed PCM access unit;
Decoding the prediction residual with the number of bits based on bit information, and calculating a prediction value based on the decoded prediction residual, the leading sample value, and a linear prediction method;
And restoring the original audio signal from the calculated prediction value,
Converting the restored audio signal into an analog audio signal based on the sampling frequency and the number of quantization bits included in the synchronization information section;
A speech decoding method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005374872A JP4244226B2 (en) | 1998-10-13 | 2005-12-27 | Speech encoding method and speech decoding method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30634998 | 1998-10-13 | ||
JP34235298 | 1998-11-16 | ||
JP2005374872A JP4244226B2 (en) | 1998-10-13 | 2005-12-27 | Speech encoding method and speech decoding method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004243781A Division JP4148203B2 (en) | 1998-10-13 | 2004-08-24 | Audio signal transmission method and audio decoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006178480A JP2006178480A (en) | 2006-07-06 |
JP4244226B2 true JP4244226B2 (en) | 2009-03-25 |
Family
ID=36732575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005374872A Expired - Fee Related JP4244226B2 (en) | 1998-10-13 | 2005-12-27 | Speech encoding method and speech decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4244226B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02259700A (en) * | 1989-03-30 | 1990-10-22 | Nec Corp | Voice coder |
JPH06250697A (en) * | 1993-02-26 | 1994-09-09 | Fujitsu Ltd | Method and device for voice coding and decoding |
-
2005
- 2005-12-27 JP JP2005374872A patent/JP4244226B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006178480A (en) | 2006-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4835647B2 (en) | Speech encoding method and speech decoding method | |
JP4244223B2 (en) | Speech encoding method and speech decoding method | |
JP4244226B2 (en) | Speech encoding method and speech decoding method | |
JP4196356B2 (en) | Speech encoding method and speech decoding method | |
JP4151035B2 (en) | Speech encoding method and speech decoding method | |
JP4151029B2 (en) | Speech encoding method and speech decoding method | |
JP4151034B2 (en) | Speech encoding method and speech decoding method | |
JP4151036B2 (en) | Speech encoding method and speech decoding method | |
JP4151028B2 (en) | Speech encoding method and speech decoding method | |
JP4244224B2 (en) | Speech encoding method and speech decoding method | |
JP4151032B2 (en) | Speech encoding method and speech decoding method | |
JP4151027B2 (en) | Speech encoding method and speech decoding method | |
JP4244225B2 (en) | Speech encoding method and speech decoding method | |
JP4151030B2 (en) | Speech encoding method and speech decoding method | |
JP4151031B2 (en) | Speech encoding method and speech decoding method | |
JP4151033B2 (en) | Speech encoding method and speech decoding method | |
JP4244222B2 (en) | Speech encoding method and speech decoding method | |
JP4148260B2 (en) | Speech encoding method and speech decoding method | |
JP4148259B2 (en) | Speech encoding method and speech decoding method | |
JP3606456B2 (en) | Audio signal transmission method and audio decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081212 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120116 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120116 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130116 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |