JP2001188578A - Voice coding method and voice decoding method - Google Patents

Voice coding method and voice decoding method

Info

Publication number
JP2001188578A
JP2001188578A JP2000325684A JP2000325684A JP2001188578A JP 2001188578 A JP2001188578 A JP 2001188578A JP 2000325684 A JP2000325684 A JP 2000325684A JP 2000325684 A JP2000325684 A JP 2000325684A JP 2001188578 A JP2001188578 A JP 2001188578A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
sub
data
channel
packet
method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000325684A
Other languages
Japanese (ja)
Other versions
JP3346556B2 (en )
Inventor
Norihiko Fuchigami
Yoshiaki Tanaka
Shoji Ueno
昭治 植野
徳彦 渕上
美昭 田中
Original Assignee
Victor Co Of Japan Ltd
日本ビクター株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To improve compression efficiency of an audio signals, and also to exactly decode a compressed signal.
SOLUTION: An audio data area in an audio packet consists of plural PPCM access units, and a PPCM access unit consists of PPCM sync information and a sub-packet. A sub-stream is arranged in the sub-packet, this sub-stream contains a restart header, and this restart header is arranged for each several pieces of PPCM access units.
COPYRIGHT: (C)2001,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、マルチチャネルの音声信号を圧縮するための音声符号化方法及び音声復号方法に関する。 The present invention relates to relates to speech coding method and speech decoding method for compressing an audio signal of multi-channel.

【0002】 [0002]

【従来の技術】音声信号を圧縮する方法として、本発明者は先の出願(特願平9−289159号)において1 As a method for compressing the Related Art audio signal, the present inventors in the previous application (Japanese Patent Application No. 9-289159) 1
チャネルの原デジタル音声信号に対して、特性が異なる複数の予測器により時間領域における過去の信号から現在の信号の複数の線形予測値を算出し、原デジタル音声信号と、この複数の線形予測値から予測器毎の予測残差を算出し、予測残差の最小値を選択する予測符号化方法を提案している。 With respect to the original digital audio signal of the channel to calculate a plurality of linear prediction value of the current signal from a past signal in the time domain by a plurality of predictor characteristic is different, the original digital audio signal, the plurality of linear prediction value calculating a prediction residual for each predictor from proposes a predictive coding method for selecting a minimum value of the prediction residuals.

【0003】なお、上記方法では原デジタル音声信号がサンプリング周波数=96kHz、量子化ビット数=2 [0003] Incidentally, the original digital audio signal in the above method is the sampling frequency = 96kHz, the number of quantization bits = 2
0ビット程度の場合にある程度の圧縮効果を得ることができるが、近年のDVDオーディオディスクではこの2 0 While in the case of approximately the bit can be obtained a certain degree of compression effect, the 2 in the recent DVD audio disc
倍のサンプリング周波数(=192kHz)が使用され、また、量子化ビット数も24ビットが使用される傾向がある。 Times the sampling frequency (= 192 kHz) is used, also tend to quantization bits is 24 bits are used.

【0004】 [0004]

【発明が解決しようとする課題】上記したように、DV The object of the invention is to be Solved As described above, DV
Dオーディオの場合、サンプリング周波数も高く、しかも、マルチチャンネル信号を扱うためデータ量も多くなり、より圧縮効率の改善が望まれていると共に、再生時のことを考慮すると、圧縮されたデータをより正確に復号することが望まれている。 For D audio sampling frequency is high, moreover, also increases the amount of data for handling multi-channel signal, with which improvement the more compression efficiency is desired, considering that at the time of reproduction, the compressed data more it is desirable to accurately decoded. そこで、本願各発明では、 Therefore, in the present inventions,
そのような点を考慮して圧縮効率を改善すると共に、より正確なデータの復号ができる音声符号化方法及び音声復号方法を提供することを目的とする。 While improving the compression efficiency in consideration of such points, and an object thereof is to provide a speech coding method and speech decoding method capable decoding of more accurate data.

【0005】 [0005]

【課題を解決するための手段】本発明は上記目的を達成するために、以下の1)及び2)に記載の手段からなるものである。 SUMMARY OF THE INVENTION The present invention, in order to achieve the above object, is made of the means described in the following 1) and 2). すなわち、 That is,

【0006】1)マルチチャネルの音声信号を、そのままのチャネル又は互いに相関をとったチャネル毎に入力される音声信号に応答して先頭サンプル値を所定時間のフレーム単位で得ると共に、時間領域の過去の信号から予測される現在の信号の複数の予測値の中でその予測残差が最小値となる線形予測方法を前記フレームを更に分割したサブフレーム単位に選択して予測符号化するステップと、前記ステップにより選択されたチャネル毎の予測符号化データを含むサブパケットと、そのサブパケットに対応した同期情報部とで形成した一つのアクセスユニットと、そのサブパケット内に前記サブパケットに対応したサブストリームを少なくとも含み、このサブストリーム内に前記アクセスユニットの数個毎にリスタート情報部を設けたデ [0006] 1) an audio signal of the multi-channel, with obtaining a first sample value on a frame-by-frame basis for a predetermined time in response to the audio signal input to each channel taken intact channel or correlated, past time domain and predicting encodes the linear prediction method prediction residual is a minimum value selected subframe obtained by further dividing the frame in the plurality of prediction values ​​current signal is predicted from the signal, a subpacket including predictive coding data for each channel selected in the step, and one access unit formed by a synchronous data portion corresponding to the sub-packet, sub corresponding to the sub-packet within the sub-packet at least comprises a stream, provided the restart information unit into several each of the access units in the sub-stream de タ構造にフォーマット化するステップと、からなる音声符号化方法。 A step of formatting the data structure, the speech coding method comprising. 2)マルチチャネルの音声信号を、そのままのチャネル又は互いに相関をとったチャネル毎に入力される音声信号に応答して先頭サンプル値を得ると共に、時間領域の過去の信号から予測される現在の信号の複数の予測値の中でその予測残差が最小値となる線形予測方法を選択して予測符号化するステップと、前記ステップにより選択されたチャネル毎の予測符号化データを含むサブパケットと、そのサブパケットに対応した同期情報部とで形成した一つのアクセスユニットと、そのサブパケット内に前記サブパケットに対応したサブストリームを少なくとも含み、このサブストリーム内に前記アクセスユニットの数個毎にリスタート情報部を設けたデータ構造にフォーマット化するステップと、からなる音声符号化方法により符号化された An audio signal of 2) multi-channel, with obtaining the top Sample value in response to the audio signal input to each channel taken intact channel or correlated, the current signal is predicted from a past signal in the time domain a step of the prediction residuals within the plurality of predicted values ​​to predictive encoding by selecting a linear prediction method having the minimum value of the sub-packet including a predictive coding data for each channel selected by the step, and one access unit formed by a synchronous data portion corresponding to the sub-packet includes at least a sub-stream corresponding to the sub-packet within the sub-packet, re into several each of the access units in the substream a step of formatting the data structure in which the start information unit, which is encoded by the speech encoding method comprising ータから元の音声信号を復号する音声復号方法であって、前記データ構造をサブパケットと同期情報部に分離するステップと、前記サブパケット内の予測符号化データを前記リスタート情報部内の情報に基づいてチャネル毎に伸長するステップと、前記伸長された音声データから前記マルチチャネルの音声信号に変換するステップと、からなる音声復号方法。 A speech decoding method for decoding the original audio signal from the chromatography data, steps and the information in the restart information unit predictive coded data in the sub-packet for separating the data structure in the sub-packets and synchronization information unit steps and, a step of converting from said decompressed audio data to the audio signal of the multi channel audio decoding method comprising extending each channel based on.

【0007】 [0007]

【発明の実施の形態】以下、図面を参照して本発明の実施の形態を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an embodiment of the present invention with reference to the drawings. 図1は本発明が適用される音声符号化装置及び音声復号装置の第1の実施形態を示すブロック図、図2は図1の符号化部を詳しく示すブロック図、図3は図1、図2の符号化部により符号化されたビットストリームを示す説明図、図4はDVDのパックのフォーマットを示す説明図、図5はDVDのオーディオパックのフォーマットを示す説明図、図6は図5のオーディオデータエリアのフォーマットを詳しく示す説明図、図7は図1の復号化部を詳しく示すブロック図、図8は図7の入力バッファの書き込み/読み出しタイミングを示すタイミングチャート、図9はアクセスユニット毎の圧縮データ量を示す説明図、図10はアクセスユニットとプレゼンテーションユニットを示す説明図である。 Figure 1 is a block diagram showing a first embodiment of a speech coding apparatus and speech decoding apparatus to which the present invention is applied, FIG 2 is a block diagram showing in detail a coding unit of FIG. 1, 3 1, FIG. explanatory view showing a coded bit stream by the second encoding unit, Fig. 4 is an explanatory diagram showing a format of a pack in DVD, Figure 5 is an explanatory diagram showing a format of an audio pack in DVD, 6 in FIG. 5 explanatory view showing in detail a format of audio data area, FIG. 7 is a block diagram showing in detail the decoding unit of FIG. 1, FIG. 8 is a timing chart showing a write / read timing of the input buffer of Figure 7, Figure 9 is each access unit explanatory view showing a compressed data amount. FIG. 10 is an explanatory diagram showing an access unit and a presentation unit.

【0008】ここで、マルチチャネル方式としては、例えば次の4つの方式が知られている。 [0008] Here, the multi-channel systems are known, for example, the following four methods. (1)4チャネル方式 ドルビーサラウンド方式のように、前方L、C、Rの3チャネル+後方Sの1チャネルの合計4チャネル (2)5チャネル方式 ドルビーAC−3方式のS (1) 4 as the channel type Dolby surround system, the front L, C, a total of four channels (2) of one channel of the three channels + backward S of R 5 channel system Dolby AC-3 method S
Wチャネルなしのように、前方L、C、Rの3チャネル+後方SL、SRの2チャネルの合計5チャネル (3)6チャネル方式 DTS(Digital Theater As no W channel, front L, C, 3-channel + rear SL of R, a total of five channels (3) of the two channels of SR 6 channel system DTS (Digital Theater
System)方式や、ドルビーAC−3方式のように6チャネル(L、C、R、SW(Lfe)、SL、SR) (4)8チャネル方式 SDDS(Sony Dynamic D System) method or, 6 channels as Dolby AC-3 system (L, C, R, SW (Lfe), SL, SR) (4) 8-channel scheme SDDS (Sony Dynamic D
igital Sound)方式のように、前方L、LC、C、R igital Sound) as in the method, the front L, LC, C, R
C、R、SWの6チャネル+後方SL、SRの2チャネルの合計8チャネル C, R, 6 channels + backward SL of SW, a total of 8 channels of 2 channels of SR

【0009】図1に示す符号化側の6チャネル(ch)ミクス&マトリクス回路1'は、マルチチャネル信号の一例としてフロントレフト(Lf)、センタ(C)、フロントライト(Rf)、サラウンドレフト(Ls)、サラウンドライト(Rs)及びLfe(Low Frequency Effe [0009] 6 Channel coding side shown in FIG. 1 (ch) mix & matrix circuit 1 ', front left (Lf) as an example of a multi-channel signal, the center (C), front right (Rf), surround left ( ls), surround right (Rs) and Lfe (Low Frequency Effe
ct)の6chのPCMデータを次式(1)により前方グループに関する2ch「1」、「2」と他のグループに関する4ch「3」〜「6」に分類して変換し、2ch「1」、 2ch "1" for the front group PCM data of 6ch for ct) by the following equation (1), "2" and converted to classify the 4ch "3" to "6" for the other group, 2ch "1",
「2」を第1符号化部2'−1に、また、4ch「3」〜 "2" to the first encoding unit 2'-1, also, 4ch "3" -
「6」を第2符号化部2'−2に出力する。 Outputs "6" to the second encoding section 2'-2.

【0010】 「1」=Lf+Rf 「2」=Lf−Rf 「3」=C−(Ls+Rs)/2 「4」=Ls+Rs 「5」=Ls−Rs 「6」=Lfe−a×C ただし、0≦a≦1 …(1) [0010] "1" = Lf + Rf "2" = Lf-Rf "3" = C- (Ls + Rs) / 2 "4" = Ls + Rs "5" = Ls-Rs "6" = Lfe-a × C where 0 ≦ a ≦ 1 ... (1)

【0011】符号化部2'を構成する第1及び第2符号化部2'−1、2'−2はそれぞれ、図2に詳しく示すように2ch「1」、「2」と4ch「3」〜「6」のPC [0011] Each of the first and second encoding section 2'-1,2'-2 constituting the encoding unit 2 ', 2ch "1" as shown in detail in FIG. 2, "2" 4ch "3 "PC of to" 6 "
Mデータをチャネル毎に予測符号化し、予測符号化データを図3に示すようなビットストリームで記録媒体5や衛星回線や電話回線等の通信媒体6を介して復号側に伝送する。 And predictive coding the M data for each channel, for transmitting the predictive coded data over a communications medium 6 of the bitstream in the recording medium 5 and a satellite line or a telephone line or the like as shown in FIG. 3 to the decoding side. 復号側では復号化部3'を構成する第1及び第2復号化部3'−1、3'−2により、図7に詳しく示すようにそれぞれ前方グループに関する2ch「1」、 The first and second decoding section 3'-1, 3'-2 constituting the decoding part 3 'on the decoding side, 2ch for each front group, as shown in detail in FIG. 7, "1",
「2」と他のグループに関する4ch「3」〜「6」の予測符号化データをチャネル毎にPCMデータに復号する。 Decodes the PCM data predictive coded data of "2" and 4ch "3" for the other group to "6" for each channel.

【0012】次いでミクス&マトリクス回路4'により式(1)に基づいて元の6ch(Lf、C、Rf、Ls、 [0012] Then, based on equation (1) by mix and matrix circuit 4 'original 6ch (Lf, C, Rf, Ls,
Rs、Lfe)を復元するとともに、この元の6chと係数mij(i=1,2,j=1,2〜6)により次式(2)のようにステレオ2chデータ(L、R)を生成する。 Rs, generated along with restoring the Lfe), stereo 2ch data (L, R) as the original 6ch and coefficients mij (i = 1,2, j = 1,2~6) by the following equation (2) to. L=m11・Lf+m12・Rf+m13・C +m14・Ls+m15・Rs+m16・Lfe R=m21・Lf+m22・Rf+m23・C +m24・Ls+m25・Rs+m26・Lfe …(2) L = m11 · Lf + m12 · Rf + m13 · C + m14 · Ls + m15 · Rs + m16 · Lfe R = m21 · Lf + m22 · Rf + m23 · C + m24 · Ls + m25 · Rs + m26 · Lfe ... (2)

【0013】図2を参照して符号化部2'−1、2'− [0013] With reference to FIG. 2 coder 2'-1,2'
2について詳しく説明する。 It will be described in detail 2. 各ch「1」〜「6」のPC PC of each ch "1" to "6"
Mデータは1フレーム毎に1フレームバッファ10に格納される。 M data is stored in a frame buffer 10 for each frame. そして、1フレームの各ch「1」〜「6」のサンプルデータがそれぞれ予測回路13D1、13D Then, the sample data each prediction circuit 13D1,13D of 1 each frame ch "1" to "6"
2、15D1〜15D4に印加されるとともに、各ch While being applied to 2,15D1~15D4, each ch
「1」〜「6」の各フレームの先頭サンプルデータ(後述のリスタートヘッダ内に格納される)がアンパッキング回路8及びフォーマット化回路19に印加される。 Top Sample data of each frame of the "1" to "6" (which is stored in the restart header described later) is applied to the unpacking circuit 8 and the formatting circuit 19. また、PCMデータがA/D変換されたときのサンプリング周波数(fs)と量子化ビット数(Qb)がパッキング回路18及びフォーマット化回路19に印加される。 The sampling frequency (fs) and the number of quantization bits when the PCM data is converted A / D (Qb) is applied to the packing circuit 18 and the formatting circuit 19.
予測回路13D1、13D2、15D1〜15D4はそれぞれ、各ch「1」〜「6」のPCMデータに対して、 Each prediction circuit 13D1,13D2,15D1~15D4, relative PCM data of each ch "1" to "6",
特性が異なる複数の予測器(不図示)により時間領域における過去の信号から現在の信号の複数の線形予測値を算出し、次いで原PCMデータと、この複数の線形予測値から予測器毎の予測残差を算出する。 A plurality of predictor characteristic different calculates a plurality of linear prediction value of the current signal from a past signal in the time domain by (not shown), then the original PCM data, the prediction of each predictor from the plurality of linear prediction value to calculate the residual. 続くバッファ・ Buffer followed by
選択器14D1、14D2、16D1〜16D4はそれぞれ、予測回路13D1、13D2、15D1〜15D Each selector 14D1,14D2,16D1~16D4 the prediction circuit 13D1,13D2,15D1~15D
4により算出された各予測残差を一時記憶して、選択信号/DTS(デコーディング・タイム・スタンプ)生成器17により指定されたサブフレーム毎に予測残差の最小値を選択する。 4 temporarily stores each prediction residual calculated by, selecting the minimum value of the prediction residual for each sub-frame specified by the selection signal / DTS (decoding time stamp) generator 17.

【0014】選択信号/DTS生成器17は予測残差のビット数フラグをパッキング回路18とフォーマット化回路19に対して印加し、また、予測残差が最小の予測器を示す予測器選択フラグと、式(1)における相関係数aと、復号化側が入力バッファ22a(図7)からストリームデータを取り出す時間を示すDTSをフォーマット化回路19に対して印加する。 [0014] selection signal / DTS generator 17 applies a number of bits flag of prediction residual relative to the packing circuit 18 and the formatting circuit 19, also a predictor selection flag prediction residual indicates the minimum predictor applies the correlation coefficient a in equation (1), with respect to formatting circuit 19 a DTS indicating the time to retrieve the stream data decoding side from the input buffer 22a (Fig. 7). パッキング回路18 Packing circuit 18
はバッファ・選択器14D1、14D2、16D1〜1 Buffer selector is 14D1,14D2,16D1~1
6D4により選択された6ch分の予測残差を、選択信号/DTS生成器17により指定されたビット数フラグに基づいて指定ビット数でパッキングし、サンプリング周波数fsに応じたサンプル数でパッキングする。 A prediction residual of 6ch content selected by the 6D4, was packed in specified number bits based on the specified number of bits flag the selection signal / DTS generator 17, packing in a number of samples corresponding to the sampling frequency fs. すなわち、サンプリング周波数48kHzの場合にはサンプル数40を選び、サンプリング周波数96kHzの場合にはサンプル数80を選び、、192kHzの場合にはサンプル数80を選ぶようになっている。 That is, when the sampling frequency 48kHz is to select the sample number 40, when the sampling frequency 96kHz in the case of ,, 192 kHz to select the sample number 80 is adapted to select a sample number 80. またPTS生成器17cは、復号化側が出力バッファ110(図7)からPCMデータを取り出す時間を示すPTS(プレゼンテーション・タイム・スタンプ)を生成してフォーマット化回路19に出力する。 The PTS generator 17c outputs the formatting circuit 19 generates a PTS (presentation time stamp) to the decoding side exhibits an output buffer 110 time to retrieve the PCM data (FIG. 7).

【0015】続くフォーマット化回路19は図3〜図6 [0015] The following formatting circuit 19 FIGS. 3 to 6
に示すようなユーザデータにフォーマット化する。 Formatting the user data as shown in. 図3 Figure 3
に示すユーザデータ(サブパケット)は、前方グループに関する2ch「1」、「2」の予測符号化データを含む可変レートビットストリーム(サブストリーム)BS0 User data shown in (sub-packet) is, 2ch "1" for the front group, variable rate bit stream (sub stream) including predictive encoded data of "2" BS0
と、他のグループに関する4ch「3」〜「6」の予測符号化データを含む可変レートビットストリーム(サブストリーム)BS1と、サブストリームBS0、BS1の前に設けられたビットストリームヘッダ(リスタートヘッダ)により構成されている。 When a variable rate and bit stream (substream) BS1, sub-stream BS0, BS1 bit stream header (restart headers located before including predictive encoded data of 4ch "3" to "6" for the other group and it is made of). また、サブストリームB The sub-stream B
S0、BS1の1フレーム分は ・フレームヘッダと、 ・各ch「1」〜「6」の1フレームの先頭サンプルデータと、 ・各ch「1」〜「6」のサブフレーム毎の予測器選択フラグと、 ・各ch「1」〜「6」のサブフレーム毎のビット数フラグと、 ・各ch「1」〜「6」の予測残差データ列(可変ビット数)と、 ・ch「6」の係数aとが、多重化されている。 S0, BS1 1 frame of the frame header, and prediction unit selected for each sub-frame of each ch "1" ~ and top Sample data for one frame of the "6", - the ch "1" to "6" a flag, & the number of bits flag for each sub-frame of each ch "1" to "6", and - prediction residual data string of each ch "1" to "6" (the number of variable bits), - ch "6 factor "and a have been multiplexed. このような予測符号化によれば、原信号が例えばサンプリング周波数(fs)=96kHz、量子化ビット数(Qb)= According to such a predictive coding, the original signal is for example the sampling frequency (fs) = 96kHz, the quantized bit number (Qb) =
24ビット、6チャネルの場合、71%の圧縮率を実現することができる。 24 bits, in the case of 6-channel, it is possible to realize a 71% compression ratio.

【0016】図2に示す符号化部2'−1、2'−2により予測符号化された可変レートビットストリームデータを、記録媒体の一例としてDVDオーディオディスクに記録する場合には、図4に示すオーディオ(A)パックにパッキングされる。 [0016] The variable rate bit stream data predicted encoded by the encoding unit 2'-1,2'-2 shown in FIG. 2, when recording in the DVD audio disc as an example of a recording medium, in FIG. 4 It is packed in the audio (a) pack shown. このパックは2034バイトのユーザデータ(Aパケット、Vパケット)に対して4バイトのパックスタート情報と、6バイトのSCR(Syst This pack with 4-byte pack start information 2034 bytes of user data (A packets, V packet) to a 6-byte SCR (Syst
em Clock Reference:システム時刻基準参照値)情報と、3バイトのMux レート(rate)情報と1バイトのスタッフィングの合計14バイトのパックヘッダが付加されて構成されている(1パック=合計2048バイト)。 em Clock Reference: system time reference value) information and 3-byte Mux Rate (rate) information and a total of 14 bytes of pack header byte stuffing is constituted is added (1 pack = total 2048 bytes) . この場合、タイムスタンプであるSCR情報を、 In this case, the SCR information is a time stamp,
先頭パックでは「1」として同一タイトル内で連続とすることにより同一タイトル内のAパックの時間を管理することができる。 At the beginning pack it can be used to manage the A pack of time within the same title by a continuous in the same title as "1".

【0017】圧縮PCMのAパケットは図5に詳しく示すように、9〜22バイトのパケットヘッダと、圧縮P [0017] A packet of compressed PCM, as shown in detail in FIG. 5, a packet header of 9-22 bytes, compressed P
CMのプライベートヘッダと、図3に示すフォーマットの1ないし2015バイトのオーディオデータ(圧縮P And private header of CM, to 1 in the format shown in FIG. 3 2015 bytes of audio data (compressed P
CM)により構成されている。 It is constituted by CM). そして、DTSとPTS Then, DTS and PTS
は図5のパケットヘッダ内に(具体的にはパケットヘッダの10〜14バイト目にPTSが、15〜19バイト目にDTSが)セットされる。 (Specifically PTS 10-14 byte of packet header, the DTS in the 15-19 byte) in the packet header of FIG. 5 is set. 圧縮PCMのプライベートヘッダは、 ・1バイトのサブストリームIDと、 ・2バイトのUPC/EAN−ISRC(Universal Pr Private header compression PCM includes a sub-stream ID of-1 byte, the & 2 byte UPC / EAN-ISRC (Universal Pr
oduct Code/European Article Number-International S oduct Code / European Article Number-International S
tandard Recording Code)番号、及びUPC/EAN− tandard Recording Code) number, and UPC / EAN-
ISRCデータと、 ・1バイトのプライベートヘッダ長と、 ・2バイトの第1アクセスユニットポインタと、 ・4バイトのオーディオデータ情報(ADI)と、 ・0〜7バイトのスタッフィングバイトとに、より構成されている。 And ISRC data, a private header length, 1 byte, and the first access unit pointer, 2 bytes, and 2.4-byte audio data information (ADI), in the stuffing byte-0-7 bytes, is more configuration ing.

【0018】そして、ADI内に1秒後のアクセスユニットをサーチするための前方アクセスユニット・サーチポインタと、1秒前のアクセスユニットをサーチするための後方アクセスユニット・サーチポインタがともに1 [0018] Then, a front access unit search pointer for searching the access unit of one second later in the ADI, the rear access unit search pointer for searching the front of the access unit 1 second are both 1
バイトでセットされる。 It is set in bytes. 具体的には、ADIの1バイト目に前方アクセスユニット・サーチポインタが、8バイト目に後方アクセスユニット・サーチポインタがセットされる。 Specifically, the forward access unit search pointer to the first byte of the ADI is backward access unit search pointer is set to the eighth byte. このようにADIは、圧縮PCMでは4バイトに減少させるためオーディオデータを2015バイトまで収納できる。 The ADI As the audio data to reduce the 4 bytes for compressed PCM can hold up to 2015 bytes.

【0019】図5に示す圧縮PCM(PPCM)のオーディオパケットにおけるオーディオデータエリアは、図6に示すように複数のPPCMアクセスユニットにより構成され、PPCMアクセスユニットはPPCMシンク情報とサブパケットにより構成されている。 The audio data area in the audio packet compressed PCM (PPCM) shown in FIG. 5 is composed of a plurality of PPCM access unit as shown in FIG. 6, PPCM access unit is constituted by a PPCM sync information and sub-packet there. 最初のPP First of PP
CMアクセスユニット内のサブパケットは、ディレクトリと、サブストリーム「BS0」と、CRC(1バイト又は2バイト)と、サブストリーム「BS1」と、CR Subpackets in CM access unit includes a directory, a sub-stream "BS0", and CRC (1 byte or 2 bytes), a sub-stream "BS1", CR
Cとエクストラ情報により構成され、サブストリーム「BS0」、「BS1」はPPCMブロックのみにより構成されている。 Is composed of C and extra information, sub-stream "BS0", "BS1" is constituted only by PPCM block. 2番目以降のPPCMアクセスユニット内のサブパケットも、ディレクトリと、サブストリーム「BS0」と、CRCと、サブストリーム「BS1」 Subpackets in PPCM access unit of the second and subsequent also a directory, a sub-stream "BS0", and CRC, sub-stream "BS1"
と、CRCとエクストラ情報により構成され、サブストリーム「BS0」、「BS1」はリスタートヘッダとP When, is constituted by a CRC and extra information, sub-stream "BS0", "BS1" is the restart header P
PCMブロックにより構成されている。 It is constituted by the PCM block. このリスタートヘッダには前述のフレーム先頭サンプル値が格納され、 Frame start sample value described above is stored in this restart header,
このリスタートヘッダは一アクセスユニット毎に設けられるのではなく、数個毎のアクセスユニットに一つ設けられるようになっている。 The restart header rather than being provided for each one access unit, adapted to be mounted one on several every access unit. そして、エクストラ情報は、 Then, extra information,
少なくとも、サイズ調整機能を有している。 At least, and has a size adjustment function. すなわち、 That is,
入来データが固定レート(CBR)の場合には、上述したようにサンプリング周波数fsによって1パケット当たりのサンプリング数が40,80,160のいずれかに定められており、そのため、決定されたサンプリング数によっては1パケット当たりのデータ長とサブパケットのサイズとが合わない場合があり、それをサブパケットのサイズに合わせるために、例えば、0,0…等を付加してサイズ調整を行う。 If incoming data is fixed-rate (CBR), the number of samples per packet by the sampling frequency fs as described above has been defined in any of 40,80,160, therefore, the sampling number which is determined by some cases where the size of the data length and subpackets per packet does not fit, in order to match it to the size of sub-packets, for example, performs size adjustment by adding 0,0 ... like. また、このサイズ調整用のデータはテキストデータ等を利用することも可能である。 The data of this size for adjustment it is also possible to use the text data and the like.

【0020】PPCMシンク情報(以下、同期情報ともいう)は次の情報を含む。 [0020] PPCM sync information (hereinafter also referred to as synchronization information) includes the following information. ・1パケット当たりのサンプル数:サンプリング周波数fsに応じて40、80又は160が選択される。 - 1 samples per packet: 40, 80 or 160 is selected in accordance with the sampling frequency fs. ・データレートがVBRの場合には「0」(サブパケット内のデータがVBRの圧縮データであることを示す識別子)、CBRの場合には「1」(サブパケット内のデータが固定レートであることを示す識別子) ・サンプリング周波数fs及び量子化ビット数Qb ・チャネル割り当て情報 · If the data rate is VBR is "0" (identifier indicating that the data in the sub-packet is compressed data of VBR), in the case of CBR is a "1" (data fixed rate in the sub-packet identifier) ​​sampling frequency fs and a quantization bit number Qb-channel allocation information indicating that

【0021】次に図7を参照して復号化部3'−1、 [0021] Referring next to decoder 7 3'-1,
3'−2について説明する。 For 3'-2 will be described. 上記フォーマットのパックヘッダと可変レートビットストリームデータBS0、B Pack header of the format and variable rate bit stream data BS0, B
S1は、デフォーマット化回路21により分離される。 S1 is demultiplexed by formatting circuit 21.
そして、各ch「1」〜「6」の1フレームの先頭サンプルデータ含むリスタートヘッダ、予測器選択フラグ、 Each ch "1" ~ 1 frame "6" top Sample data including the restart header, predictor selection flag,
各ch「1」〜「6」のビット数フラグ、SCR、DT Bits flag for each ch "1" to "6", SCR, DT
S、チャンネル割り当て情報及び予測残差データ列が入力バッファ22aに印加され、PTSは出力バッファ1 S, the channel assignment information and the prediction residual data sequence is applied to the input buffer 22a, PTS output buffer 1
10に印加される。 It is applied to the 10. そして、これらの情報はアンパッキング回路22に印加され、チャンネル割り当て情報に応じて使用される各予測回路24D1,24D2,23D And these information are applied to the unpacking circuit 22, the prediction circuit used in accordance with the channel assignment information 24D1,24D2,23D
1〜23D4が決定されるようになっている。 1~23D4 is adapted to be determined. 例えば、 For example,
6チャンネルの割り当て情報であれば、全部の予測回路が使用され、6チャンネルのデータが繰り返し供給され、5チャンネルの割り当て情報であれば、5チャンネルのデータが繰り返し供給されるよになっている。 If 6-channel allocation information, is used all the prediction circuit is supplied repeatedly 6-channel data, if the 5-channel allocation information, has become Yo five channels of data are repeatedly supplied. また、割り当て情報はマルチチャンネルの情報だけに限らず、ステレオ2チャンネルの情報の場合もあり得、その場合には予測回路24D1,24D2が使用される。 Further, allocation information is not limited to information of the multi-channel, resulting in some cases stereo 2 channels of information, in which case the prediction circuit 24D1,24D2 used. また、データレートがVBRかCBRかを示す識別子は各予測器24D1、24D2、23D1、23D2、23 Further, the identifier data rate indicates VBR or CBR Each predictor 24D1,24D2,23D1,23D2,23
D3、23D4に印加され、これらにおいて識別子に応じた入出力データの処理プログラムが決定されてデータの取り込み速度の制御がなされることになる。 It is applied to D3,23D4, so that the control of the uptake rate of the data is determined output data of the processing program in accordance with the identifier in these is made. VBRである場合には処理プログラムを切り換えると共に入力データを毎回ロードする必要があり処理に時間を要することになるが、CBRの場合には固定レートであることから処理プログラムを切り換える必要がなく処理が速くなる。 If it is VBR is it takes time to input data switches the program each time it is necessary to load process, the process is not necessary to switch the processing programs from a fixed rate in the case of CBR is faster. そして、選択された各予測器ではリスタートヘッダ内のフレーム先頭サンプル値に基づいて予測算差が計算されることになる。 Then, so that the prediction calculation difference is calculated based on the frame start sample value in the restart header in each predictor selected. また、サンプリング周波数fs及び量子化ビット数QbはD/A変換器102に印加される。 The sampling frequency fs and a quantization bit number Qb is applied to the D / A converter 102. ここで、予測回路24D1、24D2、23D1〜 Here, the prediction circuit 24D1,24D2,23D1~
23D4内の複数の予測器(不図示)はそれぞれ、符号化側の予測回路13D1、13D2、15D1〜15D A plurality of predictors in 23D4 (not shown) each prediction circuit of the encoding side 13D1,13D2,15D1~15D
4内の複数の予測器と同一の特性であり、予測器選択フラグにより同一特性のものが選択される。 Have the same characteristics and a plurality of predictor 4, of the same characteristics are selected by the predictor selection flag.

【0022】デフォーマット化回路21により、最初オーディオパックからオーディオパケットが分離され、次にオーディオパケットからストリームデータ(予測残差データ列)が分離されてビットストリームBS0とBS [0022] By de-formatting circuit 21, the audio packet are separated from the first audio pack, then the stream data from the audio packet (prediction residual data sequence) is separated by the bit stream BS0 and BS
1が取り出される。 1 is taken out. またSCRが取り出され、図8に示すようにSCRによるタイミングにしたがってアクセスユニット毎に入力バッファ22aに取り込まれて蓄積される。 The SCR is extracted and stored is incorporated in the input buffer 22a for each access unit in accordance with the timing by SCR as shown in FIG. ここで、1つのアクセスユニットのデータ量は、 Here, the data amount of one access unit,
例えばfs=96kHzの場合には(1/96kHz) For example in the case of fs = 96kHz (1 / 96kHz)
秒分であるが、図9、図10(a)に詳しく示すように可変長である。 Is a second fraction, FIG. 9, a variable length as shown in detail in Figure 10 (a). そして、入力バッファ22aに蓄積されたストリームデータはDTSに基づいてFIFOで読み出されてアンパッキング回路22に印加される。 The stream data stored in the input buffer 22a is applied is read in FIFO based on the DTS in the unpacking circuit 22.

【0023】アンパッキング回路22は各ch「1」〜 [0023] The unpacking circuit 22 each ch "1" to
「6」の予測残差データ列をビット数フラグ毎に基づいて分離してそれぞれ予測回路24D1、24D2、23 Each prediction circuit and separated based prediction residual data string of "6" for each bit number of the flag 24D1,24D2,23
D1〜23D4に出力する。 And outputs it to the D1~23D4. 予測回路24D1、24D Prediction circuit 24D1,24D
2、23D1〜23D4ではそれぞれ、アンパッキング回路22からの各ch「1」〜「6」の今回の予測残差データと、内部の複数の予測器の内、予測器選択フラグにより選択された各1つにより予測された前回の予測値が加算されて今回の予測値が算出され、次いで1フレームの先頭サンプルデータを基準として各サンプルのPC In 2,23D1~23D4 respectively, and the current prediction residual data of each ch "1" to "6" from the unpacking circuit 22, among the internal multiple predictors, each selected by the predictor selection flag last predicted value predicted by one is calculated predicted value of the present is added, and then each sample PC relative to the top sample data for one frame
Mデータが算出されて出力バッファ110に蓄積される。 M data is being calculated accumulated in the output buffer 110. 出力バッファ110に蓄積されたPCMデータはP PCM data stored in the output buffer 110 P
TSに基づいて読み出されて出力され、したがって、図10(a)に示す可変長のアクセスユニットが伸長されて、図10(b)に示す一定長のプレゼンテーションユニットが出力される。 Output is read on the basis of the TS, therefore, is a variable length of the access unit is extended as shown in FIG. 10 (a), the fixed length presentation units shown in FIG. 10 (b) is output.

【0024】また、PPCMシンク情報内のサンプリング周波数fs及び量子化ビット数Qbに基づいて、PC Further, based on the sampling frequency fs and a quantization bit number Qb in PPCM sync information, PC
MデータがD/A変換器102によりアナログ信号に変換される。 M data is converted into an analog signal by a D / A converter 102. また、同時にPPCMシンク情報においてC In addition, C at the same time PPCM sync information
BRの識別子が検出され、ディレクトリ内のエクストラデータの位置が検出されて、更に例えば0,0…のデータや、テキストデータ等のサイズ調整用のエクストラデータが検出されると、それがテキストデータである場合にはエクストラデータをこのアンパッキング回路22から図示しないテキストデータデコード回路に供給し、そこで、デコード処理をしてテキストデータとして取り出し、出力バッファ110を通じて出力されることになる。 BR identifier is detected, the position of the extra data in the directory is detected, and further for example 0,0 ... of data and the extra data for the sizing of such text data is detected, it is text data supplying extra data in some cases the text data decoding circuit (not shown) from the unpacking circuit 22, where, takes out the text data by the decoding process, and is output through the output buffer 110. また一方、エクストラデータが0,0…データであった場合には、何の処理も施されないようになっている。 On the other hand, if the extra data was 0,0 ... data, so as not been subjected to any treatment. また、テキストデータデコーダ回路が用意されていない場合には、この処理はパスされる。 Further, if the text data decoder circuit is not prepared, the process is passed. また、ここで、 In addition, here,
操作部101を介してサーチ再生が指示された場合には、制御部100により図5に示す前方アクセスユニット・サーチポインタ(1秒先)と後方アクセスユニット・サーチポインタ(1秒前)に基づいてアクセスユニットを再生する。 When via the operation unit 101 searches reproduction is instructed, based on the forward access unit search pointer shown in FIG. 5 by the control unit 100 (1 seconds ahead) and backward access unit search pointers (one second ago) Play the access unit. このサーチポインタとしては、1秒先、 As the search pointer, 1 seconds ahead,
1秒前の代わりに2秒先、2秒前のものでよい。 2 seconds ahead instead of one second before, may be of the previous 2 seconds.

【0025】図2に示す符号化部2'−1、2'−2により予測符号化された可変レートビットストリームデータをネットワークを介して伝送する場合には、符号化側では図11に示すように伝送用にパケット化し(ステップS41)、次いでパケットヘッダを付与し(ステップS42)、次いでこのパケットをネットワーク上に送り出す(ステップS43)。 [0025] When the variable rate bit stream data predicted encoded by the encoding unit 2'-1,2'-2 shown in FIG. 2 for transmission over the network, the encoding side as shown in FIG. 11 packetized for transmission (step S41), then the packet header grant (step S42), then sends the packet on the network (step S43).

【0026】復号側では図12(A)に示すようにヘッダを除去し(ステップS51)、次いでデータを復元し(ステップS52)、次いでこのデータをメモリに格納して復号を待つ(ステップS53)。 [0026] On the decoding side removes the header as shown in FIG. 12 (A) (step S51), then restore the data (step S52), and then waits for the decoding and stores this data in the memory (step S53) . そして、復号を行う場合には図12(B)に示すように、デフォーマット化を行い(ステップS61)、次いで入力バッファ22 Then, as shown in FIG. 12 (B) in the case of performing the decoding, performs a de-formatting (step S61), then the input buffer 22
aの入出力制御を行い(ステップS62)、次いでアンパッキングを行う(ステップS63)。 It performs output control of a (step S62), followed by a unpacking (step S63). なお、このとき、サーチ再生指示がある場合にはサーチポインタをデコードする。 At this time, if there is a search reproduction instruction to decode the search pointer. 次いで予測器をフラグに基づいて選択してデコードを行い(ステップS64)、次いで出力バッファ110の入出力制御を行い(ステップS65)、次いで元のマルチチャネルを復元し(ステップS66)、次いでこれを出力し(ステップS67)、以下、これを繰り返す。 Then decodes and selected based predictor flag (step S64), and then performs the output control of the output buffer 110 (step S65), then restores the original multi-channel (step S66), then this outputs (step S67), hereinafter repeated.

【0027】なお、上記実施形態では、前方グループに関する2ch「1」、「2」を 「1」=Lf+Rf 「2」=Lf−Rf により変換して予測符号化したが、代わりに式(2)によりマルチチャネルをダウンミクスしてステレオ2chデータ(L、R)を生成し、次いで次式(1)' 「1」=L+R 「2」=L−R 「3」〜「5」は同じ 「6」=Lfe−C …(1)' により変換して予測符号化するようにしてもよい(第2 [0027] In the above embodiment, 2ch "1" for the front group, "2" and "1" = Lf + Rf "2" = converted by Lf-Rf was predictive coding, instead Equation (2) and a multi-channel down-mix to generate the stereo 2ch data (L, R) by then following expression (1) ' "1" = L + R "2" = L-R "3" to "5" the same "6 "= Lfe-C ... (1) may be predictive coding to convert a '(second
の実施形態)。 Embodiment). この場合には、復号化側のミクス&マトリクス回路4'はチャネル「1」、「2」を加算することによりチャネルLを、減算することによりチャネルR In this case, the decoding side-mix & matrix circuit 4 'channel "1", channel by channel L, is subtracted by adding "2" R
を生成することができる。 It can be generated.

【0028】また、第3の実施形態として図13に示すように、2ch「1」、「2」の代わりに式(2)によりマルチチャネルをダウンミクスしてステレオ2chデータ(L、R)を生成して、このステレオ2ch(L、R)と4ch「3」〜「6」を予測符号化するようにしてもよい。 Further, as shown in FIG. 13 as a third embodiment, 2ch "1", the stereo 2ch data (L, R) with a multi-channel down-mix by Equation (2) instead of "2" generated, this stereo 2ch (L, R) and 4ch "3" - "6" may be predictive coding. なお、第2、第3の実施形態では、フロントレフト(Lf)とフロントライト(Rf)が復号化側に伝送されないので、復号化側ではこれを式(1)、(2)により生成する。 In the second, the third embodiment, since the front left (Lf) and a front light (Rf) is not transmitted to the decoding side, the decoding side which equation (1), generated by (2).

【0029】次に図14、図15、図16を参照して第4の実施形態について説明する。 [0029] Next 14, 15, a fourth embodiment will be described with reference to FIG. 16. 上記の実施形態では、 In the above embodiment,
1グループの相関性の信号「1」〜「6」を予測符号化するように構成されているが、この第4の実施形態では複数グループの相関性のある信号を生成して予測符号化し、圧縮率が最も高いグループの予測符号化データを選択するように構成されている。 1 correlation signal "1" of the group, but-are configured to prediction encoding to "6", and prediction coding to generate a correlation of certain signals of multiple groups in this fourth embodiment, and it is configured so that the compression rate to select a predictive coding data of the highest group. また、この実施例ではその1グループ内における符号化は、前述の各実施例の場合のように前方グループに関する2chと他のグループに関する4chに分類して変換するようなことはせずに、一つにまとめた符号化処理が行われる構成で、図1 The encoding of Part 1 in a group in this embodiment, without it, such as converting classified into 4ch about 2ch and other groups for Upcoming group as in the embodiments described above, one in configuration One Summary encoding process is performed, FIG. 1
4は前述の図1に対応した図として示してある。 4 is shown as view corresponding to Figure 1 above. また、 Also,
図15は符号化部の詳細ブロックを示すものであるが、 Although FIG. 15 shows a detailed block of the encoding unit,
本実施例の場合にはn個の相関回路1−1〜1−nまでが、ミクス&マトリクス回路1'側に設けられている。 In the case of this embodiment up to n correlation circuits 1-1 to 1-n are provided to mix & matrix circuit 1 'side.
これらn個の相関回路1−1〜1−nは例えば6ch(L These n pieces of correlation circuits 1-1 to 1-n, for example 6ch (L
f、C、Rf、Ls、Rs、Lfe)のPCMデータを、相関性が異なるn種類の6ch信号「1」〜「6」に変換する。 f, converting C, Rf, Ls, Rs, the PCM data of Lfe), the n type of 6ch signal correlated different "1" to "6".

【0030】例えば第1の相関回路1−1は以下のように変換し、 「1」=Lf 「2」=C−(Ls+Rs)/2 「3」=Rf−Lf 「4」=Ls−a×Lfe 「5」=Rs−b×Rf 「6」=Lfe また、第nの相関回路1−nは以下のように変換する。 [0030] For example, the first correlation circuit 1-1 is converted as follows, "1" = Lf "2" = C- (Ls + Rs) / 2 "3" = Rf-Lf "4" = Ls-a × Lfe "5" = Rs-b × Rf "6" = Lfe also, correlation circuit 1-n of the n is converted as follows. 「1」=Lf+Rf 「2」=C−Lf 「3」=Rf−Lf 「4」=Ls−Lf 「5」=Rs−Lf 「6」=Lfe−C "1" = Lf + Rf "2" = C-Lf "3" = Rf-Lf "4" = Ls-Lf "5" = Rs-Lf "6" = Lfe-C

【0031】また、相関回路1−1〜1−n毎に予測回路15とバッファ・選択器16が設けられ、グループ毎の予測残差の最小値のデータ量に基づいて圧縮率が最も高いグループが相関選択信号生成器17bにより選択される。 Further, correlation circuit 1-1 to 1-n for each prediction circuit 15 and the buffer selector 16 is provided, the highest group compression ratio based on the data amount of the minimum value of the prediction residual for each group There are selected by a correlation selection signal generator 17b. このとき、フォーマット化回路19はその選択フラグ(相関回路選択フラグ、その相関回路の相関係数a、b)を追加して多重化する。 At this time, the formatting circuit 19 multiplexes and adds the selected flag (correlation circuit selection flag, the correlation coefficient of the correlation circuit a, b) and.

【0032】そして、図16は前述の図6に対応したデータエリアを示し、この実施例ではサブストリーム「B [0032] Then, FIG. 16 shows a data area corresponding to FIG. 6 described above, the sub-stream "B in this embodiment
S1」を用いず、サブストリーム「BS0」のみで構成することになる。 S1 "without using, constitute only substream" BS0 ".

【0033】また、図17に示す復号化側では、符号化側の相関回路1−1〜1−nに対してn個の相関回路4 Further, in the decoding side of FIG. 17, n pieces of the correlation circuit 4 with respect to the correlation circuits 1-1 to 1-n of the encoding side
−1〜4−n(又は係数a、bが変更可能な図示省略の1つの相関回路)が設けられる。 -1 to 4-n (or coefficients a, 1 single correlation circuit of b is changeable not shown) is provided. なお、図15に示すn Incidentally, n shown in FIG. 15
グループの予測回路が同一の構成である場合、復号装置では図17に示すようにnグループ分の予測回路を設ける必要はなく、1つのグループ分の予測回路でよい。 If the prediction circuit of the group is the same configuration, it is not necessary to provide a prediction circuit of n groups content as shown in FIG. 17 is a decoding apparatus may be a prediction circuit of one group component. そして、符号化装置から伝送された選択フラグに基づいて相関回路4−1〜4−nの1つを選択、又は係数a、b Then, select one of the correlation circuits 4-1 to 4-n on the basis of the selection flag transmitted from the encoding device, or coefficients a, b
を設定して元の6ch(Lf、C、Rf、Ls、Rs、L Set the original 6ch (Lf, C, Rf, Ls, Rs, L
fe)を復元し、また、式(2)によりマルチチャネルをダウンミクスしてステレオ2chデータ(L、R)を生成する。 fe) Restore, also generates stereo 2ch data multichannel down-mix (L, R) by the equation (2).

【0034】また、上記の第1の実施形態では、1種類の相関性の信号「1」〜「6」を予測符号化するように構成されているが、この信号「1」〜「6」のグループと原信号(Lf、C、Rf、Ls、Rs、Lfe)のグループを予測符号化し、圧縮率が高い方のグループを選択するようにしてもよい。 [0034] In the first embodiment described above, one correlation signal of "1" to "6" and is configured so as to prediction encoding, the signal "1" to "6" groups and the original signal (Lf, C, Rf, Ls, Rs, Lfe) and predictive coding groups of the compression ratio may be selected a group of higher.

【0035】 [0035]

【発明の効果】以上説明したように本発明によれば、より圧縮効率の改善が図れると共に、圧縮処理された音声信号をより正確に復号することが可能になる。 According to the present invention as described in the foregoing, together with a more improved compression efficiency can be achieved, it is possible to decode the compressed audio signal more accurately.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明が適用される音声符号化装置及び音声復号装置の第1の実施形態を示すブロック図である。 1 is a block diagram showing a first embodiment of the present invention the audio code is applied apparatus and speech decoding apparatus.

【図2】図1の符号化部を詳しく示すブロック図である。 2 is a block diagram showing in detail a coding unit of FIG.

【図3】図1、図2の符号化部により符号化されたビットストリームを示す説明図である。 [3] FIG. 1 is an explanatory diagram showing a coded bit stream by the encoding unit of FIG.

【図4】DVDのパックのフォーマットを示す説明図である。 FIG. 4 is an explanatory view showing a format of a pack of DVD.

【図5】DVDのオーディオパックのフォーマットを示す説明図である。 FIG. 5 is an explanatory view showing a format of an audio pack of DVD.

【図6】図5のオーディオデータエリアのフォーマットを詳しく示す説明図である。 6 is an explanatory view showing in detail a format of audio data area in FIG.

【図7】図1の復号化部を詳しく示すブロック図である。 7 is a block diagram showing in detail the decoding unit of FIG.

【図8】図7の入力バッファの書き込み/読み出しタイミングを示すタイミングチャートである。 8 is a timing chart showing a write / read timing of the input buffer of Figure 7.

【図9】アクセスユニット毎の圧縮データ量を示す説明図である。 9 is an explanatory diagram showing a compression data quantity for each access unit.

【図10】アクセスユニットとプレゼンテーションユニットを示す説明図である。 10 is an explanatory diagram showing an access unit and a presentation unit.

【図11】音声伝送方法を示すフローチャートである。 11 is a flowchart illustrating a speech transmission method.

【図12】音声伝送方法を示すフローチャートである。 12 is a flowchart illustrating a speech transmission method.

【図13】本発明が適用される音声符号化装置及び音声復号装置の第3の実施形態のを示すブロック図である。 13 is a block diagram showing a the third embodiment of the present invention is the speech coding apparatus is applied and speech decoding apparatus.

【図14】本発明が適用される音声符号化装置及び音声復号装置の第4の実施形態のを示すブロック図である。 14 is a block diagram showing a the fourth embodiment of the present invention is the speech coding apparatus is applied and speech decoding apparatus.

【図15】第4の実施形態の音声符号化装置を示すブロック図である。 15 is a block diagram showing a speech coding apparatus of the fourth embodiment.

【図16】図6に対応した別の実施例の説明図である。 16 is an explanatory diagram of another embodiment corresponding to FIG.

【図17】第4の実施形態の音声復号装置を示すブロック図である。 17 is a block diagram showing a speech decoding apparatus of the fourth embodiment.

【符号の説明】 DESCRIPTION OF SYMBOLS

1' 6chミクス&マトリクス回路 13D1,13D2,15D1〜15D4 予測回路(バッファ・選択器14D1,14D2,16D1〜1 1 '6ch mix and matrix circuit 13D1,13D2,15D1~15D4 prediction circuit (buffer selector 14D1,14D2,16D1~1
6D4と共に圧縮手段を構成する。 Constituting the compression means with 6D4. ) 14D1,14D2,16D1〜16D4 バッファ・ ) 14D1,14D2,16D1~16D4 buffer
選択器 17 選択信号/DTS生成器(タイミング生成手段) 17c PTS生成器(タイミング生成手段) 19 フォーマット化回路(フォーマット化手段) 21 デフォーマット化回路(分離手段) 22 アンパッキング回路 22a 入力バッファ 24D1,24D2,23D1〜23D4 予測回路(伸長手段) 100 制御部 102 D/A変換器 110 出力バッファ Selector 17 selects signal / DTS generator (timing generating means) 17c PTS generator (timing generating means) 19 formatting circuit (formatting means) 21 de formatting circuit (separation means) 22 unpacking circuit 22a input buffer 24 d 1, 24D2,23D1~23D4 prediction circuit (expansion means) 100 control unit 102 D / A converter 110 output buffer

Claims (2)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】マルチチャネルの音声信号を、そのままのチャネル又は互いに相関をとったチャネル毎に入力される音声信号に応答して先頭サンプル値を所定時間のフレーム単位で得ると共に、時間領域の過去の信号から予測される現在の信号の複数の予測値の中でその予測残差が最小値となる線形予測方法を前記フレームを更に分割したサブフレーム単位に選択して予測符号化するステップと、 前記ステップにより選択されたチャネル毎の予測符号化データを含むサブパケットと、そのサブパケットに対応した同期情報部とで形成した一つのアクセスユニットと、そのサブパケット内に前記サブパケットに対応したサブストリームを少なくとも含み、このサブストリーム内に前記アクセスユニットの数個毎にリスタート情報部を設けたデータ The method according to claim 1. A multi-channel audio signals, together with obtaining the top sample values ​​in a frame unit for a predetermined time in response to the audio signal input to each channel taken intact channel or correlated, past time domain and predicting encodes the linear prediction method prediction residual is a minimum value selected subframe obtained by further dividing the frame in the plurality of prediction values ​​current signal is predicted from the signal, a subpacket including predictive coding data for each channel selected in the step, and one access unit formed by a synchronous data portion corresponding to the sub-packet, sub corresponding to the sub-packet within the sub-packet at least comprises a stream data in which a restart information unit into several each of the access units in the substream 構造にフォーマット化するステップと、 A step of formatting the structure,
    からなる音声符号化方法。 Speech coding method comprising.
  2. 【請求項2】マルチチャネルの音声信号を、そのままのチャネル又は互いに相関をとったチャネル毎に入力される音声信号に応答して先頭サンプル値を得ると共に、時間領域の過去の信号から予測される現在の信号の複数の予測値の中でその予測残差が最小値となる線形予測方法を選択して予測符号化するステップと、 前記ステップにより選択されたチャネル毎の予測符号化データを含むサブパケットと、そのサブパケットに対応した同期情報部とで形成した一つのアクセスユニットと、そのサブパケット内に前記サブパケットに対応したサブストリームを少なくとも含み、このサブストリーム内に前記アクセスユニットの数個毎にリスタート情報部を設けたデータ構造にフォーマット化するステップと、 2. A method of multi-channel audio signals, together with obtaining the top Sample value in response to the audio signal input to each channel taken intact channel or correlated, is predicted from past signal in the time domain and predicting coding the prediction residual selects the linear prediction method having the minimum value among the plurality of predicted values ​​of the current signal, the sub comprising a predictive encoded data of each channel selected by the step a packet comprises a single access unit formed by a synchronous data portion corresponding to the sub-packet, a sub-stream corresponding to the sub-packet within the sub-packet at least, several of the access unit in this substream a step of formatting the data structure in which a restart information section for each,
    からなる音声符号化方法により符号化されたデータから元の音声信号を復号する音声復号方法であって、 前記データ構造をサブパケットと同期情報部に分離するステップと、 前記サブパケット内の予測符号化データを前記リスタート情報部内の情報に基づいてチャネル毎に伸長するステップと、 前記伸長された音声データから前記マルチチャネルの音声信号に変換するステップと、からなる音声復号方法。 A speech decoding method for decoding the original audio signal from the encoded data by the speech coding method comprising the steps of separating the data structure in the sub-packets and synchronization information unit, predictive coding in said sub-packet steps and, a step of converting from said decompressed audio data to the audio signal of the multi channel audio decoding method comprising extending each channel on the basis of data on the information in the restart information unit.
JP2000325684A 1998-11-16 2000-10-25 Speech coding method and speech decoding method Active JP3346556B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP34235298 1998-11-16
JP10-342352 1998-11-16
JP2000325684A JP3346556B2 (en) 1998-11-16 2000-10-25 Speech coding method and speech decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000325684A JP3346556B2 (en) 1998-11-16 2000-10-25 Speech coding method and speech decoding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP11325958 Division

Publications (2)

Publication Number Publication Date
JP2001188578A true true JP2001188578A (en) 2001-07-10
JP3346556B2 JP3346556B2 (en) 2002-11-18

Family

ID=26577231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000325684A Active JP3346556B2 (en) 1998-11-16 2000-10-25 Speech coding method and speech decoding method

Country Status (1)

Country Link
JP (1) JP3346556B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007027056A1 (en) * 2005-08-30 2007-03-08 Lg Electronics Inc. A method for decoding an audio signal
WO2007032646A1 (en) * 2005-09-14 2007-03-22 Lg Electronics Inc. Method and apparatus for decoding an audio signal
KR100880643B1 (en) 2005-08-30 2009-01-30 엘지전자 주식회사 Method and apparatus for decoding an audio signal
US7643561B2 (en) 2005-10-05 2010-01-05 Lg Electronics Inc. Signal processing using pilot based coding
US7646319B2 (en) 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7653533B2 (en) 2005-10-24 2010-01-26 Lg Electronics Inc. Removing time delays in signal paths
US7663513B2 (en) 2005-10-05 2010-02-16 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
US7696907B2 (en) 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7751485B2 (en) 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7752053B2 (en) 2006-01-13 2010-07-06 Lg Electronics Inc. Audio signal processing using pilot based coding
US7761303B2 (en) 2005-08-30 2010-07-20 Lg Electronics Inc. Slot position coding of TTT syntax of spatial audio coding application
US7797163B2 (en) 2006-08-18 2010-09-14 Lg Electronics Inc. Apparatus for processing media signal and method thereof
US7881817B2 (en) 2006-02-23 2011-02-01 Lg Electronics Inc. Method and apparatus for processing an audio signal
US8090586B2 (en) 2005-05-26 2012-01-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US8160258B2 (en) 2006-02-07 2012-04-17 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
US8208641B2 (en) 2006-01-19 2012-06-26 Lg Electronics Inc. Method and apparatus for processing a media signal
US8214221B2 (en) 2005-06-30 2012-07-03 Lg Electronics Inc. Method and apparatus for decoding an audio signal and identifying information included in the audio signal
US8239209B2 (en) 2006-01-19 2012-08-07 Lg Electronics Inc. Method and apparatus for decoding an audio signal using a rendering parameter
US8626515B2 (en) 2006-03-30 2014-01-07 Lg Electronics Inc. Apparatus for processing media signal and method thereof
US8917874B2 (en) 2005-05-26 2014-12-23 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US9595267B2 (en) 2005-05-26 2017-03-14 Lg Electronics Inc. Method and apparatus for decoding an audio signal

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8150701B2 (en) 2005-05-26 2012-04-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US8090586B2 (en) 2005-05-26 2012-01-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US8170883B2 (en) 2005-05-26 2012-05-01 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US9595267B2 (en) 2005-05-26 2017-03-14 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US8214220B2 (en) 2005-05-26 2012-07-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
US8917874B2 (en) 2005-05-26 2014-12-23 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US8214221B2 (en) 2005-06-30 2012-07-03 Lg Electronics Inc. Method and apparatus for decoding an audio signal and identifying information included in the audio signal
US7765104B2 (en) 2005-08-30 2010-07-27 Lg Electronics Inc. Slot position coding of residual signals of spatial audio coding application
WO2007027056A1 (en) * 2005-08-30 2007-03-08 Lg Electronics Inc. A method for decoding an audio signal
KR100880643B1 (en) 2005-08-30 2009-01-30 엘지전자 주식회사 Method and apparatus for decoding an audio signal
WO2007027055A1 (en) * 2005-08-30 2007-03-08 Lg Electronics Inc. A method for decoding an audio signal
US8165889B2 (en) 2005-08-30 2012-04-24 Lg Electronics Inc. Slot position coding of TTT syntax of spatial audio coding application
US8103514B2 (en) 2005-08-30 2012-01-24 Lg Electronics Inc. Slot position coding of OTT syntax of spatial audio coding application
US8103513B2 (en) 2005-08-30 2012-01-24 Lg Electronics Inc. Slot position coding of syntax of spatial audio application
WO2007027057A1 (en) * 2005-08-30 2007-03-08 Lg Electronics Inc. A method for decoding an audio signal
US8082158B2 (en) 2005-08-30 2011-12-20 Lg Electronics Inc. Time slot position coding of multiple frame types
US7831435B2 (en) 2005-08-30 2010-11-09 Lg Electronics Inc. Slot position coding of OTT syntax of spatial audio coding application
US8060374B2 (en) 2005-08-30 2011-11-15 Lg Electronics Inc. Slot position coding of residual signals of spatial audio coding application
US7792668B2 (en) 2005-08-30 2010-09-07 Lg Electronics Inc. Slot position coding for non-guided spatial audio coding
US7783493B2 (en) 2005-08-30 2010-08-24 Lg Electronics Inc. Slot position coding of syntax of spatial audio application
US7783494B2 (en) 2005-08-30 2010-08-24 Lg Electronics Inc. Time slot position coding
US7761303B2 (en) 2005-08-30 2010-07-20 Lg Electronics Inc. Slot position coding of TTT syntax of spatial audio coding application
US7822616B2 (en) 2005-08-30 2010-10-26 Lg Electronics Inc. Time slot position coding of multiple frame types
KR101169280B1 (en) 2005-08-30 2012-08-02 엘지전자 주식회사 Method and apparatus for decoding an audio signal
WO2007032646A1 (en) * 2005-09-14 2007-03-22 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US9747905B2 (en) 2005-09-14 2017-08-29 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US7696907B2 (en) 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7751485B2 (en) 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7643561B2 (en) 2005-10-05 2010-01-05 Lg Electronics Inc. Signal processing using pilot based coding
US7643562B2 (en) 2005-10-05 2010-01-05 Lg Electronics Inc. Signal processing using pilot based coding
US7660358B2 (en) 2005-10-05 2010-02-09 Lg Electronics Inc. Signal processing using pilot based coding
US7663513B2 (en) 2005-10-05 2010-02-16 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
US7756702B2 (en) 2005-10-05 2010-07-13 Lg Electronics Inc. Signal processing using pilot based coding
US7671766B2 (en) 2005-10-05 2010-03-02 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7675977B2 (en) 2005-10-05 2010-03-09 Lg Electronics Inc. Method and apparatus for processing audio signal
US7680194B2 (en) 2005-10-05 2010-03-16 Lg Electronics Inc. Method and apparatus for signal processing, encoding, and decoding
US7774199B2 (en) 2005-10-05 2010-08-10 Lg Electronics Inc. Signal processing using pilot based coding
US7646319B2 (en) 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7840401B2 (en) 2005-10-24 2010-11-23 Lg Electronics Inc. Removing time delays in signal paths
US8095358B2 (en) 2005-10-24 2012-01-10 Lg Electronics Inc. Removing time delays in signal paths
US8095357B2 (en) 2005-10-24 2012-01-10 Lg Electronics Inc. Removing time delays in signal paths
US7742913B2 (en) 2005-10-24 2010-06-22 Lg Electronics Inc. Removing time delays in signal paths
US7653533B2 (en) 2005-10-24 2010-01-26 Lg Electronics Inc. Removing time delays in signal paths
US7716043B2 (en) 2005-10-24 2010-05-11 Lg Electronics Inc. Removing time delays in signal paths
US7761289B2 (en) 2005-10-24 2010-07-20 Lg Electronics Inc. Removing time delays in signal paths
US7752053B2 (en) 2006-01-13 2010-07-06 Lg Electronics Inc. Audio signal processing using pilot based coding
US8208641B2 (en) 2006-01-19 2012-06-26 Lg Electronics Inc. Method and apparatus for processing a media signal
US8296155B2 (en) 2006-01-19 2012-10-23 Lg Electronics Inc. Method and apparatus for decoding a signal
US8239209B2 (en) 2006-01-19 2012-08-07 Lg Electronics Inc. Method and apparatus for decoding an audio signal using a rendering parameter
US9626976B2 (en) 2006-02-07 2017-04-18 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
US8160258B2 (en) 2006-02-07 2012-04-17 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
US7991495B2 (en) 2006-02-23 2011-08-02 Lg Electronics Inc. Method and apparatus for processing an audio signal
US7974287B2 (en) 2006-02-23 2011-07-05 Lg Electronics Inc. Method and apparatus for processing an audio signal
US7991494B2 (en) 2006-02-23 2011-08-02 Lg Electronics Inc. Method and apparatus for processing an audio signal
US7881817B2 (en) 2006-02-23 2011-02-01 Lg Electronics Inc. Method and apparatus for processing an audio signal
US8626515B2 (en) 2006-03-30 2014-01-07 Lg Electronics Inc. Apparatus for processing media signal and method thereof
US7797163B2 (en) 2006-08-18 2010-09-14 Lg Electronics Inc. Apparatus for processing media signal and method thereof

Also Published As

Publication number Publication date Type
JP3346556B2 (en) 2002-11-18 grant

Similar Documents

Publication Publication Date Title
EP1001549A2 (en) Audio signal processing apparatus
JP2006323408A (en) Audio encoding method and audio decoding method
JP2001188578A (en) Voice coding method and voice decoding method
US6678652B2 (en) Audio signal processing apparatus
JP3341992B2 (en) Optical recording medium, the audio decoding apparatus
JP3342001B2 (en) Recording medium, the audio decoding apparatus
JP3865254B2 (en) Speech coding method and speech decoding method
JP5035459B2 (en) Audio signal transmission apparatus, the audio signal receiving apparatus and the audio signal transmission system
JP3864985B2 (en) Speech coding method and speech decoding method
JP3344582B2 (en) Speech encoding method
JP4151034B2 (en) Speech coding method and speech decoding method
JP3344581B2 (en) Speech coding apparatus
JP4151027B2 (en) Speech coding method and speech decoding method
JP4148259B2 (en) Speech coding method and speech decoding method
JP4151028B2 (en) Speech coding method and speech decoding method
JP4151032B2 (en) Speech coding method and speech decoding method
JP4148260B2 (en) Speech coding method and speech decoding method
JP4244223B2 (en) Speech coding method and speech decoding method
JP4151036B2 (en) Speech coding method and speech decoding method
JP4196356B2 (en) Speech coding method and speech decoding method
JP4151035B2 (en) Speech coding method and speech decoding method
JP2001255899A (en) Audio receiving method and audio receiver
JP3387091B2 (en) Optical recording medium, the audio transmission method and speech decoding method
JP3387090B2 (en) Speech encoding method
JP3606454B2 (en) Audio signal transmission method and a speech decoding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130906

Year of fee payment: 11