KR20070108314A - Method and apparatus for encoding/decoding an audio signal - Google Patents

Method and apparatus for encoding/decoding an audio signal Download PDF

Info

Publication number
KR20070108314A
KR20070108314A KR1020060079838A KR20060079838A KR20070108314A KR 20070108314 A KR20070108314 A KR 20070108314A KR 1020060079838 A KR1020060079838 A KR 1020060079838A KR 20060079838 A KR20060079838 A KR 20060079838A KR 20070108314 A KR20070108314 A KR 20070108314A
Authority
KR
South Korea
Prior art keywords
pilot
data
value
coding
decoding
Prior art date
Application number
KR1020060079838A
Other languages
Korean (ko)
Inventor
오현오
방희석
김동수
임재현
정양원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US12/083,081 priority Critical patent/US8203930B2/en
Priority to EP06799096A priority patent/EP1952112A4/en
Priority to PCT/KR2006/004027 priority patent/WO2007040367A1/en
Priority to KR1020087005858A priority patent/KR100857118B1/en
Priority to PCT/KR2006/004010 priority patent/WO2007040350A1/en
Priority to US12/083,082 priority patent/US8755442B2/en
Priority to EP06799104A priority patent/EP1949061A4/en
Priority to PCT/KR2006/004014 priority patent/WO2007040354A1/en
Priority to JP2008534448A priority patent/JP5111381B2/en
Priority to JP2008534454A priority patent/JP2009512271A/en
Priority to JP2008534452A priority patent/JP2009520212A/en
Priority to JP2008534447A priority patent/JP2009511944A/en
Priority to US12/088,868 priority patent/US7675977B2/en
Priority to EP06799095A priority patent/EP1946063A4/en
Priority to KR1020087005857A priority patent/KR100857117B1/en
Priority to EP06799093A priority patent/EP1946300A4/en
Priority to KR1020087005851A priority patent/KR100857112B1/en
Priority to KR1020087005856A priority patent/KR100857116B1/en
Priority to KR1020087005859A priority patent/KR100857119B1/en
Priority to KR1020087009203A priority patent/KR100857121B1/en
Priority to PCT/KR2006/004024 priority patent/WO2007040364A1/en
Priority to KR1020087005843A priority patent/KR100857111B1/en
Priority to US12/088,872 priority patent/US7671766B2/en
Priority to KR1020087005855A priority patent/KR100857115B1/en
Priority to EP06799094A priority patent/EP1946062A4/en
Priority to JP2008534450A priority patent/JP2009511947A/en
Priority to PCT/KR2006/004020 priority patent/WO2007040360A1/en
Priority to JP2008534451A priority patent/JP2009511948A/en
Priority to EP09011732A priority patent/EP2131356B1/en
Priority to CA2624633A priority patent/CA2624633C/en
Priority to US12/088,958 priority patent/US7756701B2/en
Priority to KR1020087005853A priority patent/KR100857114B1/en
Priority to CN2006800373142A priority patent/CN101283255B/en
Priority to KR1020060097647A priority patent/KR101356480B1/en
Priority to EP06799102A priority patent/EP1946303A4/en
Priority to CN2006800373212A priority patent/CN101283405B/en
Priority to PCT/KR2006/004021 priority patent/WO2007040361A1/en
Priority to KR1020087005852A priority patent/KR100857113B1/en
Priority to JP2008534457A priority patent/JP2009511952A/en
Priority to CN2006800372506A priority patent/CN101283250B/en
Priority to PCT/KR2006/004018 priority patent/WO2007040358A1/en
Priority to EP06799089A priority patent/EP1946298A4/en
Priority to KR1020060097648A priority patent/KR20070038441A/en
Priority to CN2006800371734A priority patent/CN101283249B/en
Priority to KR1020087005841A priority patent/KR100857109B1/en
Priority to US12/089,385 priority patent/US7672379B2/en
Priority to EP06799105A priority patent/EP1952113A4/en
Priority to EP06799097A priority patent/EP1946301A4/en
Priority to ES06799107.5T priority patent/ES2478004T3/en
Priority to KR1020087025595A priority patent/KR101169281B1/en
Priority to CN2006800373814A priority patent/CN101283406B/en
Priority to KR1020087005860A priority patent/KR100878833B1/en
Priority to US12/089,102 priority patent/US7756702B2/en
Priority to CN200680037151.8A priority patent/CN101283248B/en
Priority to PCT/KR2006/004017 priority patent/WO2007040357A1/en
Priority to CN2006800371128A priority patent/CN101283398B/en
Priority to BRPI0616941-4A priority patent/BRPI0616941A2/en
Priority to US12/088,865 priority patent/US7680194B2/en
Priority to JP2008534456A priority patent/JP2009511951A/en
Priority to US12/088,518 priority patent/US7643561B2/en
Priority to PCT/KR2006/004022 priority patent/WO2007040362A1/en
Priority to US12/089,383 priority patent/US7752053B2/en
Priority to PCT/KR2006/004019 priority patent/WO2007040359A1/en
Priority to US12/088,959 priority patent/US8068569B2/en
Priority to BRPI0616945-7A priority patent/BRPI0616945A2/en
Priority to PCT/KR2006/004023 priority patent/WO2007040363A1/en
Priority to US12/083,059 priority patent/US7813380B2/en
Priority to CN200680037161.1A priority patent/CN101283399B/en
Priority to US12/089,105 priority patent/US7646319B2/en
Priority to US12/089,380 priority patent/US7684498B2/en
Priority to JP2008534446A priority patent/JP2009511943A/en
Priority to JP2008534455A priority patent/JP5254798B2/en
Priority to EP06799098A priority patent/EP1949366A4/en
Priority to JP2008534453A priority patent/JP5329963B2/en
Priority to EP06799107.5A priority patent/EP1949062B1/en
Priority to EP06799090A priority patent/EP1946299A4/en
Priority to JP2008534458A priority patent/JP5405828B2/en
Priority to KR1020087005836A priority patent/KR100878828B1/en
Priority to ES09011732T priority patent/ES2390103T3/en
Priority to CN2006800372830A priority patent/CN101283252B/en
Priority to EP06799103A priority patent/EP1946304A4/en
Priority to US12/088,866 priority patent/US7643562B2/en
Priority to EP06799106A priority patent/EP1931958A4/en
Priority to PCT/KR2006/004025 priority patent/WO2007040365A1/en
Priority to KR1020087009202A priority patent/KR100857120B1/en
Priority to EP06799099.4A priority patent/EP1949367B1/en
Priority to US12/088,871 priority patent/US7660358B2/en
Priority to BRPI0616859-0A priority patent/BRPI0616859A2/en
Priority to CN2006800373138A priority patent/CN101283254B/en
Priority to JP2008534459A priority patent/JP5319286B2/en
Priority to AU2006297950A priority patent/AU2006297950B2/en
Priority to PCT/KR2006/004015 priority patent/WO2007040355A1/en
Priority to JP2008534449A priority patent/JP2009511946A/en
Priority to PCT/KR2006/004026 priority patent/WO2007040366A1/en
Priority to PCT/KR2006/004016 priority patent/WO2007040356A1/en
Priority to EP06799100A priority patent/EP1949368A4/en
Priority to CN200680037202.7A priority patent/CN101283400B/en
Priority to CN2006800372633A priority patent/CN101283251B/en
Priority to EP06799101A priority patent/EP1946302A4/en
Priority to CN2006800372737A priority patent/CN101283402B/en
Priority to PCT/KR2006/004013 priority patent/WO2007040353A1/en
Priority to KR1020060097646A priority patent/KR20070038439A/en
Priority to PCT/KR2006/004009 priority patent/WO2007040349A1/en
Priority to KR1020087005840A priority patent/KR100878832B1/en
Priority to JP2008534460A priority patent/JP2009520382A/en
Priority to PCT/KR2006/004032 priority patent/WO2007040372A1/en
Priority to EP06799111.7A priority patent/EP1952114B1/en
Priority to EP06799113A priority patent/EP1941499A4/en
Priority to JP2008534462A priority patent/JP5524484B2/en
Priority to KR1020087005842A priority patent/KR100857110B1/en
Priority to US12/089,091 priority patent/US7774199B2/en
Priority to JP2008534463A priority patent/JP5329964B2/en
Priority to CN2006800373119A priority patent/CN101283404B/en
Priority to PCT/KR2006/004028 priority patent/WO2007040368A1/en
Priority to KR1020087005839A priority patent/KR100878831B1/en
Priority to ES06799111.7T priority patent/ES2513816T3/en
Priority to KR1020087005837A priority patent/KR100878829B1/en
Priority to JP2008534464A priority patent/JP5329965B2/en
Priority to EP06799114A priority patent/EP1946306A4/en
Priority to EP06799112A priority patent/EP1946305A4/en
Priority to PCT/KR2006/004034 priority patent/WO2007040374A1/en
Priority to KR1020087005838A priority patent/KR100878830B1/en
Priority to CN200680037351.3A priority patent/CN101283256B/en
Priority to PCT/KR2006/004031 priority patent/WO2007040371A1/en
Priority to PCT/KR2006/004033 priority patent/WO2007040373A1/en
Priority to US12/089,370 priority patent/US7751485B2/en
Priority to CN2006800373034A priority patent/CN101283253B/en
Priority to US12/088,962 priority patent/US7663513B2/en
Priority to JP2008534465A priority patent/JP2009520384A/en
Priority to US12/089,368 priority patent/US7865369B2/en
Priority to CN2006800372934A priority patent/CN101283403B/en
Priority to CN2006800371043A priority patent/CN101283397B/en
Priority to EP06799108A priority patent/EP1949063A4/en
Priority to US12/083,460 priority patent/US8199828B2/en
Priority to PCT/KR2006/004152 priority patent/WO2007043844A1/en
Priority to KR1020060099882A priority patent/KR20070041398A/en
Priority to AU2006300103A priority patent/AU2006300103B2/en
Priority to PCT/KR2006/004149 priority patent/WO2007043841A1/en
Priority to EP06799227A priority patent/EP1946555A4/en
Priority to US12/083,459 priority patent/US8199827B2/en
Priority to AU2006300101A priority patent/AU2006300101B2/en
Priority to PCT/KR2006/004153 priority patent/WO2007043845A1/en
Priority to PCT/KR2006/004151 priority patent/WO2007043843A1/en
Priority to AU2006300102A priority patent/AU2006300102B2/en
Priority to EP06799225A priority patent/EP1949698A4/en
Priority to US12/083,461 priority patent/US7970072B2/en
Priority to US12/083,465 priority patent/US8019611B2/en
Priority to EP06799230A priority patent/EP1946308A4/en
Priority to EP06799228A priority patent/EP1946556A4/en
Priority to US12/083,457 priority patent/US8179977B2/en
Priority to EP06799229A priority patent/EP1946307A4/en
Priority to PCT/KR2006/004147 priority patent/WO2007043840A1/en
Priority to US12/083,458 priority patent/US8194754B2/en
Priority to EP06799231A priority patent/EP1946309A4/en
Priority to PCT/KR2006/004150 priority patent/WO2007043842A1/en
Publication of KR20070108314A publication Critical patent/KR20070108314A/en
Priority to HK09103351.8A priority patent/HK1125172A1/en
Priority to JP2011010444A priority patent/JP2011130470A/en
Priority to JP2011115954A priority patent/JP5330453B2/en
Priority to JP2011115621A priority patent/JP5270717B2/en
Priority to JP2011167446A priority patent/JP5016129B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Abstract

A method and an apparatus for encoding/decoding an audio signal are provided to configure a bit stream including a space parameter effectively and reduce the quantity of transmitted data effectively. A demultiplexing unit(140) demultiplexes a received audio signal. A space information decoding unit(160) decodes a data mode in the received audio signal, generates a data set, decodes a pilot value and a pilot difference value, and generates space information of the data set by using the pilot value and the pilot difference value.

Description

오디오 신호의 인코딩/디코딩 방법 및 장치{METHOD AND APPARATUS FOR ENCODING/DECODING AN AUDIO SIGNAL}METHOD AND APPARATUS FOR ENCODING / DECODING AN AUDIO SIGNAL}

도 1은 본 발명에 따른 신호 처리 시스템의 일 실시예를 도시한 것이다.1 illustrates an embodiment of a signal processing system according to the present invention.

도 2a는 본 발명에 따른 공간정보 코딩부의 일 실시예를 도시한 것이다.2A illustrates an embodiment of a spatial information coding unit according to the present invention.

도 2b는 발명에 따른 공간정보 디코딩부의 일 실시예를 도시한 것이다.2B illustrates an embodiment of a spatial information decoding unit according to the present invention.

도 3은 본 발명에 따른 오디오 신호의 EcData() 신택스를 도시한 것이다.3 illustrates an EcData () syntax of an audio signal according to the present invention.

도 4a, 도 4b는 본 발명에 따른 오디오 신호의 EcDataPair() 신택스를 도시한 것이다.4A and 4B illustrate the EcDataPair () syntax of an audio signal according to the present invention.

도 5a, 도 5b는 본 발명에 따른 오디오 신호의 DiffHuffData() 신택스를 도시한 것이다.5A and 5B illustrate the DiffHuffData () syntax of an audio signal according to the present invention.

도 6은 본 발명에 따른 오디오 신호의 HuffData1D() 신택스를 도시한 것이다.6 illustrates the HuffData1D () syntax of an audio signal according to the present invention.

도 7은 본 발명에 따른 오디오 신호의 HuffData2DFreqPair() 신택스를 도시한 것이다.7 illustrates the HuffData2DFreqPair () syntax of an audio signal according to the present invention.

도 8은 본 발명에 따른 오디오 신호의 HuffData2DTimePair() 신택스를 도시한 것이다.8 illustrates a HuffData2DTimePair () syntax of an audio signal according to the present invention.

도 9는 본 발명에 따른 오디오 신호의 LsbData() 신택스를 도시한 것이다. 9 illustrates LsbData () syntax of an audio signal according to the present invention.

도 10은 본 발명에 따른 공간정보 디코딩부의 다른 실시예를 도시한 것이다. 10 illustrates another embodiment of the spatial information decoding unit according to the present invention.

도 11은 본 발명에 따른 공간정보 디코딩의 전처리 단계의 일 실시예를 설명하기 위해 도시한 것이다.FIG. 11 illustrates an embodiment of a preprocessing step of spatial information decoding according to the present invention.

도 12a ~ 도 12b는 본 발명에 따른 디코딩 과정을 예를 들어 설명하기 위해 도시한 것이다.12A to 12B illustrate examples of the decoding process according to the present invention.

도 13은 본 발명에 따른 공간정보 디코딩의 후처리 단계의 일 실시예를 설명하기 위해 도시한 것이다.13 is a diagram illustrating an embodiment of a post-processing step of spatial information decoding according to the present invention.

도 14a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제1실시예를 도시한 흐름도이다.14A is a flowchart illustrating a first embodiment of a method of encoding an audio signal according to the present invention.

도 14b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제1실시예를 도시한 흐름도이다.14B is a flowchart illustrating a first embodiment of a method of decoding an audio signal according to the present invention.

도 15a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제2실시예를 도시한 흐름도이다.15A is a flowchart illustrating a second embodiment of a method of encoding an audio signal according to the present invention.

도 15b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제2실시예를 도시한 흐름도이다.15B is a flowchart illustrating a second embodiment of a method of decoding an audio signal according to the present invention.

도 16a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제3실시예를 도시한 흐름도이다.16A is a flowchart illustrating a third embodiment of a method of encoding an audio signal according to the present invention.

도 16b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제3실시예를 도시한 흐름도이다.16B is a flowchart illustrating a third embodiment of a method of decoding an audio signal according to the present invention.

*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1:코딩 장치 2:디코딩 장치1: coding device 2: decoding device

100:다운믹싱부 101:채널 다운믹싱부100: downmixing unit 101: channel downmixing unit

103:공간정보 생성부 110:코어 코딩부103: spatial information generation unit 110: core coding unit

120:공간정보 코딩부 130:다중화부120: spatial information coding unit 130: multiplexing unit

140:역다중화부 150:코어 디코딩부140: demultiplexer 150: core decoding section

160:공간정보 디코딩부 170:멀티채널 생성부160: spatial information decoding unit 170: multi-channel generation unit

210:PCM 코딩부 211:그룹 PCM 코딩부210: PCM coding unit 211: group PCM coding unit

213:파일럿 코딩부 220:디퍼렌셜 코딩부213: pilot coding unit 220: differential coding unit

221:주파수 디퍼렌셜 코딩부 223:전방위 타임 디퍼렌셜 코딩부221: frequency differential coding unit 223: omnidirectional time differential coding unit

225:후방위 타임 디퍼렌셜 코딩부 230:허프만 코딩부225: rear direction time differential coding unit 230: Huffman coding unit

231:1차원 허프만 코딩부 233:주파수 페어 2차원 허프만 코딩부231: 1D Huffman Coding Unit 233: Frequency Pair 2D Huffman Coding Unit

235:타임 페어 2차원 허프만 코딩부 250:식별자 추출부235: time pair two-dimensional Huffman coding unit 250: identifier extraction unit

260:PCM 디코딩부 261:그룹 PCM 디코딩부260: PCM decoding unit 261: Group PCM decoding unit

263:파일럿 디코딩부 270:허프만 디코딩부263: pilot decoding unit 270: Huffman decoding unit

271:1차원 허프만 디코딩부 271: 1 dimensional Huffman decoding unit

273:주파수 페어 2차원 허프만 디코딩부273: frequency pair two-dimensional Huffman decoding unit

275:타임 페어 2차원 허프만 디코딩부275: time pair two-dimensional Huffman decoding unit

280:디퍼렌셜 디코딩부 281:주파수 디퍼렌셜 디코딩부280: differential decoding unit 281: frequency differential decoding unit

283:전방위 타임 디퍼렌셜 디코딩부 285:후방위 타임 디퍼렌셜 디코딩부283: front direction time differential decoding unit 285: rear direction time differential decoding unit

1010:전처리부 1020:델타 디코딩부1010: preprocessor 1020: delta decoding unit

1030:후처리부1030: post-processing unit

본 발명은 오디오 신호의 처리에 관한 것으로, 보다 상세하게는 오디오 신호를 처리함에 있어서, 데이터의 파일럿 값을 이용하여 데이터를 인코딩/디코딩하는 방법 및 장치에 관한 것이다.The present invention relates to the processing of audio signals, and more particularly, to a method and apparatus for encoding / decoding data using pilot values of data in processing an audio signal.

디지털 비디오, 디지털 오디오에 대한 표준(standard)은 각각의 신호에 대한 압축(compression) 및 복원(decompression)에 대한 규격(standard)이다. 또한, 디지털 시스템에 대한 표준은 압축된 비디오와 오디오 각각을 일정한 크기의 패킷(Packet)으로 분할한 후 타이밍 정보(timing information), 스트림 관련 정보(stream information) 등을 추가하여 다중화(multiplexing)하여 전송하고, 그 반대로 역 다중화(demultiplexing) 과정을 통해 타이밍 정보, 스트림 관련 정보 등을 얻어내고, 또한 압축된 비디오와 오디오를 각각 분리해 내는데 필요한 규격이다.The standard for digital video and digital audio is the standard for compression and decompression for each signal. In addition, the standard for the digital system divides each of the compressed video and audio into packets of a certain size, and then multiplexes and adds timing information and stream information. On the contrary, it is a standard necessary to obtain timing information, stream related information, etc. through demultiplexing and to separate compressed video and audio, respectively.

최근에 디지털 오디오 신호에 대한 다양한 코딩기술(coding technology) 및 방법들이 개발되고 있으며, 이와 관련된 제품들이 생산되고 있다. 또한 심리음향 모델(psychoacoustic model)을 이용하여 멀티채널 오디오 신호의 코딩 방법들이 개발되고 있으며, 이에 대한 표준화 작업이 진행되고 있다. Recently, various coding technologies and methods for digital audio signals have been developed, and related products have been produced. In addition, coding methods for multichannel audio signals have been developed using a psychoacoustic model, and standardization thereof has been performed.

상기 심리음향 모델은 인간이 소리를 인식하는 방식, 예를 들면 큰 소리 다음에 오는 작은 소리는 들리지 않으며, 20Hz 내지 20000Hz의 주파수에 해당되는 소 리만 들을 수 있다는 사실을 이용하여, 코딩 과정에서 불필요한 부분에 대한 신호를 제거함으로써 필요한 데이터의 양을 효과적으로 줄일 수 있는 것이다. The psychoacoustic model uses unnecessary methods in the coding process by taking advantage of the way in which a human recognizes a sound, for example, a small sound following a loud sound and only a sound corresponding to a frequency of 20 Hz to 20000 Hz. By removing the signal for, we can effectively reduce the amount of data needed.

그리고, 현재 MPEG-4 AAC(advanced audio coding) 및 MPEG-4 HE-AAC(high-efficiency AAC)와 같은 오디오 표준 기술이 개발되어 상용화되고 있다. In addition, audio standard technologies such as MPEG-4 AAC (Advanced Audio Coding) and MPEG-4 high-efficiency AAC (HE-AAC) have been developed and commercialized.

한편, 멀티채널 오디오 신호를 처리하는 방법이 구체적으로 제시된바 없어, 오디오 신호를 효율적으로 처리하는데 많은 문제점이 있었다.On the other hand, a method of processing a multi-channel audio signal has not been specifically presented, there are many problems in efficiently processing the audio signal.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 멀티채널 오디오 신호를 처리함에 있어서, 공간정보를 효과적인 방식으로 표현하여 멀티채널 오디오 신호의 압축 및 전송효율을 향상시킬 수 있는 방법을 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems. In processing a multi-channel audio signal, an object of the present invention is to provide a method for improving the compression and transmission efficiency of a multi-channel audio signal by representing spatial information in an effective manner. There is this.

상기 목적을 달성하기 위하여, 본 발명은 (a) 수신된 오디오 신호내의 데이터 모드를 해독하여 데이터 세트를 생성하는 단계; (b) 상기 데이터 세트의 파일럿 값과 파일럿 차이값을 디코딩하는 단계; 및 (c) 상기 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 디코딩하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 방법을 제공한다.In order to achieve the above object, the present invention comprises the steps of: (a) decoding a data mode in a received audio signal to generate a data set; (b) decoding a pilot value and a pilot difference value of the data set; And (c) decoding spatial information using the pilot value and the pilot difference value.

본 발명의 다른 실시 형태에 의하면, 본 발명은 수신된 오디오 신호의 역다중화를 수행하는 역다중화부; 및 수신된 오디오 신호내의 데이터 모드를 해독하여 데이터 세트를 생성하고, 파일럿 값과 파일럿 차이값을 디코딩하며, 상기 파일럿 값과 파일럿 차이값을 이용하여 상기 데이터 세트의 공간정보를 생성하는 공간정보 디코딩부를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 장치를 제공한다.According to another embodiment of the present invention, the present invention provides a demultiplexer for demultiplexing a received audio signal; And a spatial information decoding unit for decoding a data mode in the received audio signal to generate a data set, decoding a pilot value and a pilot difference value, and generating spatial information of the data set using the pilot value and the pilot difference value. It provides an apparatus for decoding an audio signal comprising a.

본 발명의 또 다른 실시 형태에 의하면, 본 발명은 복수의 데이터 세트를 포함하는 오디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성하는 단계; 및 상기 복수의 데이터 세트별 데이터 모드를 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 인코딩 방법을 제공한다.According to still another aspect of the present invention, there is provided a method of generating a pilot value and a pilot difference value for at least one data set of a plurality of data sets from an audio signal including a plurality of data sets; And generating a data mode for each of the plurality of data sets.

본 발명의 또 다른 실시 형태에 의하면, 본 발명은 복수의 데이터 세트를 포함하는 오디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성하고, 상기 복수의 데이터 세트별 데이터 모드를 생성하는 공간정보 코딩부; 및 상기 파일럿 값과 상기 파일럿 차이값의 다중화를 수행하는 다중화부를 포함하는 것을 특징으로 하는 오디오 신호의 인코딩 장치를 제공한다.According to still another embodiment of the present invention, the present invention generates a pilot value and a pilot difference value for at least one data set of a plurality of data sets from an audio signal including a plurality of data sets, and generates the plurality of data. A spatial information coding unit generating a data mode for each set; And a multiplexer configured to multiplex the pilot value and the pilot difference value.

본 발명의 또 다른 실시 형태에 의하면, 본 발명은 다운믹스된 오디오 프레임과 공간정보 프레임을 포함하고, 상기 공간정보 프레임은 복수의 데이터 세트를 포함하고, 상기 복수의 데이터 세트 중 적어도 하나의 데이터 세트는 파일럿 값과 파일럿 차이값을 포함하되, 상기 파일럿 값과 파일럿 차이값을 포함하는 데이터 세트와 포함하지 않는 데이터 세트를 구분하는 데이터 모드를 포함하는 오디오 신호의 데이터 구조를 제공한다.According to another embodiment of the present invention, the present invention includes a downmixed audio frame and a spatial information frame, wherein the spatial information frame includes a plurality of data sets, and at least one data set of the plurality of data sets. Provides a data structure of an audio signal that includes a pilot value and a pilot difference value, and includes a data mode for distinguishing a data set including the pilot value and the pilot difference value from a data set not included.

따라서, 본 발명에 의하면, 타임 및 주파수에서 처리하고자 하는 데이터 세트 내의 미리 설정된 파일럿 값으로부터의 차이값을 인코딩하여 전송하고 이를 디 코딩하여 효과적으로 오디오 신호를 처리하는 것이 가능하고, 오디오 신호를 처리함에 있어서, 코딩 방법과 디코딩 방법을 데이터 량에 따라서 선택적으로 하는 것이 가능하고, 공간정보가 포함되는 비트스트림을 효과적으로 구성하여 전송하는 데이터 량을 효과적으로 줄이는 것이 가능하다.Therefore, according to the present invention, it is possible to efficiently process an audio signal by encoding and transmitting a difference value from a preset pilot value in a data set to be processed at a time and a frequency, and decoding the same. In addition, it is possible to selectively select a coding method and a decoding method according to the amount of data, and it is possible to effectively configure a bitstream including spatial information and effectively reduce the amount of data to be transmitted.

이하 상기의 목적으로 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can be specifically realized for the above purpose.

아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우는 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다.In addition, the terms used in the present invention was selected as a general term widely used as possible now, but in some cases, the term is arbitrarily selected by the applicant, in which case the meaning is described in detail in the description of the invention, It is to be understood that the present invention is to be understood as the meaning of terms rather than the names of terms.

본 발명에서 "공간정보(spatial information)"란 다운믹스(down-mix)된 오디오 신호에 대하여, 업믹스(up-mix)를 수행하여 멀티채널 오디오 신호를 생성하기 위한 정보를 의미한다. 상기 공간정보로 공간 파라미터를 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실임을 밝혀둔다. 관련하여, 공간 파라미터는 두 채널간의 에너지 차이를 의미하는 CLD(channel level difference), 두 채널간의 상관관계(correlation)를 의미하는 ICC(inter channel coherences), 두 채널로부터 세 채널을 생성할 때 이용되는 예측 계수인 CPC(channel prediction coefficients) 및 임의의 다운믹스 과정에서 변형된 크기를 보정하는데 사용하는 개수인 ADG(artistic downmix gain) 등의 데이터 타입이 있다. 이때, 데이터 타입 은 특정 데이터의 타입정보를 의미하는데, 예를 들어, 특정 데이터가 공간정보인 경우에는 데이터 타입을 공간정보 타입이라 명명할 수 있다.In the present invention, "spatial information" means information for generating a multi-channel audio signal by performing an up-mix on an down-mixed audio signal. Although the spatial information is described based on the spatial parameters, it should be understood that the present invention is not limited thereto. Relatedly, spatial parameters are used to generate three channels from two channels, CLD (channel level difference), which represents the energy difference between two channels, inter channel coherences (ICC), and correlation between two channels. There are data types such as channel prediction coefficients (CPC), which are prediction coefficients, and artistic downmix gain (ADG), which is a number used to correct a modified magnitude in an arbitrary downmix process. In this case, the data type means type information of specific data. For example, when the specific data is spatial information, the data type may be referred to as spatial information type.

본 발명에서 "코어 코덱(core codec)"은 공간정보가 아닌 오디오 신호를 코딩하는 코덱을 지칭한다. 본 발명에서는 공간정보가 아닌 오디오 신호로 다운믹스 오디오 신호를 예로 하여 설명한다. 또한, 코어 코덱에는 MPEG Layer-Ⅱ, MP3, AC-3, DTS, WMA, AAC, 또는 HE-AAC가 포함될 수 있으며, 압축을 하지않은 PCM 신호인 경우도 가능하다. 오디오 신호에 대하여 코덱 기능을 수행한다면 기존에 개발된 코덱뿐만 아니라 향후 개발될 코덱을 포함할 수 있다.In the present invention, "core codec" refers to a codec that codes an audio signal rather than spatial information. In the present invention, the downmix audio signal is described as an audio signal instead of spatial information. In addition, the core codec may include MPEG Layer-II, MP3, AC-3, DTS, WMA, AAC, or HE-AAC, and may be a PCM signal without compression. If the codec function is performed on the audio signal, it may include a codec to be developed in the future as well as a codec previously developed.

본 발명에서 "파일럿(pilot) 값"이란 전송하고자 하는 데이터 세트에 대한 대표값을 의미한다. 상기 파일럿 값은 "P"로 나타낼 수 있고, 예를 들어, 평균값(mean), 중간값(medium), 최빈값(mode) 중 어느 하나를 이용가능하나, 본 발명에 이에 한정되지 않음은 자명하다. 또한, 본 발명에서 "파일럿 차이값"이란 전송하고자 하는 데이터 세트를 구성하는 각 데이터와 파일럿 값의 차이값을 의미한다.In the present invention, a "pilot value" means a representative value for a data set to be transmitted. The pilot value may be represented by "P", for example, any one of a mean value, a medium value, and a mode may be used, but the present invention is not limited thereto. In addition, in the present invention, "pilot difference value" means a difference value between each data constituting a data set to be transmitted and a pilot value.

본 발명에서 "최대값"은 특정 데이터 중에서 그 값이 가장 큰 값을 의미한다. 예를 들어, 상기 최대값으로 공간정보의 최대값을 공간정보 최대값이라 명명할 수 있으며, 상기 공간정보 최대값에 대응하여 엔트로피 코딩을 위한 최대값을 LAV값(largest absolute value: 이하 'LAV값'라 한다.)이라 명명할 수 있다. 이하, 본 발명에서는 최대값으로 공간정보 최대값과 LAV값을 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실임을 밝혀둔다. 관련하여, 본 발명에서 LAV값을 특정 인덱스로 표현할 수 있는데, LAV값을 특정 인덱스로 표현한 것을 LavIdx로 표 현할 수 있다. In the present invention, the "maximum value" means a value having the largest value among specific data. For example, the maximum value of the spatial information may be referred to as the maximum value of the spatial information, and a maximum value for entropy coding corresponding to the maximum value of the spatial information is referred to as a LAV value (hereinafter, referred to as a 'LAV value'). '). Hereinafter, the present invention will be described based on the spatial information maximum value and the LAV value as the maximum value, but it is apparent that the present invention is not limited thereto. In this regard, in the present invention, the LAV value may be expressed by a specific index, and the expression of the LAV value by a specific index may be expressed by LavIdx.

도 1은 본 발명에 따른 신호 처리 시스템의 일 실시예를 도시한 것이다. 도 1을 참조하면, 신호 처리 시스템은 코딩 장치(1)와 디코딩 장치(2)를 포함한다. 다만, 본 발명에서 오디오 신호에 대해서 살펴보나, 본 발명은 오디오 신호 외에 모든 신호의 처리를 함에 있어서도 적용가능하다. 1 illustrates an embodiment of a signal processing system according to the present invention. Referring to FIG. 1, a signal processing system includes a coding device 1 and a decoding device 2. However, the present invention will be described with respect to the audio signal, but the present invention is applicable to processing all signals in addition to the audio signal.

코딩 장치(1)는 다운믹싱부(downmixing part:100), 코어 코딩부(core coding part:110), 공간정보 코딩부(spatial information coding part:120) 및 다중화부(multiplexing part:130)를 포함할 수 있다. 상기 다운믹싱부(downmixing part:100)는 채널 다운믹싱부(channel downmixing part:101) 및 공간정보 생성부(spatial information estimating part:103)를 포함할 수 있다. The coding apparatus 1 includes a downmixing part 100, a core coding part 110, a spatial information coding part 120, and a multiplexing part 130. can do. The downmixing part 100 may include a channel downmixing part 101 and a spatial information estimating part 103.

오디오 신호가 N개의 멀티채널(

Figure 112006060083850-PAT00001
,
Figure 112006060083850-PAT00002
,...,
Figure 112006060083850-PAT00003
)로 입력되면, 다운믹싱부(100)는 미리 정해진 다운믹스 방법 또는 임의로 설정한 다운믹스 방법(artistic downmix method)에 따라, 입력 채널의 개수보다 작은 개수의 채널로 다운믹스 오디오 신호를 출력하면, 상기 출력된 다운믹스 오디오 신호는 코어 코딩부(110)로 입력한다. 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 추출하여, 상기 추출한 공간정보를 공간정보 코딩부(120)로 송신한다. 여기서, 다운믹스 채널은 한 개의 채널 또는 두 개의 채널을 가지거나, 또는 다운믹스 명령에 따라 특정 개수의 채널을 가질 수 있다. 이때, 다운믹스 채널의 개수는 설정가능하다. 또한, 선택적으로 다운믹스 오디오 신호는 아티스틱 다운믹스 신호를 이용할 수 있다.The audio signal is N multichannel (
Figure 112006060083850-PAT00001
,
Figure 112006060083850-PAT00002
, ...,
Figure 112006060083850-PAT00003
If the downmixing unit 100 outputs the downmix audio signal to the number of channels smaller than the number of input channels according to a predetermined downmix method or an arbitrarily set artistic downmix method, The output downmix audio signal is input to the core coding unit 110. The spatial information generator 103 extracts the spatial information from the multi-channel audio signal, and transmits the extracted spatial information to the spatial information coding unit 120. Here, the downmix channel may have one channel or two channels, or may have a specific number of channels according to the downmix command. At this time, the number of downmix channels can be set. Additionally, the downmix audio signal may optionally use an artistic downmix signal.

코어 코딩부(110)는 채널 다운믹싱부(101)의 출력인 다운믹스 오디오 신호에 대한 코어 코덱 코딩을 수행한다. 코딩된 다운믹스 오디오 신호는 다중화부(130)로 입력된다.The core coding unit 110 performs core codec coding on the downmix audio signal output from the channel downmixing unit 101. The coded downmix audio signal is input to the multiplexer 130.

공간정보 코딩부(120)는 공간정보 생성부(103)로부터 수신한 공간정보의 코딩을 수행한다. 공간정보 코딩부(120)는 PCM 코딩부, 디퍼렌셜 코딩부, 허프만 코딩부를 포함할 수 있다. 여기서, 공간정보의 코딩 방법은 설정에 따라서 여러 가지 방법이 가능하고, 공간정보 코딩부(120)에서 수행한 공간정보 코딩 방법에 대한 정보를 디코딩 장치(2)로 전송한다. The spatial information coding unit 120 performs coding of the spatial information received from the spatial information generating unit 103. The spatial information coding unit 120 may include a PCM coding unit, a differential coding unit, and a Huffman coding unit. Here, the coding method of the spatial information can be a variety of methods according to the setting, and transmits the information about the spatial information coding method performed by the spatial information coding unit 120 to the decoding device (2).

다중화부(130)는 코딩된 다운믹스 오디오 신호와 코딩된 공간정보를 다중화하여 비트스트림을 생성하고, 생성한 비트스트림을 디코딩 장치(2)로 송신한다. 이때, 비트스트림은 코어 코덱 비트스트림과 공간정보 비트스트림을 포함할 수 있다.The multiplexer 130 generates a bitstream by multiplexing the coded downmix audio signal and the coded spatial information, and transmits the generated bitstream to the decoding apparatus 2. In this case, the bitstream may include a core codec bitstream and a spatial information bitstream.

디코딩 장치(2)는 역다중화부(demultiplexing part:140), 코어 디코딩부(core decoding part:150), 공간정보 디코딩부(spatial information decoding part:160) 및 멀티채널 생성부(multi-channel generation part:170)를 포함할 수 있다. 또한, 공간정보 디코딩부(160)는 식별자 추출부, PCM 디코딩부, 허프만 디코딩부, 디퍼렌셜 디코딩부를 포함할 수 있다.The decoding apparatus 2 includes a demultiplexing part 140, a core decoding part 150, a spatial information decoding part 160, and a multi-channel generation part. : 170). In addition, the spatial information decoding unit 160 may include an identifier extractor, a PCM decoding unit, a Huffman decoding unit, and a differential decoding unit.

역다중화부(140)는 비트스트림을 수신하여, 수신된 비트스트림을 코딩된 다운믹스 오디오 신호와 코딩된 공간정보로 역다중화를 수행할 수 있다.The demultiplexer 140 may receive the bitstream and demultiplex the received bitstream into a coded downmix audio signal and coded spatial information.

코어 디코딩부(150)는 역다중화부(140)로부터 코딩된 다운믹스 오디오 신호 를 수신하고, 상기 코딩된 다운믹스 오디오 신호의 디코딩을 수행하여 다운믹스 오디오 신호를 생성한다. 예를 들어, 코딩 장치(1)에서 멀티채널 오디오 신호를 다운믹스 할 때, 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호로 다운믹스한 경우에는 디코딩 장치(2)에서 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호가 출력되는 것이 가능하다. 다만, 본 발명의 실시예에서는 다운믹스 오디오 신호를 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호를 기준으로 설명하나, 본 발명은 이에 한정되지 않고, 다운믹스 채널 오디오 신호의 수에 관계없이 적용가능하다. 이때, 디코딩 장치(2)가 멀티채널 오디오 신호를 디코딩하지 못하는 경우에는 코딩된 다운믹스 오디오 신호의 디코딩을 수행하여 모노 채널 오디오 신호 또는 스테레오 채널 오디오 신호로 직접 출력할 수 있는데, 이는 오디오 신호의 디코딩 장치들 간에 호환성을 위해서 필요한 것이다.The core decoding unit 150 receives the coded downmix audio signal from the demultiplexer 140 and decodes the coded downmix audio signal to generate a downmix audio signal. For example, when downmixing a multichannel audio signal in the coding apparatus 1, when the downmixing is performed with a mono channel audio signal or a stereo channel audio signal, the decoding apparatus 2 uses a mono channel audio signal or a stereo channel audio signal. It is possible to output. However, in the exemplary embodiment of the present invention, the downmix audio signal will be described based on the mono channel audio signal or the stereo channel audio signal. However, the present invention is not limited thereto and may be applied regardless of the number of the downmix channel audio signals. In this case, when the decoding apparatus 2 fails to decode the multichannel audio signal, the decoding device 2 may decode the coded downmix audio signal and output the monochannel audio signal or the stereo channel audio signal directly. This is necessary for compatibility between devices.

공간정보 디코딩부(160)는 역다중화부(140)로부터 코딩된 공간정보를 수신하고, 코딩된 공간정보의 디코딩을 수행하여 공간정보를 생성한다. 이때, 수신한 비트스트림에서 공간정보 코딩 방법을 나타내는 식별자를 추출하고, 상기 식별자에 따라 적어도 하나 이상의 디코딩 방법 중에 특정 디코딩 방법이 선택되어 공간정보를 디코딩하여 공간정보를 생성한다.The spatial information decoding unit 160 receives the coded spatial information from the demultiplexer 140 and decodes the coded spatial information to generate spatial information. In this case, an identifier indicating a spatial information coding method is extracted from the received bitstream, and a specific decoding method is selected among at least one decoding method according to the identifier to decode the spatial information to generate spatial information.

멀티채널 생성부(170)는 코어 디코딩부(150)로부터 다운믹스 신호를 수신하고, 공간정보 디코딩부(160)로부터 공간정보를 수신하여, 멀티채널 오디오 신호를 생성하고, 생성된 멀티채널 오디오 신호를 출력한다. The multichannel generator 170 receives a downmix signal from the core decoder 150, receives spatial information from the spatial information decoder 160, generates a multichannel audio signal, and generates the generated multichannel audio signal. Outputs

이와 같이, 본 발명은 멀티채널 오디오 신호를 직접 전송하는 대신에 스테레 오 채널 오디오 신호 또는 모노 채널 오디오 신호로 다운믹스하여 전송하고, 멀티채널 오디오 신호의 공간정보를 함께 전송하는 방식을 통해서 신호의 압축 및 전송 효율의 관점에서 매우 우수한 방식이다.As described above, the present invention uses a method of downmixing a stereo channel audio signal or a mono channel audio signal instead of directly transmitting the multichannel audio signal, and transmitting spatial information of the multichannel audio signal together. It is a very good way in terms of compression and transmission efficiency.

도 2a는 본 발명에 따른 공간정보 코딩부의 일 실시예를 도시한 것이다. 도 2a를 참조하면, 공간정보 코딩부(120)는 PCM 코딩부(210), 디퍼렌셜 코딩부(220), 허프만 코딩부(230)를 포함할 수 있다. 2A illustrates an embodiment of a spatial information coding unit according to the present invention. Referring to FIG. 2A, the spatial information coding unit 120 may include a PCM coding unit 210, a differential coding unit 220, and a Huffman coding unit 230.

PCM 코딩부(210)는 그룹 PCM 코딩부(211) 및 파일럿 코딩부(213)를 포함할 수 있다. 그룹 PCM 코딩부(211)는 수신된 공간정보를 그룹 단위로 그룹 PCM 코딩을 수행하여 그룹 PCM 코딩된 신호들을 다중화부(130)로 출력한다. 파일럿 코딩부(213)는 파일럿 값을 결정하고, 결정된 파일럿 값을 이용하여 각 데이터의 파일럿 코딩을 수행하여, 파일럿 값과 파일럿 코딩된 인덱스들인 파일럿 차이값들을 출력한다. 여기서, 그룹 PCM 코딩부(211)와 파일럿 코딩부(213)는 예를 들어 데이터 세트의 특성에 따라 선택적으로 동작한다. 이하, 파일럿 코딩부(212)에서 수행하는 파일럿 코딩 과정에 대해서 상세히 설명하면 다음과 같다.The PCM coding unit 210 may include a group PCM coding unit 211 and a pilot coding unit 213. The group PCM coding unit 211 performs group PCM coding on the received spatial information in group units and outputs the group PCM coded signals to the multiplexing unit 130. The pilot coding unit 213 determines a pilot value, performs pilot coding of each data using the determined pilot value, and outputs pilot difference values and pilot difference values that are pilot coded indices. Here, the group PCM coding unit 211 and the pilot coding unit 213 selectively operate according to the characteristics of the data set, for example. Hereinafter, a pilot coding process performed by the pilot coding unit 212 will be described in detail.

첫째, 전송하고자 하는 복수 개의 데이터를 포함한 데이터 세트(set)에 대한 파일럿 값(P)을 결정한다. 이때, 데이터 세트는 적어도 하나 이상으로 구성된다.First, a pilot value P for a data set including a plurality of data to be transmitted is determined. At this time, the data set is composed of at least one.

둘째, 각 데이터와 파일럿 값과의 차이를 나타내는 파일럿 차이값을 생성한다. 이를 수식으로 나타내면 수학식 1과 같다.Second, a pilot difference value representing the difference between each data and the pilot value is generated. This is represented by the equation (1).

d2[n] = x[n] - P, n = 0, 1, ...,N-1d2 [n] = x [n]-P, n = 0, 1, ..., N-1

여기서, 상기 x[n]은 데이터, P는 파일럿 값, d2[n]는 파일럿 차이값, N은 데이터의 개수를 의미한다. Here, x [n] is data, P is a pilot value, d2 [n] is a pilot difference value, and N is the number of data.

셋째, 파일럿 차이값과 파일럿 값을 전송한다. 여기서, 파일럿 값은 평균값, 중간값, 최빈값 등이 사용될 수 있으나, 어떤 임의의 값이든지 선택할 수 있으며, 코딩 과정에서 결정하여 디코딩 장치로 전송하는 값이다. 또한, 코딩 과정에서 파일럿 값으로 가능한 여러 값들을 적용하여 코딩을 수행한 뒤, 가장 효율적으로 코딩될 때의 값으로 선택하는 것도 가능하다. 관련하여, 파일럿 코딩에서 파일럿 값 자체에 대한 전송을 위해서 비트가 필요하므로, 파일럿 값 코딩을 위한 별도의 테이블을 만들어 사용할 수도 있다. 또는, 파일럿 값을 하나의 값으로 고정함으로써 전송하지 않는 방법을 통해 파일럿 값 전송에 필요한 비트를 최소화하는 것이 가능하다.Third, the pilot difference value and the pilot value are transmitted. Here, the pilot value may be an average value, a median value, a mode value, or the like, but any arbitrary value may be selected, which is determined in the coding process and transmitted to the decoding apparatus. In addition, after coding is performed by applying various possible values as pilot values in the coding process, it is possible to select a value when coding is most efficiently. In this regard, since bits are required for transmission of the pilot value itself in pilot coding, a separate table for pilot value coding may be created and used. Alternatively, by fixing the pilot value to one value, it is possible to minimize the bits necessary for transmitting the pilot value through a method not transmitting.

파일럿 차이값과 파일럿 값을 수신한 디코딩 장치에서는 다음 수학식 2에 의해서 데이터를 복원하는 것이 가능하다.In the decoding apparatus having received the pilot difference value and the pilot value, it is possible to recover data by the following equation (2).

y[n] = d2[n] + P, n = 0, 1, ...,N-1 y [n] = d2 [n] + P, n = 0, 1, ..., N-1

여기서, y[n]는 복원된 데이터를 의미한다. Here, y [n] means restored data.

디퍼렌셜 코딩부(220)는 주파수 디퍼렌셜 코딩부(221), 전방위 타임 디퍼렌셜 코딩부(223), 및 후방위 타임 디퍼렌셜 코딩부(225)를 포함할 수 있다. 주파수 디퍼렌셜 코딩부(221)는 공간정보의 주파수 디퍼렌셜 코딩을 수행하는데, 이는 같은 데이터 세트 안에서 이웃 주파수 사이의 디퍼렌셜 코딩을 수행한다.The differential coding unit 220 may include a frequency differential coding unit 221, an omnidirectional time differential coding unit 223, and a backward time differential coding unit 225. The frequency differential coding unit 221 performs frequency differential coding of spatial information, which performs differential coding between neighboring frequencies in the same data set.

전방위 타임 디퍼렌셜 코딩부(223)는 공간정보에 대한 타임 디퍼렌셜 코딩을 수행하는데, 특히, 시간적으로 이웃하는 데이터 세트 사이에서 전방위(forward)로 디퍼렌셜 코딩을 수행한다. 후방위 타임 디퍼렌셜 코딩부(225)는 공간정보에 대한 타임 디퍼렌셜 코딩을 수행하는데, 이는 시간적으로 이웃하는 데이터 세트 사이에서 후방위(backward)로 디퍼렌셜 코딩을 수행한다. 여기서, 주파수 디퍼렌셜 코딩부(221), 전방위 타임 디퍼렌셜 코딩부(223), 및 후방위 타임 디퍼렌셜 코딩부(225)는 선택적으로 동작될 수 있다.The omnidirectional time differential coding unit 223 performs time differential coding on spatial information, and in particular, performs differential coding in a forward direction between temporal neighboring data sets. The backward differential time coding unit 225 performs time differential coding on spatial information, which performs differential differential coding backwards between temporal neighboring data sets. Here, the frequency differential coding unit 221, the omnidirectional time differential coding unit 223, and the backward time differential coding unit 225 may be selectively operated.

또한, 디퍼렌셜 코딩부(220)에서 수행하는 디퍼렌셜 코딩의 경우, 차이를 계산하는 기준값이 시간 또는 주파수에서의 이웃 샘플이 된다. 이때, 타임 디퍼렌셜 코딩이 사용되는 경우는 각 샘플에 대응하는 기준 샘플이 항시 존재할 수 있으나, 주파수 디퍼렌셜 코딩의 경우, 첫번째 샘플은 디퍼런스할 기준값이 존재하지 않기 때문에 디퍼렌셜 코딩의 실시에 어려움이 있다. 따라서, 주파수 디퍼렌셜 코딩시의 첫번째 샘플에 대해서는 디퍼렌셜 코딩을 실시하지 않고, 원래 샘플 그대로를 선형 PCM 샘플 형태로 허프만 코딩부(230)로 출력한다.In addition, in the case of differential coding performed by the differential coding unit 220, a reference value for calculating a difference becomes a neighboring sample in time or frequency. In this case, when time differential coding is used, a reference sample corresponding to each sample may be present at all times. However, in frequency differential coding, differential coding is difficult because the first sample does not have a reference value to be different. Therefore, the first sample in the frequency differential coding is not differentially coded, and the original sample is output to the Huffman coding unit 230 in the form of a linear PCM sample.

허프만 코딩부(230)는 파일럿 코딩부(213)에서 출력된 파일럿 값과 파일럿 차이값, 디퍼렌셜 코딩부(220)에서 출력된 디퍼렌셜 코딩된 공간정보에 대해 엔트 로피 코딩(entropy coding)을 수행한다. 엔트로피 코딩의 수행은 전송 데이터의 압축 효율을 높이기 위함이다. 본 실시예에서는 엔트로피 코딩(entropy coding)의 일 실시예로 허프만 코딩을 기준으로 설명하나, 본 발명이 이에 한정되지 않음은 자명한 사실이다. 관련하여, 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행하지 않고 파이럿 값과 파일럿 차이값을 다중화부(130)에 전송할 수 있다.The Huffman coding unit 230 performs entropy coding on the pilot value, the pilot difference value output from the pilot coding unit 213, and the differential coded spatial information output from the differential coding unit 220. Entropy coding is performed to increase compression efficiency of the transmission data. In the present embodiment, an embodiment of entropy coding is described based on Huffman coding, but the present invention is not limited thereto. In relation to this, in the coding apparatus 1, the pilot information and the pilot difference value may be transmitted to the multiplexer 130 without performing Huffman coding after the spatial information is pilot coded.

상기 허프만 코딩부(230)는 1차원 허프만 코딩부(231), 주파수 페어 2차원 허프만 코딩부(232), 및 타임 페어 2차원 허프만 코딩부(235)를 포함할 수 있다. 1차원 허프만 코딩부(231)는 수신된 샘플을 한 샘플씩 허프만 코딩을 수행하며, 주파수 페어 2차원 허프만 코딩부(233)는 수신된 샘플을 주파수 쌍으로 두 샘플씩 묶어서 허프만 코딩을 수행하며, 타임 페어 2차원 허프만 코딩부(235)는 수신된 샘플을 타임 쌍으로 두 샘플씩 묶어서 허프만 코딩을 수행한다. 허프만 코딩부(230)에서 허프만 코딩된 신호들을 출력하면, 다중화부(130)에서 다중화를 수행하고, 다중화된 신호를 출력한다. 이때, 다중화된 신호는 비트스트림이 가능하다. 관련하여, 허프만 코딩부(230)에서의 허프만 코딩시 주파수 디퍼렌셜 코딩의 첫번째 샘플은 다른 디퍼렌셜 코딩된 샘플들과는 통계적 특성이 다르므로, 디퍼렌셜 코딩된 샘플들과 다른 허프만 테이블을 사용하여 코딩할 수 있다. 이는 파일럿 코딩시에 생성된 출력인 파일럿 값에 대해서도 마찬가지이다.The Huffman coding unit 230 may include a 1D Huffman coding unit 231, a frequency pair 2D Huffman coding unit 232, and a time pair 2D Huffman coding unit 235. The one-dimensional Huffman coding unit 231 performs Huffman coding of the received samples by one sample, and the frequency pair two-dimensional Huffman coding unit 233 performs Huffman coding by tying the received samples into two frequency pairs. The time pair two-dimensional Huffman coding unit 235 bundles the received samples into two time pairs and performs Huffman coding. When the Huffman coding unit 230 outputs the Huffman coded signals, the multiplexing unit 130 performs multiplexing and outputs the multiplexed signal. In this case, the multiplexed signal may be a bitstream. In this regard, the first sample of the frequency differential coding in Huffman coding in the Huffman coding unit 230 has a statistical property different from that of other differentially coded samples, and thus may be coded using a Huffman table different from the differential coded samples. The same is true for the pilot value which is the output generated during pilot coding.

이하, 공간정보 코딩부(120)에서 공간정보를 코딩한 방법에 대한 정보를 나타내는 식별자에 대해 예를 들어 설명하도록 한다. 이때, 식별자(flag)는 비트스트림에 나타내기 위해 비트가 필요하다.Hereinafter, an identifier indicating information on a method of coding spatial information by the spatial information coding unit 120 will be described by way of example. At this point, an identifier (flag) needs a bit to appear in the bitstream.

공간정보 코딩부(120)의 입력(IN1)인 공간정보를 PCM 코딩을 수행할 것인지, 또는 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. PCM 코딩과 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제1식별자(201)라 명명한다. 제1식별자(201)는 예를 들어, "bsPcmCoding"로 나타낼 수 있다.It is possible to select whether to perform PCM coding or differential coding on the spatial information input IN1 of the spatial information coding unit 120. An identifier including information on a coding method selected among PCM coding and differential coding is called a first identifier 201. The first identifier 201 may be represented, for example, as "bsPcmCoding".

PCM 코딩을 수행하는 것으로 선택되면, 상기 PCM 코딩 중 그룹 PCM 코딩을 수행할 것인지, 파일럿 코딩을 수행할 것인지 선택할 수 있다. 그룹 PCM 코딩과 파일럿 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제2식별자(202)라 명명한다. 제2식별자(202)는 예를 들어, "bsPilotCoding"로 나타낼 수 있다.If it is selected to perform PCM coding, it is possible to select whether to perform group PCM coding or pilot coding among the PCM coding. An identifier including information on a coding method selected between group PCM coding and pilot coding is called a second identifier 202. The second identifier 202 may be represented as "bsPilotCoding", for example.

PCM 코딩과 디퍼렌셜 코딩 중 디퍼렌셜 코딩을 수행하는 것으로 선택되면, 상기 디퍼렌셜 코딩 중 주파수 디퍼렌셜 코딩을 수행할 것인지, 타임 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. 주파수 디퍼렌셜 코딩과 타임 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제3식별자(203)라 명명한다. 제3식별자(203)는 예를 들어, "bsDiffType"로 나타낼 수 있다.If it is selected to perform differential coding among PCM coding and differential coding, it is possible to select whether to perform frequency differential coding or time differential coding among the differential coding. An identifier including information on a coding method selected among frequency differential coding and time differential coding is called a third identifier 203. The third identifier 203 may be represented, for example, as "bsDiffType."

또한, 디퍼렌셜 코딩 중 타임 디퍼렌셜 코딩을 수행하는 것으로 선택되면, 타임 디퍼렌셜 코딩 중 전방위 타임 디퍼렌셜 코딩을 수행할 것인지, 후방위 타임 디퍼렌셜 코딩을 수행할 것인지 선택할 수 있다. 전방위 타임 디퍼렌셜 코딩과 후방위 타임 디퍼렌셜 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제4식별자(204)라 명명한다. 제4식별자(204)는 예를 들어, "bsDiffTimeDirection"로 나타낼 수 있다.In addition, if it is selected to perform time differential coding among the differential coding, it is possible to select whether to perform the omnidirectional time differential coding or the backward position differential coding among the time differential coding. An identifier including information about a coding method selected among omnidirectional time differential coding and backward time differential coding is called a fourth identifier 204. The fourth identifier 204 may be represented, for example, as "bsDiffTimeDirection".

그리고, 파일럿 코딩부(213)에서 코딩된 신호들과 디퍼렌셜 코딩부(220)에서 코딩된 신호들의 전송 효율을 높이기 위해서 허프만 코딩을 수행하는 경우를 살펴본다.In addition, a case in which Huffman coding is performed to increase transmission efficiency of signals coded by the pilot coding unit 213 and signals coded by the differential coding unit 220 will be described.

허프만 코딩부(230)에서 수신된 신호를 한 샘플씩 허프만 코딩을 하는 1차원 허프만 코딩을 수행할 것인지, 두 샘플씩 묶어서 허프만 코딩을 하는 2차원 허프만 코딩을 수행할 것인지 선택할 수 있다. 1차원 허프만 코딩과 2차원 허프만 코딩 중 선택된 코딩 방법에 대한 정보인 코딩 스킴을 포함하는 식별자를 제5식별자(205)라 명명한다. 제5식별자는 예를 들어, "bsCodingScheme"로 나타낼 수 있다.The Huffman coding unit 230 may select whether to perform one-dimensional Huffman coding for Huffman coding by one sample or two-dimensional Huffman coding for Huffman coding by combining two samples. An identifier including a coding scheme that is information about a coding method selected between one-dimensional Huffman coding and two-dimensional Huffman coding is called a fifth identifier 205. The fifth identifier may be represented, for example, as "bsCodingScheme."

상기 1차원 허프만 코딩과 2차원 허프만 코딩 중 2차원 허프만 코딩을 수행한 것으로 선택되면, 2차원 허프만 코딩을 주파수 페어 2차원 허프만 코딩을 수행할 것인지, 타임 페어 2차원 허프만 코딩을 수행할 것인지 선택한다. 주파수 페어 2차원 허프만 코딩과 타임 페어 2차원 허프만 코딩 중 선택된 코딩 방법에 대한 정보를 포함하는 식별자를 제6식별자(206)라 명명한다. 제6식별자(206)는 예를 들어, "bsPairing"로 나타낼 수 있다.If it is selected that two-dimensional Huffman coding is performed between the one-dimensional Huffman coding and the two-dimensional Huffman coding, select whether to perform frequency pair two-dimensional Huffman coding or time pair two-dimensional Huffman coding. . An identifier including information on a coding method selected among frequency pair two-dimensional Huffman coding and time pair two-dimensional Huffman coding is called a sixth identifier 206. The sixth identifier 206 may be represented, for example, as "bsPairing."

따라서, 코딩 장치(1)에서는 상기 여러 가지 코딩 방법 중에서 선택하여 코딩을 수행하는 것이 가능하다. 이때, 코딩 장치(1)는 선택된 코딩 방법들을 나타내는 식별자를 생성하며, 상기 생성된 식별자에 대한 정보를 비트스트림에 삽입하여 디코딩 장치로 전송하게 된다. 디코딩 장치(2)에서는 코딩 방법들을 나타내는 상기 식별자를 확인하여, 디코딩 방법을 결정하게 된다. 이때, 코딩 장치(1)에서는 상기 여러 가지 코딩 방법 중에서 입력된 공간정보를 코딩하는데 가장 유리한 방법을 선택하여 사용할 수 있다.Therefore, in the coding apparatus 1, it is possible to select from the various coding methods and to perform coding. At this time, the coding device 1 generates identifiers indicating the selected coding methods, inserts the information about the generated identifiers into the bitstream, and transmits them to the decoding device. The decoding apparatus 2 determines the decoding method by checking the identifiers indicating the coding methods. In this case, the coding device 1 may select and use the most advantageous method for coding the input spatial information among the various coding methods.

예를 들어, 입력 데이터의 특성에 따라서 파일럿 코딩과 디퍼렌셜 코딩 중 어느 방법이 더 효율적인지가 달라지므로 코딩 장치(1)의 선택에 따라서 상기 두 코딩 방법 중 하나를 사용할 수 있다. 좀 더 상세히 설명하면, 파일럿 코딩 방법은 파일럿 값 정보를 전송해야하기 때문에 디퍼렌셜 코딩 방법과 비교하여, 전송되는 데이터의 개수가 1개 늘어난다. 이는, 디퍼렌셜 코딩을 수행하여 전송해야 하는 데이터의 개수가 N개이면, 파일럿 코딩을 수행하여 전송해야 하는 데이터의 개수는 N+1개가 된다. 이때, 상기 N값이 큰 경우는 파일럿 코딩을 수행하는 것이 디퍼렌셜 코딩을 수행하는 것보다 효율적일 수 있고, 상기 N값이 작은 경우는 파일럿 코딩을 수행하는 이득보다 파일럿 값을 전송하는데 필요한 비트 수가 커서, 디퍼렌셜 코딩을 수행하는 것이 파일럿 코딩을 수행하는 것보다 효율적일 수 있다. For example, it is possible to use one of the two coding methods according to the selection of the coding apparatus 1 since the method of pilot coding or differential coding is more efficient depending on the characteristics of the input data. In more detail, since the pilot coding method needs to transmit pilot value information, the number of data to be transmitted increases by one compared to the differential coding method. If the number of data to be transmitted by performing differential coding is N, the number of data to be transmitted by performing pilot coding is N + 1. In this case, when the N value is large, performing pilot coding may be more efficient than performing differential coding. When the N value is small, the number of bits required for transmitting a pilot value is larger than a gain for performing pilot coding. Performing differential coding may be more efficient than performing pilot coding.

도 2b는 발명에 따른 공간정보 디코딩부의 일 실시예를 도시한 것이다. 도 2b를 참조하면, 공간정보 디코딩부(160)는 PCM 디코딩부(260), 허프만 디코딩부(270), 및 디퍼렌셜 디코딩부(280)를 포함할 수 있다. 또한, 공간정보 디코딩부(160)는 식별자 추출부(250)를 더 포함할 수 있다.2B illustrates an embodiment of a spatial information decoding unit according to the present invention. Referring to FIG. 2B, the spatial information decoding unit 160 may include a PCM decoding unit 260, a Huffman decoding unit 270, and a differential decoding unit 280. In addition, the spatial information decoding unit 160 may further include an identifier extraction unit 250.

식별자 추출부(250)는 비트스트림(IN2)으로부터 식별자를 추출한다. 식별자 추출부(250)에서 추출하는 식별자는 예를 들어, 전술한 제1식별자 ~ 제6식별자이다. 상기 식별자는 코딩 방법에 대한 정보를 포함하고 있으므로 식별자를 확인하여 디코딩 방법을 결정한다. 디코딩 방법이 결정되면 공간정보 디코딩부(160)에서는 결정된 디코딩 방법에 따라 상기 코딩된 공간정보의 디코딩을 수행하게 된다. 관련하여, 디코딩 장치(2)의 역다중화부(140)에서 식별자를 추출할 수도 있다. The identifier extractor 250 extracts an identifier from the bitstream IN2. The identifier extracted by the identifier extractor 250 is, for example, the first to sixth identifiers described above. Since the identifier includes information about a coding method, the identifier is checked to determine the decoding method. When the decoding method is determined, the spatial information decoding unit 160 decodes the coded spatial information according to the determined decoding method. In this regard, the demultiplexer 140 of the decoding apparatus 2 may extract the identifier.

PCM 디코딩부(260)는 그룹 PCM 디코딩부(261) 및/또는 파일럿 디코딩부(263)를 포함할 수 있다. 그룹 PCM 디코딩부(261)는 그룹 PCM 코딩되어 전송된 코딩된 공간정보의 그룹 PCM 디코딩을 수행하여 공간정보(OUT2)를 생성하고, 파일럿 디코딩부(263)는 파일럿 코딩되어 전송된 파일럿 값과 파일럿 차이값의 파일럿 디코딩을 수행하여 공간정보(OUT2)를 생성한다. 이때, 파일럿 디코딩부(263)로 입력되는 신호인 파일럿 값과 파일럿 차이값은 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행한 경우에는 허프만 디코딩부(270)에서 허프만 디코딩 후의 출력값인데 반해, 코딩 장치(1)에서 공간정보가 파일럿 코딩 후 허프만 코딩을 수행하지 않은 경우에는 역다중화부(140)에서 전송된 값일 수 있다. The PCM decoding unit 260 may include a group PCM decoding unit 261 and / or a pilot decoding unit 263. The group PCM decoding unit 261 generates spatial information OUT2 by performing group PCM decoding of coded spatial information that is group PCM coded and transmitted, and the pilot decoding unit 263 pilot-coded and transmitted the pilot value and the pilot. Pilot decoding of the difference value is performed to generate spatial information OUT2. In this case, the pilot value and the pilot difference value, which are signals input to the pilot decoding unit 263, are output values after Huffman decoding by the Huffman decoding unit 270 when the spatial information is performed by Huffman coding after the pilot coding. In contrast, when the spatial information in the coding apparatus 1 does not perform Huffman coding after pilot coding, the spatial information may be a value transmitted from the demultiplexer 140.

허프만 디코딩부(270)는 1차원 허프만 디코딩부(271), 주파수 페어 2차원 허프만 디코딩부(273), 및 타임 페어 2차원 허프만 디코딩부(275)를 포함할 수 있다. 1차원 허프만 디코딩부(271)는 1차원 허프만 코딩되어 전송된 코딩된 공간정보를 1차원 허프만 디코딩을 수행하고, 주파수 페어 2차원 허프만 디코딩부(273)는 주파수 페어로 2차원 허프만 코딩되어 전송된 코딩된 공간정보를 주파수 페어로 2차원 허프만 디코딩을 수행하고, 타임 페어 2차원 허프만 디코딩부(275)는 타임 페어로 2차원 허프만 코딩되어 전송된 코딩된 공간정보를 타임 페어로 2차원 허프만 디코딩을 수행한다. The Huffman decoding unit 270 may include a 1D Huffman decoding unit 271, a frequency pair 2D Huffman decoding unit 273, and a time pair 2D Huffman decoding unit 275. The one-dimensional Huffman decoding unit 271 performs one-dimensional Huffman decoding on the coded spatial information transmitted by one-dimensional Huffman coding, and the frequency pair two-dimensional Huffman decoding unit 273 is two-dimensional Huffman-coded and transmitted as a frequency pair. Two-dimensional Huffman decoding is performed on the coded spatial information as a frequency pair, and the time-pair two-dimensional Huffman decoding unit 275 performs two-dimensional Huffman decoding on the coded spatial information transmitted by two-dimensional Huffman coding as a time pair. Perform.

허프만 디코딩부(270)에서 출력된 신호는 식별자에 따라서 파일럿 디코딩부(263)에 입력되어 파일럿 디코딩을 수행하거나, 디퍼렌셜 디코딩부(280)에 입력되어 디퍼렌셜 디코딩을 수행하여 공간정보를 생성하게 된다. 이때, 허프만 디코딩 부(270)에서 출력된 신호는 코딩 장치(1)에서 파일럿 코딩이 수행된 경우에는 파일럿 값과 파일럿 차이값이 될 수 있고, 코딩 장치(1)에서 디퍼렌셜 코딩이 수행된 경우에는 디퍼렌셜값이 될 수 있다.The signal output from the Huffman decoding unit 270 is input to the pilot decoding unit 263 according to the identifier to perform pilot decoding, or input to the differential decoding unit 280 to perform differential decoding to generate spatial information. In this case, the signal output from the Huffman decoding unit 270 may be a pilot value and a pilot difference value when pilot coding is performed in the coding apparatus 1, and when differential coding is performed in the coding apparatus 1. It can be a differential value.

파일럿 디코딩부(263)는 수신된 신호로부터 파일럿 값을 추출하는 파일럿 추출부를 포함할 수 있다. 또한, 파일럿 디코딩부(263)는 허프만 디코딩부(270)로부터 수신한 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 생성한다. 예를 들어, 코딩 장치(1)에서 파일럿 코딩과 허프만 코딩을 수행하여 공간정보 비트스트림이 전송된 경우, 디코딩 장치(2)에서는 파일럿 값을 위한 허프만 디코딩을 수행하고, 파일럿 차이값을 위한 허프만 디코딩을 수행한 후, 파일럿 값과 파일럿 차이값을 이용하여 파일럿 디코딩을 수행한다. 이때, 어떤 디코딩을 수행할지 여부에 대한 정보는 추출된 식별자를 통해서 결정되고, 파일럿 값은 1차원 허프만 디코딩된 값이다.The pilot decoder 263 may include a pilot extractor that extracts a pilot value from the received signal. In addition, the pilot decoding unit 263 generates spatial information using the pilot value and the pilot difference value received from the Huffman decoding unit 270. For example, when the spatial information bitstream is transmitted by performing pilot coding and Huffman coding in the coding apparatus 1, the decoding apparatus 2 performs Huffman decoding for the pilot value and Huffman decoding for the pilot difference value. After performing, pilot decoding is performed using the pilot value and the pilot difference value. In this case, information on which decoding to perform is determined through the extracted identifier, and the pilot value is a one-dimensional Huffman decoded value.

디퍼렌셜 디코딩부(280)는 허프만 디코딩부(270)에서 허프만 디코딩되어 출력된 신호를 식별자에 따라 디퍼렌셜 디코딩 방법 중 하나를 수행하여 공간정보를 생성하고, 상기 생성된 공간정보를 출력하는데, 주파수 디퍼렌셜 디코딩부(281), 전방위 타임 디퍼렌셜 디코딩부(283), 및 후방위 타임 디퍼렌셜 디코딩부(285)를 포함할 수 있다. 주파수 디퍼렌셜 디코딩부(281)는 주파수 디러렌셜 디코딩을 수행하고, 전방위 타임 디퍼렌셜 디코딩부(283)는 전방위 타임 디퍼렌셜 디코딩을 수행하고, 후방위 타임 디퍼렌셜 디코딩부(285)는 후방위 타임 디퍼렌셜 디코딩을 수행한다.The differential decoding unit 280 generates spatial information by outputting the generated spatial information by performing one of the differential decoding methods on the Huffman decoding signal output by the Huffman decoding unit 270 according to the identifier, and frequency differential decoding. The unit 281 may include an omnidirectional time differential decoding unit 283 and an omnidirectional time differential decoding unit 285. The frequency differential decoding unit 281 performs frequency differential decoding, the omnidirectional time differential decoding unit 283 performs an omnidirectional time differential decoding, and the omnidirectional time differential decoding unit 285 performs an omnidirectional time differential decoding. do.

이하, 도 3 ~ 도 9는 본 발명에 따른 오디오 신호의 신택스들을 설명하기 위한 도면으로, 본 발명에서 'XXX'는 데이터 타입의 값으로 대체될 수 있다. 3 to 9 are diagrams for describing syntaxes of an audio signal according to the present invention. In the present invention, 'XXX' may be replaced with a value of a data type.

도 3은 본 발명에 따른 오디오 신호의 EcData() 신택스를 도시한 것이다. EcData() 신택스는 공간정보 프레임에서 CLD, ICC, CPC, ACG 등의 각 공간정보별로 인코딩된 모든 데이터 세트를 포함하는 비트스트림내의 요소이다. 또한, EcData() 신택스는 'bsXXXdataMode' 필드(310), 'bsDataPairXXX' 필드(320), 'bsQuantCoarseXXX' 필드(330), 'bsFreqResStrideXXX' 필드(340) 등을 포함하는데, 이하에서는 상기 필드들을 위주로 살펴보도록 한다.3 illustrates an EcData () syntax of an audio signal according to the present invention. The EcData () syntax is an element in the bitstream that includes all data sets encoded for each spatial information such as CLD, ICC, CPC, ACG, etc. in the spatial information frame. In addition, the EcData () syntax includes a 'bsXXXdataMode' field 310, a 'bsDataPairXXX' field 320, a 'bsQuantCoarseXXX' field 330, a 'bsFreqResStrideXXX' field 340, and the like. Let's see.

'bsXXXdataMode' 필드(310)는 데이터 세트에 대한 특정 데이터 모드의 정보를 포함하는 요소이다. 'bsXXXdataMode' 필드(310)로부터 EcData()내에 존재하는 데이터 세트의 개수를 얻을 수 있다. 이때, 아래 표 1은 'bsXXXdataMode' 필드(310)의 일 예를 나타낸 것이으로, 'bsXXXdataMode' 필드(310)가 '3'인 경우에만 실제 데이터 세트가 전송되므로 해당 데이터 세트의 개수를 계산할 수 있다.The 'bsXXXdataMode' field 310 is an element that contains information of a specific data mode for a data set. The number of data sets existing in EcData () may be obtained from the 'bsXXXdataMode' field 310. In this case, Table 1 below shows an example of the 'bsXXXdataMode' field 310. Since the actual data set is transmitted only when the 'bsXXXdataMode' field 310 is '3', the number of corresponding data sets can be calculated. .

bsXXXdataModebsXXXdataMode MeaningMeaning 00 set to default parameter valuesset to default parameter values 1One keep previous parameter values unchangedkeep previous parameter values unchanged 22 interpolate parameter valuesinterpolate parameter values 33 read losslessly coded parameter valuesread losslessly coded parameter values

표 1을 참조하면, 'bsXXXdataMode' 필드 값이 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 'bsXXXdataMode' 필드 값이 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 'bsXXXdataMode' 필드 값이 '2'인 경우는 파라미터 값들을 보간(interpolate) 하며, 'bsXXXdataMode' 필드 값이 '3'인 경우는 손실 없이 코딩된 파라미터 값들을 읽는다. 관련하여, 상기 데이터가 신규 전송인 경우는 'bsXXXdataMode' 필드 값이 '3'인 경우를 의미하고, 'bsXXXdataMode' 필드(310)는 2비트로 표현할 수 있다.Referring to Table 1, if the value of the 'bsXXXdataMode' field is '0', the default parameter values are set. If the value of the 'bsXXXdataMode' field is '1', the previous parameter values are kept unchanged. If the field value is '2', the parameter values are interpolated. If the 'bsXXXdataMode' field value is '3', the coded parameter values are read without loss. In this regard, when the data is a new transmission, it means that the value of the 'bsXXXdataMode' field is '3', and the 'bsXXXdataMode' field 310 may be represented by 2 bits.

'bsDataPairXXX' 필드(320)는 데이터 페어 여부를 나타내는 정보를 포함하며, 두 개의 연속하는 파라미터 서브셋(two subsequent parameter subsets)이 페어로서 함께(jointly) 코딩되었는지를 의미한다. 상기 'bsDataPairXXX' 필드(320)를 해독하면, 수신한 데이터가 페어로 구성되어 있는지를 확인할 수 있다. 이때, 'bsDataPairXXX' 필드(320)는 1비트로 표현할 수 있다. 관련하여, 본 발명에서는 파라미터 서브셋(parameter subsets)은 데이터 세트와 같은 의미로 사용됨을 밝혀둔다.The 'bsDataPairXXX' field 320 includes information indicating whether a data pair exists, and indicates whether two subsequent parameter subsets are jointly coded as a pair. Decrypting the 'bsDataPairXXX' field 320 may determine whether the received data consists of a pair. In this case, the 'bsDataPairXXX' field 320 may be represented by 1 bit. In relation to this, it is noted that parameter subsets are used in the same sense as the data set in the present invention.

'bsQuantCoarseXXX' 필드(330)는 특정 데이터가 거친 양자화(coarse quantization)가 적용되었는지 여부를 나타내는 거친 양자화(coarse quantization) 정보를 포함한다. 아래 표 2는 'bsQuantCoarseXXX' 필드(330)의 일 예를 나타낸 것이다.The 'bsQuantCoarseXXX' field 330 includes coarse quantization information indicating whether coarse quantization has been applied to specific data. Table 2 below shows an example of the 'bsQuantCoarseXXX' field 330.

bsQuantCoarseXXXbsQuantCoarseXXX MeaningMeaning 00 parameter values coded with full quantizer resolutionparameter values coded with full quantizer resolution 1One parameter values coded with half quantizer resolutionparameter values coded with half quantizer resolution

표 2를 참조하면, 'bsQuantCoarseXXX' 필드 값이 '0'인 경우는 전해상도 양자화(full quantizer resolution)을 가지고 코딩된 파라미터 값들을 의미하며, 'bsQuantCoarseXXX' 필드 값이 '1'인 경우는 반해상도 양자화(half quantizer resolution)을 가지고 코딩된 파라미터 값들을 의미할 수 있다. 또한, 'bsQuantCoarseXXX' 필드(330)는 1비트로 표현할 수 있다.Referring to Table 2, when the value of the 'bsQuantCoarseXXX' field is '0', the parameter values are coded with full quantizer resolution, and the half resolution when the value of the 'bsQuantCoarseXXX' field is '1'. It may refer to parameter values coded with half quantizer resolution. In addition, the 'bsQuantCoarseXXX' field 330 may be represented by 1 bit.

'bsFreqResStrideXXX' 필드(340)는 파라미터 밴드들(parameter bands)이 XXX 데이터의 엔트로피 코딩(entropy coding)을 위해 그룹화되었는지를 나타내는 정보를 포함하며, XXX 데이터가 어떻게 그룹화되었는지를 나타낼 수 있다. 아래 표 3은 'bsFreqResStrideXXX' 필드(340)에 따른 pbStride의 일 예를 나타낸 것이다.The 'bsFreqResStrideXXX' field 340 includes information indicating whether parameter bands are grouped for entropy coding of XXX data and may indicate how XXX data is grouped. Table 3 below shows an example of pbStride according to the 'bsFreqResStrideXXX' field 340.

bsFreqResStrideXXXbsFreqResStrideXXX pbStridepbStride 00 1 (i.e., no grouping)1 (i.e., no grouping) 1One 22 22 55 33 1010

표 3을 참조하면, 'bsFreqResStrideXXX' 필드 값이 '0'인 경우는 pbStride가 '1'로 노 그룹핑(no grouping)을 의미하고, 'bsFreqResStrideXXX' 필드 값이 '1'인 경우는 pbStride가 '2'를 의미하고, 'bsFreqResStrideXXX' 필드 값이 '2'인 경우는 pbStride가 '5'를 의미하고, 'bsFreqResStrideXXX' 필드 값이 '3'인 경우는 pbStride가 '10'을 의미할 수 있다. 관련하여, 'bsFreqResStrideXXX' 필드(340)는 데이터밴드(dataBand) 수를 결정하는 하나의 요인이 될 수 있고, 2비트로 표현할 수 있다. Referring to Table 3, if the value of the 'bsFreqResStrideXXX' field is '0', pbStride is '1', which means no grouping. If the value of the 'bsFreqResStrideXXX' field is '1', pbStride is '2'. ',' BsFreqResStrideXXX 'field value' 2 'means pbStride' 5 ',' bsFreqResStrideXXX 'field value' 3 'may mean pbStride' 10 '. In this regard, the 'bsFreqResStrideXXX' field 340 may be one factor for determining the number of data bands and may be represented by 2 bits.

이후 데이트 밴드들(dataBands)을 구하는 방법은 수학식 3과 같다.Since the data bands (dataBands) to obtain the equation (3).

dataBands=(stopBand-startBand-1)/pbStride+1 dataBands = (stopBand-startBand-1) / pbStride + 1

또한, EcDataPair()는 bsDataPairXXX 식별자에 따라 디코딩할 데이터 세트의 페어 여부를 판단하여, 하나 혹은 두 개의 데이터 세트를 디코딩한다. 또한, 데이트 세트가 페어인 경우, 2번째 데이터 세트에 대한 'bsXXXQuantCoarse'와 'bsFreqResStrideXXX' 값은 첫번째 데이터 세트에 대한 값으로 대체된다.Also, EcDataPair () determines whether to pair a data set to be decoded according to a bsDataPairXXX identifier, and decodes one or two data sets. Also, if the data set is a pair, the 'bsXXXQuantCoarse' and 'bsFreqResStrideXXX' values for the second data set are replaced with the values for the first data set.

도 4a, 도 4b는 본 발명에 따른 오디오 신호의 EcDataPair() 신택스를 도시한 것이다. EcDataPair() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets)을 포함하는 요소이다. 또한, EcDataPair() 신택스는 'bsPcmCodingXXX' 필드(410), 'bsPilotCodingXXX' 필드(420) 등을 포함하는데, 이하에서는 상기 필드들을 위주로 살펴보도록 한다.4A and 4B illustrate the EcDataPair () syntax of an audio signal according to the present invention. The EcDataPair () syntax is an element that contains one or two temporarily subsequent parameter subsets given as parameters in a SAC frame. In addition, the EcDataPair () syntax includes a 'bsPcmCodingXXX' field 410, a 'bsPilotCodingXXX' field 420, and the like, which will be described below.

'bsPcmCodingXXX' 필드(410)는 코딩 장치에서 PCM 코딩이 적용되었는지 여부를 나타내는 정보를 포함하는 제1식별자이다.The 'bsPcmCodingXXX' field 410 is a first identifier including information indicating whether PCM coding is applied in the coding device.

상기 'bsPcmCodingXXX' 필드(410) 해독 결과, 코딩 장치에서 PCM 코딩이 적용되고, 데이터 밴드를 나타내는 dataBands가 특정값보다 큰지를 확인한다. 이때, 상기 특정값은 파일럿 코딩과 디퍼렌셜 코딩 중 어떤 코딩 방법을 선택적으로 사용할지를 나타내는 임계값이 될 수 있다. 또한, 상기 특정 값은 4로 할 수 있으나, 본 발명이 상기 특정 값을 4로 한정하지는 않는다. 상기 확인결과, 코딩 장치에서 공간정보를 코딩할 때, PCM 코딩이 적용되었으며, dataBands가 특정값 이상일 경우 'bsPilotCodingXXX' 필드(420)를 해독한다. 'bsPilotCodingXXX' 필드(420)는 하나 또는 두 개의 임시적으로 연속적인 데이터 세트에 파일럿 코딩(pilot-based coding)이 적용되었는지를 나타내는 제2식별자이다.As a result of decoding the 'bsPcmCodingXXX' field 410, it is checked whether PCM coding is applied in the coding apparatus and that dataBands representing data bands are larger than a specific value. In this case, the specific value may be a threshold indicating which coding method of pilot coding and differential coding is selectively used. In addition, the specific value may be 4, but the present invention does not limit the specific value to 4. As a result of the confirmation, when coding the spatial information in the coding device, PCM coding is applied, and if the dataBands is greater than or equal to a specific value, the 'bsPilotCodingXXX' field 420 is decoded. The 'bsPilotCodingXXX' field 420 is a second identifier indicating whether pilot-based coding has been applied to one or two temporarily contiguous data sets.

도 5a, 도 5b는 본 발명에 따른 오디오 신호의 DiffHuffData() 신택스를 도시한 것이다. DiffHuffData() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets)을 포함하는 요소이다. 이때, SAC 프레임에는 디퍼렌셜 코딩 또는 허프만 코딩의 조합을 이용하여 코딩된 양자화된 값들(quantized values)을 포함할 수 있다.5A and 5B illustrate the DiffHuffData () syntax of an audio signal according to the present invention. The DiffHuffData () syntax is an element that contains one or two temporarily subsequent parameter subsets given as parameters in a SAC frame. In this case, the SAC frame may include quantized values coded using a combination of differential coding or Huffman coding.

본 발명에서 'bsCodeW' 필드는 허프만 코드워드(huffman code word) 또는 이스케이프 코드(escape code)를 나타낸다. 'bsCodeW' 필드(510)는 허프만 테이블hcodPilot_XXX 정보를 포함하는 허프만 코드워드이다. hcodPilot_XXX에 따라 1차원 허프만 디코딩을 수행하여 파일럿 값을 추출할 수 있다. hcodPilot_XXX는 XXX값에 의해 결정되어지는 데이터 타입의 파일럿 코딩을 위해 사용되는 1차원 허프만 코드로, 공간정보를 코딩하는 경우 파일럿 코딩이 적용되면 파일럿 값의 코딩을 위해 적용된다. 여기서, hcodPilot_XXX 정보를 포함하는 'bsCodeW' 필드(510)는 1..x비트로 표현할 수 있다.In the present invention, the 'bsCodeW' field indicates a Huffman code word or an escape code. The 'bsCodeW' field 510 is a Huffman codeword containing Huffman table hchoodPilot_XXX information. According to hcodPilot_XXX, one-dimensional Huffman decoding may be performed to extract pilot values. hcodPilot_XXX is a one-dimensional Huffman code used for pilot coding of a data type determined by a XXX value. When pilot information is applied when coding spatial information, hcodPilot_XXX is applied for coding a pilot value. Here, the 'bsCodeW' field 510 including the hcodPilot_XXX information may be represented by 1..x bits.

'bsDiffType' 필드는 하나 또는 두 개의 임시적으로 연속적인 데이트 세 트(temporally successive data sets)가 주파수 방향 또는 타임 방향으로의 디퍼렌셜 코딩인지를 나타내는 정보의 제3식별자이다. 'bsDiffType' 필드는 1 또는 2비트로 표현할 수 있다. 여기서, 먼저 데이터가 페어인지를 나타내는 페어 식별자인 pairFlag 또는 allowDiffTimeBackFlag를 확인하여, 데이터 세트가 페어이거나 후방위 타임 디퍼렌셜 코딩이 수행된 경우에는 'bsDiffType[0]' 필드(520)를 해독한다. 이후, pairFlag를 통해 데이터 세트가 페어인 제1조건과, bsDiffType[0]==DIFF_FREQ이거나 allowDiffTimeBackFlag를 통해 데이터 세트가 후방위 타임 디퍼렌셜 코딩이 수행된 경우라는 제2조건을 모두 만족하면 'bsDiffType[1]' 필드(530)를 해독한다.The 'bsDiffType' field is a third identifier of information indicating whether one or two temporarily successive data sets are differential coding in the frequency direction or the time direction. The 'bsDiffType' field may be represented by 1 or 2 bits. Here, first, pairFlag or allowDiffTimeBackFlag, which is a pair identifier indicating whether the data is a pair, is checked. When the data set is a pair or after backward time differential coding is performed, the 'bsDiffType [0]' field 520 is decoded. Subsequently, if both of the first condition that the data set is paired through pairFlag and the second condition that bsDiffType [0] == DIFF_FREQ or the second condition that the data set is backward-differentiated time differential coding are performed through allowDiffTimeBackFlag are met, 'bsDiffType [1]. ] 'Field 530 is decrypted.

'bsCodingScheme' 필드(540)는 코딩 장치에서 1차원 허프만 코딩과 2차원 허프만 코딩 중 어느 코딩이 사용되었는지를 결정하는 코딩 스킴의 정보를 포함하는 제5식별자이며, 1비트로 표현할 수 있다. 표 4는 'bsCodingScheme' 필드(540)의 일 예를 나타낸 것이다. The 'bsCodingScheme' field 540 is a fifth identifier including information on a coding scheme for determining which one of one-dimensional Huffman coding and two-dimensional Huffman coding is used in the coding apparatus, and may be expressed in one bit. Table 4 shows an example of the 'bsCodingScheme' field 540.

MnemonicMnemonic ValueValue MeaningMeaning HUFF_1DHUFF_1D 00 1D Huffman coding1D Huffman coding HUFF_2DHUFF_2D 1One 2D Huffman coding2D Huffman coding

표 4를 참조하면, 'HUFF 1D' 값이 '0'이면 코딩 장치에서 1차원 허프만 코딩이 수행된 경우를 나타내고, 'HUFF 2D' 값이 '1'이면 코딩 장치에서 2차원 허프만 코딩이 수행된 경우를 나타낼 수 있다.Referring to Table 4, when the 'HUFF 1D' value is '0', it indicates that one-dimensional Huffman coding is performed in the coding apparatus. When the 'HUFF 2D' value is '1', two-dimensional Huffman coding is performed in the coding apparatus. It may indicate a case.

여기서, 제5식별자인 코딩 스킴에 따라 파일럿 차이값 추출하되, 상기 코딩 스킴이 1차원 허프만 코딩이면 1차원 허프만 디코딩을 수행하고, 데이터 세트가 페어이면 1차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출할 수 있다.Here, the pilot difference value is extracted according to the coding scheme of the fifth identifier. If the coding scheme is one-dimensional Huffman coding, one-dimensional Huffman decoding is performed. Can be extracted.

bsCodingScheme==HUFF_1D이 아닌 경우, 즉 bsCodingScheme==HUFF_2D인 경우 pairFlag를 확인하여 데이터가 페어이면 'baPairing' 필드(550)를 해독한다. 상기 'baPairing' 필드(550)는 2차원 허프만 코드(2D huffman code)의 페어링 방향(pairing direction)을 결정하는 정보를 포함하며, 1비트로 표현할 수 있다. 표 5는 'baPairing' 필드(550)의 일 예를 나타낸 것이다.If bsCodingScheme == HUFF_1D, that is, if bsCodingScheme == HUFF_2D, the pairFlag is checked, and if the data is a pair, the 'baPairing' field 550 is decrypted. The 'baPairing' field 550 includes information for determining a pairing direction of a 2D Huffman code and may be expressed by 1 bit. Table 5 shows an example of the 'baPairing' field 550.

MnemonicMnemonic ValueValue MeaningMeaning FREQ_PAIRFREQ_PAIR 00 pairing in frequency directionpairing in frequency direction TIME_PAIRTIME_PAIR 1One pairing in time directionpairing in time direction

표 5를 참조하면, FREQ_PAIR는 '0'값을 가지는 경우로 주파수 방향에서 페어링된 경우를 나타내고, TIME_PAIR는 '1'값을 가지는 경우로 타임 방향에서 페어링된 경우를 나타낼 수 있다.Referring to Table 5, FREQ_PAIR has a value of '0' and indicates a case of pairing in the frequency direction, and TIME_PAIR has a value of '1' and may indicate a case of pairing in the time direction.

여기서, 상기 코딩 스킴이 2차원 허프만 코딩이면 2차원 허프만 디코딩을 수행하되, 데이터 세트가 주파수 방향으로 페어링이면, 주파수 페어 2차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출할 수 있다. 또한, 데이트 세트가 주파수 방향으로 페어링이고, 데이터 세트가 페어이면 2차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출할 수 있다. 또한, 코딩 스킴이 2차원 허프만 코딩이면 2차원 허프만 디코딩을 수행하되, 데이터 세트가 타임 방향으로 페어링이면, 타임 페어 2차원 허프만 디코딩을 페어 여부와 상관없이 페어 데이터 세트까지 수행하여 파일럿 차이값을 추출할 수 있다.If the coding scheme is two-dimensional Huffman coding, two-dimensional Huffman decoding may be performed. If the data set is paired in the frequency direction, a pilot difference value may be extracted by performing frequency pair two-dimensional Huffman decoding. In addition, when the data set is paired in the frequency direction and the data set is paired, two-dimensional Huffman decoding may be performed once more to extract a pilot difference value. If the coding scheme is two-dimensional Huffman coding, two-dimensional Huffman decoding is performed. If the data set is paired in the time direction, the pilot difference value is extracted by performing the time pair two-dimensional Huffman decoding up to the pair data set regardless of pairing. can do.

'bsDiffTimeDirection' 필드(560)는 타임 방향에서 디퍼렌셜 코딩(differential coding)이 이전 프레임(predecessor frame) 또는 이후 프레임(successor frame) 중 어느 프레임과 비교하여 계산되었는지를 나타내는 정보를 포함하는데, 1비트로 표현할 수 있다. 표 6은 'bsDiffTimeDirection' 필드(560)의 일 예를 나타낸 것이다.The 'bsDiffTimeDirection' field 560 includes information indicating whether differential coding has been calculated in a time direction compared to a previous frame or a successor frame, and may be represented by 1 bit. have. Table 6 shows an example of the 'bsDiffTimeDirection' field 560.

MnemonicMnemonic ValueValue MeaningMeaning BACKWARDSBACKWARDS 00 difference relative to previous parameter time slot datadifference relative to previous parameter time slot data FORWARDSFORWARDS 1One difference relative to following parameter time slot datadifference relative to following parameter time slot data

표 6을 참조하면, BACKWARDS는 '0'값을 가지는 경우로 이전 파라미터 타임 슬롯 데이터와 비교하여 차이를 나타내고, FORWARDS는 '1'값을 가지는 경우로 뒤따르는 파라미터 타임 슬롯 데이터와 비교하여 차이를 나타낼 수 있다.Referring to Table 6, BACKWARDS has a value of '0' and shows a difference compared to previous parameter time slot data, and FORWARDS has a '1' value and shows a difference with subsequent parameter time slot data. Can be.

도 6은 본 발명에 따른 오디오 신호의 HuffData1D() 신택스를 도시한 것이다. 이때, HuffData1D() 신택스는 1차원 허프만 코드를 사용하여 허프만 데이터를 생성하는 과정을 포함할 수 있다.6 illustrates the HuffData1D () syntax of an audio signal according to the present invention. In this case, the HuffData1D () syntax may include generating Huffman data using a one-dimensional Huffman code.

'bsCodeW' 필드(610)는 허프만 테이블 hcodFirstBand_XXX 정보를 포함하는 허프만 코드 워드이다. hcodFirstBand_XXX에 따라 1차원 허프만 디코딩을 수행하여 1차원 허프만 데이터(aHuffData1D[0])를 생성한다. hcodFirstBand_XXX는 XXX값에 의해 결정되는 데이터 타입의 데이터 코딩을 위해 사용되는 1차원 허프만 코드로, 주파수 방향으로 디퍼렌셜 코딩이 적용될 때, 가장 낮은 주파수 밴드(lowest frequency band)의 코딩을 위해 적용된다. 여기서, hcodFirstBand_XXX 정보를 포함하는 'bsCodeW' 필드(610)는 1..x비트로 표현할 수 있다.The 'bsCodeW' field 610 is a Huffman code word containing Huffman table hcodFirstBand_XXX information. One-dimensional Huffman decoding is performed according to hcodFirstBand_XXX to generate one-dimensional Huffman data aHuffData1D [0]. hcodFirstBand_XXX is a one-dimensional Huffman code used for data coding of the data type determined by the XXX value. When differential coding is applied in the frequency direction, hcodFirstBand_XXX is applied for coding of the lowest frequency band. Here, the 'bsCodeW' field 610 including hcodFirstBand_XXX information may be represented by 1..x bits.

'bsCodeW' 필드(620)는 허프만 테이블 hcod1D_XXX_YY 정보를 포함하는 허프만 코드 워드이다. hcod1D_XXX_YY에 따라 1차원 허프만 디코딩을 수행하여 1차원 허프만 데이터(aHuffData1D[i])를 생성한다. hcod1D_XXX_YY는 XXX값에 의해 결정되는 데이터 타입의 데이터 코딩을 위해 사용되는 1차원 허프만 코드이고, YY는 파일럿 코딩 또는 디퍼런스 계산의 방향을 결정한다. 예를 들어, YY가 PC이면 파일럿 코딩이고, YY가 DF이면 주파수 방향의 차이값들, YY가 DT이면 타임 방향의 차이값들을 나타낸다. 또한, hcod1D_XXX_PC와 hcod1D_XXX_DT를 위한 허프만 테이블은 동일할 수 있다. 여기서, hcod1D_XXX_YY 정보를 포함하는 'bsCodeW' 필드(620)는 1..x비트로 표현할 수 있다.The 'bsCodeW' field 620 is a Huffman code word containing Huffman table hcod1D_XXX_YY information. One-dimensional Huffman decoding is performed according to hcod1D_XXX_YY to generate one-dimensional Huffman data aHuffData1D [i]. hcod1D_XXX_YY is a one-dimensional Huffman code used for data coding of a data type determined by XXX value, and YY determines the direction of pilot coding or difference calculation. For example, if YY is PC, pilot coding, if YY is DF, difference values in the frequency direction, and if YY is DT, the difference values in the time direction are represented. In addition, Huffman tables for hcod1D_XXX_PC and hcod1D_XXX_DT may be the same. Here, the 'bsCodeW' field 620 including the hcod1D_XXX_YY information may be represented by 1..x bits.

'bsSign' 필드(630)는 1차원 허프만 코딩된 값의 부호(sign)을 결정하는 것으로 1비트로 표현할 수 있다. 예를 들어, bsSign이 '0'인 경우는 1차원 허프만 코딩된 값이 포지티브(positive)이며, bsSign이 '1'인 경우는 1차원 허프만 코딩된 값이 네거티버(negative)를 나타낼 수 있다.The 'bsSign' field 630 may be represented by one bit by determining a sign of a one-dimensional Huffman coded value. For example, when bsSign is '0', the one-dimensional Huffman coded value may be positive, and when bsSign is '1', the one-dimensional Huffman coded value may represent negative. .

도 7은 본 발명에 따른 오디오 신호의 HuffData2DFreqPair() 신택스를 도시한 것이다. 이때, HuffData2DFreqPair() 신택스는 주파수 방향에서 이웃하는 값들의 페어들을 표현하는 2차원 허프만 코드들(two-dimensional Huffman codes)을 사용하여 생성한 허프만 데이터를 포함할 수 있다.7 illustrates the HuffData2DFreqPair () syntax of an audio signal according to the present invention. In this case, the HuffData2DFreqPair () syntax may include Huffman data generated using two-dimensional Huffman codes representing pairs of neighboring values in the frequency direction.

'bsCodeW' 필드(710)는 허프만 테이블 hcodLavIdx 정보를 포함하는 허프만 코드 워드이다. hcodLavIdx에 따라 1차원 허프만 디코딩을 수행하여 최대값 인덱스(LavIdx)를 생성한다. hcodLavIdx는 LavIdx 데이터 코딩을 위해 사용하는 1차원 허프만 코드(one-dimensional Huffman code)를 의미한다. 또한, 상기 hcodLavIdx는 아래 표 7에 따라 2차원 허프만 코드(two-dimensional Huffman codes)로 코딩된 하나 또는 두 개의 데이터 세트에서 최대값(largest absolute value)을 결정할 수 있다.The 'bsCodeW' field 710 is a Huffman code word containing Huffman table hcodLavIdx information. One-dimensional Huffman decoding is performed according to hcodLavIdx to generate a maximum value index LavIdx. hcodLavIdx means a one-dimensional Huffman code used for LavIdx data coding. In addition, the hcodLavIdx may determine a largest absolute value in one or two data sets coded with two-dimensional Huffman codes according to Table 7 below.

LavIdxLavIdx lavTabCLD[LavIdx]lavTabCLD [LavIdx] lavTabICC[LavIdx]lavTabICC [LavIdx] lavTabCPC[LavIdx]lavTabCPC [LavIdx] 00 33 1One 33 1One 55 33 66 22 77 55 99 33 99 77 1212

표 7을 참조하면, lavTabCLD = 3, lavTabICC = 1, lavTabCPC = 3에 대해서 LavIdx = 0, lavTabCLD = 5, lavTabICC = 3, lavTabCPC = 6에 대해서 LavIdx = 1, lavTabCLD = 7, lavTabICC = 5, lavTabCPC = 9에 대해서 LavIdx = 2, lavTabCLD = 9, lavTabICC = 7, lavTabCPC = 12에 대해서 LavIdx = 3을 사용할 수 있다. 상기 표 7을 이용하여 데이터 타입에 따른 LavIdx를 먼저 구하고, LavIdx를 가지고 허프만 코딩을 하므로, 이때는 데이터 타입에 관계없이 코딩을 할 수 있다. 따라서, lavTabXXX를 적용하여 LAV값을 구할 수 있다. 여기서, hcodLavIdx 정보를 포함하는 'bsCodeW' 필드(710)는 1..3비트로 표현할 수 있다.Referring to Table 7, LavIdx = 0, lavTabCLD = 5, lavTabICC = 3, lavTabCPC = 6, LavIdx = 1, lavTabCLD = 7, lavTabICC = 5, lavTabICC = 5, and lavTabICC = 5 for lavTabCLD = 3, lavTabICC = 1 For LavIdx = 2, lavTabCLD = 9, lavTabICC = 7, and lavTabCPC = 12, LavIdx = 3 can be used. Since LavIdx according to the data type is first obtained using Table 7 and Huffman coding is performed with LavIdx, coding can be performed regardless of the data type at this time. Therefore, the LAV value can be obtained by applying lavTabXXX. Here, the 'bsCodeW' field 710 including the hcodLavIdx information may be represented by 1..3 bits.

도 8은 본 발명에 따른 오디오 신호의 HuffData2DTimePair() 신택스를 도시한 것이다. 이때, HuffData2DTimePair() 신택스는 타임 방향에서 이웃하는 값들의 페어들을 표현하는 2차원 허프만 코드들(two-dimensional Huffman codes)을 사용하여 생성한 허프만 데이터를 포함할 수 있다.8 illustrates a HuffData2DTimePair () syntax of an audio signal according to the present invention. In this case, the HuffData2DTimePair () syntax may include Huffman data generated using two-dimensional Huffman codes representing pairs of neighboring values in the time direction.

'bsCodeW' 필드(810)는 허프만 테이블 hcodLavIdx 정보를 포함하는 허프만 코드 워드이다. hcodLavIdx에 따라 1차원 허프만 디코딩을 수행하여 최대값 인덱스(LavIdx)를 생성하는 과정은 도 7에서 살펴보았는바, 여기서는 생략하도록 한다. 'bsCodeW' field 810 is a Huffman code word containing Huffman table hcodLavIdx information. The process of generating the maximum value index LavIdx by performing one-dimensional Huffman decoding according to hcodLavIdx has been described with reference to FIG. 7.

도 9는 본 발명에 따른 오디오 신호의 LsbData() 신택스를 도시한 것이다. 이때, LsbData() 신택스는 SAC 프레임에서 파라미터로 주어진 하나 또는 두 개의 임시적으로 연속하는 파라미터 서브셋(temporally subsequent parameter subsets) 내의 각 값의 하위비트영역(least significant bits)을 포함하는 요소이다.9 illustrates LsbData () syntax of an audio signal according to the present invention. In this case, the LsbData () syntax is an element including a least significant bit of each value in one or two temporarily subsequent parameter subsets given as parameters in a SAC frame.

'bsLsb' 필드(910)는 거친 양자화(coarse quantization) 또는 조밀 양자화(fine quantization) 각각을 적용한 결과에 따른 양자화 인덱스들(quantization indices) 사이에 매핑을 결정하는 정보이다. 여기서, 'bsLsb' 필드(910)는 데이터 타입이 채널 예측 상수(CPC)이고, 거친 양자화(coarse quantization)가 적용되지 않은 경우에 해독하는 값이고, 1비트로 표현가능하다.The 'bsLsb' field 910 is information for determining mapping between quantization indices resulting from applying coarse quantization or fine quantization, respectively. Here, the 'bsLsb' field 910 is a value decoded when the data type is a channel prediction constant (CPC) and coarse quantization is not applied, and can be expressed by 1 bit.

도 10은 본 발명에 따른 공간정보 디코딩부의 다른 실시예를 도시한 것이다. 10 illustrates another embodiment of the spatial information decoding unit according to the present invention.

코딩된 공간정보의 디코딩을 수행하면 양자화된 CLD, ADG, ICC, CPC 파라미터들의 파라미터 인덱스들(parameter indices)를 나타내는 idxXXX[][][]를 생성한다. 이때, 각 파라미터 인덱스들이 가지는 값의 범위는 다음과 같다.Decoding the coded spatial information generates idxXXX [] [] [] representing parameter indices of the quantized CLD, ADG, ICC, and CPC parameters. At this time, the range of values of each parameter index is as follows.

idxCLD[pi][ps][pb]는 -15 .. 15 범위의 값을 가지고, idxATD[pi][ps][pb]는 -15 .. 15 범위의 값을 가지고, idxICC[pi][ps][pb]는 0 .. 7 범위의 값을 가지고, idxCPC[pi][ps][pb]는 -20 .. 30 범위의 값을 가질 수 있다. 이때, ATD 파라미터들은 CLD 데이터처럼 다루어진다. 여기서, pi는 파라미터 인스턴스(parameter instance)를 나타내고, pi의 범위는 CLD, ICC, CPC인 경우 0 ..numOttBoxes+4*numTttBoxs+numInChan-1이며 ATD인 경우 0 .. numOttBoxesAT-1이다. ps는 파라미터 세트(parameter set)를 나타내고, ps의 범위는 0 .. numParamSets-1이다. pb는 파라미터 밴드(parameter band)를 나타내고, pb의 범위는 0 .. numBand-1이다. pg는 파라미터 그룹(parameter group)을 나타내고, pg의 범위는 0 .. dataBands-1이다.idxCLD [pi] [ps] [pb] has a value in the range -15 .. 15, idxATD [pi] [ps] [pb] has a value in the range -15 .. 15, idxICC [pi] [ps ] [pb] can have a value in the range 0..7, and idxCPC [pi] [ps] [pb] can have a value in the range -20..30. At this time, the ATD parameters are treated like CLD data. Here, pi represents a parameter instance, and the range of pi is 0 ..numOttBoxes + 4 * numTttBoxs + numInChan-1 for CLD, ICC, and CPC, and 0 .. numOttBoxesAT-1 for ATD. ps represents a parameter set, and the range of ps is 0 .. numParamSets-1. pb represents a parameter band, and the range of pb is 0..numBand-1. pg represents a parameter group, and the range of pg is 0 .. dataBands-1.

공간정보 디코딩부는 전처리부(1010), 델타 디코딩부(1020), 후처리부(1030)를 포함할 수 있다. 델타 디코딩부(1020)는 파일럿 디코딩부와 디퍼렌셜 디코딩부를 포함할 수 있다. 전처리부(1010)는 이전 파라미터 세트의 인덱스를 입력받아 전처리를 수행하는데, 예를 들어, 이전 인덱스들을 현재 주파수 해상도(current frequency resolution)에 매핑하고, 오프셋 인덱스들(offset indices)이 네거티브(negative)가 되지않게 하고, 필요한 경우 거친 양자화(coarse quantization)로 변환할 수 있다. 델타 디코딩부(1020)는 bsXXXPilot, bsXXXlsb, bsXXXmsbDiff, bsXXXpcm를 수신하고, 전처리부(1010)로부터 idxXXXmsb를 수신하여 코딩된 공간정보의 디코딩을 수행하여 매핑되지 않은 공간정보 인덱스를 의미하는 idxXXXnotMapped를 출력한다. 후처리부(1030)는 델타 디코딩부(1020)로부터 idxXXXnotMapped를 수신하여 후처리를 수행하여 공간정보 인덱스인 idxXXX를 출력하는데, 예를 들어, 최고 주파수 해상도(highest frequency resolution)로 매핑하고, 오프셋을 제거하고, 조밀 양자화(fine quantization)로 변환할 수 있다. 여기서, bsXXXPilot는 허프만 디코딩된 파일럿 값, bsXXXlsb는 델타 디코딩된 인덱스들과 결합을 위해 사용될 수 있는 하위비트영역(least significant bit), bsXXXmsbDiff는 상위비트영역(most significant bit)의 허프만 디코딩된 델타 인덱스, bsXXXpcm는 PCM 디코딩된 인덱스를 의미한다. 이때, 델타 인덱스란 파일럿 차이값 및/또는 디퍼런스 값을 의미한다.The spatial information decoding unit may include a preprocessor 1010, a delta decoder 1020, and a post processor 1030. The delta decoding unit 1020 may include a pilot decoding unit and a differential decoding unit. The preprocessor 1010 receives the index of the previous parameter set and performs preprocessing, for example, mapping the previous indexes to the current frequency resolution, and offset indices are negative. Can be converted to coarse quantization if necessary. The delta decoding unit 1020 receives bsXXXPilot, bsXXXlsb, bsXXXmsbDiff, bsXXXpcm, receives idxXXXmsb from the preprocessor 1010, decodes the coded spatial information, and outputs idxXXXnotMapped, which represents an unmapped spatial information index. . The post processor 1030 receives idxXXXnotMapped from the delta decoder 1020 and performs post-processing to output idxXXX, which is a spatial information index. For example, the post processor 1030 maps to the highest frequency resolution and removes the offset. Can be converted into fine quantization. Where bsXXXPilot is a Huffman decoded pilot value, bsXXXlsb is a least significant bit that can be used for combining with delta decoded indices, bsXXXmsbDiff is a Huffman decoded delta index of the most significant bit, bsXXXpcm means PCM decoded index. In this case, the delta index means a pilot difference value and / or a difference value.

도 11은 본 발명에 따른 공간정보 디코딩의 전처리 단계의 일 실시예를 설명하기 위해 도시한 것이다. 도 11을 참조하면, 타임 디퍼렌셜 디코딩을 위해서는 이전 프레임의 마지막 값이 필요하므로, 마지막 값을 불러와서 현재 프레임의 거친 양자화(coarse quantization) 여부에 따라 값을 맞추어준다. 이때, 데이터 타입에 따라 값을 맞추는 방법이 다르다.FIG. 11 illustrates an embodiment of a preprocessing step of spatial information decoding according to the present invention. Referring to FIG. 11, since the last value of the previous frame is required for time differential decoding, the last value is retrieved and adjusted according to whether coarse quantization of the current frame is performed. At this time, the method of matching the value depends on the data type.

만약, 이전 프레임의 값이 이미 2배가 된 값인 경우, 거친 양자화를 사용하면, 상기 2배가 된 값을 미리 2로 나누어서 현재 프레임에 나올 값과의 연산을 위해 스케일을 맞추어준다. 또한, 데이터 타입에 따라 값이 표현된 방법이 다르기 때문에 오프셋(offset)을 더하기도 한다.If the value of the previous frame is already doubled, when coarse quantization is used, the doubled value is divided by 2 in advance to adjust the scale for calculation with the value of the current frame. In addition, an offset may be added because the value is expressed in accordance with the data type.

도 12a ~ 도 12b는 본 발명에 따른 디코딩 과정을 예를 들어 설명하기 위해 도시한 것이다. 여기서, 디코딩 과정의 일 예로 델타 디코딩을 정의하는데, 델타 디코딩이란 공간정보가 주파수 디퍼렌셜 코딩, 타임 디퍼렌셜 코딩, 파일럿 코딩이 적용되어 코딩된 경우, 이를 디코딩하는 과정을 말한다. 이때, 본 발명에 따른 델타 디코딩은 제1비트영역과 제2비트영역으로 나누어 전송된 값을 이어주는 작업을 수행할 수 있다. 본 발명에서 제1비트영역은 상위비트영역(most significant bit:msb)을 의미하고, 제2비트영역은 하위비트영역(least significant bit:lsb)을 의미한다.12A to 12B illustrate examples of the decoding process according to the present invention. Here, as an example of the decoding process, delta decoding is defined. When delta decoding is coded by applying spatial differential coding, time differential coding, and pilot coding, spatial information is decoded. In this case, the delta decoding according to the present invention may divide the first bit region and the second bit region and connect the transmitted values. In the present invention, the first bit region means most significant bit (msb), and the second bit region means least significant bit (lsb).

도 12a를 참조하면, 코딩 장치에서 공간정보 코딩을 위해 파일럿 코딩이 사용된 경우, decodePilotDeltaData()를 이용하는데, 데이터가 페어를 이루는 경우 데이터 세트가 두 세트이므로 상기 decodePilotDeltaData()를 두 번 이용한다. 만약, 코딩 장치에서 공간정보 코딩을 위해 파일럿 코딩이 사용되지 않고, PCM 코딩이 사용되지 않은 경우, 데이터가 페어인지를 확인하여 decodePilotDeltaData()를 두 번 또는 한번 이용할 수 있다.Referring to FIG. 12A, when pilot coding is used for coding spatial information in a coding apparatus, decodePilotDeltaData () is used. When data is paired, data sets are two sets, and thus decodePilotDeltaData () is used twice. If pilot coding is not used for spatial information coding in the coding device and PCM coding is not used, decodePilotDeltaData () may be used twice or once by checking whether data is a pair.

도 12b를 참조하면, decodePilotDeltaData()를 이용하여 델타 디코딩을 수행하는데, pg는 0부터 dataBands까지 수행하며 이를 수식으로 나타내면 수학식 4와 같다. 예를 들어, 한 데이터 세트 내에 모든 값이 20개이면 pg는 0부터 19까지 수행할 수 있다.Referring to FIG. 12B, delta decoding is performed using decodePilotDeltaData (). Pg is performed from 0 to dataBands, which is expressed by Equation 4 below. For example, if all values are 20 in a data set, pg can run from 0 to 19.

idxXXXmsb = bsXXXmsbDiff + bsXXXpilotidxXXXmsb = bsXXXmsbDiff + bsXXXpilot

여기서, bsXXXmsbDiff는 디코딩된 파일럿 차이값을 의미하고, bsXXXpilot는 디코딩된 파일럿 값을 의미하고, idxXXXmsb는 파일럿 디코딩된 공간정보 인덱스를 의미한다.Here, bsXXXmsbDiff means a decoded pilot difference value, bsXXXpilot means a decoded pilot value, and idxXXXmsb means a pilot decoded spatial information index.

상기 decodePilotDeltaData()에서 bsQuantCoarse이거나 데이터 타입이 CPC가 아닌 경우는 수학식 4에서 계산된 값인 idxXXXmsb를 그대로 매핑되기 전의 공간정보 인덱스인 idxXXXnotMapped로 출력한다. 다만, bsQuantCoarse가 아니고 데이터 타입이 CPC인 경우 idxXXXnotMapped는 idxXXXmsb에 2를 곱하고 하위비트영역(lsb)을 더해주는 과정을 수행하는데 이를 수식으로 나타내면 다음 수학식 5와 같다.If bsQuantCoarse or the data type is not CPC, the decodePilotDeltaData () outputs idxXXXmsb, which is a value calculated in Equation 4, as idxXXXnotMapped, which is a spatial information index before being mapped. However, if bsQuantCoarse and the data type is CPC, idxXXXnotMapped multiplies idxXXXmsb with 2 and adds the lower bit area lsb. This is expressed by Equation 5 below.

idxXXXnotMapped = 2*idxXXXmsb + bsXXXlsbidxXXXnotMapped = 2 * idxXXXmsb + bsXXXlsb

따라서, 데이터 타입이 CPC이고, 거친 양자화인 경우에만 하위비트영역(lsb)를 코딩 장치에서 별도 전송이 필요하고, 상기 하위비트영역(lsb)을 이용하여 idxXXXnotMapped를 구할 수 있다.Therefore, only when the data type is CPC and coarse quantization, the coding apparatus needs to separately transmit the lower bit region lsb, and idxXXXnotMapped can be obtained using the lower bit region lsb.

도 13은 본 발명에 따른 공간정보 디코딩의 후처리 단계의 일 실시예를 설명하기 위해 도시한 것이다. 도 13을 참조하면, 델타 디코딩 수행 후 생성된 idxXXXnotMapped를 각 파라미터 특성에 맞게 매핑을 하는 과정이다.13 is a diagram illustrating an embodiment of a post-processing step of spatial information decoding according to the present invention. Referring to FIG. 13, a process of mapping idxXXXnotMapped generated after performing delta decoding according to each parameter characteristic is performed.

예를 들어, 상기 idxXXXnotMapped를 데이터 타입 CLD는 -15 ~ 15 범위의 값, ICC는 0 ~ 7 범위의 값, CPC는 -20 ~ 20 범위의 값으로 매핑 시켜준다. 이때, 거친 양자화가 사용된 경우에는 2배를 해주는 과정이 필요하다. 또한, 데이터가 그룹핑이 되어 있는 경우이면, 그룹의 값을 펴서 각 밴드의 인덱스에 매칭시키는 과정도 필요하다.For example, the idxXXXnotMapped maps the data type CLD to a value in the range of -15 to 15, an ICC to a value in the range of 0 to 7, and a CPC to a value in the range of -20 to 20. In this case, when coarse quantization is used, a process of doubling is required. In addition, when data is grouped, a process of expanding a group value and matching the index of each band is also required.

도 14a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제1실시예를 도시한 흐름도이다. 14A is a flowchart illustrating a first embodiment of a method of encoding an audio signal according to the present invention.

코딩 장치(1)의 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 생성한다(S10). The spatial information generating unit 103 of the coding apparatus 1 generates spatial information from the multichannel audio signal (S10).

공간정보 코딩부(120)는 공간정보의 양자화 방식을 결정하고, 공간정보의 파일럿 값과 파일럿 차이값을 생성한다(S11). 이때, 양자화 방식의 예를 들면, 거친 양자화(coarse quantization)와 조밀 양자화(fine quantization)이 가능하다.The spatial information coding unit 120 determines a quantization method of the spatial information, and generates a pilot value and a pilot difference value of the spatial information (S11). In this case, for example, coarse quantization and fine quantization are possible.

공간정보 코딩부(120)는 S11단계에서 결정된 양자화 방식과 공간정보 타입에 따라 공간정보의 하위비트영역을 생성한다(S12). 이때, 멀티채널 오디오 신호는 데이터 세트를 포함하고, 공간정보 코딩부(120)는 데이터 세트로부터 파일럿 값과 파일럿 차이값을 생성한다. 예를 들어, 공간정보 코딩부(120)는 데이터 세트의 공간정보 타입이 채널 예측 상수(CPC)이고, 양자화 방식이 거친 양자화(coarse quantization)가 적용되지 않고 조밀 양자화(fine quantization)가 적용된 경우에 공간정보의 하위비트영역을 생성할 수 있다.The spatial information coding unit 120 generates a lower bit region of the spatial information according to the quantization scheme and the spatial information type determined in step S11 (S12). In this case, the multichannel audio signal includes a data set, and the spatial information coding unit 120 generates a pilot value and a pilot difference value from the data set. For example, when the spatial information type of the data set is a channel prediction constant (CPC), and coarse quantization is not applied and fine quantization is applied, the spatial information coding unit 120 is applied. The low bit region of spatial information can be generated.

또한, 공간정보 코딩부(120)는 파일럿 코딩이 적용된 경우에 파일럿 코딩 식 별자를 생성하여 디코딩 장치(2)로 전송할 수 있다.In addition, when the pilot coding is applied, the spatial information coding unit 120 may generate and transmit a pilot coding identifier to the decoding apparatus 2.

도 14b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제1실시예를 도시한 흐름도이다. 14B is a flowchart illustrating a first embodiment of a method of decoding an audio signal according to the present invention.

디코딩 장치(2)의 허프만 디코딩부(270)는 수신한 오디오 신호로부터 파일럿 값과 파일럿 차이값을 추출한다(S20).The Huffman decoding unit 270 of the decoding apparatus 2 extracts a pilot value and a pilot difference value from the received audio signal (S20).

파일럿 디코딩부(263)는 파일럿 값과 파일럿 차이값을 이용하여 공간정보의제1비트영역을 생성한다(S21). The pilot decoding unit 263 generates a first bit region of the spatial information using the pilot value and the pilot difference value (S21).

허프만 디코딩부(270)는 데이터 세트의 공간정보 타입이 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 판단한다(S22). The Huffman decoding unit 270 determines whether the spatial information type of the data set is a channel prediction constant (CPC) and whether coarse quantization is not applied among the quantization schemes (S22).

S22단계 판단결과, 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 만족하지 않으면, 파일럿 디코딩부(263)는 공간정보의 제1비트영역으로 공간정보를 생성한다(S23).If it is determined in step S22 that the channel prediction constant (CPC) does not satisfy the condition that coarse quantization is not applied among the quantization schemes, then the pilot decoding unit 263 is a space in the first bit region of the spatial information. Generate the information (S23).

S22단계 판단결과, 채널 예측 상수(CPC)이고, 양자화 방식 중 거친 양자화(coarse quantization)이 적용되지 않았는지의 조건을 만족하면, 허프만 디코딩부(270)는 공간정보의 제2비트영역을 생성한다(S24). 이후, 파일럿 디코딩부(263)는 공간정보의 제1비트영역과 공간정보의 제2비트영역을 이용하여 공간정보를 생성하는데, 예를 들어, 제1비트영역을 2배하고, 제2비트영역을 더해서 공간정보를 생성한다(S25).As a result of the determination in step S22, when the channel prediction constant (CPC) is satisfied and the condition of coarse quantization is not applied among the quantization schemes, the Huffman decoding unit 270 generates a second bit region of spatial information. (S24). Thereafter, the pilot decoding unit 263 generates spatial information using the first bit region of the spatial information and the second bit region of the spatial information. For example, the pilot decoding unit 263 doubles the first bit region and then the second bit region. Add spatial information to generate (S25).

S23, S25단계 후, 멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공 간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S26).After the steps S23 and S25, the multichannel generator 170 generates the multichannel audio signal using the downmix audio signal and the space information (S26).

도 15a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제2실시예를 도시한 흐름도이다. 15A is a flowchart illustrating a second embodiment of a method of encoding an audio signal according to the present invention.

코딩 장치(1)의 공간정보 생성부(103)는 멀티채널 오디오 신호로부터 공간정보를 생성한다(S30). The spatial information generating unit 103 of the coding apparatus 1 generates spatial information from the multichannel audio signal (S30).

공간정보 코딩부(120)는 공간정보의 파일럿 값과 파일럿 차이값을 생성한다(S31). 또한, 공간정보 코딩부(120)는 파일럿 값은 1차원 허프만 코딩을 수행하고, 파일럿 차이값은 코딩 스킴에 따라 1차원 허프만 코딩 또는 2차원 허프만 코딩 중 하나를 수행한다(S32).The spatial information coding unit 120 generates a pilot value and a pilot difference value of the spatial information (S31). In addition, the spatial information coding unit 120 performs one-dimensional Huffman coding with a pilot value and performs one of one-dimensional Huffman coding or two-dimensional Huffman coding according to the coding scheme (S32).

도 15b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제2실시예를 도시한 흐름도이다. 15B is a flowchart illustrating a second embodiment of a method of decoding an audio signal according to the present invention.

디코딩 장치(2)의 허프만 디코딩부(270)는 수신한 오디오 신호로부터 1차원 허프만 디코딩을 수행하여 파일럿 값을 추출한다(S40). The Huffman decoding unit 270 of the decoding apparatus 2 extracts a pilot value by performing one-dimensional Huffman decoding from the received audio signal (S40).

허프만 디코딩부(270)는 코딩 스킴을 확인한다(S41). The Huffman decoding unit 270 checks the coding scheme (S41).

코딩 스킴 확인결과, 코딩 장치(1)에서 파일럿 차이값에 대해서 1차원 허프만 코딩이 수행된 경우에는 허프만 디코딩부(270)는 1차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출한다(S42). 이때, 데이터 세트가 페어이면, 허프만 디코딩부(270)는 1차원 엔트로피 디코딩을 한번 더 수행하여 파일럿 차이값을 추출한다.As a result of confirming the coding scheme, when the one-dimensional Huffman coding is performed on the pilot difference value in the coding apparatus 1, the Huffman decoding unit 270 performs the one-dimensional Huffman decoding to extract the pilot difference value (S42). At this time, if the data set is a pair, the Huffman decoding unit 270 performs one-dimensional entropy decoding once more to extract a pilot difference value.

이와 달리, 코딩 스킴 확인결과, 코딩 장치(1)에서 파일럿 차이값에 대해서 2차원 허프만 코딩이 수행된 경우에는 허프만 디코딩부(270)는 2차원 허프만 디코 딩을 수행하여 파일럿 차이값을 추출한다(S43). 예를 들어, 허프만 디코딩부(270)는 데이터 세트가 주파수 방향으로 페어링이면, 주파수 페어 2차원 허프만 디코딩을 수행하고, 데이터 세트가 주파수 방향으로 페어링이고, 데이터 세트가 페어이면 2차원 허프만 디코딩을 한번 더 수행하여 파일럿 차이값을 추출한다. 또한, 허프만 디코딩부(270)는 데이터 세트가 타임 방향으로 페어링이면, 타임 페어 2차원 허프만 디코딩을 수행하여 파일럿 차이값을 추출한다. 관련하여, 허프만 디코딩시 파일럿 값에 대한 허프만 테이블은 첫번째 샘플에 대한 허프만 테이블과 같은 것을 사용하고, 파일럿 차이값에 대한 허프만 테이블은 디퍼렌셜 값에 대한 허프만 테이블과 같은 것을 사용할 수 있다. On the other hand, as a result of the coding scheme check, when the 2D Huffman coding is performed on the pilot difference value in the coding apparatus 1, the Huffman decoding unit 270 performs the 2D Huffman decoding to extract the pilot difference value ( S43). For example, if the data set is paired in the frequency direction, the Huffman decoding unit 270 performs frequency pair two-dimensional Huffman decoding, and if the data set is paired in the frequency direction and the data set is paired, the two-dimensional Huffman decoding is performed once. Perform further to extract the pilot difference value. Further, if the data set is paired in the time direction, the Huffman decoding unit 270 extracts a pilot difference value by performing time pair two-dimensional Huffman decoding. In this regard, the Huffman table for pilot values in Huffman decoding may use the same as the Huffman table for first samples, and the Huffman table for pilot difference values may use the same as the Huffman table for differential values.

그리고, 허프만 디코딩부(270)는 1차원 허프만 디코딩을 수행하여 최대값을 추출할 수 있다.The Huffman decoding unit 270 may extract a maximum value by performing 1D Huffman decoding.

S42, S43 단계 이후, 파일럿 디코딩부(263)는 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 생성한다(S44). 이때, 데이터 세트가 페어인 경우, 파일럿 디코딩부(263)는 두 개의 데이터 세트에 대해 하나의 파이럿 값을 이용하여 공간정보를 생성할 수 있다.After the steps S42 and S43, the pilot decoding unit 263 generates spatial information using the pilot value and the pilot difference value (S44). In this case, when the data set is a pair, the pilot decoding unit 263 may generate spatial information using one pilot value for two data sets.

멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S45).The multichannel generator 170 generates a multichannel audio signal using the downmix audio signal and the spatial information (S45).

도 16a는 본 발명에 따른 오디오 신호의 인코딩 방법에 대한 제3실시예를 도시한 흐름도이다. 16A is a flowchart illustrating a third embodiment of a method of encoding an audio signal according to the present invention.

코딩 장치(1)의 공간정보 코딩부(120)는 복수의 데이터 세트를 포함하는 오 디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성한다(S50). The spatial information coding unit 120 of the coding apparatus 1 generates a pilot value and a pilot difference value for at least one data set of the plurality of data sets from the audio signal including the plurality of data sets (S50). .

공간정보 코딩부(120)는 복수의 데이터 세트별 데이터 모드를 생성한다(S51). 이후, 다중화부(130)는 파일럿 값과 파일럿 차이값의 다중화를 수행한다.The spatial information coding unit 120 generates a plurality of data modes for each data set (S51). Thereafter, the multiplexer 130 multiplexes the pilot value and the pilot difference value.

도 16b는 본 발명에 따른 오디오 신호의 디코딩 방법에 대한 제3실시예를 도시한 흐름도이다. 16B is a flowchart illustrating a third embodiment of a method of decoding an audio signal according to the present invention.

디코딩 장치(2)의 역다중화부(140)는 수신한 오디오 신호의 역다중화를 수행하고, 공간정보 디코딩부(160)는 데이터 모드를 해독하여 데이터 세트를 생성한다(S60). 예를 들어, 공간정보 디코딩부(S160)는 데이터 모드가 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 데이터 모드가 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 데이터 모드가 '2'인 경우는 파라미터 값들을 보간하며, 데이터 모드가 '3'인 경우는 코딩된 파라미터 값을 읽어 데이터 세트를 생성할 수 있다. 이때, 데이터 모드가 '3'인 경우는 데이터가 신규 전송된 것을 의미한다. The demultiplexer 140 of the decoding apparatus 2 performs demultiplexing of the received audio signal, and the spatial information decoder 160 decodes the data mode to generate a data set (S60). For example, the spatial information decoding unit S160 sets default parameter values when the data mode is '0', and maintains the previous parameter values without changing the previous parameter values when the data mode is '1'. If the value is '2', the parameter values are interpolated. If the data mode is '3', the data set may be read by reading the coded parameter value. In this case, when the data mode is '3', it means that data is newly transmitted.

공간정보 디코딩부(160)는 데이터 세트의 파일럿 값과 파일럿 차이값을 디코딩하고(S61), 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 디코딩한다(S62). 이때, 파일럿 값은 1차원 허프만 디코딩을 수행하여 추출할 수 있다. 관련하여, 본 실시예에서는 공간정보 디코딩부(160)가 데이터 페어 식별자를 해독하여 페어 여부를 확인하고, 데이터 세트가 페어를 이루는 경우, 페어를 이루는 두 데이터 세트에서 하나의 파일럿 값을 추출하는 것이 가능하다.The spatial information decoding unit 160 decodes the pilot value and the pilot difference value of the data set (S61), and decodes the spatial information using the pilot value and the pilot difference value (S62). In this case, the pilot value may be extracted by performing one-dimensional Huffman decoding. In this embodiment, the spatial information decoding unit 160 decodes the data pair identifier to determine whether the pair is paired, and when the data sets are paired, extracting one pilot value from the two paired data sets. It is possible.

멀티채널 생성부(170)는 다운믹스 오디오 신호와 상기 공간정보를 이용하여 멀티채널 오디오 신호를 생성한다(S63).The multichannel generator 170 generates a multichannel audio signal using the downmix audio signal and the spatial information (S63).

본 발명을 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다. The present invention is not limited to the above-described embodiments, and as can be seen in the appended claims, modifications can be made by those skilled in the art to which the invention pertains, and such modifications are within the scope of the present invention.

상기에서 설명한 본 발명에 따른 오디오 신호의 디코딩 방법 및 장치의 효과를 설명하면 다음과 같다. The effects of the method and apparatus for decoding an audio signal according to the present invention described above are as follows.

첫째, 타임 및 주파수에서 처리하고자하는 데이터 세트 내의 미리 설정된 파일럿 값과 파일럿 차이값을 인코딩하여 전송하고 이를 디코딩하여 효과적으로 오디오 신호를 처리하는 것이 가능하다.First, it is possible to efficiently process an audio signal by encoding and transmitting a preset pilot value and a pilot difference value in a data set to be processed at time and frequency.

둘째, 데이터의 특성에 따라 복수의 디코딩 방법 중에 특정 디코딩 방법을 선택하여 오디오 신호를 처리하는 것이 가능하다.Second, it is possible to process a audio signal by selecting a specific decoding method among a plurality of decoding methods according to the characteristics of the data.

셋째, 공간 파라미터가 포함되는 비트 스트림을 효과적으로 구성하여 전송하는 데이터 량을 효과적으로 줄이는 것이 가능하다.Third, it is possible to effectively configure the bit stream including the spatial parameters to effectively reduce the amount of data to be transmitted.

Claims (18)

(a) 수신된 오디오 신호내의 데이터 모드를 해독하여 데이터 세트를 생성하는 단계;(a) decoding the data mode in the received audio signal to generate a data set; (b) 상기 데이터 세트의 파일럿 값과 파일럿 차이값을 디코딩하는 단계; 및(b) decoding a pilot value and a pilot difference value of the data set; And (c) 상기 파일럿 값과 파일럿 차이값을 이용하여 공간정보를 디코딩하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 방법. and (c) decoding the spatial information using the pilot value and the pilot difference value. 제1항에 있어서, The method of claim 1, 상기 공간정보는 채널 레벨 디퍼런스(channel level difference), 채널 예측 상수(channel prediction coefficient), 인터 채널 코럴레이션(inter channel correlation), 아티스틱 다운믹스 게인(artistic downmix gain) 중 어느 하나인 것을 특징으로 하는 오디오 신호의 디코딩 방법.The spatial information is any one of a channel level difference, a channel prediction coefficient, an inter channel correlation, and an artistic downmix gain. Method of decoding an audio signal. 제1항에 있어서, 상기 (a)단계는 The method of claim 1, wherein step (a) 상기 데이터 모드가 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 상기 데이터 모드가 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 상기 데이터 모드가 '2'인 경우는 파라미터 값들을 보간하며, 상기 데이터 모드가 '3'인 경우는 코딩된 파라미터 값을 읽는 것을 특징으로 하는 오디오 신호의 디코딩 방법.If the data mode is '0', it is set to default parameter values. If the data mode is '1', the previous parameter values are kept unchanged. If the data mode is '2', the parameter values are set. And interpolating and reading the coded parameter value when the data mode is '3'. 제3항에 있어서, The method of claim 3, 상기 데이터 모드가 '3'인 경우는 데이터가 신규 전송된 것을 특징으로 하는 오디오 신호의 디코딩 방법.And if the data mode is '3', data is newly transmitted. 제1항에 있어서, The method of claim 1, 데이터 페어 식별자를 해독하여 데이터 세트의 페어 여부를 확인하는 단계를 더 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 방법.And decoding the data pair identifier to determine whether the data set is paired. 제5항에 있어서, The method of claim 5, 상기 데이터 세트가 페어를 이루는 경우, 페어를 이루는 두 데이터 세트에서 하나의 파일럿 값을 추출하는 것을 특징으로 하는 오디오 신호의 디코딩 방법.And when the data sets are paired, extract one pilot value from two paired data sets. 제1항에 있어서,The method of claim 1, 상기 파일럿 값을 1차원 엔트로피 디코딩을 수행하여 추출하는 것을 특징으로 하는 오디오 신호의 디코딩 방법.And extracting the pilot value by performing one-dimensional entropy decoding. 수신된 오디오 신호의 역다중화를 수행하는 역다중화부; 및A demultiplexer which demultiplexes the received audio signal; And 수신된 오디오 신호내의 데이터 모드를 해독하여 데이터 세트를 생성하고, 파일럿 값과 파일럿 차이값을 디코딩하며, 상기 파일럿 값과 파일럿 차이값을 이용 하여 상기 데이터 세트의 공간정보를 생성하는 공간정보 디코딩부를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 장치.A spatial information decoding unit generates a data set by decoding a data mode in the received audio signal, decodes a pilot value and a pilot difference value, and generates spatial information of the data set using the pilot value and the pilot difference value. An apparatus for decoding an audio signal, characterized in that. 제8항에 있어서, 상기 공간정보 디코딩부는 The method of claim 8, wherein the spatial information decoding unit 데이터 모드가 '0'인 경우는 디폴트 파라미터 값들로 셋하며, 데이터 모드가 '1'인 경우는 이전 파라미터 값들을 변경하지 않고 유지하며, 데이터 모드가 '2'인 경우는 파라미터 값들을 보간하며, 데이터 모드가 '3'인 경우는 코딩된 파라미터 값을 읽는 것을 특징으로 하는 오디오 신호의 디코딩 장치.If the data mode is '0', the default parameter values are set. If the data mode is '1', the previous parameter values are kept unchanged. If the data mode is '2', the parameter values are interpolated. And decoding the coded parameter value when the data mode is '3'. 제9항에 있어서, The method of claim 9, 상기 데이터 모드가 '3'인 경우는 데이터가 신규 전송된 것을 특징으로 하는 오디오 신호의 디코딩 방법.And if the data mode is '3', data is newly transmitted. 제8항에 있어서, 상기 공간정보 디코딩부는The method of claim 8, wherein the spatial information decoding unit 데이터 페어 식별자를 해독하여 데이터 세트의 페어 여부를 확인하는 식별자 추출부를 포함하는 것을 특징으로 하는 오디오 신호의 디코딩 장치.And an identifier extractor which decodes the data pair identifier to determine whether the data set is paired. 제11항에 있어서, 상기 공간정보 디코딩부는The method of claim 11, wherein the spatial information decoding unit 상기 데이터 세트가 페어를 이루는 경우, 페어를 이루는 두 데이터 세트에서 하나의 파일럿 값을 추출하는 것을 특징으로 하는 오디오 신호의 디코딩 장치.And when the data sets are paired, extract one pilot value from two paired data sets. 제12항에 있어서, 상기 공간정보 디코딩부는The method of claim 12, wherein the spatial information decoding unit 상기 파일럿 값을 1차원 엔트로피 디코딩을 수행하여 추출하는 것을 특징으로 하는 오디오 신호의 디코딩 장치.And decoding the pilot value by performing one-dimensional entropy decoding. 복수의 데이터 세트를 포함하는 오디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성하는 단계; 및Generating, from an audio signal comprising a plurality of data sets, a pilot value and a pilot difference value for at least one data set of the plurality of data sets; And 상기 복수의 데이터 세트별 데이터 모드를 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호의 인코딩 방법.Generating a data mode for each of the plurality of data sets. 제14항에 있어서, The method of claim 14, 상기 데이터 모드는 파일럿 값과 파일럿 차이값을 생성하는 데이터 세트와 생성하지않는 데이터 세트를 구분하는 것을 특징으로 하는 오디오 신호의 인코딩 방법.And the data mode distinguishes a data set that generates a pilot value and a pilot difference value from a data set that does not generate a pilot value. 복수의 데이터 세트를 포함하는 오디오 신호로부터, 복수의 데이터 세트 중 적어도 하나의 데이터 세트에 관한 파일럿 값과 파일럿 차이값을 생성하고, 상기 복수의 데이터 세트별 데이터 모드를 생성하는 공간정보 코딩부; 및A spatial information coding unit for generating a pilot value and a pilot difference value for at least one data set of a plurality of data sets from an audio signal including a plurality of data sets, and generating a data mode for each of the plurality of data sets; And 상기 파일럿 값과 상기 파일럿 차이값의 다중화를 수행하는 다중화부를 포함 하는 것을 특징으로 하는 오디오 신호의 인코딩 장치.And a multiplexer configured to multiplex the pilot value and the pilot difference value. 제16항에 있어서, The method of claim 16, 상기 데이터 모드는 파일럿 값과 파일럿 차이값을 생성하는 데이터 세트와 생성하지않는 데이터 세트를 구분하는 것을 특징으로 하는 오디오 신호의 인코딩 장치.And the data mode distinguishes between a data set for generating a pilot value and a pilot difference value and a data set for not generating a pilot value. 다운믹스된 오디오 프레임과 공간정보 프레임을 포함하고, 상기 공간정보 프레임은 복수의 데이터 세트를 포함하고, 상기 복수의 데이터 세트 중 적어도 하나의 데이터 세트는 파일럿 값과 파일럿 차이값을 포함하되, A downmixed audio frame and a spatial information frame, wherein the spatial information frame includes a plurality of data sets, and at least one data set of the plurality of data sets includes a pilot value and a pilot difference value, 상기 파일럿 값과 파일럿 차이값을 포함하는 데이터 세트와 포함하지 않는 데이터 세트를 구분하는 데이터 모드를 포함하는 오디오 신호의 데이터 구조.And a data mode for distinguishing the data set including the pilot value and the pilot difference value from the data set including no pilot value.
KR1020060079838A 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal KR20070108314A (en)

Priority Applications (160)

Application Number Priority Date Filing Date Title
US12/083,081 US8203930B2 (en) 2005-10-05 2006-10-04 Method of processing a signal and apparatus for processing a signal
EP06799096A EP1952112A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004027 WO2007040367A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005858A KR100857118B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004010 WO2007040350A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
US12/083,082 US8755442B2 (en) 2005-10-05 2006-10-04 Method of processing a signal and apparatus for processing a signal
EP06799104A EP1949061A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004014 WO2007040354A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534448A JP5111381B2 (en) 2005-10-05 2006-10-04 Signal processing method and signal processing apparatus
JP2008534454A JP2009512271A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
JP2008534452A JP2009520212A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
JP2008534447A JP2009511944A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
US12/088,868 US7675977B2 (en) 2005-10-05 2006-10-04 Method and apparatus for processing audio signal
EP06799095A EP1946063A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005857A KR100857117B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799093A EP1946300A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
KR1020087005851A KR100857112B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005856A KR100857116B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005859A KR100857119B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087009203A KR100857121B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004024 WO2007040364A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005843A KR100857111B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/088,872 US7671766B2 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005855A KR100857115B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799094A EP1946062A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534450A JP2009511947A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
PCT/KR2006/004020 WO2007040360A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534451A JP2009511948A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
EP09011732A EP2131356B1 (en) 2005-10-05 2006-10-04 Method and apparatus for audio signal processing
CA2624633A CA2624633C (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
US12/088,958 US7756701B2 (en) 2005-10-05 2006-10-04 Audio signal processing using pilot based coding
KR1020087005853A KR100857114B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN2006800373142A CN101283255B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
KR1020060097647A KR101356480B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
EP06799102A EP1946303A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN2006800373212A CN101283405B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004021 WO2007040361A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005852A KR100857113B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534457A JP2009511952A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
CN2006800372506A CN101283250B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004018 WO2007040358A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799089A EP1946298A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
KR1020060097648A KR20070038441A (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
CN2006800371734A CN101283249B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
KR1020087005841A KR100857109B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,385 US7672379B2 (en) 2005-10-05 2006-10-04 Audio signal processing, encoding, and decoding
EP06799105A EP1952113A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799097A EP1946301A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
ES06799107.5T ES2478004T3 (en) 2005-10-05 2006-10-04 Method and apparatus for decoding an audio signal
KR1020087025595A KR101169281B1 (en) 2005-10-05 2006-10-04 Method and apparatus for audio signal processing and encoding and decoding method, and apparatus therefor
CN2006800373814A CN101283406B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
KR1020087005860A KR100878833B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,102 US7756702B2 (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
CN200680037151.8A CN101283248B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004017 WO2007040357A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN2006800371128A CN101283398B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
BRPI0616941-4A BRPI0616941A2 (en) 2005-10-05 2006-10-04 method and apparatus for signal processing
US12/088,865 US7680194B2 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing, encoding, and decoding
JP2008534456A JP2009511951A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
US12/088,518 US7643561B2 (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
PCT/KR2006/004022 WO2007040362A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,383 US7752053B2 (en) 2006-01-13 2006-10-04 Audio signal processing using pilot based coding
PCT/KR2006/004019 WO2007040359A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/088,959 US8068569B2 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding
BRPI0616945-7A BRPI0616945A2 (en) 2005-10-05 2006-10-04 method and apparatus for signal processing
PCT/KR2006/004023 WO2007040363A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/083,059 US7813380B2 (en) 2005-10-05 2006-10-04 Method of processing a signal and apparatus for processing a signal
CN200680037161.1A CN101283399B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
US12/089,105 US7646319B2 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,380 US7684498B2 (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
JP2008534446A JP2009511943A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
JP2008534455A JP5254798B2 (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
EP06799098A EP1949366A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534453A JP5329963B2 (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
EP06799107.5A EP1949062B1 (en) 2005-10-05 2006-10-04 Method and apparatus for decoding an audio signal
EP06799090A EP1946299A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
JP2008534458A JP5405828B2 (en) 2005-10-05 2006-10-04 Signal processing method and apparatus
KR1020087005836A KR100878828B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
ES09011732T ES2390103T3 (en) 2005-10-05 2006-10-04 Procedure and apparatus for processing audio signals
CN2006800372830A CN101283252B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
EP06799103A EP1946304A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/088,866 US7643562B2 (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
EP06799106A EP1931958A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004025 WO2007040365A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087009202A KR100857120B1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799099.4A EP1949367B1 (en) 2005-10-05 2006-10-04 Method and apparatus for audio signal processing
US12/088,871 US7660358B2 (en) 2005-10-05 2006-10-04 Signal processing using pilot based coding
BRPI0616859-0A BRPI0616859A2 (en) 2005-10-05 2006-10-04 method and apparatus for signal processing
CN2006800373138A CN101283254B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
JP2008534459A JP5319286B2 (en) 2005-10-05 2006-10-04 Data processing method and apparatus, encoding and decoding method, and apparatus therefor
AU2006297950A AU2006297950B2 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004015 WO2007040355A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534449A JP2009511946A (en) 2005-10-05 2006-10-04 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
PCT/KR2006/004026 WO2007040366A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004016 WO2007040356A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799100A EP1949368A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN200680037202.7A CN101283400B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
CN2006800372633A CN101283251B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
EP06799101A EP1946302A4 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN2006800372737A CN101283402B (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004013 WO2007040353A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
KR1020060097646A KR20070038439A (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
PCT/KR2006/004009 WO2007040349A1 (en) 2005-10-05 2006-10-04 Method and apparatus for signal processing
KR1020087005840A KR100878832B1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534460A JP2009520382A (en) 2005-10-05 2006-10-09 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
PCT/KR2006/004032 WO2007040372A1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799111.7A EP1952114B1 (en) 2005-10-05 2006-10-09 Method for decoding an audio signal
EP06799113A EP1941499A4 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534462A JP5524484B2 (en) 2005-10-05 2006-10-09 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
KR1020087005842A KR100857110B1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,091 US7774199B2 (en) 2005-10-05 2006-10-09 Signal processing using pilot based coding
JP2008534463A JP5329964B2 (en) 2005-10-05 2006-10-09 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
CN2006800373119A CN101283404B (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004028 WO2007040368A1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005839A KR100878831B1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
ES06799111.7T ES2513816T3 (en) 2005-10-05 2006-10-09 Procedure to decode an audio signal
KR1020087005837A KR100878829B1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534464A JP5329965B2 (en) 2005-10-05 2006-10-09 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
EP06799114A EP1946306A4 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
EP06799112A EP1946305A4 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004034 WO2007040374A1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR1020087005838A KR100878830B1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN200680037351.3A CN101283256B (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
PCT/KR2006/004031 WO2007040371A1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
PCT/KR2006/004033 WO2007040373A1 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/089,370 US7751485B2 (en) 2005-10-05 2006-10-09 Signal processing using pilot based coding
CN2006800373034A CN101283253B (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
US12/088,962 US7663513B2 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2008534465A JP2009520384A (en) 2005-10-05 2006-10-09 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
US12/089,368 US7865369B2 (en) 2006-01-13 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
CN2006800372934A CN101283403B (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
CN2006800371043A CN101283397B (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus thereof
EP06799108A EP1949063A4 (en) 2005-10-05 2006-10-09 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US12/083,460 US8199828B2 (en) 2005-10-13 2006-10-13 Method of processing a signal and apparatus for processing a signal
PCT/KR2006/004152 WO2007043844A1 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
KR1020060099882A KR20070041398A (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
AU2006300103A AU2006300103B2 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
PCT/KR2006/004149 WO2007043841A1 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
EP06799227A EP1946555A4 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
US12/083,459 US8199827B2 (en) 2005-10-13 2006-10-13 Method of processing a signal and apparatus for processing a signal
AU2006300101A AU2006300101B2 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
PCT/KR2006/004153 WO2007043845A1 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
PCT/KR2006/004151 WO2007043843A1 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
AU2006300102A AU2006300102B2 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
EP06799225A EP1949698A4 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
US12/083,461 US7970072B2 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
US12/083,465 US8019611B2 (en) 2005-10-13 2006-10-13 Method of processing a signal and apparatus for processing a signal
EP06799230A EP1946308A4 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
EP06799228A EP1946556A4 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
US12/083,457 US8179977B2 (en) 2005-10-13 2006-10-13 Method of apparatus for processing a signal
EP06799229A EP1946307A4 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
PCT/KR2006/004147 WO2007043840A1 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
US12/083,458 US8194754B2 (en) 2005-10-13 2006-10-13 Method for processing a signal and apparatus for processing a signal
EP06799231A EP1946309A4 (en) 2005-10-13 2006-10-13 Method and apparatus for processing a signal
PCT/KR2006/004150 WO2007043842A1 (en) 2005-10-13 2006-10-13 Method and apparatus for signal processing
HK09103351.8A HK1125172A1 (en) 2005-10-05 2009-04-08 Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2011010444A JP2011130470A (en) 2005-10-05 2011-01-21 Method and apparatus for signal processing, encoding and decoding method, and apparatus for the same
JP2011115954A JP5330453B2 (en) 2005-10-05 2011-05-24 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor
JP2011115621A JP5270717B2 (en) 2005-10-05 2011-05-24 Audio signal decoding method, audio signal decoding apparatus, and system for processing audio signal
JP2011167446A JP5016129B2 (en) 2005-10-05 2011-07-29 Signal processing method and apparatus, encoding and decoding method, and apparatus therefor

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
US72363105P 2005-10-05 2005-10-05
US60/723,631 2005-10-05
US72565405P 2005-10-13 2005-10-13
US60/725,654 2005-10-13
US72971305P 2005-10-25 2005-10-25
US60/729,713 2005-10-25
US73039305P 2005-10-27 2005-10-27
US60/730,393 2005-10-27
US73776005P 2005-11-18 2005-11-18
US60/737,760 2005-11-18
US75340805P 2005-12-27 2005-12-27
US60/753,408 2005-12-27

Publications (1)

Publication Number Publication Date
KR20070108314A true KR20070108314A (en) 2007-11-09

Family

ID=39063205

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020060079836A KR20070108312A (en) 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal
KR1020060079838A KR20070108314A (en) 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal
KR1020060079837A KR20070108313A (en) 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020060079836A KR20070108312A (en) 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020060079837A KR20070108313A (en) 2005-10-05 2006-08-23 Method and apparatus for encoding/decoding an audio signal

Country Status (1)

Country Link
KR (3) KR20070108312A (en)

Also Published As

Publication number Publication date
KR20070108312A (en) 2007-11-09
KR20070108313A (en) 2007-11-09

Similar Documents

Publication Publication Date Title
KR101139880B1 (en) Temporal Envelope Shaping for Spatial Audio Coding using Frequency Domain Wiener Filtering
JP4601669B2 (en) Apparatus and method for generating a multi-channel signal or parameter data set
RU2368074C2 (en) Adaptive grouping of parametres for improved efficiency of coding
CA2645912C (en) Methods and apparatuses for encoding and decoding object-based audio signals
KR101823279B1 (en) Audio Decoder, Audio Encoder, Method for Providing at Least Four Audio Channel Signals on the Basis of an Encoded Representation, Method for Providing an Encoded Representation on the basis of at Least Four Audio Channel Signals and Computer Program Using a Bandwidth Extension
RU2406166C2 (en) Coding and decoding methods and devices based on objects of oriented audio signals
KR20070001139A (en) An audio distribution system, an audio encoder, an audio decoder and methods of operation therefore
KR20070003593A (en) Encoding and decoding method of multi-channel audio signal
WO2007037621A1 (en) Method and apparatus for encoding/decoding multi-channel audio signal
KR100755471B1 (en) Virtual source location information based channel level difference quantization and dequantization method
US20080288263A1 (en) Method and Apparatus for Encoding/Decoding
WO2009048239A2 (en) Encoding and decoding method using variable subband analysis and apparatus thereof
KR20070003546A (en) Clipping restoration by clipping restoration information for multi-channel audio coding
KR100891666B1 (en) Apparatus for processing audio signal and method thereof
KR20070108314A (en) Method and apparatus for encoding/decoding an audio signal
KR20080035448A (en) Method and apparatus for encoding/decoding multi channel audio signal
KR20070025904A (en) Method of effective bitstream composition for the spatial parameter band number of a lfe-channel for multi-channel audio coding
KR20070075237A (en) Encoding and decoding method of multi-channel audio signal
KR20070037974A (en) Method of effective bitstream composition for the spatial parameter band number for non-guided coding in multi-channel audio coding
KR20070041335A (en) Method of encoding and decoding an audio signal
KR20070014936A (en) Method and apparatus for encoding/decoding audio signal