KR20070037983A - Method for decoding multi-channel audio signals and method for generating encoded audio signal - Google Patents

Method for decoding multi-channel audio signals and method for generating encoded audio signal Download PDF

Info

Publication number
KR20070037983A
KR20070037983A KR1020060078218A KR20060078218A KR20070037983A KR 20070037983 A KR20070037983 A KR 20070037983A KR 1020060078218 A KR1020060078218 A KR 1020060078218A KR 20060078218 A KR20060078218 A KR 20060078218A KR 20070037983 A KR20070037983 A KR 20070037983A
Authority
KR
South Korea
Prior art keywords
decoding
version
audio signal
time delay
decoded
Prior art date
Application number
KR1020060078218A
Other languages
Korean (ko)
Inventor
방희석
오현오
김동수
임재현
정양원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US11/541,397 priority Critical patent/US7742913B2/en
Priority to US11/541,472 priority patent/US7716043B2/en
Priority to US11/541,471 priority patent/US20070092086A1/en
Priority to US11/540,919 priority patent/US7761289B2/en
Priority to US11/540,920 priority patent/US7653533B2/en
Priority to US11/541,395 priority patent/US7840401B2/en
Priority to CN200680039452.4A priority patent/CN101297594B/en
Priority to TW095136566A priority patent/TWI310544B/en
Priority to KR1020087007451A priority patent/KR100875429B1/en
Priority to TW095136564A priority patent/TWI317247B/en
Priority to KR1020087007453A priority patent/KR100888973B1/en
Priority to EP06799056A priority patent/EP1952671A4/en
Priority to KR1020087023852A priority patent/KR101186611B1/en
Priority to JP2008537584A priority patent/JP5270358B2/en
Priority to EP06799055A priority patent/EP1952670A4/en
Priority to PCT/KR2006/003976 priority patent/WO2007049865A1/en
Priority to CN2006800395777A priority patent/CN101297597B/en
Priority to BRPI0617779-4A priority patent/BRPI0617779A2/en
Priority to AU2006306942A priority patent/AU2006306942B2/en
Priority to PCT/KR2006/003972 priority patent/WO2007049861A1/en
Priority to TW095136563A priority patent/TWI317244B/en
Priority to KR1020087007452A priority patent/KR100888972B1/en
Priority to TW095136559A priority patent/TWI317245B/en
Priority to EP06799059.8A priority patent/EP1952674B1/en
Priority to PCT/KR2006/003974 priority patent/WO2007049863A2/en
Priority to PCT/KR2006/003973 priority patent/WO2007049862A1/en
Priority to JP2008537581A priority patent/JP5249038B2/en
Priority to JP2008537582A priority patent/JP2009513084A/en
Priority to TW098104747A priority patent/TWI450603B/en
Priority to EP06799058A priority patent/EP1952673A1/en
Priority to TW095136561A priority patent/TWI317243B/en
Priority to CN2006800395781A priority patent/CN101297598B/en
Priority to TW095136562A priority patent/TWI317246B/en
Priority to KR1020087030528A priority patent/KR100928268B1/en
Priority to JP2008537580A priority patent/JP5270357B2/en
Priority to KR1020087007454A priority patent/KR100888974B1/en
Priority to CNA2006800394539A priority patent/CN101297595A/en
Priority to JP2008537583A priority patent/JP5249039B2/en
Priority to KR1020087007449A priority patent/KR100875428B1/en
Priority to CA2626132A priority patent/CA2626132C/en
Priority to CN2006800395762A priority patent/CN101297596B/en
Priority to EP06799057.2A priority patent/EP1952672B1/en
Priority to PCT/KR2006/003980 priority patent/WO2007049866A1/en
Priority to CNA2006800395796A priority patent/CN101297599A/en
Priority to EP06799061A priority patent/EP1952675A4/en
Priority to PCT/KR2006/003975 priority patent/WO2007049864A1/en
Priority to JP2008537579A priority patent/JP5399706B2/en
Priority to KR1020087007450A priority patent/KR100888971B1/en
Publication of KR20070037983A publication Critical patent/KR20070037983A/en
Priority to HK09103908.6A priority patent/HK1126071A1/en
Priority to US12/872,044 priority patent/US8095358B2/en
Priority to US12/872,081 priority patent/US8095357B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 다채널 오디오 신호의 디코딩 방법을 제공하기 위한 것으로, 다운믹스 신호와 공간정보를 이용하여 다채널 오디오 신호를 복원하는 디코딩 방법에 있어서, 제1디코딩 버전을 기준으로 상기 다운믹스 신호와 상기 공간정보의 시간 동기가 맞추어진 부호화된 오디오 신호의 디코딩 버전을 체크하는 단계; 및 상기 체크된 제1디코딩 버전과 다른 제2디코딩 버전으로 디코딩 하는 경우 시간지연을 보상하는 단계를 포함한다.The present invention provides a method for decoding a multi-channel audio signal, the decoding method for reconstructing a multi-channel audio signal using a downmix signal and spatial information, wherein the downmix signal and the Checking a decoded version of the encoded audio signal with which time information of the spatial information is synchronized; And compensating for the time delay when decoding the second decoded version different from the checked first decoded version.

Description

다채널 오디오 신호의 디코딩 방법 및 부호화된 오디오 신호 생성방법{METHOD FOR DECODING MULTI-CHANNEL AUDIO SIGNALS AND METHOD FOR GENERATING ENCODED AUDIO SIGNAL}Method for decoding multi-channel audio signal and generating coded audio signal {METHOD FOR DECODING MULTI-CHANNEL AUDIO SIGNALS AND METHOD FOR GENERATING ENCODED AUDIO SIGNAL}

도 1은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법의 흐름도이고,1 is a flowchart of a method of decoding a multichannel audio signal according to an embodiment of the present invention;

도 2 내지 도6은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.2 to 6 are conceptual views illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100: 코어 코덱 디코더 200: 다채널 디코더100: core codec decoder 200: multichannel decoder

210: 콤플렉스 QMF 분석과정 220, 260: 후처리 과정210: complex QMF analysis 220, 260 post-treatment

230: 리얼 QMF 분석과정 240: 영역변환 과정230: Real QMF Analysis 240: Region Conversion

250, 250a: 신호지연 처리과정 250′, 250a′: 공간정보 지연 처리과정250, 250a: signal delay processing 250 ', 250a': spatial information delay processing

본 발명은 다채널 오디오 코디에 관한 것으로, 특히 부호화된 오디오 신호에 대하여 디코딩 버전이 둘 이상 있는 경우 선택된 디코딩 버전과 인코딩 시 가정한 디코딩 버전이 다를 때 발생하는 시간지연을 보상해서 디코딩 하는 방법에 관한 것이다.The present invention relates to multichannel audio coordination, and more particularly, to a method of compensating and decoding a time delay occurring when a selected decoding version and a decoding version assumed at encoding are different when there are two or more decoding versions of an encoded audio signal. will be.

또한, 본 발명은 인코딩 시 가정한 디코딩 버전에 대한 정보를 포함하여 부호화된 오디오 신호를 생성하는 방법에 관한 것이다.The present invention also relates to a method of generating an encoded audio signal including information on a decoding version assumed during encoding.

최근에 디지털 오디오 신호에 대한 다양한 코딩기술 및 방법들이 개발되고 있으며, 이와 관련된 제품들이 생산되고 있다. 또한 멀티채널 오디오 신호의 공간 정보를 이용하여 모노 또는 스테레오 오디오 등의 다운믹스 신호를 디코딩 단계에서 다채널로 바꾸는 코딩방법들이 개발되고 있으며, 이에 대한 제품이 실용화되고 있다.Recently, various coding techniques and methods for digital audio signals have been developed, and related products have been produced. In addition, coding methods for converting downmix signals, such as mono or stereo audio, into multichannels in a decoding step using spatial information of multichannel audio signals have been developed.

또한, 상기와 같은 제품들을 이용한 다채널 오디오 신호의 처리를 할 때, 상기 디코딩 버전을 둘 이상 선택가능하게 하여, 인코딩 시 가정한 디코딩 버전과 다른 디코딩 버전으로 디코딩 하는 경우 이들 디코딩 버전사이에서 발생하는 시간지연을 보상하는 기술들이 대두되고 있다.In addition, when processing a multi-channel audio signal using the above products, two or more decoding versions are selectable, and when decoding to a decoding version different from the decoding version assumed for encoding, Techniques for compensating for time delays are emerging.

이에 본 발명은 상기와 같은 종래의 제반 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 인코딩 시 가정한 디코딩 버전과 다른 버전으로 디코딩할 경우, 상기 디코딩 버전들 사이에서 발생하는 시간지연을 보상해서 디코딩 하는 다채널 오디오 신호의 디코딩 방법을 제공하는데 있다.Therefore, the present invention has been proposed to solve the above-mentioned general problems, and an object of the present invention is to compensate for the time delay occurring between the decoding versions when decoding with a version different from the decoding version assumed during encoding. The present invention provides a method of decoding a multichannel audio signal.

또한, 본 발명의 또다른 목적은 인코딩 시 디코딩 버전에 대한 정보를 포함하여 부호화된 오디오 신호를 생성하는 방법을 제공하는데 있다.Another object of the present invention is to provide a method of generating an encoded audio signal including information on a decoding version during encoding.

본 발명에 따른 다채널 오디오 신호의 디코딩 방법은 다운믹스 신호와 공간정보를 이용하여 다채널 오디오 신호를 복원하는 디코딩 방법에 있어서, 제1디코딩 버전을 기준으로 상기 다운믹스 신호와 상기 공간정보의 시간 동기가 맞추어진 부호화된 오디오 신호의 디코딩 버전을 체크하는 단계; 및 상기 체크된 제1디코딩 버전과 다른 제2디코딩 버전으로 디코딩 하는 경우 시간지연을 보상하는 단계를 포함한다.A decoding method of a multichannel audio signal according to the present invention is a decoding method for reconstructing a multichannel audio signal using a downmix signal and spatial information, wherein the time of the downmix signal and the spatial information is based on a first decoding version. Checking the decoded version of the synchronized encoded audio signal; And compensating for the time delay when decoding the second decoded version different from the checked first decoded version.

또한, 본 발명에 따른 부호화된 오디오 신호 생성방법은 다채널 오디오 코딩에서 다채널 오디오 입력신호를 다운믹스하고, 상기 다채널 오디오 입력신호에서 공간정보를 추출하여, 상기 다운믹스 신호와 공간정보로 부호화된 오디오 신호를 생성하는 방법에 있어서, 상기 부호화된 오디오 신호는 상기 다운믹스 신호와 상기 공간정보의 시간동기를 일치시키는 기준 디코딩 버전인 제1디코딩 버전에 대한 정보를 포함한다.In addition, the encoded audio signal generating method according to the present invention downmixes a multichannel audio input signal in multichannel audio coding, extracts spatial information from the multichannel audio input signal, and encodes the downmix signal and spatial information. In the method of generating the encoded audio signal, the coded audio signal includes information about a first decoding version, which is a reference decoding version that matches the time synchronization of the downmix signal and the spatial information.

이하, 상기와 같은 본 발명, 다채널 오디오 신호의 디코딩 방법 및 부호화된 오디오 신호 생성방법의 기술적 사상에 따른 일실시예를 도면을 참조하여 설명하면 다음과 같다. Hereinafter, an embodiment according to the present invention, a method of decoding a multichannel audio signal and a method of generating an encoded audio signal will be described with reference to the accompanying drawings.

한편, 오디오 비트스트림은 부호화된 오디오 신호의 구체적인 일례가 될 수 있기에, 이하에서는 부호화된 오디오 신호 대신 오디오 비트스트림을 예를 들어 설명하도록 하겠다. Meanwhile, the audio bitstream may be a specific example of the encoded audio signal. Hereinafter, the audio bitstream will be described with reference to the audio bitstream instead of the encoded audio signal.

도 1은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법의 흐 름도이다. 이에 도시된 바와 같이, 먼저 오디오 비트스트림이 어떤 디코딩 버전을 기준으로 인코딩 되었는지를 체크한다(S10). 상기 오디오 비트스트림은 인코딩 시에, 디코딩 버전을 가정하여 부호화된다. 디코딩 버전을 가정하여 부호화한다는 것은 예를 들어, 고음질 버전을 디코딩 버전으로 가정한 경우 고음질 버전에 맞게 다운믹스 신호와 공간정보의 동기를 맞추어 부호화한다는 말이다. 또한, 본 발명의 일실시예에서는 2개 이상의 디코딩 버전 중에서 어느 하나를 선택하여 디코딩하는 것이 가능하다.1 is a flowchart of a method of decoding a multichannel audio signal according to an embodiment of the present invention. As shown in the figure, it is checked first based on which decoding version the audio bitstream is encoded (S10). The audio bitstream is encoded at the time of encoding, assuming a decoding version. For example, assuming that the decoding version is encoded, the encoding is performed by synchronizing the downmix signal with the spatial information according to the high quality version. In addition, in an embodiment of the present invention, it is possible to select and decode any one of two or more decoding versions.

따라서 S10단계에서는 상기 오디오 비트스트림이 특정 디코딩 버전을 기준으로 부호화된 경우 실제 디코딩할 버전이 인코딩 시 가정한 특정디코딩 버전과 같은지 여부를 체크한다. 만약 실제로 디코딩할 버전이 인코딩 시 가정한 특정 디코딩 버전과 같다면, 상기 오디오 비트스트임은 별도의 시간지연에 대한 보상절차 없이 디코딩을 하여 다채널 오디오 신호를 복원하면 된다. 전술한 바대로, 인코딩 시에는 기본적으로 특정 디코딩 버전(이하, '제1디코딩 버전'이라 한다)에 맞게 다운믹스 신호와 공간정보 간에 시간동기를 맞추어(편의상 '기본 시간지연 보상'이라 한다) 오디오 신호를 부호화한다. 따라서 실제 디코딩할 버전이 제1디코딩 버전이라면 기본 시간지연 보상 외에는 별도의 시간지연을 고려하지 않아도 된다는 말이다.Therefore, in step S10, when the audio bitstream is encoded based on a specific decoding version, it is checked whether the actual decoding version is the same as the specific decoding version assumed at the time of encoding. If the version to be actually decoded is the same as the specific decoding version assumed at the time of encoding, the audio bitstream may be decoded without restoring a time delay to restore the multichannel audio signal. As mentioned above, when encoding, it basically synchronizes the time between the downmix signal and the spatial information for a specific decoding version (hereinafter referred to as 'first decoding version') (conventionally referred to as 'basic time delay compensation'). Encode the signal. Therefore, if the actual decoding version is the first decoding version, it is not necessary to consider a separate time delay other than the basic time delay compensation.

S10단계에서는 상기 오디오 비트스트림에는 어떤 디코딩 버전을 기준으로 인코딩 되었는지에 대한 정보가 들어있기 때문에 디코딩 버전 체크가 가능한 것이다. 만약, 제1디코딩 버전이 적어도 2개 이상의 디코딩 버전 중에서 선택 가능하다면, 인코딩 시 오디오 비트스트림 내의 특정 위치에 디코딩 버전에 대한 정보가 표시된 다. 특히, 제1디코딩 버전이 2개의 디코딩 버전에서 선택 가능하다면 상기 디코딩 버전에 대한 정보는 오디오 비트스트림 내에 플래그 형태로 존재하게 된다. 예를 들어, 그 플래그 값이 0인 경우는 고음질 버전이고, 그 플래그 값이 1이라면 저전력 버전이 된다.In step S10, the decoding version check is possible because the audio bitstream contains information on which decoding version is encoded. If the first decoding version is selectable from at least two decoding versions, information about the decoding version is displayed at a specific position in the audio bitstream during encoding. In particular, if the first decoding version is selectable from two decoding versions, then information about the decoding version is present in the form of flags in the audio bitstream. For example, if the flag value is 0, it is a high quality version. If the flag value is 1, a low power version is obtained.

그러나 실제 디코딩할 버전(편의상 '제2디코딩 버전'이라 한다)이 제1디코딩 버전이 아닌 디코딩 버전이라면 별도의 시간지연을 처리하는 과정을 거치게 된다(S20, S30). 이와 같이, 별도의 시간지연을 고려하는 이유는 제1디코딩 버전과 제2디코딩 버전에서 발생하는 시간지연이 서로 다르기 때문이다. 만약, 제1디코딩 버전과 제2디코딩 버전에서 발생하는 시간지연이 같다면 굳이 별도의 시간지연을 처리하는 과정을 고려하지 않아도 된다. 별도의 시간지연을 처리하기 위해서는 먼저 양 디코딩 버전(제1디코딩 버전과 제2디코딩 버전)에서 발생하는 시간지연을 계산하거나 측정을 통해 구해야 한다. 그래서 그 시간지연 차를 구해야 한다(S20). However, if the actual decoded version (conventionally referred to as 'second decoding version') is a decoding version other than the first decoding version, a separate time delay is processed (S20 and S30). As such, the reason for considering a separate time delay is that time delays occurring in the first decoding version and the second decoding version are different from each other. If the time delay occurring in the first decoding version and the second decoding version is the same, it is not necessary to consider a process of processing a separate time delay. In order to handle separate time delays, the time delays occurring in both decoding versions (first decoding version and second decoding version) must be calculated or measured. So the time delay must be obtained (S20).

그리고 상기 시간지연 차만큼 디코딩된 다운믹스 신호를 리딩 또는 래깅하거나, 공간정보를 리딩 또는 래깅하는 방법을 통해 시간지연을 보상한다(S30).The time delay is compensated for by reading or lagging the downmix signal decoded by the time delay difference, or reading or lagging spatial information (S30).

이하, 도 2내지 도5을 참조하여 보다 상세히 설명하도록 한다.Hereinafter, a detailed description will be made with reference to FIGS. 2 to 5.

도 2는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.2 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300)가 다채널 디코더(200)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(320, 360)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩 이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 고음질 버전이라 함은 상대적으로 섬세하고, 정제된 다채널 오디오 신호를 출력하는 디코딩 버전을 말하고, 저전력 버전이라 함은 음질은 상대적으로 고음질 버전보다는 떨어지지만 고음질 버전보다 구성이 덜 복잡하여 전력소모가 상대적으로 적은 것을 말한다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300 decoded by the core codec decoder 100 is transmitted to the multichannel decoder 200 and combined with the spatial information SI to restore the multichannel audio signals 320 and 360. do. The multi-channel decoder 200 can be decoded into two decoding versions. One is the High Quality version and the other is the Low Power version. The high quality version refers to a decoding version that outputs a relatively delicate and refined multi-channel audio signal. The low power version refers to a sound that is relatively inferior to the high quality version but is less complex than the high quality version, resulting in relatively low power consumption. Say less. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300)는 다채널 디코더(200)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB is transmitted to the core codec decoder 100 and decoded, and the decoded downmix signal 300 is transmitted to the multichannel decoder 200 to provide two decoding versions (high quality version or low power version). The multi-channel audio signal is restored.

이하, 고음질 버전을 기준으로 인코딩된 오디오 비트 스트림을 디코딩하는 과정을 설명하기로 한다.Hereinafter, a process of decoding the encoded audio bit stream based on the high quality version will be described.

디코딩된 다운믹스 신호(300)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 후처리 과정(220)과정에서 공간정보(SI)와 결합되어 고음질 버전의 다채널 오디오 신호(320)를 생성한다. 다운믹스 신호(300)가 P1을 따라 전송되어 디코딩될 때는 별도의 시간지연을 고려하지 않고 디코딩을 한다. 이는 전술한 바와 같 이, 이미 공간정보(SI)와 다운믹스 신호는 인코딩 시에 고음질 버전을 기준으로 하여 시간동기가 맞추어져 있기 때문이다.When the decoded downmix signal 300 is decoded in a high quality version, the downmix signal is transmitted and decoded along the P1 path. The decoded downmix signal 300 is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is combined with the spatial information SI in the post-processing process 220 to generate a high-quality version of the multichannel audio signal 320. When the downmix signal 300 is transmitted along with P1 and decoded, the downmix signal 300 decodes without considering a separate time delay. This is because, as described above, the spatial information (SI) and the downmix signal are time-synchronized based on the high quality version at the time of encoding.

한편, 디코딩된 다운믹스 신호(300)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호(300)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(330)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(340)는 신호지연 처리과정(250)을 거치게 된다. 이와 같이, 다운믹스 신호(340)가 신호지연 처리과정을 거치는 것은 인코딩 시 오디오 비트스트림이 고음질 버전을 가정하고 인코딩 되어서, 다운믹스 신호(340)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.Meanwhile, when the decoded downmix signal 300 is decoded in the low power version, the downmix signal 300 is transmitted and decoded along the P2 path. The decoded downmix signal 300 is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 330 converted to the real QMF region is converted to the complex QMF region through the region conversion process 240. The downmix signal 340 converted to the complex QMF region is subjected to the signal delay processing 250. As described above, the downmix signal 340 undergoes a signal delay process because the audio bitstream is encoded on the assumption that the audio bitstream has a high-quality version, so that the downmix signal 340 and the spatial information SI are out of time. to be.

신호지연 처리과정(250)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 다운믹스 신호(340)를 리딩시켜야 한다. 여기서 공간정보(SI)가 적용되는 시점이라 함은 공간정보(SI)가 다운믹스 신호(310, 350)와 결합되는 후처리 과정(220, 260)의 시점을 의미한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the signal delay process 250, a time delay occurs until the spatial information SI is applied when the high quality version is decoded, and a time delay occurs until the spatial information SI is applied when the low information version is decoded. We need to find the difference of and read the downmix signal 340 by that difference. Here, the time point at which the spatial information SI is applied refers to the time point at the post-processing steps 220 and 260 in which the spatial information SI is combined with the downmix signals 310 and 350. This is because the time delay for decoding to the low power version is longer than the time delay for decoding to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석 단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. 전술한 바와 같이, 시간지연 보상이 이루어진 다운믹스 신호(350)는 후처리 과정(260)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360)를 생성하게 된다. 하지만 다운믹스 신호(340)를 리딩시키는 것을 때로는 복잡하거나 번거로운 작업이 될 수 있으므로 공간정보의 시간지연을 보상하는 방법을 택하여 디코딩할 수도 있다. 이하, 이에 대해 설명하도록 하겠다.On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it. As described above, the downmix signal 350 having time delay compensation is combined with the spatial information SI in the post-processing process 260 to generate the multi-channel audio signal 360 of the low power version. However, since reading the downmix signal 340 can sometimes be complicated or cumbersome, a method of compensating the time delay of spatial information can be selected and decoded. This will be described below.

도 3은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.3 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300)가 다채널 디코더(200′)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(320, 360′)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300 decoded by the core codec decoder 100 is transmitted to the multi-channel decoder 200 'and combined with the spatial information SI to multi-channel audio signals 320 and 360'. Restore it. The multi-channel decoder 200 can decode in two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300)는 다채널 디코더(200′)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB is transmitted to the core codec decoder 100 and decoded, and the decoded downmix signal 300 is sent to the multichannel decoder 200 'to provide two decoding versions (high quality version or low power). Version) to restore the multichannel audio signal.

디코딩된 다운믹스 신호(300)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 후처리 과정(220)과정에서 공간정보와 결합되어 고음질 버전의 다채널 오디오 신호(320)를 생성한다. 다운믹스 신호(300)가 P1을 따라 전송되어 디코딩될 때는 별도의 시간지연을 고려하지 않고 디코딩을 한다. 이는 전술한 바와 같이, 이미 공간정보(SI)와 다운믹스 신호는 인코딩 시에 고음질 버전을 기준으로 하여 시간동기가 맞추어져 있기 때문이다.When the decoded downmix signal 300 is decoded in a high quality version, the downmix signal is transmitted and decoded along the P1 path. The decoded downmix signal 300 is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is combined with the spatial information in the post-processing process 220 to generate a high-quality version of the multichannel audio signal 320. When the downmix signal 300 is transmitted along with P1 and decoded, the downmix signal 300 decodes without considering a separate time delay. This is because, as described above, the spatial information (SI) and the downmix signal are time-synchronized based on the high quality version at the time of encoding.

한편, 디코딩된 다운믹스 신호(300)가 저전력 버전으로 디코딩될 경우는 P2 경로를 따라 다운믹스 신호(300)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 리얼 QMF 분석단계(230, Real QMF Analysis)를 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(330)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(340)는 후처과정(260′)에서 시간지연이 보상된 공간정보(SI1)와 결합되어 저전력 버전의 다채널 오디오 신호(360′)를 생성하게 된다. 공간정보(SI)는 공간정보 지연처리과정(250′)에서 시간지연이 보상된 후에 후처리된다. On the other hand, when the decoded downmix signal 300 is decoded in the low power version, the downmix signal 300 is transmitted and decoded along the P2 path. The decoded downmix signal 300 is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 330 converted to the real QMF region is converted to the complex QMF region through the region conversion process 240. The downmix signal 340 converted to the complex QMF region is combined with the spatial information SI1 whose time delay is compensated for in the post process 260 'to generate a multi-channel audio signal 360' of a low power version. The spatial information SI is post-processed after the time delay is compensated for in the spatial information delay processing 250 '.

이와 같이, 공간정보(SI)가 시간지연 처리과정(250′)을 거치는 것은 오디오 비트스트림이 고음질 버전을 기준으로 인코딩 되어서 다운믹스 신호(340)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.As described above, the spatial information SI undergoes the time delay process 250 ′ because the downmix signal 340 and the spatial information SI are out of time synchronization because the audio bitstream is encoded based on the high quality version. to be.

공간정보 지연처리과정(250′)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 공간정보(SI)를 래깅시켜야 한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the spatial information delay processing 250 ', a time delay occurs when the spatial information SI is applied when the high quality version is decoded, and a time delay occurs when the spatial information SI is applied when the low information version is decoded. The difference from the delay must be obtained and the spatial information SI should be lagging by that difference. This is because the time delay for decoding to the low power version is longer than the time delay for decoding to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it.

이하, 제1디코딩 버전이 저전력 버전인 경우를 설명하도록 하겠다.Hereinafter, a case in which the first decoding version is a low power version will be described.

도 4는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300a)가 다채널 디코더(200a)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(330a, 360a)를 복원한다. 다채널 디코더(200a)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300a decoded by the core codec decoder 100 is transmitted to the multichannel decoder 200a and combined with the spatial information SI to restore the multichannel audio signals 330a and 360a. do. The multichannel decoder 200a can be decoded into two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB1)이 코어 코덱 디코더(100)로 전송되어 디 코딩되고, 디코딩된 다운믹스 신호(300a)는 다채널 디코더(200a)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB1 is transmitted to the core codec decoder 100 to be decoded, and the decoded downmix signal 300a is transmitted to the multichannel decoder 200a so as to provide two decoding versions (high quality version or low power). Version) to restore the multichannel audio signal.

디코딩된 다운믹스 신호(300a)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(340a)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(350a)는 후처리 과정(260a)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360a)를 생성하게 된다. 이상과 같이 다운믹스 신호(300a)를 저전력 디코딩 버전(P2)으로 디코딩할 때는 별도의 시간지연 절차가 필요하지 않다. 이는 오디오 비트스트림이 인코딩 시에 이미 저전력 디코딩 버전을 가정하여 인코딩 되었기 때문이다.When the decoded downmix signal 300a is decoded in the low power version, the downmix signal is transmitted and decoded along the P2 path. The decoded downmix signal 300a is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 340a converted into the real QMF region is converted into the complex QMF region through the region conversion process 240. The downmix signal 350a transformed into the complex QMF region is combined with the spatial information SI in the post-processing process 260a to generate the multi-channel audio signal 360a of the low power version. As described above, when decoding the downmix signal 300a with the low power decoding version P2, a separate time delay procedure is not necessary. This is because the audio bitstream has already been encoded at the time of encoding, assuming a low power decoding version.

한편, 디코딩된 다운믹스 신호(300a)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호(300a)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 신호지연 처리과정(250a)을 거쳐 시간지연이 보상된다. 이와 같이, 다운믹스 신호(310a)가 신호지연 처리과정(250a)을 거치는 것은 인코딩 시 오디오 비트스트림이 저전력 버전을 가정하고 인코딩 되어서, 다운믹스 신호(310a) 와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.On the other hand, when the decoded downmix signal 300a is decoded in the high quality version, the downmix signal 300a is transmitted and decoded along the P1 path. The decoded downmix signal 300a is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is compensated for the time delay through the signal delay process 250a. As such, when the downmix signal 310a undergoes the signal delay process 250a, the audio bitstream is encoded on the assumption that the audio bitstream is a low power version during encoding, so that the downmix signal 310a and the spatial information SI are synchronized in time. This is because it is shifted.

신호지연 처리과정(250a)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 다운믹스 신호(310a)를 래깅시켜야 한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the signal delay process 250a, a time delay occurs until the spatial information SI is applied when decoded in a high quality version, and a time delay occurs until the spatial information SI is applied when decoded in a low power version. We need to find the difference of and lag down the downmix signal 310a by that difference. This is because the time delay for decoding to the low power version is longer than the time delay for decoding to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. 전술한 바와 같이, 시간지연 보상이 이루어진 다운믹스 신호(320a)는 후처리 과정(220a)에서 공간정보(SI)와 결합되어 고음질 버전의 다채널 오디오 신호(330a)를 생성하게 된다. On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it. As described above, the downmix signal 320a having the time delay compensation is combined with the spatial information SI in the post-processing process 220a to generate the high-quality version of the multichannel audio signal 330a.

도 5는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.5 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300a)가 다채널 디코더(200a′)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(330a′, 360a)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300a decoded by the core codec decoder 100 is transmitted to the multi-channel decoder 200a 'and combined with the spatial information SI to multi-channel audio signals 330a' and 360a. Restore it. The multi-channel decoder 200 can decode in two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB1)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300a)는 다채널 디코더(200a′)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다.The encoded downmix bitstream DB1 is transmitted to and decoded by the core codec decoder 100, and the decoded downmix signal 300a is transmitted to the multichannel decoder 200a 'so as to provide two decoding versions (high quality version or low power). Version) to restore the multichannel audio signal.

디코딩된 다운믹스 신호(300a)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(340a)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(350a)는 후처리 과정(260a)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360a)를 생성하게 된다. 이상과 같이 다운믹스 신호(300a)를 저전력 디코딩 버전(P2)으로 디코딩할 때는 별도의 시간지연 절차가 필요하지 않다. 이는 오디오 비트스트림이 인코딩 시에 이미 저전력 디코딩 버전을 가정하여 인코딩 되었기 때문이다.When the decoded downmix signal 300a is decoded in the low power version, the downmix signal is transmitted and decoded along the P2 path. The decoded downmix signal 300a is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 340a converted into the real QMF region is converted into the complex QMF region through the region conversion process 240. The downmix signal 350a transformed into the complex QMF region is combined with the spatial information SI in the post-processing process 260a to generate the multi-channel audio signal 360a of the low power version. As described above, when decoding the downmix signal 300a with the low power decoding version P2, a separate time delay procedure is not necessary. This is because the audio bitstream has already been encoded at the time of encoding, assuming a low power decoding version.

한편, 디코딩된 다운믹스 신호(300a)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 디코딩된 다운믹스 신호(300a)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310a)는 후처리 과정(220)과정에서 시간지연이 보상 된 공간정보(SI1′)와 결합되어 고음질 버전의 다채널 오디오 신호(330a′)를 생성한다. 공간정보(SI)는 공간정보 지연처리과정(250a′)에서 시간지연이 보상된 후에 후처리된다. Meanwhile, when the decoded downmix signal 300a is decoded in a high quality version, the decoded downmix signal 300a is transmitted and decoded along the P1 path. The decoded downmix signal 300a is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310a present in the complex QMF region is combined with spatial information SI1 'whose time delay is compensated for in the post-processing process 220 to generate a high-quality version of the multichannel audio signal 330a'. The spatial information SI is post-processed after the time delay is compensated for in the spatial information delay processing 250a '.

이와 같이, 공간정보(SI)가 시간지연 처리과정(250a′)을 거치는 것은 오디오 비트스트림이 저전력 버전을 기준으로 인코딩 되어서 다운믹스 신호(310a)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.As described above, the spatial information SI undergoes the time delay process 250a 'because the downmix signal 310a and the spatial information SI are out of time synchronization because the audio bitstream is encoded based on the low power version. to be.

공간정보 지연처리과정(250a′)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 공간정보(SI)를 리딩시켜야 한다. 왜냐하면 고음질 버전으로 디코딩하는 시간지연이 저전력 버전으로 디코딩 하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the spatial information delay process 250a ', a time delay occurs until the spatial information SI is applied when the high quality version is decoded, and a time delay occurs when the spatial information SI is applied when the low information version is decoded. The difference from the delay must be obtained and the spatial information SI should be read by the difference. This is because the time delay to decode to the high quality version is longer than the time delay to decode to the low power version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다.On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it.

이상에서는 한 도메인으로 코어 코덱 디코더와 다채널 디코더가 연결되는 경우를 상정했으나, 여러 도메인 중 어느 한 도메인을 선택하여 디코딩된 다운믹스 신호를 다채널 디코더로 전송할 수도 있다. 도면을 참조하여 설명하면 다음과 같다.In the above, it is assumed that the core codec decoder and the multi-channel decoder are connected to one domain, but one of the domains may be selected to transmit the decoded downmix signal to the multi-channel decoder. A description with reference to the drawings is as follows.

도 6은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설 명하기 위한 개념도이다.6 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 다운믹스 비트스트림(DB2)는 코어 코덱 디코더(100)를 거쳐 디코딩이 되는데, 디코딩된 다운믹스 신호는 두 가지 영역 중 어느 하나의 영역으로 다채널 디코더(200b)로 전송된다. 참조부호 X1은 A영역에서 디코딩된 다운믹스 신호를 나타내고, X2는 B영역에서 디코딩된 다운믹스 신호를 나타낸다. X1, X2 모두 고음질 버전(210b)이나 저전력 버전(220b) 중 어느 하나로 디코딩되어 다채널 오디오 신호를 복원할 수 있다. 이 때, 오디오 비트스트림은 특정 영역 및 특정 디코딩 버전을 기준으로 공간정보와 다운믹스 신호의 시간동기가 맞추어진다. 만약, 고음질 버전 및 영역A를 기준으로 하여 인코딩이 되었다면 X1t를 제외한 X2t, X1t′, X2t′는 모두 시간지연 처리과정(212b, 221b, 222b)을 거쳐 지연보상이 이루어진다. 따라서 X1t를 제외한 X2t, X1t′, X2t′는 모두 시간지연 처리과정(212b, 221b, 222b)을 거쳐 다채널 오디오 신호(Y1, Y2, Y3, Y4)를 생성가능하다.As shown therein, the downmix bitstream DB2 is decoded through the core codec decoder 100, and the decoded downmix signal is transmitted to the multichannel decoder 200b in any one of two areas. . Reference numeral X1 denotes a downmix signal decoded in the area A, and X2 denotes a downmix signal decoded in the B area. Both X1 and X2 may be decoded into either the high quality version 210b or the low power version 220b to restore the multichannel audio signal. At this time, the audio bitstream is time-synchronized with the spatial information and the downmix signal based on a specific region and a specific decoding version. If the encoding is performed based on the high quality version and the area A, delay compensation is performed through the time delay processing processes 212b, 221b, and 222b except for X1t. Therefore, except for X1t, X2t, X1t ', and X2t' can generate multi-channel audio signals Y1, Y2, Y3, and Y4 through time delay processes 212b, 221b, and 222b.

한편,시간지연 처리에 대한 상세한 설명은 이미 상술 되었으므로 생략하도록 하겠다. 본 실시예에서는 디코딩 버전을 2개, 전송 도메인 영역을 2개만 언급했으나, 본 발명은 여기에 한정되지 않고, 다양한 변형이 가능하다.On the other hand, a detailed description of the time delay processing has already been described above will be omitted. In the present embodiment, only two decoding versions and two transmission domain regions are mentioned, but the present invention is not limited thereto, and various modifications are possible.

한편, 본 발명의 일실예에서는 다채널 오디오 신호를 처리할 때, 디코딩 버전에 따른 시간지연 보상만을 언급했으나, 본 발명에 따른 시간지연 보상은 오디오 비트스트림을 포함하는 전체 비트스트림에서도 응용될 수 있다. 예를 들면, 이미지, 텍스트, 기타 다른 정보와 오디오 비트스트림을 포함하는 전체 비트스트림에서 오디오 신호와 이미지 또는 오디오 신호와 텍스트 등이 시간지연을 보상하여 동기를 맞출 수 있다.Meanwhile, in the exemplary embodiment of the present invention, when processing a multi-channel audio signal, only the time delay compensation according to the decoding version is mentioned, but the time delay compensation according to the present invention may be applied to the entire bitstream including the audio bitstream. . For example, the audio signal and the image or the audio signal and the text may be synchronized to compensate for the time delay in the entire bitstream including the image, the text, and other information and the audio bitstream.

이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.Although the preferred embodiment of the present invention has been described above, the present invention may use various changes, modifications, and equivalents. It is clear that the present invention can be applied in the same manner by appropriately modifying the above embodiments. Accordingly, the above description does not limit the scope of the invention as defined by the limitations of the following claims.

이상에서 살펴본 바와 같이, 본 발명에 의한 다채널 오디오 신호의 디코딩 방법 및 부호화된 오디오 신호 생성방법은 인코딩 시 가정한 디코딩 버전과 다른 버전으로 디코딩할 경우, 상기 디코딩 버전들 사이에서 발생하는 시간지연을 보상해서 디코딩 하는 다채널 오디오 신호를 디코딩할 수 있다는 효과가 있다.As described above, the method for decoding a multi-channel audio signal and the method for generating an encoded audio signal according to the present invention, when decoding with a version different from the decoding version assumed during encoding, eliminates the time delay occurring between the decoding versions. There is an effect that it is possible to decode multichannel audio signals which are compensated and decoded.

또한, 사용자의 취향에 따라 디코딩 버전을 선택할 수 있다는 효과가 있다.In addition, there is an effect that the decoding version can be selected according to the user's taste.

Claims (12)

다운믹스 신호와 공간정보를 이용하여 다채널 오디오 신호를 복원하는 디코딩 방법에 있어서,A decoding method for reconstructing a multichannel audio signal using a downmix signal and spatial information, 제1디코딩 버전을 기준으로 상기 다운믹스 신호와 상기 공간정보의 시간 동기가 맞추어진 부호화된 오디오 신호의 디코딩 버전을 체크하는 단계; 및Checking a decoded version of a coded audio signal in which the downmix signal and the spatial information are time-synchronized based on a first decoded version; And 상기 체크된 제1디코딩 버전과 다른 제2디코딩 버전으로 디코딩 하는 경우 시간지연을 보상하는 단계를 포함하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.Compensating for the time delay when decoding the second decoded version different from the checked first decoded version. 제 1 항에 있어서, 상기 디코딩 방법은 The method of claim 1, wherein the decoding method is 적어도 2개의 디코딩 버전 중 어느 하나를 선택하여 디코딩할 수 있는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.A method for decoding a multichannel audio signal, characterized in that any one of at least two decoding versions can be selected and decoded. 제 2 항에 있어서, 상기 부호화된 오디오 신호는 The method of claim 2, wherein the encoded audio signal is 제1디코딩 버전에 대한 정보를 포함하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.A method for decoding a multichannel audio signal, comprising information on a first decoding version. 제 3 항에 있어서, 상기 제1디코딩 버전에 대한 정보는The method of claim 3, wherein the information about the first decoding version is 상기 부호화된 오디오 신호 내에 플래그 형태로 존재하는 것을 특징으로 하 는 다채널 오디오 신호의 디코딩 방법.And decoding the multi-channel audio signal in the form of a flag in the encoded audio signal. 제 4 항에 있어서, The method of claim 4, wherein 상기 제1디코딩 버전은 고음질 버전이고, 제2디코딩 버전은 저전력 버전인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And wherein the first decoding version is a high quality version and the second decoding version is a low power version. 제 4 항에 있어서, The method of claim 4, wherein 상기 제1디코딩 버전은 저전력 버전이고, 제2디코딩 버전은 고음질 버전인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And wherein the first decoding version is a low power version and the second decoding version is a high quality version. 제 5 항 또는 제 6 항에 있어서, 상기 시간지연을 보상하는 단계는The method of claim 5 or 6, wherein the compensating for the time delay 상기 제1디코딩 버전으로 디코딩하는 경우 상기 공간정보가 적용되는 시점까지 발생하는 시간지연과 상기 제2디코딩 버전으로 디코딩하는 경우 상기 공간정보가 적용되는 시점까지 발생하는 시간지연을 각각 구하여 그 차만큼을 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.When decoding with the first decoding version, the time delay that occurs until the point of time when the spatial information is applied and when decoding with the second decoding version, obtains the time delay that occurs until the time when the spatial information is applied, respectively. A method of decoding a multichannel audio signal, characterized in that for compensating. 제 7 항에 있어서, 상기 시간지연을 보상하는 단계는8. The method of claim 7, wherein compensating for the time delay 상기 시간지연의 차만큼 상기 다운믹스 신호를 리딩 또는 래깅시키는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And reading or lagging the downmix signal by the difference in time delay. 제 7 항에 있어서, 상기 시간지연을 보상하는 단계는8. The method of claim 7, wherein compensating for the time delay 상기 시간지연의 차만큼 상기 공간정보를 리딩 또는 래깅시키는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And reading or lagging the spatial information by the difference of the time delay. 다채널 오디오 코딩에서 다채널 오디오 입력신호를 다운믹스하고, 상기 다채널 오디오 입력신호에서 공간정보를 추출하여, 상기 다운믹스 신호와 공간정보로 부호화된 오디오 신호를 생성하는 방법에 있어서,A method for downmixing a multichannel audio input signal in multichannel audio coding, extracting spatial information from the multichannel audio input signal, and generating an audio signal encoded with the downmix signal and spatial information, 상기 부호화된 오디오 신호는 상기 다운믹스 신호와 상기 공간정보의 시간동기를 일치시키는 기준 디코딩 버전인 제1디코딩 버전에 대한 정보를 포함하는 것을 특징으로 하는 부호화된 오디오 신호의 생성방법. And the encoded audio signal includes information on a first decoding version, which is a reference decoding version that matches the time synchronization of the spatial information with the downmix signal. 제 10 항에 있어서, 상기 제1디코딩 버전에 대한 정보는11. The method of claim 10, wherein the information about the first decoding version is 플래그 형태로 존재하는 하는 것을 특징으로 하는 부호화된 오디오 신호의 생성방법.A method of generating an encoded audio signal, characterized in that it exists in the form of a flag. 제 11 항에 있어서, 상기 제1디코딩 버전은12. The method of claim 11, wherein the first decoding version is 고음질 버전 또는 저전력 버전 중 하나인 것을 특징으로 하는 부호화된 오디오 신호의 생성방법.A method of producing an encoded audio signal, characterized in that it is either a high quality version or a low power version.
KR1020060078218A 2005-10-04 2006-08-18 Method for decoding multi-channel audio signals and method for generating encoded audio signal KR20070037983A (en)

Priority Applications (51)

Application Number Priority Date Filing Date Title
US11/541,397 US7742913B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,472 US7716043B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,471 US20070092086A1 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/540,919 US7761289B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/540,920 US7653533B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,395 US7840401B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
CN200680039452.4A CN101297594B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136566A TWI310544B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing
TW095136564A TWI317247B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087007453A KR100888973B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799056A EP1952671A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087023852A KR101186611B1 (en) 2005-10-24 2006-10-02 A method and an apparatuf for processing an audio signal
JP2008537584A JP5270358B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
EP06799055A EP1952670A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003976 WO2007049865A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395777A CN101297597B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
BRPI0617779-4A BRPI0617779A2 (en) 2005-10-24 2006-10-02 removal of time delays in signal routes
AU2006306942A AU2006306942B2 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003972 WO2007049861A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136563A TWI317244B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087007452A KR100888972B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136559A TWI317245B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799059.8A EP1952674B1 (en) 2005-10-24 2006-10-02 Compensation of a decoding delay of a multi-channel audio signal
PCT/KR2006/003974 WO2007049863A2 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003973 WO2007049862A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537581A JP5249038B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
JP2008537582A JP2009513084A (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
TW098104747A TWI450603B (en) 2005-10-04 2006-10-02 Removing time delays in signal paths
EP06799058A EP1952673A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136561A TWI317243B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395781A CN101297598B (en) 2005-10-24 2006-10-02 Method and system for processing audio frequency signal
TW095136562A TWI317246B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087030528A KR100928268B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537580A JP5270357B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007454A KR100888974B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CNA2006800394539A CN101297595A (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537583A JP5249039B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007449A KR100875428B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing
CA2626132A CA2626132C (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395762A CN101297596B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799057.2A EP1952672B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003980 WO2007049866A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CNA2006800395796A CN101297599A (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799061A EP1952675A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003975 WO2007049864A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537579A JP5399706B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007450A KR100888971B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
HK09103908.6A HK1126071A1 (en) 2005-10-24 2009-04-28 Method and apparatus for processing audio signal
US12/872,044 US8095358B2 (en) 2005-10-24 2010-08-31 Removing time delays in signal paths
US12/872,081 US8095357B2 (en) 2005-10-24 2010-08-31 Removing time delays in signal paths

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US72922505P 2005-10-24 2005-10-24
US60/729,225 2005-10-24
US78674006P 2006-03-29 2006-03-29
US60/786,740 2006-03-29
US79232906P 2006-04-17 2006-04-17
US60/792,329 2006-04-17

Publications (1)

Publication Number Publication Date
KR20070037983A true KR20070037983A (en) 2007-04-09

Family

ID=38159536

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020060078225A KR20070037987A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signal
KR1020060078223A KR20070037986A (en) 2005-10-04 2006-08-18 Method and apparatus method for processing multi-channel audio signal
KR1020060078221A KR20070037984A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signals
KR1020060078218A KR20070037983A (en) 2005-10-04 2006-08-18 Method for decoding multi-channel audio signals and method for generating encoded audio signal
KR1020060078222A KR20070037985A (en) 2005-10-04 2006-08-18 Method and apparatus method for decoding multi-channel audio signals
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020060078225A KR20070037987A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signal
KR1020060078223A KR20070037986A (en) 2005-10-04 2006-08-18 Method and apparatus method for processing multi-channel audio signal
KR1020060078221A KR20070037984A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signals

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020060078222A KR20070037985A (en) 2005-10-04 2006-08-18 Method and apparatus method for decoding multi-channel audio signals
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing

Country Status (1)

Country Link
KR (6) KR20070037987A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100931309B1 (en) * 2006-07-04 2009-12-11 한국전자통신연구원 Apparatus and method for reconstructing multichannel audio signals using HE-AC decoder and MB surround decoder
US8082591B2 (en) 2007-12-17 2011-12-20 Electronics And Telecommunications Research Institute Authentication gateway apparatus for accessing ubiquitous service and method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100881312B1 (en) * 2007-06-28 2009-02-03 엘지전자 주식회사 Apparatus and Method for encoding/decoding multi-channel audio signal, and IPTV thereof
WO2014187989A2 (en) * 2013-05-24 2014-11-27 Dolby International Ab Reconstruction of audio scenes from a downmix
KR102317416B1 (en) 2015-04-20 2021-10-25 충남대학교산학협력단 A Negative Electrode Active Material With A High Energy Density And A Lithium Ion Secondary Battery Having The Same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG49883A1 (en) 1991-01-08 1998-06-15 Dolby Lab Licensing Corp Encoder/decoder for multidimensional sound fields
DE4209544A1 (en) 1992-03-24 1993-09-30 Inst Rundfunktechnik Gmbh Method for transmitting or storing digitized, multi-channel audio signals
US5481643A (en) 1993-03-18 1996-01-02 U.S. Philips Corporation Transmitter, receiver and record carrier for transmitting/receiving at least a first and a second signal component

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100931309B1 (en) * 2006-07-04 2009-12-11 한국전자통신연구원 Apparatus and method for reconstructing multichannel audio signals using HE-AC decoder and MB surround decoder
KR101289268B1 (en) * 2006-07-04 2013-07-24 한국전자통신연구원 Apparatus and method for restoring multi-channel audio signal using he-aac decoder and mpeg surround decoder
US8611547B2 (en) 2006-07-04 2013-12-17 Electronics And Telecommunications Research Institute Apparatus and method for restoring multi-channel audio signal using HE-AAC decoder and MPEG surround decoder
US8848926B2 (en) 2006-07-04 2014-09-30 Electronics And Telecommunications Research Institute Apparatus and method for restoring multi-channel audio signal using HE-AAC decoder and MPEG surround decoder
US8082591B2 (en) 2007-12-17 2011-12-20 Electronics And Telecommunications Research Institute Authentication gateway apparatus for accessing ubiquitous service and method thereof

Also Published As

Publication number Publication date
KR100875429B1 (en) 2008-12-22
KR20070037984A (en) 2007-04-09
KR20080040786A (en) 2008-05-08
KR20070037985A (en) 2007-04-09
KR20070037987A (en) 2007-04-09
KR20070037986A (en) 2007-04-09

Similar Documents

Publication Publication Date Title
KR101289268B1 (en) Apparatus and method for restoring multi-channel audio signal using he-aac decoder and mpeg surround decoder
JP6377110B2 (en) Audio decoder for interleaving signals
TW200738038A (en) Audio encoding and decoding
CA2598541A1 (en) Near-transparent or transparent multi-channel encoder/decoder scheme
KR100763920B1 (en) Method and apparatus for decoding input signal which encoding multi-channel to mono or stereo signal to 2 channel binaural signal
KR20070037983A (en) Method for decoding multi-channel audio signals and method for generating encoded audio signal
CN110473560B (en) Encoding of multi-channel audio content
KR20060109297A (en) Method and apparatus for encoding/decoding audio signal
JP2007187749A (en) New device for supporting head-related transfer function in multi-channel coding
KR20110022252A (en) Method and apparatus for encoding/decoding stereo audio
JP2009532735A (en) Media signal processing apparatus and method
US8781134B2 (en) Method and apparatus for encoding and decoding stereo audio
KR20110022251A (en) Method and apparatus for encoding/decoding stereo audio
KR20070011100A (en) Methods for energy compensation for multi-channel audio coding and methods for generating encoded audio signal for the compensation
KR20240046634A (en) Method and apparatus for low cost error recovery in predictive oding
Aggrawal et al. New Enhancements for Improved Image Quality and Channel Separation in the Immersive Sound Field Rendition (ISR) Parametric Multichannel Audio Coding System
KR20140122990A (en) Apparatus and method for encoding/decoding multichannel audio signal