KR20070037985A - Method and apparatus method for decoding multi-channel audio signals - Google Patents

Method and apparatus method for decoding multi-channel audio signals Download PDF

Info

Publication number
KR20070037985A
KR20070037985A KR1020060078222A KR20060078222A KR20070037985A KR 20070037985 A KR20070037985 A KR 20070037985A KR 1020060078222 A KR1020060078222 A KR 1020060078222A KR 20060078222 A KR20060078222 A KR 20060078222A KR 20070037985 A KR20070037985 A KR 20070037985A
Authority
KR
South Korea
Prior art keywords
decoding
version
time delay
spatial information
time
Prior art date
Application number
KR1020060078222A
Other languages
Korean (ko)
Inventor
방희석
오현오
김동수
임재현
정양원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US11/541,397 priority Critical patent/US7742913B2/en
Priority to US11/541,472 priority patent/US7716043B2/en
Priority to US11/541,471 priority patent/US20070092086A1/en
Priority to US11/540,919 priority patent/US7761289B2/en
Priority to US11/540,920 priority patent/US7653533B2/en
Priority to US11/541,395 priority patent/US7840401B2/en
Priority to PCT/KR2006/003973 priority patent/WO2007049862A1/en
Priority to TW098104747A priority patent/TWI450603B/en
Priority to KR1020087007451A priority patent/KR100875429B1/en
Priority to TW095136564A priority patent/TWI317247B/en
Priority to KR1020087007453A priority patent/KR100888973B1/en
Priority to EP06799056A priority patent/EP1952671A4/en
Priority to KR1020087023852A priority patent/KR101186611B1/en
Priority to JP2008537584A priority patent/JP5270358B2/en
Priority to EP06799055A priority patent/EP1952670A4/en
Priority to PCT/KR2006/003976 priority patent/WO2007049865A1/en
Priority to CN2006800395777A priority patent/CN101297597B/en
Priority to AU2006306942A priority patent/AU2006306942B2/en
Priority to PCT/KR2006/003972 priority patent/WO2007049861A1/en
Priority to TW095136563A priority patent/TWI317244B/en
Priority to KR1020087007452A priority patent/KR100888972B1/en
Priority to TW095136559A priority patent/TWI317245B/en
Priority to EP06799059.8A priority patent/EP1952674B1/en
Priority to CN200680039452.4A priority patent/CN101297594B/en
Priority to PCT/KR2006/003974 priority patent/WO2007049863A2/en
Priority to JP2008537581A priority patent/JP5249038B2/en
Priority to JP2008537582A priority patent/JP2009513084A/en
Priority to EP06799058A priority patent/EP1952673A1/en
Priority to TW095136566A priority patent/TWI310544B/en
Priority to TW095136561A priority patent/TWI317243B/en
Priority to CN2006800395781A priority patent/CN101297598B/en
Priority to TW095136562A priority patent/TWI317246B/en
Priority to KR1020087030528A priority patent/KR100928268B1/en
Priority to JP2008537580A priority patent/JP5270357B2/en
Priority to KR1020087007454A priority patent/KR100888974B1/en
Priority to CNA2006800394539A priority patent/CN101297595A/en
Priority to JP2008537583A priority patent/JP5249039B2/en
Priority to KR1020087007449A priority patent/KR100875428B1/en
Priority to CA2626132A priority patent/CA2626132C/en
Priority to CN2006800395762A priority patent/CN101297596B/en
Priority to EP06799057.2A priority patent/EP1952672B1/en
Priority to PCT/KR2006/003980 priority patent/WO2007049866A1/en
Priority to CNA2006800395796A priority patent/CN101297599A/en
Priority to EP06799061A priority patent/EP1952675A4/en
Priority to PCT/KR2006/003975 priority patent/WO2007049864A1/en
Priority to JP2008537579A priority patent/JP5399706B2/en
Priority to KR1020087007450A priority patent/KR100888971B1/en
Publication of KR20070037985A publication Critical patent/KR20070037985A/en
Priority to HK09103908.6A priority patent/HK1126071A1/en
Priority to US12/872,044 priority patent/US8095358B2/en
Priority to US12/872,081 priority patent/US8095357B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 다채널 오디오 신호의 디코딩 방법은 제공하기 위한 것으로, 적어도 2개의 디코딩 버전을 선택하여 다채널 오디오 신호를 복원할 수 있는 디코딩 방법에 있어서, 제1디코딩 버전을 기준으로 다운믹스 신호와 공간정보의 시간동기가 맞추어진 경우 제2디코딩 버전으로 디코딩을 수행할 때 상기 다운믹스 신호와 공간정보의 시간동기 차를 구하는 단계; 및 상기 시간동기 차를 보상하는 단계를 포함한다.The present invention provides a decoding method of a multi-channel audio signal. In the decoding method capable of reconstructing a multi-channel audio signal by selecting at least two decoding versions, the downmix signal and the space are based on the first decoding version. Obtaining a time synchronization difference between the downmix signal and the spatial information when performing decoding with the second decoding version when the time synchronization of the information is synchronized; And compensating for the time synchronization difference.

Description

다채널 오디오 신호의 디코딩 방법 및 그 장치{METHOD AND APPARATUS METHOD FOR DECODING MULTI-CHANNEL AUDIO SIGNALS}Method for decoding multi-channel audio signal and apparatus therefor {METHOD AND APPARATUS METHOD FOR DECODING MULTI-CHANNEL AUDIO SIGNALS}

도 1 내지 6은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이고,1 to 6 are conceptual views illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 장치의 블록 구성도이다.7 is a block diagram of an apparatus for decoding a multichannel audio signal according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100: 코어 코덱 디코더 200, 400: 다채널 디코더100: core codec decoder 200, 400: multichannel decoder

210: 콤플렉스 QMF 분석과정 220, 260: 후처리 과정210: complex QMF analysis 220, 260 post-treatment

230: 리얼 QMF 분석과정 240: 영역변환 과정230: Real QMF Analysis 240: Region Conversion

250, 250a: 신호지연 처리과정 250′, 250a′: 공간정보 지연 처리과정250, 250a: signal delay processing 250 ', 250a': spatial information delay processing

본 발명은 다채널 오디오 신호의 디코딩 방법 및 그 장치에 관한 것으로, 특히 부호화된 오디오 신호에 대하여 디코딩 버전이 둘 이상 있는 경우 선택된 디코딩 버전과 인코딩 시 가정한 디코딩 버전이 다를 때 발생하는 시간지연을 보상해서 디코딩 하는 방법에 관한 것이다.The present invention relates to a method and apparatus for decoding a multichannel audio signal, and more particularly, to compensate for a time delay occurring when a selected decoding version is different from a decoding version assumed in encoding, when there is more than one decoding version for an encoded audio signal. To decode.

최근에 디지털 오디오 신호에 대한 다양한 코딩기술 및 방법들이 개발되고 있으며, 이와 관련된 제품들이 생산되고 있다. 또한 멀티채널 오디오 신호의 공간 정보를 이용하여 모노 또는 스테레오 오디오 등의 다운믹스 신호를 디코딩 단계에서 다채널로 바꾸는 코딩방법들이 개발되고 있으며, 이에 대한 제품이 실용화되고 있다.Recently, various coding techniques and methods for digital audio signals have been developed, and related products have been produced. In addition, coding methods for converting downmix signals, such as mono or stereo audio, into multichannels in a decoding step using spatial information of multichannel audio signals have been developed.

또한, 상기와 같은 제품들을 이용한 다채널 오디오 신호의 처리를 할 때, 상기 디코딩 버전을 둘 이상 선택가능하게 하여, 인코딩 시 가정한 디코딩 버전과 다른 디코딩 버전으로 디코딩 하는 경우 이들 디코딩 버전사이에서 발생하는 시간지연을 보상하는 기술들이 대두되고 있다.In addition, when processing a multi-channel audio signal using the above products, two or more decoding versions are selectable, and when decoding to a decoding version different from the decoding version assumed for encoding, Techniques for compensating for time delays are emerging.

이에 본 발명은 상기와 같은 종래의 제반 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 인코딩 시 가정한 디코딩 버전과 다른 버전으로 디코딩할 경우, 상기 디코딩 버전들 사이에서 발생하는 시간지연을 보상해서 디코딩 하는 다채널 오디오 신호의 디코딩 방법을 제공하는데 있다.Therefore, the present invention has been proposed to solve the above-mentioned general problems, and an object of the present invention is to compensate for the time delay occurring between the decoding versions when decoding with a version different from the decoding version assumed during encoding. The present invention provides a method of decoding a multichannel audio signal.

또한, 상기의 디코딩 방법을 수행할 수 있는 다채널 오디오 신호의 디코딩 장치를 제공하는 것을 본 발명의 또다른 목적으로 하고 있다.Another object of the present invention is to provide an apparatus for decoding a multichannel audio signal capable of performing the above decoding method.

본 발명에 따른 다채널 오디오 신호의 디코딩 방법은 적어도 2개의 디코딩 버전을 선택하여 다채널 오디오 신호를 복원할 수 있는 디코딩 방법에 있어서, 제1 디코딩 버전을 기준으로 다운믹스 신호와 공간정보의 시간동기가 맞추어진 경우 제2디코딩 버전으로 디코딩을 수행할 때 상기 다운믹스 신호와 공간정보의 시간동기 차를 구하는 단계; 및 상기 시간동기 차를 보상하는 단계를 포함한다.A decoding method of a multichannel audio signal according to the present invention is a decoding method capable of reconstructing a multichannel audio signal by selecting at least two decoding versions, wherein time synchronization of a downmix signal and spatial information based on the first decoding version is performed. Obtaining a time synchronization difference between the downmix signal and the spatial information when decoding is performed with the second decoding version when the match is set; And compensating for the time synchronization difference.

또한, 본 발명에 따른 다채널 오디오 신호의 디코딩 장치는 인코딩된 다운믹스 신호를 디코딩하는 코어 코덱 디코더; 및 상기 디코딩된 다운믹스 신호와 공간정보를 이용하여 원래의 다채널 오디오 신호를 복원하는 다채널 디코더를 포함하되, 상기 다채널 디코더는 적어도 2개의 디코딩 버전 중 어느 하나를 선택하여 디코딩이 가능하고, 인코딩 시 가정한 제1디코딩 버전과 다른 제2디코딩 버전으로 디코딩 하는 경우 상기 디코딩된 다운믹스 신호와 상기 공간정보의 시간동기 차를 보상하는 지연 처리부를 포함한다.In addition, the apparatus for decoding a multi-channel audio signal according to the present invention includes a core codec decoder for decoding an encoded downmix signal; And a multichannel decoder for restoring an original multichannel audio signal using the decoded downmix signal and spatial information, wherein the multichannel decoder can select and decode any one of at least two decoding versions, When decoding with a second decoding version different from the first decoding version assumed in the encoding includes a delay processor for compensating the time synchronization difference between the decoded downmix signal and the spatial information.

이하, 상기와 같은 본 발명, 다채널 오디오 신호의 디코딩 방법 및 그 장치의 기술적 사상에 따른 일실시예를 도면을 참조하여 설명하면 다음과 같다.Hereinafter, an embodiment according to the present invention as described above, a method of decoding a multichannel audio signal, and an apparatus thereof will be described with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다. 이하에서는 오디오 비트스트림이 부호화된 오디오 신호의 일례가 될 수 있기에, 이를 기준으로 하여 설명하도록 하겠다.1 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention. Hereinafter, since the audio bitstream may be an example of an encoded audio signal, it will be described based on this.

이에 도시된 바와 같이, 부호화된 다운믹스 비트스트림(x)이 코어 코덱 디코더(100)를 거쳐 디코딩 된다. 디코딩된 다운믹스 신호(D)는 다채널 디코더(20)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호를 생성하게 된다. 다채널 디코더(20)는 두 가지의 디코딩 버전 중 어느 하나를 선택하여 다채널 오디오 신호를 복원할 수 있다. 본 실시예에서의 오디오 비트스트림은 인코딩 시, 제1디코딩 버전을 기준으로 다운믹스 신호와 공간정보의 시간동기가 맞추어져 있다. As shown here, the encoded downmix bitstream x is decoded via the core codec decoder 100. The decoded downmix signal D is transmitted to the multichannel decoder 20 to be combined with the spatial information SI to generate a multichannel audio signal. The multichannel decoder 20 may select one of two decoding versions to restore the multichannel audio signal. In the present embodiment, the audio bitstream is time-synchronized with the downmix signal and the spatial information based on the first decoding version when encoding.

디코딩된 다운믹스 신호(D)는 두 가지 버전(P1, P2)을 통해 다채널 오디오 신호를 복원할 수 있다. P1은 제1디코딩 버전으로 디코딩 되는 경우이다. 제1디코딩 버전으로 디코딩 될 때는 디코딩된 다운믹스 신호(D)가 모듈A(21)를 거쳐 영역변환이 된다. 영역변환된 다운믹스 신호(Dt1)는 후처리 과정(22)에서 공간정보(SI)와 결합되어 제1디코딩 버전의 다채널 오디오 신호(M1)를 생성하게 된다. 이 때, 영역변환된 다운믹스 신호(Dt1)와 공간정보(SI)의 시간동기를 맞추기 위해 별도의 시간지연 보상처리 과정이 필요하지 않다. 왜냐하면 이미 인코딩 시에 제1디코딩 버전을 기준으로 공간정보와 다운믹스 신호와의 시간동기를 맞추어 오디오 비트스트림을 생성하였기 때문이다.The decoded downmix signal D may reconstruct the multichannel audio signal through two versions P1 and P2. P1 is a case where the first decoding version is decoded. When it is decoded in the first decoding version, the decoded downmix signal D is subjected to region conversion via module A21. The area-converted downmix signal Dt1 is combined with the spatial information SI in the post-processing 22 to generate the multi-channel audio signal M1 of the first decoded version. At this time, a separate time delay compensation process is not necessary to match the time synchronization of the area-converted downmix signal Dt1 and the spatial information SI. This is because the audio bitstream is generated based on the time synchronization between the spatial information and the downmix signal based on the first decoding version at the time of encoding.

한편 제2디코딩 버전으로 디코딩 되는 경우는 디코딩된 다운믹스 신호(D)가 P2 경로를 따라 전송된다. 이 경우는 디코딩된 다운믹스 신호(D)가 모듈B(23)를 거쳐 영역변환 된다. 영역변환된 다운믹스 신호(Dt2)는 신호지연 처리과정(24)을 거치면서 소정시간이 지연된다. 여기서 소정시간이라 함은 제1디코딩 버전으로 디코딩될 때 공간정보가 적용되는 시점까지 발생하는 시간지연과 제2디코딩 버전으로 디코딩될 때 공간정보가 적용되는 시점까지 발생하는 시간지연과의 차를 말한다. 여기서 공간정보(SI)가 적용되는 시점이라 함은 공간정보(SI)와 다운믹스 신호(Dt1, Dt2)가 결합되는 후처리 과정(22, 26)의 시점을 의미한다. 따라서 모듈A에서 발생하는 시간지연과 모듈B에서 발생하는 시간지연이 같다면 굳이 신호지연 처리과정(24)를 거칠 필요가 없다. 그러나 전술한 시간지연 차가 발생한다면 신호지 연 처리과정(24)에서 상술한 시간지연 차를 보상해 주어야 한다. 시간지연을 보상처리 하는 방법은 영역변환된 다운믹스 신호(Dt2)를 시간지연 차만큼 리딩시키거나 래깅시키는 것이다. 언급된 시간의 단위로는 타임샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. 그렇게 시간지연 보상처리가 된 다운믹스 신호(Dt2′)는 공간정보(SI)와 후처리 과정(26)에서 결합되어 제2디코딩 버전의 다채널 오디오 신호(M2)를 생성한다. Meanwhile, in the case of decoding with the second decoding version, the decoded downmix signal D is transmitted along the P2 path. In this case, the decoded downmix signal D is region-converted via the module B23. The area-converted downmix signal Dt2 is delayed by a predetermined time while going through the signal delay process 24. Here, the predetermined time refers to a difference between a time delay occurring until the spatial information is applied when decoded by the first decoding version and a time delay occurring when the spatial information is applied when decoded by the second decoding version. . Here, the time point at which the spatial information SI is applied refers to the time points at the post-processing processes 22 and 26 in which the spatial information SI and the downmix signals Dt1 and Dt2 are combined. Accordingly, if the time delay occurring in the module A and the time delay occurring in the module B are the same, it is not necessary to go through the signal delay processing 24. However, if the above-described time delay occurs, the above-described time delay should be compensated for in the signal delay process 24. A method of compensating the time delay is to read or lag the area-converted downmix signal Dt2 by the time delay difference. As a unit of time mentioned, a time sample may be used or a time slot may be used. The downmix signal Dt2 'subjected to the time delay compensation process is combined with the spatial information SI in the post-processing 26 to generate the multi-channel audio signal M2 of the second decoding version.

한편, 다운믹스 신호(Dt2)를 지연처리하지 않고, 공간정보(SI)를 지연처리 하는 방법을 이용하여 다채널 오디오 신호(M2)를 생성할 수도 있다. 구체적으로 공간정보(SI)를 전술한 시간지연 차만큼 리딩시키거나 래깅시켜 후처리 과정(26)에서 다운믹스 신호(Dt2)와 결합하는 것이다. 즉. 지연처리가 된 공간정보(SI′)는 다운믹스 신호(Dt2)와 결합되어 다채널 오디오 신호(M2)를 생성한다.The multi-channel audio signal M2 may be generated using a method of delaying the spatial information SI without delaying the downmix signal Dt2. Specifically, the spatial information SI is read or lag by the above-described time delay and combined with the downmix signal Dt2 in the post-processing step 26. In other words. The delayed spatial information SI 'is combined with the downmix signal Dt2 to generate the multichannel audio signal M2.

이하, 첨부되는 도면을 참조하여 본 발명의 구체적인 실시예에 대해 설명하고자 한다.Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.2 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300)가 다채널 디코더(200)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(320, 360)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 고음질 버전이라 함은 상대적으로 섬세하고, 정제된 다채 널 오디오 신호를 출력하는 디코딩 버전을 말하고, 저전력 버전이라 함은 음질은 상대적으로 고음질 버전보다는 떨어지지만 고음질 버전보다 구성이 덜 복잡하여 전력소모가 상대적으로 적은 것을 말한다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300 decoded by the core codec decoder 100 is transmitted to the multichannel decoder 200 and combined with the spatial information SI to restore the multichannel audio signals 320 and 360. do. The multi-channel decoder 200 can decode in two decoding versions. One is the High Quality version and the other is the Low Power version. The high quality version refers to a decoding version that outputs a relatively delicate, refined multi-channel audio signal. The low power version refers to a sound that is relatively inferior to the high quality version but is less complex than the high quality version. Say less. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300)는 다채널 디코더(200)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB is transmitted to the core codec decoder 100 and decoded, and the decoded downmix signal 300 is transmitted to the multichannel decoder 200 to provide two decoding versions (high quality version or low power version). The multi-channel audio signal is restored.

이하, 고음질 버전을 기준으로 인코딩된 오디오 비트 스트림을 디코딩하는 과정을 설명하기로 한다.Hereinafter, a process of decoding the encoded audio bit stream based on the high quality version will be described.

디코딩된 다운믹스 신호(300)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 후처리 과정(220)과정에서 공간정보와 결합되어 고음질 버전의 다채널 오디오 신호(320)를 생성한다. 다운믹스 신호(300)가 P1을 따라 전송되어 디코딩될 때는 별도의 시간지연을 고려하지 않고 디코딩을 한다. 이는 전술한 바와 같이, 이미 공간정보(SI)와 다운믹스 신호는 인코딩 시에 고음질 버전을 기준으로 하여 시간동기가 맞추어져 있기 때문이다.When the decoded downmix signal 300 is decoded in a high quality version, the downmix signal is transmitted and decoded along the P1 path. The decoded downmix signal 300 is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is combined with the spatial information in the post-processing process 220 to generate a high-quality version of the multichannel audio signal 320. When the downmix signal 300 is transmitted along with P1 and decoded, the downmix signal 300 decodes without considering a separate time delay. This is because, as described above, the spatial information (SI) and the downmix signal are time-synchronized based on the high quality version at the time of encoding.

한편, 디코딩된 다운믹스 신호(300)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호(300)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(330)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(340)는 신호지연 처리과정(250)을 거치게 된다. 이와 같이, 다운믹스 신호(340)가 신호지연 처리과정을 거치는 것은 인코딩 시 오디오 비트스트림이 고음질 버전을 가정하고 인코딩 되어서, 다운믹스 신호(340)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.Meanwhile, when the decoded downmix signal 300 is decoded in the low power version, the downmix signal 300 is transmitted and decoded along the P2 path. The decoded downmix signal 300 is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 330 converted to the real QMF region is converted to the complex QMF region through the region conversion process 240. The downmix signal 340 converted to the complex QMF region is subjected to the signal delay processing 250. As described above, the downmix signal 340 undergoes a signal delay process because the audio bitstream is encoded on the assumption that the audio bitstream has a high-quality version, so that the downmix signal 340 and the spatial information SI are out of time. to be.

신호지연 처리과정(250)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 다운믹스 신호(340)를 리딩시켜야 한다. In the signal delay process 250, the difference between the time delay occurring until the spatial information (SI) is applied when the high quality version is decoded and the time delay occurring until the spatial information is applied when the low information version is decoded is determined. The downmix signal 340 must be read by the difference.

왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩 하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. This is because the time delay to decode to the low power version is longer than the time delay to decode to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. 전술한 바와 같이, 시간지연 보상이 이루어진 다운믹스 신호(350)는 후처리 과정(260)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360)를 생성하게 된다. 하지만 다운믹스 신호(340)를 리딩시키는 것을 때로는 복잡하거나 번거로운 작업이 될 수 있으므로 공간정보의 시간지연을 보상하는 방법을 택하여 디코딩할 수도 있다. 이하, 이에 대해 설명하도록 하겠다.On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it. As described above, the downmix signal 350 having time delay compensation is combined with the spatial information SI in the post-processing process 260 to generate the multi-channel audio signal 360 of the low power version. However, since reading the downmix signal 340 can sometimes be complicated or cumbersome, a method of compensating the time delay of spatial information can be selected and decoded. This will be described below.

도 3은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.3 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300)가 다채널 디코더(200′)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(320, 360′)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300 decoded by the core codec decoder 100 is transmitted to the multi-channel decoder 200 'and combined with the spatial information SI to multi-channel audio signals 320 and 360'. Restore it. The multi-channel decoder 200 can decode in two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300)는 다채널 디코더(200′)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB is transmitted to the core codec decoder 100 and decoded, and the decoded downmix signal 300 is sent to the multichannel decoder 200 'to provide two decoding versions (high quality version or low power). Version) to restore the multichannel audio signal.

디코딩된 다운믹스 신호(300)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거 쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 후처리 과정(220)과정에서 공간정보와 결합되어 고음질 버전의 다채널 오디오 신호(320)를 생성한다. 다운믹스 신호(300)가 P1을 따라 전송되어 디코딩될 때는 별도의 시간지연을 고려하지 않고 디코딩을 한다. 이는 전술한 바와 같이, 이미 공간정보(SI)와 다운믹스 신호는 인코딩 시에 고음질 버전을 기준으로 하여 시간동기가 맞추어져 있기 때문이다.When the decoded downmix signal 300 is decoded in a high quality version, the downmix signal is transmitted and decoded along the P1 path. The decoded downmix signal 300 is converted to a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is combined with the spatial information in the post-processing process 220 to generate a high-quality version of the multichannel audio signal 320. When the downmix signal 300 is transmitted along with P1 and decoded, the downmix signal 300 decodes without considering a separate time delay. This is because, as described above, the spatial information (SI) and the downmix signal are time-synchronized based on the high quality version at the time of encoding.

한편, 디코딩된 다운믹스 신호(300)가 저전력 버전으로 디코딩될 경우는 P2 경로를 따라 다운믹스 신호(300)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 리얼 QMF 분석단계(230, Real QMF Analysis)를 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(330)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(340)는 후처과정(260′)에서 시간지연이 보상된 공간정보(SI1)와 결합되어 저전력 버전의 다채널 오디오 신호(360′)를 생성하게 된다. 공간정보(SI)는 공간정보 지연처리과정(250′)에서 시간지연이 보상된 후에 후처리된다. On the other hand, when the decoded downmix signal 300 is decoded in the low power version, the downmix signal 300 is transmitted and decoded along the P2 path. The decoded downmix signal 300 is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 330 converted to the real QMF region is converted to the complex QMF region through the region conversion process 240. The downmix signal 340 converted to the complex QMF region is combined with the spatial information SI1 whose time delay is compensated for in the post process 260 'to generate a multi-channel audio signal 360' of a low power version. The spatial information SI is post-processed after the time delay is compensated for in the spatial information delay processing 250 '.

이와 같이, 공간정보(SI)가 시간지연 처리과정(250′)을 거치는 것은 오디오 비트스트림이 고음질 버전을 기준으로 인코딩 되어서 다운믹스 신호(340)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.As described above, the spatial information SI undergoes the time delay process 250 ′ because the downmix signal 340 and the spatial information SI are out of time synchronization because the audio bitstream is encoded based on the high quality version. to be.

공간정보 지연처리과정(250′)에서는 고음질 버전으로 디코딩될 때 공간정보가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 공간정보(SI) 를 래깅시켜야 한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩 하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the spatial information delay process 250 ', the difference between the time delay occurring until the spatial information is applied when the high quality version is decoded and the time delay occurring when the spatial information is applied when the low information version is decoded is obtained. The spatial information SI should be lagging by that difference. This is because the time delay to decode to the low power version is longer than the time delay to decode to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it.

이하, 제1디코딩 버전이 저전력 버전인 경우를 설명하도록 하겠다.Hereinafter, a case in which the first decoding version is a low power version will be described.

도 4는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300a)가 다채널 디코더(200a)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(330a, 360a)를 복원한다. 다채널 디코더(200a)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300a decoded by the core codec decoder 100 is transmitted to the multichannel decoder 200a and combined with the spatial information SI to restore the multichannel audio signals 330a and 360a. do. The multichannel decoder 200a can be decoded into two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB1)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300a)는 다채널 디코더(200a)로 전송되어 2가지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다. The encoded downmix bitstream DB1 is transmitted to the core codec decoder 100 and decoded, and the decoded downmix signal 300a is transmitted to the multichannel decoder 200a so as to provide two decoding versions (high quality version or low power version). The multi-channel audio signal is restored.

디코딩된 다운믹스 신호(300a)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(340a)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(350a)는 후처리 과정(260a)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360a)를 생성하게 된다. 이상과 같이 다운믹스 신호(300a)를 저전력 디코딩 버전(P2)으로 디코딩할 때는 별도의 시간지연 절차가 필요하지 않다. 이는 오디오 비트스트림이 인코딩 시에 이미 저전력 디코딩 버전을 가정하여 인코딩 되었기 때문이다.When the decoded downmix signal 300a is decoded in the low power version, the downmix signal is transmitted and decoded along the P2 path. The decoded downmix signal 300a is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 340a converted into the real QMF region is converted into the complex QMF region through the region conversion process 240. The downmix signal 350a transformed into the complex QMF region is combined with the spatial information SI in the post-processing process 260a to generate the multi-channel audio signal 360a of the low power version. As described above, when decoding the downmix signal 300a with the low power decoding version P2, a separate time delay procedure is not necessary. This is because the audio bitstream has already been encoded at the time of encoding, assuming a low power decoding version.

한편, 디코딩된 다운믹스 신호(300a)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호(300a)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 신호지연 처리과정(250a)을 거쳐 시간지연이 보상된다. 이와 같이, 다운믹스 신호(310a)가 신호지연 처리과정(250a)을 거치는 것은 인코딩 시 오디오 비트스트림이 저전력 버전을 가정하고 인코딩 되어서, 다운믹스 신호(310a)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.On the other hand, when the decoded downmix signal 300a is decoded in the high quality version, the downmix signal 300a is transmitted and decoded along the P1 path. The decoded downmix signal 300a is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310 present in the complex QMF region is compensated for the time delay through the signal delay process 250a. As such, when the downmix signal 310a undergoes the signal delay process 250a, the audio bitstream is encoded on the assumption that the audio bitstream is a low power version, so that the downmix signal 310a and the spatial information SI are synchronized in time. This is because it is shifted.

신호지연 처리과정(250a)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정 보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 다운믹스 신호(310a)를 래깅시켜야 한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩 하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the signal delay process 250a, a time delay occurs until the spatial information SI is applied when decoded in a high quality version, and a time delay occurs until a spatial information SI is applied when decoded in a low power version. The difference between and should be obtained and the downmix signal 310a should be lagging by that difference. This is because the time delay to decode to the low power version is longer than the time delay to decode to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다. 전술한 바와 같이, 시간지연 보상이 이루어진 다운믹스 신호(320a)는 후처리 과정(220a)에서 공간정보(SI)와 결합되어 고음질 버전의 다채널 오디오 신호(330a)를 생성하게 된다. On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it. As described above, the downmix signal 320a having the time delay compensation is combined with the spatial information SI in the post-processing process 220a to generate the high-quality version of the multichannel audio signal 330a.

도 5는 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.5 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300a)가 다채널 디코더(200a′)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(330a′, 360a)를 복원한다. 다채널 디코더(200)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300a decoded by the core codec decoder 100 is transmitted to the multi-channel decoder 200a 'and combined with the spatial information SI to multi-channel audio signals 330a' and 360a. Restore it. The multi-channel decoder 200 can decode in two decoding versions. One is the High Quality version and the other is the Low Power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

부호화된 다운믹스 비트스트림(DB1)이 코어 코덱 디코더(100)로 전송되어 디코딩되고, 디코딩된 다운믹스 신호(300a)는 다채널 디코더(200a′)로 전송되어 2가 지 디코딩 버전(고음질 버전 또는 저전력 버전) 중 어느 하나에 따라 다채널 오디오 신호를 복원하게 된다.The encoded downmix bitstream DB1 is transmitted to and decoded by the core codec decoder 100, and the decoded downmix signal 300a is transmitted to the multichannel decoder 200a 'to provide two decoding versions (high quality version or Low-power version) to restore the multi-channel audio signal.

디코딩된 다운믹스 신호(300a)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 리얼 QMF 분석단계(230, Real QMF Analysis) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(340a)는 영역변환과정(240)을 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(350a)는 후처리 과정(260a)에서 공간정보(SI)와 결합되어 저전력 버전의 다채널 오디오 신호(360a)를 생성하게 된다. 이상과 같이 다운믹스 신호(300a)를 저전력 디코딩 버전(P2)으로 디코딩할 때는 별도의 시간지연 절차가 필요하지 않다. 이는 오디오 비트스트림이 인코딩 시에 이미 저전력 디코딩 버전을 가정하여 인코딩 되었기 때문이다.When the decoded downmix signal 300a is decoded in the low power version, the downmix signal is transmitted and decoded along the P2 path. The decoded downmix signal 300a is converted into a real QMF region through a real QMF analysis step 230. The downmix signal 340a converted into the real QMF region is converted into the complex QMF region through the region conversion process 240. The downmix signal 350a transformed into the complex QMF region is combined with the spatial information SI in the post-processing process 260a to generate the multi-channel audio signal 360a of the low power version. As described above, when decoding the downmix signal 300a with the low power decoding version P2, a separate time delay procedure is not necessary. This is because the audio bitstream has already been encoded at the time of encoding, assuming a low power decoding version.

한편, 디코딩된 다운믹스 신호(300a)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 디코딩된 다운믹스 신호(300a)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300a)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석단계(210, Complex QMF Analysis)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310a)는 후처리 과정(220)과정에서 시간지연이 보상된 공간정보(SI1′)와 결합되어 고음질 버전의 다채널 오디오 신호(330a′)를 생성한다. 공간정보(SI)는 공간정보 지연처리과정(250a′)에서 시간지연이 보상된 후에 후처리된다. Meanwhile, when the decoded downmix signal 300a is decoded in a high quality version, the decoded downmix signal 300a is transmitted and decoded along the P1 path. The decoded downmix signal 300a is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analysis step 210. The downmix signal 310a present in the complex QMF region is combined with spatial information SI1 'whose time delay is compensated for in the post-processing process 220 to generate a high quality version of the multichannel audio signal 330a'. The spatial information SI is post-processed after the time delay is compensated for in the spatial information delay processing 250a '.

이와 같이, 공간정보(SI)가 시간지연 처리과정(250a′)을 거치는 것은 오디오 비트스트림이 저전력 버전을 기준으로 인코딩 되어서 다운믹스 신호(310a)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다.As described above, the spatial information SI undergoes the time delay process 250a 'because the downmix signal 310a and the spatial information SI are out of time synchronization because the audio bitstream is encoded based on the low power version. to be.

공간정보 지연처리과정(250a′)에서는 고음질 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과 저전력 버전으로 디코딩될 때 공간정보(SI)가 적용되는 시점까지 발생하는 시간지연과의 차를 구하여 그 차만큼 공간정보(SI)를 리딩시켜야 한다. 왜냐하면 저전력 버전으로 디코딩하는 시간지연이 고음질 버전으로 디코딩하는 시간지연보다 길기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. In the spatial information delay process 250a ', a time delay occurs until the spatial information SI is applied when the high quality version is decoded, and a time delay occurs when the spatial information SI is applied when the low information version is decoded. The difference from the delay must be obtained and the spatial information SI should be read by the difference. This is because the time delay for decoding to the low power version is longer than the time delay for decoding to the high quality version. As a unit of time delay, a time sample may be used or a time slot may be used.

한편, 콤플렉스 QMF 분석단계(210)에서 발생하는 시간지연과 리얼 QMF 분석단계(230)에서 발생하는 시간지연을 같게 구성할 수도 있는데, 이 경우는 영역변환과정(240)에서 발생하는 시간지연만큼만 보상하면 된다.On the other hand, the time delay occurring in the complex QMF analysis step 210 and the time delay occurring in the real QMF analysis step 230 may be configured to be the same, in this case, only the time delay occurring in the area conversion process 240 is compensated. Just do it.

이상에서는 한 도메인으로 코어 코덱 디코더와 다채널 디코더가 연결되는 경우를 상정했으나, 여러 도메인 중 어느 한 도메인을 선택하여 디코딩된 다운믹스 신호를 다채널 디코더로 전송할 수도 있다. 도면을 참조하여 설명하면 다음과 같다.In the above, it is assumed that the core codec decoder and the multi-channel decoder are connected to one domain, but one of the domains may be selected to transmit the decoded downmix signal to the multi-channel decoder. A description with reference to the drawings is as follows.

도 6은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 방법을 설명하기 위한 개념도이다.6 is a conceptual diagram illustrating a decoding method of a multichannel audio signal according to an embodiment of the present invention.

이에 도시된 바와 같이, 다운믹스 비트스트림(DB2)는 코어 코덱 디코더(100)를 거쳐 디코딩이 되는데, 디코딩된 다운믹스 신호는 두 가지 영역 중 어느 하나의 영역으로 다채널 디코더(200b)로 전송된다. 참조부호 X1은 A영역에서 디코딩된 다운믹스 신호를 나타내고, X2는 B영역에서 디코딩된 다운믹스 신호를 나타낸다. X1, X2 모두 고음질 버전(210b)이나 저전력 버전(220b) 중 어느 하나로 디코딩되어 다채널 오디오 신호를 복원할 수 있다. 이 때, 오디오 비트스트림은 특정 영역 및 특정 디코딩 버전을 기준으로 공간정보와 다운믹스 신호의 시간동기가 맞추어진다. 만약, 고음질 버전 및 영역A를 기준으로 하여 인코딩이 되었다면 X1t를 제외한 X2t, X1t′, X2t′는 모두 시간지연 처리과정(212b, 221b, 222b)을 거쳐 지연보상이 이루어진다. 따라서 X1t를 제외한 X2t, X1t′, X2t′는 모두 시간지연 처리과정(212b, 221b, 222b)을 거쳐 다채널 오디오 신호(Y1, Y2, Y3, Y4)를 생성가능하다.As shown therein, the downmix bitstream DB2 is decoded through the core codec decoder 100, and the decoded downmix signal is transmitted to the multichannel decoder 200b in any one of two areas. . Reference numeral X1 denotes a downmix signal decoded in the area A, and X2 denotes a downmix signal decoded in the B area. Both X1 and X2 may be decoded into either the high quality version 210b or the low power version 220b to restore the multichannel audio signal. At this time, the audio bitstream is time-synchronized with the spatial information and the downmix signal based on a specific region and a specific decoding version. If the encoding is performed based on the high quality version and the area A, delay compensation is performed through the time delay processing processes 212b, 221b, and 222b except for X1t. Therefore, except for X1t, X2t, X1t ', and X2t' can generate multi-channel audio signals Y1, Y2, Y3, and Y4 through time delay processes 212b, 221b, and 222b.

한편,시간지연 처리에 대한 상세한 설명은 이미 상술 되었으므로 생략하도록 하겠다. 본 실시예에서는 디코딩 버전을 2개, 전송 도메인 영역을 2개만 언급했으나, 본 발명은 여기에 한정되지 않고, 다양한 변형이 가능하다.On the other hand, a detailed description of the time delay processing has already been described above will be omitted. In the present embodiment, only two decoding versions and two transmission domain regions are mentioned, but the present invention is not limited thereto, and various modifications are possible.

한편, 본 발명의 일실예에서는 다채널 오디오 신호를 처리할 때, 디코딩 버전에 따른 시간지연 보상만을 언급했으나, 본 발명에 따른 시간지연 보상은 오디오 비트스트림을 포함하는 전체 비트스트림에서도 응용될 수 있다. 예를 들면, 이미지, 텍스트, 기타 다른 정보와 오디오 비트스트림을 포함하는 전체 비트스트림에서 오디오 신호와 이미지 또는 오디오 신호와 텍스트 등이 시간지연을 보상하여 동기를 맞출 수 있다.Meanwhile, in the exemplary embodiment of the present invention, when processing a multi-channel audio signal, only the time delay compensation according to the decoding version is mentioned, but the time delay compensation according to the present invention may be applied to the entire bitstream including the audio bitstream. . For example, the audio signal and the image or the audio signal and the text may be synchronized to compensate for the time delay in the entire bitstream including the image, the text, and other information and the audio bitstream.

도 7은 본 발명의 일실시예에 의한 다채널 오디오 신호의 디코딩 장치의 블 록 구성도로서, 도시된 디코딩 장치는 코어 코덱 디코더(100)와 다채널 디코더(400)로 구성된다. 본 실시예에서는 인코딩 시에, 고음질 버전을 기준으로 다운믹스 신호와 공간정보의 시간동기가 맞추어진 오디오 비트스트림을 예를 들어 설명하기로 한다.FIG. 7 is a block diagram illustrating a decoding apparatus of a multi-channel audio signal according to an embodiment of the present invention. The decoding apparatus illustrated in FIG. 7 includes a core codec decoder 100 and a multi-channel decoder 400. In the present embodiment, an audio bitstream in which the downmix signal and the time information are synchronized in time with respect to a high quality version will be described as an example.

이에 도시된 바와 같이, 코어 코덱 디코더(100)에서 디코딩된 다운믹스 신호(300)가 다채널 디코더(400)로 전송되어 공간정보(SI)와 결합되어 다채널 오디오 신호(320, 360)를 복원한다. 다채널 디코더(400)는 2개의 디코딩 버전으로 디코딩이 가능하다. 그 하나는 고음질(High Quality) 버전이고, 또 다른 하나는 저전력(Low Power) 버전이다. 고음질 버전으로 디코딩할 때에는 P1경로를 따라 다운믹스 신호(300)가 이동하고, 저전력 버전으로 디코딩할 때에는 다운믹스 신호(300)가 P2경로를 따라 이동한다. 본 발명의 일실시예에서는 두 개의 디코딩 버전만이 언급되어 있지만, 본 발명은 이에 한정되지 않고, 보다 많은 디코딩 버전 중에서 선택 가능하다.As shown therein, the downmix signal 300 decoded by the core codec decoder 100 is transmitted to the multichannel decoder 400 and combined with the spatial information SI to restore the multichannel audio signals 320 and 360. do. The multichannel decoder 400 is capable of decoding in two decoding versions. One is the High Quality version and the other is the Low Power version. The downmix signal 300 moves along the P1 path when decoding in the high quality version, and the downmix signal 300 moves along the P2 path when decoding in the low power version. Although only two decoding versions are mentioned in one embodiment of the present invention, the present invention is not limited thereto and may be selected from more decoding versions.

코어 코덱 디코더(100)에서 디코딩되어 출력되는 다운믹스 신호(300)가 고음질 버전으로 디코딩될 경우는 P1경로를 따라 다운믹스 신호가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 콤플렉스 QMF(Quadrature Mirror Fiilter) 분석부(410)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역에 존재하는 다운믹스 신호(310)는 후처리부(420)에서 공간정보(SI)와 결합되어 고음질 버전의 다채널 오디오 신호(320)를 생성한다. 다운믹스 신호(300)가 P1을 따라 전송되어 디코딩될 때는 별도의 시간지연을 고려하지 않고 디코딩을 한다. 이는 전술한 바와 같이, 이미 공간정보(SI)와 다운믹스 신호는 인코딩 시에 고음질 버전을 기준으로 하여 시간동기가 맞추어져 있기 때문이다.When the downmix signal 300 decoded and output by the core codec decoder 100 is decoded in a high quality version, the downmix signal is transmitted and decoded along the P1 path. The decoded downmix signal 300 is converted into a complex QMF region through a complex quadrature mirror filter (QMF) analyzer 410. The downmix signal 310 present in the complex QMF region is combined with the spatial information SI in the post processor 420 to generate a high quality version of the multichannel audio signal 320. When the downmix signal 300 is transmitted along with P1 and decoded, the downmix signal 300 decodes without considering a separate time delay. This is because, as described above, the spatial information (SI) and the downmix signal are time-synchronized based on the high quality version at the time of encoding.

한편, 디코딩된 다운믹스 신호(300)가 저전력 버전으로 디코딩될 경우는 P2경로를 따라 다운믹스 신호(300)가 전송되어 디코딩된다. 디코딩된 다운믹스 신호(300)는 리얼(Real) QMF 분석부(430) 거쳐 리얼 QMF 영역으로 변환된다. 리얼 QMF 영역으로 변환된 다운믹스 신호(330)는 리얼/콤플렉스 QMF 변환부(440)를 거쳐 콤플렉스 QMF 영역으로 변환된다. 콤플렉스 QMF 영역으로 변환된 다운믹스 신호(340)는 신호지연 처리부(450)를 거쳐, 고음질 버전과 저전력 버전에서 발생하는 시간지연의 차만큼이 보상된다. 즉, 다운믹스 신호(340)를 전술한 시간지연 차만큼 리딩하여 후처리부(470)로 전송한다. 시간지연 처리부(450)를 거친 다운믹스 신호(350)는 공간정보(SI)와 결합되어 다채널 오디오 신호(360)를 생성한다. 물론, 콤플렉스 QMF 영역에 있는 다운믹스 신호(340)를 시간지연 처리를 하지 않고, 공간정보(SI)를 공간정보 지연 처리부(460)에서 전술한 시간지연 차만큼 래깅시킨 공간정보(SI1)와 다운믹스 신호(340)와 결합하여 다채널 오디오 신호(360)를 생성할 수도 있다. Meanwhile, when the decoded downmix signal 300 is decoded in the low power version, the downmix signal 300 is transmitted and decoded along the P2 path. The decoded downmix signal 300 is converted to a real QMF region through a real QMF analyzer 430. The downmix signal 330 converted to the real QMF region is converted to the complex QMF region through the real / complex QMF converter 440. The downmix signal 340 converted to the complex QMF region is compensated by the time delay occurring in the high quality version and the low power version through the signal delay processing unit 450. That is, the downmix signal 340 is read by the time delay difference described above and transmitted to the post processor 470. The downmix signal 350 that has passed through the time delay processor 450 is combined with the spatial information SI to generate the multichannel audio signal 360. Of course, the downmix signal 340 in the complex QMF region is not subjected to time delay processing, and the spatial information SI1 and down are spaced out by lagging the spatial information SI by the time delay difference described above by the spatial information delay processing unit 460. The multi-channel audio signal 360 may be generated in combination with the mix signal 340.

이와 같이, 다운믹스 신호(340)를 신호지연 처리부(450)에서 리딩시킨다든지 또는 공간정보(SI)를 공간정보 지연 처리부(460)에서 래깅시키는 이유는 다운믹스 신호(340)와 공간정보(SI)가 시간동기가 어긋나 있기 때문이다. 시간지연의 단위로는 타임 샘플을 사용할 수도 있고, 타임 슬롯을 사용할 수도 있다. As such, the reason for reading the downmix signal 340 in the signal delay processor 450 or lagging the spatial information SI in the spatial information delay processor 460 is because of the downmix signal 340 and the spatial information SI. This is because the time synchronization is out of sync. As a unit of time delay, a time sample may be used or a time slot may be used.

이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변 화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.Although preferred embodiments of the present invention have been described above, the present invention may use various changes and modifications and equivalents. It is clear that the present invention can be applied in the same manner by appropriately modifying the above embodiments. Accordingly, the above description does not limit the scope of the invention as defined by the limitations of the following claims.

이상에서 살펴본 바와 같이, 본 발명에 의한 다채널 오디오 신호의 디코딩 방법 및 그 장치는 인코딩 시 가정한 디코딩 버전과 다른 버전으로 디코딩할 경우, 상기 디코딩 버전들 사이에서 발생하는 시간지연을 보상해서 디코딩 하는 다채널 오디오 신호를 디코딩할 수 있다는 효과가 있다.As described above, the method and apparatus for decoding a multi-channel audio signal according to the present invention compensate for the time delay occurring between the decoding versions when decoding with a version different from the decoding version assumed during encoding. The effect is that the multichannel audio signal can be decoded.

또한, 사용자의 취향에 따라 디코딩 버전을 선택할 수 있다는 효과가 있다.In addition, there is an effect that the decoding version can be selected according to the user's taste.

Claims (18)

적어도 2개의 디코딩 버전을 선택하여 다채널 오디오 신호를 복원할 수 있는 디코딩 방법에 있어서,A decoding method capable of reconstructing a multichannel audio signal by selecting at least two decoding versions, 제1디코딩 버전을 기준으로 다운믹스 신호와 공간정보의 시간동기가 맞추어진 경우 제2디코딩 버전으로 디코딩을 수행할 때 상기 다운믹스 신호와 공간정보의 시간동기 차를 구하는 단계; 및 Obtaining a time synchronization difference between the downmix signal and the spatial information when performing decoding with the second decoding version when the downmix signal and the spatial information are synchronized with respect to the first decoding version; And 상기 시간동기 차를 보상하는 단계를 포함하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.Compensating for the time synchronization difference. 제 1 항에 있어서, 상기 시간동기 차는The method of claim 1, wherein the time synchronization difference is 상기 제1디코딩 버전으로 상기 다채널 오디오 신호를 복원할 때 상기 공간정보가 적용되는 시점까지 발생하는 제1시간지연과 상기 제2디코딩 버전으로 상기 다채널 오디오 신호를 복원할 때 상기 공간정보가 적용되는 시점까지 발생하는 제2시간지연과의 차인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.The first time delay occurs until the spatial information is applied when the multi-channel audio signal is restored to the first decoding version, and the spatial information is applied when the multi-channel audio signal is restored to the second decoding version. And a second time delay occurring up to a point in time. 제 2 항에 있어서, 상기 시간동기 차를 보상하는 단계는The method of claim 2, wherein the compensating for the time synchronization difference 상기 다운믹스 신호를 상기 시간동기 차만큼 래깅 또는 리딩하여 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And lagging or reading the downmix signal by the time synchronization difference to compensate for the multi-channel audio signal. 제 2 항에 있어서, 상기 시간동기 차를 보상하는 단계는The method of claim 2, wherein the compensating for the time synchronization difference 상기 공간정보를 상기 시간동기 차만큼 리딩 또는 래깅하여 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And decoding or compensating the spatial information by the time synchronization difference. 제 2 항에 있어서, The method of claim 2, 상기 제1디코딩 버전은 고음질 버전이고, 상기 제2디코딩 버전은 저전력 버전인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And wherein the first decoding version is a high quality version and the second decoding version is a low power version. 제 5 항에 있어서,The method of claim 5, 상기 제1시간지연은 콤플렉스 QMF 분석단계에서 발생하는 시간지연이고, 상기 제2시간지연은 리얼 QMF 분석단계 및 리얼 QMF 영역을 콤플렉스 QMF 영역으로 변환하는 단계에서 발생하는 시간지연인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.The first time delay is a time delay occurring in the complex QMF analysis step, and the second time delay is a time delay occurring in the real QMF analysis step and converting the real QMF area into the complex QMF area. Method of decoding channel audio signal. 제 6 항에 있어서, 상기 시간동기 차를 보상하는 단계는7. The method of claim 6, wherein compensating for the time synchronization difference 상기 다운믹스 신호를 상기 시간동기 차만큼 리딩하거나 상기 공간정보를 상기 시간지연 차만큼 래깅하여 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And decoding the downmix signal by the time synchronization difference or by lagging the spatial information by the time delay difference. 제 7 항에 있어서, 상기 시간동기 차를 보상하는 단계는8. The method of claim 7, wherein compensating for the time synchronization difference 상기 콤플렉스 QMF 분석단계에서 발생하는 시간지연과 리얼 QMF 분석단계에서 발생하는 시간지연을 같게 하여, 상기 리얼 QMF 영역을 콤플렉스 QMF 영역으로 변환하는 단계에서 발생하는 시간지연 만큼을 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.The time delay generated in the complex QMF analysis step is equal to the time delay generated in the real QMF analysis step, and the amount of time delay generated in converting the real QMF region into the complex QMF region is compensated for. Method of decoding channel audio signal. 제 2 항에 있어서,The method of claim 2, 상기 제1디코딩 버전은 저전력 버전이고, 상기 제2디코딩 버전은 고음질 버전인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And wherein the first decoding version is a low power version and the second decoding version is a high quality version. 제 9 항에 있어서,The method of claim 9, 상기 제1시간지연은 리얼 QMF 분석단계 및 리얼 QMF 영역을 콤플렉스 QMF 영역으로 변환하는 단계에서 발생하는 시간지연이고, 상기 제2시간지연은 콤플렉스 QMF 분석단계에서 발생하는 시간지연인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.The first time delay is a time delay occurring in the real QMF analysis step and the step of converting the real QMF area into the complex QMF area, and the second time delay is a time delay occurring in the complex QMF analysis step. Method of decoding channel audio signal. 제 10 항에 있어서, 상기 시간동기 차를 보상하는 단계는The method of claim 10, wherein the compensating for the time synchronization difference 상기 다운믹스 신호를 상기 시간동기 차만큼 래깅하거나 상기 공간정보를 상기 시간지연 차만큼 리딩하여 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.And lagging the downmix signal by the time synchronization difference or reading the spatial information by the time delay difference to compensate for the multi-channel audio signal. 제 11 항에 있어서, 상기 시간동기 차를 보상하는 단계는12. The method of claim 11, wherein compensating for the time synchronization difference 상기 콤플렉스 QMF 분석단계에서 발생하는 시간지연과 리얼 QMF 분석단계에서 발생하는 시간지연을 같게 하여, 상기 리얼 QMF 영역을 콤플렉스 QMF 영역으로 변환하는 단계에서 발생하는 시간지연 만큼을 보상하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 방법.The time delay generated in the complex QMF analysis step is equal to the time delay generated in the real QMF analysis step, and the amount of time delay generated in converting the real QMF region into the complex QMF region is compensated for. Method of decoding channel audio signal. 인코딩된 다운믹스 신호를 디코딩하는 코어 코덱 디코더; 및A core codec decoder for decoding the encoded downmix signal; And 상기 디코딩된 다운믹스 신호와 공간정보를 이용하여 원래의 다채널 오디오 신호를 복원하는 다채널 디코더를 포함하되, It includes a multi-channel decoder for recovering the original multi-channel audio signal using the decoded downmix signal and spatial information, 상기 다채널 디코더는 적어도 2개의 디코딩 버전 중 어느 하나를 선택하여 디코딩이 가능하고, 인코딩 시 가정한 제1디코딩 버전과 다른 제2디코딩 버전으로 디코딩 하는 경우 상기 디코딩된 다운믹스 신호와 상기 공간정보의 시간동기 차를 보상하는 지연 처리부를 포함하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치. The multi-channel decoder can select and decode any one of at least two decoding versions, and decodes the decoded downmix signal and the spatial information when decoding the second decoding version different from the first decoding version assumed during encoding. And a delay processing unit for compensating a time synchronization difference. 제 13 항에 있어서, 상기 지연 처리부는 The method of claim 13, wherein the delay processing unit 상기 디코딩된 다운믹스 신호를 상기 시간동기 차만큼 리딩 또는 래깅시키는 신호 지연 처리부 또는 상기 공간정보를 리딩 또는 래깅시키는 공간정보 지연 처리부 중 적어도 하나를 포함하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치.And a signal delay processor for reading or lagging the decoded downmix signal by the time synchronization difference, or a spatial information delay processor for reading or lagging the spatial information. 제 14 항에 있어서, 상기 시간동기 차는15. The method of claim 14, wherein the time synchronization difference is 상기 제1디코딩 버전으로 상기 다채널 오디오 신호를 복원할 때 상기 공간정보가 적용되는 시점까지 발생하는 제1시간지연과 상기 제2디코딩 버전으로 상기 다채널 오디오 신호를 복원할 때 상기 공간정보가 적용되는 시점까지 발생하는 제2시간지연과의 차인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치.The first time delay occurs until the spatial information is applied when the multi-channel audio signal is restored to the first decoding version, and the spatial information is applied when the multi-channel audio signal is restored to the second decoding version. And a second time delay occurring up to a point in time. 제 15 항에 있어서, The method of claim 15, 상기 제1디코딩 버전은 고음질 버전이고, 상기 제2디코딩 버전은 저전력 버전인 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치.And wherein the first decoding version is a high quality version and the second decoding version is a low power version. 제 16 항에 있어서, 상기 신호 지연 처리부는The method of claim 16, wherein the signal delay processing unit 상기 디코딩된 다운믹스 신호를 상기 시간동기 차만큼 리딩하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치. And decoding the decoded downmix signal by the time synchronization difference. 제 16 항에 있어서, 상기 공간정보 지연 처리부는The method of claim 16, wherein the spatial information delay processing unit 상기 공간정보를 상기 시간동기 차만큼 래깅하는 것을 특징으로 하는 다채널 오디오 신호의 디코딩 장치.And lagging the spatial information by the time synchronization difference.
KR1020060078222A 2005-10-04 2006-08-18 Method and apparatus method for decoding multi-channel audio signals KR20070037985A (en)

Priority Applications (50)

Application Number Priority Date Filing Date Title
US11/541,397 US7742913B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,472 US7716043B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,471 US20070092086A1 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/540,919 US7761289B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/540,920 US7653533B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
US11/541,395 US7840401B2 (en) 2005-10-24 2006-09-29 Removing time delays in signal paths
PCT/KR2006/003973 WO2007049862A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW098104747A TWI450603B (en) 2005-10-04 2006-10-02 Removing time delays in signal paths
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing
TW095136564A TWI317247B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087007453A KR100888973B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799056A EP1952671A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087023852A KR101186611B1 (en) 2005-10-24 2006-10-02 A method and an apparatuf for processing an audio signal
JP2008537584A JP5270358B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
EP06799055A EP1952670A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003976 WO2007049865A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395777A CN101297597B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
AU2006306942A AU2006306942B2 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003972 WO2007049861A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136563A TWI317244B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087007452A KR100888972B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136559A TWI317245B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799059.8A EP1952674B1 (en) 2005-10-24 2006-10-02 Compensation of a decoding delay of a multi-channel audio signal
CN200680039452.4A CN101297594B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003974 WO2007049863A2 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537581A JP5249038B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
JP2008537582A JP2009513084A (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
EP06799058A EP1952673A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136566A TWI310544B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
TW095136561A TWI317243B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395781A CN101297598B (en) 2005-10-24 2006-10-02 Method and system for processing audio frequency signal
TW095136562A TWI317246B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
KR1020087030528A KR100928268B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537580A JP5270357B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007454A KR100888974B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CNA2006800394539A CN101297595A (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537583A JP5249039B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007449A KR100875428B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing
CA2626132A CA2626132C (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CN2006800395762A CN101297596B (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799057.2A EP1952672B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003980 WO2007049866A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
CNA2006800395796A CN101297599A (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
EP06799061A EP1952675A4 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
PCT/KR2006/003975 WO2007049864A1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
JP2008537579A JP5399706B2 (en) 2005-10-24 2006-10-02 How to compensate for time delay in signal processing
KR1020087007450A KR100888971B1 (en) 2005-10-24 2006-10-02 Removing time delays in signal paths
HK09103908.6A HK1126071A1 (en) 2005-10-24 2009-04-28 Method and apparatus for processing audio signal
US12/872,044 US8095358B2 (en) 2005-10-24 2010-08-31 Removing time delays in signal paths
US12/872,081 US8095357B2 (en) 2005-10-24 2010-08-31 Removing time delays in signal paths

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US72922505P 2005-10-24 2005-10-24
US60/729,225 2005-10-24
US78674006P 2006-03-29 2006-03-29
US60/786,740 2006-03-29
US79232906P 2006-04-17 2006-04-17
US60/792,329 2006-04-17

Publications (1)

Publication Number Publication Date
KR20070037985A true KR20070037985A (en) 2007-04-09

Family

ID=38159536

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020060078225A KR20070037987A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signal
KR1020060078223A KR20070037986A (en) 2005-10-04 2006-08-18 Method and apparatus method for processing multi-channel audio signal
KR1020060078221A KR20070037984A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signals
KR1020060078218A KR20070037983A (en) 2005-10-04 2006-08-18 Method for decoding multi-channel audio signals and method for generating encoded audio signal
KR1020060078222A KR20070037985A (en) 2005-10-04 2006-08-18 Method and apparatus method for decoding multi-channel audio signals
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020060078225A KR20070037987A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signal
KR1020060078223A KR20070037986A (en) 2005-10-04 2006-08-18 Method and apparatus method for processing multi-channel audio signal
KR1020060078221A KR20070037984A (en) 2005-10-04 2006-08-18 Method and apparatus for decoding multi-channel audio signals
KR1020060078218A KR20070037983A (en) 2005-10-04 2006-08-18 Method for decoding multi-channel audio signals and method for generating encoded audio signal

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020087007451A KR100875429B1 (en) 2005-10-24 2006-10-02 How to compensate for time delays in signal processing

Country Status (1)

Country Link
KR (6) KR20070037987A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11894003B2 (en) * 2013-05-24 2024-02-06 Dolby International Ab Reconstruction of audio scenes from a downmix

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2405311T3 (en) * 2006-07-04 2013-05-30 Electronics And Telecommunications Research Institute Device for restoring a multichannel audio signal using a MPEG surround decoder
KR100881312B1 (en) * 2007-06-28 2009-02-03 엘지전자 주식회사 Apparatus and Method for encoding/decoding multi-channel audio signal, and IPTV thereof
KR100958110B1 (en) 2007-12-17 2010-05-17 한국전자통신연구원 Apparatus of authentication gateway for accessing ubiquitous service and method thereof
KR102317416B1 (en) 2015-04-20 2021-10-25 충남대학교산학협력단 A Negative Electrode Active Material With A High Energy Density And A Lithium Ion Secondary Battery Having The Same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG49883A1 (en) 1991-01-08 1998-06-15 Dolby Lab Licensing Corp Encoder/decoder for multidimensional sound fields
DE4209544A1 (en) 1992-03-24 1993-09-30 Inst Rundfunktechnik Gmbh Method for transmitting or storing digitized, multi-channel audio signals
US5481643A (en) 1993-03-18 1996-01-02 U.S. Philips Corporation Transmitter, receiver and record carrier for transmitting/receiving at least a first and a second signal component

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11894003B2 (en) * 2013-05-24 2024-02-06 Dolby International Ab Reconstruction of audio scenes from a downmix

Also Published As

Publication number Publication date
KR100875429B1 (en) 2008-12-22
KR20070037984A (en) 2007-04-09
KR20080040786A (en) 2008-05-08
KR20070037983A (en) 2007-04-09
KR20070037987A (en) 2007-04-09
KR20070037986A (en) 2007-04-09

Similar Documents

Publication Publication Date Title
JP4834539B2 (en) Audio signal synthesis
JP3646938B1 (en) Audio decoding apparatus and audio decoding method
KR101289268B1 (en) Apparatus and method for restoring multi-channel audio signal using he-aac decoder and mpeg surround decoder
JP2019505017A (en) Encoding multiple audio signals
CA2626132A1 (en) Removing time delays in signal paths
KR20110018728A (en) Method and apparatus for encoding multi-channel audio signal, and method and apparatus for decoding multi-channel audio signal
JP2004046179A (en) Audio decoding method and device for decoding high frequency component by small calculation quantity
JPWO2007043388A1 (en) Acoustic signal processing apparatus and acoustic signal processing method
US8930197B2 (en) Apparatus and method for encoding and reproduction of speech and audio signals
KR20070037985A (en) Method and apparatus method for decoding multi-channel audio signals
KR20060109297A (en) Method and apparatus for encoding/decoding audio signal
KR20080071971A (en) Apparatus for processing media signal and method thereof
KR100636145B1 (en) Exednded high resolution audio signal encoder and decoder thereof
JP2007187749A (en) New device for supporting head-related transfer function in multi-channel coding
KR20110022252A (en) Method and apparatus for encoding/decoding stereo audio
US8781134B2 (en) Method and apparatus for encoding and decoding stereo audio
US8744089B2 (en) Method and apparatus for encoding and decoding stereo audio
KR102654181B1 (en) Method and apparatus for low-cost error recovery in predictive coding
Aggrawal et al. New Enhancements for Improved Image Quality and Channel Separation in the Immersive Sound Field Rendition (ISR) Parametric Multichannel Audio Coding System
MX2008009565A (en) Apparatus and method for encoding/decoding signal