KR20170087529A - Audio encoder and decoder - Google Patents

Audio encoder and decoder Download PDF

Info

Publication number
KR20170087529A
KR20170087529A KR1020177019979A KR20177019979A KR20170087529A KR 20170087529 A KR20170087529 A KR 20170087529A KR 1020177019979 A KR1020177019979 A KR 1020177019979A KR 20177019979 A KR20177019979 A KR 20177019979A KR 20170087529 A KR20170087529 A KR 20170087529A
Authority
KR
South Korea
Prior art keywords
waveform
signal
signals
coded
frequency
Prior art date
Application number
KR1020177019979A
Other languages
Korean (ko)
Other versions
KR102094129B1 (en
Inventor
크리스토퍼 쿄어링
하이코 푸른하겐
하랄트 문트
칼 요나스 뢰덴
라이프 셸스트롬
Original Assignee
돌비 인터네셔널 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 인터네셔널 에이비 filed Critical 돌비 인터네셔널 에이비
Publication of KR20170087529A publication Critical patent/KR20170087529A/en
Application granted granted Critical
Publication of KR102094129B1 publication Critical patent/KR102094129B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)

Abstract

본 발명의 개시는 입력 신호에 기초하여 다-채널 오디오 신호를 인코딩 및 디코딩하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제공한다. 이러한 개시에 따라, 처리된 다-채널 오디오 신호의 파라메트릭 스테레오 코딩 및 이산적 표현 양쪽 모두를 사용한 하이브리드 접근방식이 이용되어, 어떠한 비트레이트들에 대해 인코딩 및 디코딩된 오디오의 품질을 개선할 수 있다.The present disclosure provides methods, devices, and computer program products for encoding and decoding multi-channel audio signals based on an input signal. In accordance with this disclosure, a hybrid approach using both parametric stereo coding and discrete representation of the processed multi-channel audio signal can be used to improve the quality of the encoded and decoded audio for any bit rates .

Figure P1020177019979
Figure P1020177019979

Description

오디오 인코더 및 디코더{AUDIO ENCODER AND DECODER}AUDIO ENCODER AND DECODER}

관련 출원들에 대한 교차-참조Cross-reference to related applications

이 출원은, 전체 내용이 본 명세서에 참조로 포함되는, 2013년 4월 5일에 출원된 미국 가 특허 출원 번호 61/808,680에 대한 우선권을 주장한다. This application claims priority to U.S. Provisional Patent Application No. 61 / 808,680, filed April 5, 2013, the entire contents of which are incorporated herein by reference.

기술 분야Technical field

본 발명은 일반적으로 다-채널 오디오 코딩에 관한 것이다. 특히, 본 발명은 파라메트릭 코딩(parametric coding) 및 이산적 다-채널 코딩(discrete multi-channel coding)을 구비하는 하이브리드 코딩을 위한 인코더 및 디코더에 관한 것이다. The present invention relates generally to multi-channel audio coding. More particularly, the present invention relates to encoders and decoders for hybrid coding with parametric coding and discrete multi-channel coding.

통상의 다-채널 오디오 코딩에 있어서, 가능한 코딩 체계들은 이산적 다-채널 코딩 또는 MPEC 사운드와 같은 파라메트릭 코딩을 포함한다. 이용되는 상기 체계는 오디오 시스템의 대역폭에 의존한다. 파라메트릭 코딩 방법들은 청취 품질과 관련하여 효율적이고 스케일가능한 것으로 알려져 있으며, 이러한 것은 낮은 비트레이트 어플리케이션들에서 특히 매력적이게 한다. 높은 비트레이트 어플리케이션에서는 상기 이산적 다-채널 코딩이 종종 이용된다. 기존의 분배 또는 프로세싱 포맷들 및 관련 코딩 기술들은 그들의 대역폭 효율의 관점으로부터, 특히 상기 낮은 비트레이트와 상기 높은 비트레이트 사이의 비트레이트를 갖는 어플리케이션에서 개선될 수 있다. For conventional multi-channel audio coding, possible coding schemes include parametric coding such as discrete multi-channel coding or MPEC sound. The system used depends on the bandwidth of the audio system. Parametric coding methods are known to be efficient and scalable in terms of listening quality, which makes them particularly attractive in low bit rate applications. In high bit rate applications, the discrete multi-channel coding is often used. Conventional distribution or processing formats and related coding techniques can be improved in terms of their bandwidth efficiency, especially in applications with a bit rate between the low bit rate and the high bit rate.

US 7292901 (크룬 등)은 하이브리드 코딩 방법에 관한 것이며, 여기서 하이브리드 오디오 신호는 적어도 하나의 다운믹싱된 스펙트럼 구성요소 및 적어도 하나의 업믹싱된 스펙트럼 구성요소로부터 형성된다. 상기 방법은 그러한 어플리케이션이 특정의 비트레이트를 갖는 어플리케이션의 용량(capacity)을 증가시킨다는 점을 제시하고 있지만, 오디오 프로세싱 시스템의 효율을 더 증가시켜야하는 추가의 개선들이 요구될 수 있다. US 7292901 (Kroun et al.) Relates to a hybrid coding method, wherein a hybrid audio signal is formed from at least one downmixed spectral component and at least one upmixed spectral component. While the above method suggests that such an application increases the capacity of an application with a particular bit rate, further improvements may be required that further increase the efficiency of the audio processing system.

본원 청구범위(또는 그 보정)에 기재된 바와 같은 구성을 개시한다.The configuration as disclosed in the present application (or its correction) is disclosed.

도 1은 예시적인 실시예에 따른 디코딩 시스템의 일반화된 블록도를 도시한 도면.
도 2는 도 1에서의 디코딩 시스템의 제 1 부분을 도시한 도면.
도 3은 도 1에서의 디코딩 시스템의 제 2 부분을 도시한 도면.
도 4는 도 1에서의 디코딩 시스템의 제3 부분을 도시한 도면.
도 5는 예시적인 실시예에 따른 인코딩 시스템의 일반화된 블록도를 도시한 도면.
도 6는 예시적인 실시예에 따른 디코딩 시스템의 일반화된 블록도를 도시한 도면.
도 7는 도 6의 디코딩 시스템의 제 3 부분을 도시한 도면.
도 8은 예시적인 실시예에 따른 인코딩 시스템의 일반화된 블록도를 도시한 도면.
1 shows a generalized block diagram of a decoding system according to an exemplary embodiment;
Figure 2 shows a first part of the decoding system in figure 1;
Figure 3 shows a second part of the decoding system in figure 1;
Figure 4 shows a third part of the decoding system in Figure 1;
5 shows a generalized block diagram of an encoding system according to an exemplary embodiment;
6 shows a generalized block diagram of a decoding system according to an exemplary embodiment;
Figure 7 shows a third part of the decoding system of Figure 6;
Figure 8 shows a generalized block diagram of an encoding system according to an exemplary embodiment;

예시적인 실시예들이 이제 첨부된 도면들을 참조하여 기술된다. Exemplary embodiments are now described with reference to the accompanying drawings.

모든 도면들은 도식적으로 나타냈으며, 일반적으로 본 개시를 상세히 설명하기 위하여 필요한 부분들만을 나타내었고, 다른 부분들은 생략되거나 단지 시사되었을 수 있다. 그렇지 않다고 명시하지 않는 한, 동일한 참조 번호들은 다른 도면들에서도 동일한 부분들로서 참조된다. All drawings are graphical and generally show only the parts necessary to describe the present disclosure in detail, and other parts may be omitted or merely suggested. Like reference numerals are used to refer to like parts throughout the several views, unless otherwise indicated.

개요-디코더Overview - Decoder

본 명세서에서 사용되는 바로서, 오디오 신호는 순수한 오디오 신호, 오디오비주얼 신호 또는 멀티미디어 신호의 오디오 부분 또는 메타데이터와 결합한 이들 중 어떠한 것도 될 수 있다. As used herein, an audio signal may be any of those combined with a pure audio signal, an audio visual signal, or an audio portion or metadata of a multimedia signal.

본 명세서에서 사용되는 바로서, 복수의 신호들의 다운믹싱(downmixing)은 예컨대 선형 결합들을 형성함으로써 보다 적은 수의 신호들이 얻어지도록 상기 복수의 신호들을 결합하는 것을 의미한다. 다운믹싱의 역 동작은 업믹싱(upmixing)으로 참조되며, 보다 낮은 수의 신호들에 대해 동작을 실행하여 보다 높은 수의 신호들을 얻게 한다. As used herein, downmixing of a plurality of signals means combining the plurality of signals such that a smaller number of signals are obtained, for example, by forming linear bonds. The inverse operation of downmixing is referred to as upmixing, which performs an operation on a lower number of signals to obtain a higher number of signals.

제 1 관점에 따라, 예시적인 실시예들은 입력 신호에 기초하여 다-채널 오디오 신호를 재구성하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제안한다. 상기 제안된 방법들, 디바이스들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들 및 이점들을 갖는다. According to a first aspect, exemplary embodiments propose methods, devices and computer program products for reconstructing a multi-channel audio signal based on an input signal. The proposed methods, devices and computer program products generally have the same features and advantages.

예시적인 실시예들에 따라, M 개의 인코딩된 채널들을 재구성하기 위한 다-채널 오디오 프로세싱 시스템을 위한 디코더가 제공된다. 여기서, M > 2. 상기 디코더는 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 파형-코딩된 다운믹스 신호들을 수신하도록 구성된 제 1 수신 스테이지를 구비한다. 여기서, 1<N<M.According to exemplary embodiments, a decoder for a multi-channel audio processing system for reconstructing M encoded channels is provided. Wherein the decoder comprises a first receiving stage configured to receive N waveform-coded downmix signals having spectral coefficients corresponding to frequencies between the first and second cross-over frequencies . Where 1 < N < M.

상기 디코더는 또한 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 M 개의 파형-코딩된 신호들을 수신하도록 구성된 제 2 수신 스테이지를 더 구비하며, 상기 M 개의 파형-코딩된 신호들의 각각은 상기 M 개의 인코딩된 채널들의 각각의 하나에 대응한다.The decoder further comprises a second receiving stage configured to receive M waveform-coded signals having spectral coefficients corresponding to frequencies up to the first cross-over frequency, wherein the M waveform-coded Each of the signals corresponds to one of each of the M encoded channels.

상기 디코더는 또한 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 상기 M 개의 파형-코딩된 신호들을 다운믹싱하도록 구성된 상기 제 2 수신 스테이지의 다운믹스 스테이지 다운스트림들을 더 구비한다.The decoder is further configured to down-mix the M waveform-coded signals with N downmix signals having spectral coefficients corresponding to frequencies up to the first cross-over frequency. And further includes mix stage downstreams.

상기 디코더는 또한 상기 제 1 수신 스테이지에 의해 수신된 상기 N 개의 다운믹스 신호들의 각각과 상기 다운믹스 스테이지로부터의 상기 N 개의 다운믹스 신호들의 대응하는 하나를 N 개의 결합된 다운믹스 신호들로 결합하도록 구성된, 상기 제 1 수신 스테이지 및 상기 다운믹스 스테이지의 제 1 결합 스테이지 다운스트림들을 더 구비한다.The decoder is further adapted to combine each of the N downmix signals received by the first receiving stage and a corresponding one of the N downmix signals from the downmix stage into N combined downmix signals The first receiving stage configured and the first combining stage downstreams of the downmix stage.

상기 디코더는 또한 고 주파수 재구성을 실행함으로써 상기 결합 스테이지로부터의 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하도록 구성된, 상기 제 1 결합 스테이지의 고 주파수 재구성 스테이지 다운스트림들을 더 구비한다.Wherein the decoder is further configured to expand each of the N combined downmix signals from the combining stage to a frequency range higher than the second cross-over frequency by performing a high frequency reconstruction, And further comprising reconstruction stage downstreams.

상기 디코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들을 구비하는 M 개의 업믹스 신호들로 상기 고 주파수 재구성 스테이지로부터의 상기 N 개의 주파수 확장된 신호들의 파라메트릭 업믹스를 실행하도록 구성된, 상기 고 주파수 재구성 스테이지의 업믹스 스테이지 다운스트림들을 더 구비하며, 상기 M 개의 업믹스 신호들의 각각은 상기 M 개의 인코딩된 채널들 중 하나에 대응한다.The decoder may further comprise a parametric upmix of the N frequency expanded signals from the high frequency reconstruction stage with M upmix signals having spectral coefficients corresponding to frequencies higher than the first cross- Further comprising: upmix stage downstreams of the high frequency reconstruction stage, wherein each of the M upmix signals corresponds to one of the M encoded channels.

상기 디코더는 또한 상기 업믹스 스테이지로부터의 상기 M 개의 업믹스 신호들을 상기 제 2 수신 스테이지에 의해 수신된 상기 M 개의 파형-코딩된 신호들과 결합하도록 구성된, 상기 업믹스 스테이지 및 상기 제 2 수신 스테이지의 제 2 결합 스테이지 다운스트림들을 더 구비한다. Wherein the decoder is further configured to combine the M upmix signals from the upmix stage with the M waveform-coded signals received by the second receiving stage, wherein the upmix stage and the second receiving stage Lt; RTI ID = 0.0 > downstages < / RTI >

상기 M 개의 파형-코딩된 신호들은 파라메트릭 신호들이 혼합되지 않은 순수하게 파형-코딩된 신호들이며, 즉 이들은 프로세싱된 다-채널 오디오 신호의 다운믹싱되지 않은 이산적 표현(non-downmixed discrete representation)이다. 상기 저 주파수들이 이들 파형-코딩된 신호들로 표현되는 이점은 사람의 청각이 저 주파수들을 갖는 오디오 신호의 부분에 더욱 민감하다는 것일 수 있다. 보다 나은 품질을 갖는 이러한 부분을 코딩함으로써 디코딩된 오디오의 전체적인 감동이 증가할 수 있다.The M waveform-coded signals are purely waveform-coded signals that are not mixed parametric signals, that is, they are non-downmixed discrete representations of the processed multi-channel audio signal . The advantage that the low frequencies are represented by these waveform-coded signals may be that the human hearing is more sensitive to the portion of the audio signal having low frequencies. By coding this part with better quality, the overall impression of the decoded audio can be increased.

적어도 두 개의 다운믹스 신호들을 갖는 이점은, 본 실시예가 단지 하나의 다운믹스 채널을 갖는 시스템들과 비교하여 상기 다운믹스 신호들의 차원수(dimensionality)의 증가를 제공한다는 것이다. 본 실시예에 따라, 보다 양호한 디코딩된 오디오 품질이 그에 따라 제공될 수 있어, 하나의 다운믹스 신호 시스템에 의해 제공되는 비트레이트에서의 이득보다 더 크게 될 수 있다.The advantage of having at least two downmix signals is that this embodiment provides an increase in the dimensionality of the downmix signals compared to systems having only one downmix channel. According to the present embodiment, a better decoded audio quality can be provided accordingly and can be greater than the gain at the bit rate provided by one downmix signaling system.

파라메트릭 다운믹스 및 이산적 다-채널 코딩을 구비하는 하이브리드 코딩을 사용하는 이점은, 이러한 것이 HE-AAC를 갖는 MPEG 서라운드와 같이 종래의 파라메트릭 코딩 접근방식을 사용하는 것에 비하여 어떠한 비트레이트들에 대한 디코딩된 오디오 신호의 품질을 개선할 수 있다는 것이다. 72 kbps(kilobits per second) 주변의 비트레이트들에서, 종래의 파라메트릭 코딩 모델은 포화될 수 있다. 즉, 디코딩된 오디오 신호의 품질이 상기 파라메트릭 모델의 결점에 의해 제한되며, 이는 코딩을 위한 비트들의 부족에 의한 것이 아니다. 결과적으로, 약 72 kbps로부터의 비트레이트들에 대해, 이산적으로(discretely) 파형-코딩한 저 주파수들에서 비트들을 사용하는 것이 더욱 유익할 수 있다. 동시에, 파라메트릭 다운믹스 및 이산적 다-채널 코딩을 사용하는 하이브리드 접근방식은, 이러한 것이, 모든 비트들이 파형-코딩의 하위의 주파수들에서 사용되고 그리고 남아있는 주파수들에 대해 SBR(Spectral band replication)을 사용하는 것에 비해, 예컨대 128kbps 이하와 같은 어떠한 비트레이트들에 대해 디코딩된 오디오의 품질을 개선할 수 있다는 것이다. The advantage of using hybrid coding with parametric downmix and discrete multi-channel coding is that this can be achieved at any bit rates compared to using conventional parametric coding approaches such as MPEG Surround with HE-AAC So that the quality of the decoded audio signal can be improved. At bit rates around 72 kbps (kilobits per second), conventional parametric coding models can be saturated. That is, the quality of the decoded audio signal is limited by the drawbacks of the parametric model, which is not due to lack of bits for coding. As a result, for bit rates from about 72 kbps, it may be more beneficial to use bits in discretely waveform-coded low frequencies. At the same time, a hybrid approach using parametric downmixing and discrete multi-channel coding is a promising approach because all of these bits are used at the lower frequencies of the waveform-coding and spectral band replication (SBR) It is possible to improve the quality of the decoded audio for any bit rates, such as 128 kbps or less.

제 1 크로스-오버 주파수와 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 데이터만을 구비하는 N 개의 파형-코딩된 다운믹스 신호들을 갖는 이점은, 오디오 신호 프로세싱 시스템을 위한 요구된 비트 전송 레이트가 감소될 수 있다는 것이다. 대안적으로, 대역 통과 필터링된 다운믹스 신호를 가짐으로써 세이브된 비트들은 파형-코딩의 보다 낮은 주파수들에 대해 사용될 수 있으며, 예컨대 그 주파수들에 대한 샘플 주파수가 보다 높아질 수 있거나, 또는 제 1 크로스-오버 주파수가 증가될 수 있다.The advantage of having N waveform-coded downmix signals with only spectral data corresponding to frequencies between the first cross-over frequency and the second cross-over frequency is that the required bit rate for the audio signal processing system Can be reduced. Alternatively, the saved bits may be used for lower frequencies of waveform-coding by having a band-pass filtered downmix signal, for example the sample frequency for those frequencies may be higher, or the first cross - Over frequency can be increased.

상술한 바와 같이, 사람의 청각은 저 주파수들을 갖는 오디오 신호의 부분에 더 민감하므로, 제 2 크로스-오버 주파수보다 높은 주파수들을 갖는 오디오 신호의 부분들과 같은 고 주파수들은 디코딩된 오디오 신호의 지각된 오디오 품질을 낮추지 않고서 고 주파수 재구성에 의해 재생성될 수 있다.As described above, since the human auditory sense is more sensitive to a portion of an audio signal having low frequencies, high frequencies, such as portions of an audio signal having frequencies higher than the second cross-over frequency, Can be regenerated by high frequency reconstruction without lowering audio quality.

본 실시예가 갖는 추가의 이점은, 상기 업믹스 스테이지에서 실행된 파라메트릭 업믹스가 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들에 대해서만 동작하므로, 상기 업믹스의 복잡성이 감소된다는 것이다.A further advantage of this embodiment is that the complexity of the upmix is reduced because the parametric upmix performed in the upmix stage only operates on spectral coefficients corresponding to frequencies higher than the first cross- It is.

다른 실시예에 따라, 상기 제 1 결합 스테이지에서 실행된 결합은 주파수 도메인에서 실행되며, 여기에서 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 N 개의 파형-코딩된 다운믹스 신호들의 각각은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 N 개의 다운믹스 신호들의 대응하는 하나와 N 개의 결합된 다운믹스로 결합된다. According to another embodiment, the coupling performed in the first combining stage is performed in the frequency domain, wherein the N waveforms having spectral coefficients corresponding to frequencies between the first and second cross- Each of the coded downmix signals is combined with a corresponding one of the N downmix signals having spectral coefficients corresponding to frequencies up to the first cross-over frequency and N combined downmixes.

이러한 실시예의 이점은, M 개의 파형-코딩된 신호들 및 상기 N 개의 파형-코딩된 다운믹스 신호들이 상기 M 개의 파형-코딩된 신호들 및 상기 N 개의 파형-코딩된 다운믹스 신호들에 대해 각각 독립된 윈도윙(independent windowing)으로 오버래핑 윈도윙된 변환들을 사용하여 파형 코더에 의해 코딩될 수 있고, 여전히 상기 디코더에 의해 디코딩가능하다는 것이다.The advantage of this embodiment is that the M waveform-coded signals and the N waveform-coded downmix signals are provided for the M waveform-coded signals and the N waveform-coded downmix signals, respectively Can be coded by the waveform coder using overlapping windowed transforms with independent windowing, and still be decodable by the decoder.

다른 실시예에 따라, 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 고 주파수 재구성 스테이지에서 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하는 것은 주파수 도메인에서 실행된다.According to another embodiment, extending each of the N combined downmix signals in the high frequency reconstruction stage to a frequency range higher than the second cross-over frequency is performed in the frequency domain.

다른 실시예에 따라, 상기 제 2 결합 단계에서 실행된 결합, 즉 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 M 개의 업믹스 신호들을 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 M 개의 파형-코딩된 신호들과 결합하는 것은 주파수 도메인에서 실행된다.According to another embodiment, the M upmix signals having spectra coefficients corresponding to frequencies higher than the first cross-over frequency, i.e., the combination performed in the second combining step, Combining with the M waveform-coded signals having spectral coefficients corresponding to frequencies up to < RTI ID = 0.0 >

상술한 바와 같이, QMF 도메인에서 상기 신호들을 결합하는 이점은 상기 MDCT 도메인에서 상기 신호들을 코딩하는데 사용되는 오버래핑 윈도윙된 변환들의 독립적인 윈도윙이 사용될 수 있다는 것이다.As noted above, the advantage of combining the signals in the QMF domain is that independent windowing of overlapping windowed transformations used to code the signals in the MDCT domain can be used.

다른 실시예에 따라, 상기 업믹스 스테이지에서 M 개의 업믹스 신호들로의 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 파라메트릭 업믹스를 실행하는 것은 주파수 도메인에서 실행된다.According to another embodiment, performing the parametric upmix of the N frequency expanded combined downmix signals into the M upmix signals in the upmix stage is performed in the frequency domain.

또 다른 실시예에 따라, 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 상기 M 개의 파형-코딩된 신호들을 다운믹싱하는 것은 주파수 도메인에서 실행된다.According to yet another embodiment, downmixing the M waveform-coded signals with N downmix signals having spectral coefficients corresponding to frequencies up to the first cross-over frequency is performed in the frequency domain do.

실시예에 따라, 상기 주파수 도메인은 QMF(Quadrature Mirror Filters) 도메인이다. According to an embodiment, the frequency domain is a QMF (Quadrature Mirror Filters) domain.

다른 실시예에 따라, 상기 다운믹싱 스테이지에서 실행된 다운믹싱은 시간 도메인에서 실행되며, 여기서 상기 M 개의 파형-코딩된 신호들은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 다운믹싱된다. According to another embodiment, the downmix performed in the downmixing stage is performed in the time domain, where the M waveform-coded signals have spectral coefficients corresponding to frequencies up to the first cross-over frequency And downmixed into N downmix signals.

또 다른 실시예에 따라, 상기 제 1 크로스-오버 주파수는 상기 다-채널 오디오 프로세싱 시스템의 비트 전송 레이트에 의존한다. 이러한 것은, 상기 제 1 크로스-오버 주파수보다 낮은 주파수들을 갖는 오디오 신호의 부분이 순수하게 파형-코딩되므로, 이용가능한 대역폭이 디코딩된 오디오 신호의 품질을 개선하도록 활용될 수 있게 할 수 있다. According to yet another embodiment, the first cross-over frequency is dependent on the bit transmission rate of the multi-channel audio processing system. This may enable the available bandwidth to be exploited to improve the quality of the decoded audio signal since portions of the audio signal with frequencies lower than the first cross-over frequency are purely waveform-coded.

다른 실시예에 따라, 고 주파수 재구성 스테이지에서 고 주파수 재구성을 실행함으로써 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하는 것은 고 주파수 재구성 파라미터들을 사용하여 실행된다. 상기 고 주파수 재구성 파라미터들은 상기 디코더에 의해 예컨대 상기 수신 스테이지에서 수신될 수 있으며, 이후 고 주파수 재구성 스테이지로 전송된다. 상기 고 주파수 재구성은 예를 들면 SBR(Spectral band replication)을 실행하는 것을 구비할 수 있다.According to another embodiment, expanding each of the N combined downmix signals to a higher frequency range than the second cross-over frequency by performing a high frequency reconstruction in the high frequency reconstruction stage uses high frequency reconstruction parameters . The high frequency reconstruction parameters may be received by the decoder, e.g., at the receiving stage, and then transmitted to a high frequency reconstruction stage. The high frequency reconstruction may comprise, for example, performing spectral band replication (SBR).

다른 실시예에 따라, 상기 업믹싱 스테이지에서의 파라메트릭 업믹스는 업믹스 파라미터들을 사용하여 행해진다. 상기 업믹스 파라미터들은 상기 인코더에 의해 예를 들면 상기 수신 스테이지에서 수신되고, 상기 업믹싱 스테이지로 전송된다. 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 역상관된 버전(decorrelated version)이 발생되어, 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들 및 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 역상관된 버전이 매트릭스 연산(matrix operation)된다. 상기 매트릭스 연산의 파라미터들은 상기 업믹스 파라미터들에 의해 주어진다.According to another embodiment, the parametric upmix in the upmixing stage is done using upmix parameters. The upmix parameters are received, for example, by the encoder at the receiving stage and transmitted to the upmixing stage. Wherein a decorrelated version of the N frequency expanded combined downmix signals is generated to produce a decorrelated version of the N frequency expanded combined downmix signals and an inverse of the N frequency expanded combined downmix signals & The correlated version is a matrix operation. The parameters of the matrix operation are given by the upmix parameters.

다른 실시예에 따라, 상기 제 1 수신 스테이지에서의 상기 수신된 N 개의 파형-코딩된 다운믹스 신호들 및 상기 제 2 수신 스테이지에서의 상기 수신된 M 개의 파형-코딩된 신호들은 상기 N 개의 파형-코딩된 다운믹스 신호들 및 상기 M 개의 파형-코딩된 신호들에 대해 독립적 윈도윙(windowing)을 갖는 오버래핑 윈도윙된 변환들(overlapping windowed transforms)을 사용하여 각각 코딩된다.According to another embodiment, the received N waveform-coded downmix signals at the first receiving stage and the received M waveform-coded signals at the second receiving stage are combined with the N waveform- Coded downmix signals and overlapping windowed transforms with independent windowing for the M waveform-coded signals, respectively.

이러한 것의 이점은 이러한 것이 개선된 코딩 품질을 가능하게 할 수 있어, 디코딩된 멀티-채널 오디오 신호의 개선된 품질을 가능하게 할 수 있다는 것이다. 예를 들면, 어떠한 시간 지점에서 트랜션트(transient)가 보다 높은 주파수 대역들에서 검출된다면, 파형 코더는 보다 짧은 윈도우 시퀀스로 이러한 특정 시간 프레임을 코딩할 수 있으며, 그러는 동안 보다 낮은 주파수 대역에 대해서는 디폴트 윈도우 시퀀스가 유지될 수 있다. An advantage of this is that it can enable improved coding quality and enable improved quality of the decoded multi-channel audio signal. For example, if at some point in time a transient is detected in higher frequency bands, the waveform coder can code this particular time frame with a shorter window sequence, whilst the default for the lower frequency band The window sequence can be maintained.

실시예들에 따라, 상기 디코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비하는 추가의 파형-코딩된 신호를 수신하도록 구성된 제 3 수신 스테이지를 구비할 수 있다. 상기 디코더는 또한 상기 업믹스 스테이지의 인터리브 스테이지 다운스트림을 구비할 수 있다. 상기 인터리브 스테이지는 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하도록 구성될 수 있다. 상기 제 3 수신 스테이지는 또한 복수의 추가의 파형-코딩된 신호들을 수신하도록 구성될 수 있으며, 상기 인터리브 스테이지는 또한 상기 복수의 추가의 파형-코딩된 신호를 복수의 M 개의 업믹스 신호들과 인터리빙하도록 구성될 수 있다.According to embodiments, the decoder may also have a third receiving stage configured to receive an additional waveform-coded signal having spectral coefficients corresponding to a subset of frequencies higher than the first cross-over frequency have. The decoder may also comprise an interleaved stage downstream of the upmix stage. The interleaved stage may be configured to interleave the additional waveform-coded signal with one of the M upmix signals. The third receiving stage may also be configured to receive a plurality of additional waveform-coded signals, the interleaving stage further comprising: interleaving the plurality of additional waveform-coded signals with a plurality of M upmix signals, .

이러한 것은 상기 다운믹스 신호들로부터 파라메트릭하게(parametrically) 재구성하기 어려운 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 어떤 부분들이 파라메트릭하게 재구성된 업믹스 신호들과 인터리빙하기 위한 파형-코딩된 형태로 제공될 수 있다는 점에서 유익하다.This is because waveforms of a portion of the frequency range higher than the first cross-over frequency, which is difficult to parametrically reconstruct from the downmix signals, are interleaved with the parametrically reconstructed upmix signals And the like.

하나의 예시적 실시예에 있어서, 상기 인터리빙은 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 부가함으로써 실행된다. 또 다른 예시적인 실시예에 따라, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하는 단계는, 상기 추가의 파형-코딩된 신호의 스펙트럼 계수들에 대응하는 상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에서 상기 M 개의 업믹스 신호들 중 하나를 상기 추가의 파형-코딩된 신호로 대체하는 것을 구비한다. In one exemplary embodiment, the interleaving is performed by adding the additional waveform-coded signal to one of the M upmix signals. According to another exemplary embodiment, interleaving the further waveform-coded signal with one of the M upmix signals further comprises interleaving the additional waveform-coded signal with one of the M upmix signals, And replacing one of the M upmix signals in the subset of frequencies above the one cross-over frequency with the additional waveform-coded signal.

예시적인 실시예들에 따라, 상기 디코더는 또한 예를 들면 상기 제 3 수신 스테이지에 의해 제어 신호를 수신하도록 구성될 수 있다. 상기 제어 신호는 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 어떻게 인터리빙하는지를 표시할 수 있으며, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하는 단계는 상기 제어 신호에 기초한다. 특히, 상기 제어 신호는 상기 추가의 파형-코딩된 신호가 상기 M 개의 업믹스 신호들 중 하나와 인터리빙되어질, QMF 도메인에서의 하나 이상의 시간/주파수 타일들(tiles)과 같은, 주파수 범위 및 시간 범위를 표시할 수 있다. 따라서, 인터리빙은 한 채널 내에 시간 및 주파수에서 일어날 수 있다.According to exemplary embodiments, the decoder may also be configured to receive the control signal, for example, by the third receiving stage. The control signal may indicate how to interleave the additional waveform-coded signal with one of the M upmix signals, and the additional waveform-coded signal may be combined with one of the M upmix signals The step of interleaving is based on the control signal. In particular, the control signal may comprise a frequency range and a time range, such as one or more time / frequency tiles (tiles) in the QMF domain, to which the further waveform-coded signal is to be interleaved with one of the M upmix signals Can be displayed. Thus, interleaving can occur in time and frequency within a channel.

이러한 것의 이점은, 상기 파형-코딩된 신호들을 코딩하는데 이용되는 오버래핑 윈도윙된 변환의 앨리어싱 또는 스타트-업/페이드-아웃 문제들을 겪지않는 시간 범위들 및 주파수 범위들이 선택될 수 있다를 것이다.An advantage of this is that time ranges and frequency ranges that do not suffer from aliasing or start-up / fade-out problems of the overlapping windowed transformations used to code the waveform-coded signals can be selected.

개요-인코더Overview - Encoders

제 2 관점에 따라, 예시적인 실시예들은 입력 신호에 기초하여 다-채널 오디오 신호를 인코딩하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제안한다.According to a second aspect, exemplary embodiments propose methods, devices and computer program products for encoding a multi-channel audio signal based on an input signal.

상기 제안된 방법들, 다바이스들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들 및 이점들을 가질 수 있다.The proposed methods, devices and computer program products generally can have the same features and advantages.

상기한 디코더의 개요에서 나타낸 바와 같은 특징들 및 구성들과 관련한 이점들은 일반적으로 인코더에 대한 대응하는 특징들 및 구성들에 대해 유효하게 될 것이다.Advantages associated with features and configurations, such as those outlined in the above decoder, will generally be valid for corresponding features and configurations for the encoder.

예시적인 실시예들에 따라, M 개의 채널들을 인코딩하기 위한 다-채널 오디오 프로세싱 시스템을 위한 인코더가 제공되며, 여기서 M>2이다.According to exemplary embodiments, there is provided an encoder for a multi-channel audio processing system for encoding M channels, where M > 2.

상기 인코더는 인코딩될 상기 M 개의 채널들에 대응하는 M 개의 신호들을 수신하도록 구성된 수신 스테이지를 구비한다.The encoder has a receiving stage configured to receive M signals corresponding to the M channels to be encoded.

상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 주파수 범위에 대해 상기 M 개의 신호들을 개별적으로 파형-코딩함으로써 M 개의 파형-코딩된 신호들을 발생시키도록 구성된 제 1 파형-코딩 스테이지를 구비하며, 그에 의해 상기 M 개의 파형-코딩된 신호들은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.The encoder may also receive the M signals from the receiving stage and separately waveform-code the M signals for a frequency range corresponding to frequencies up to a first cross-over frequency to generate M waveform-coded Coding stage configured to generate signals, wherein the M waveform-coded signals have spectral coefficients corresponding to frequencies up to the first cross-over frequency.

상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 상기 M 개의 신호들을 N 개의 다운믹스 신호들로 다운믹싱하도록 구성된 다운믹싱 스테이지를 구비하며, 여기서 1<N<M 이다.The encoder also has a downmixing stage configured to receive the M signals from the receiving stage and downmix the M signals to N downmix signals, where 1 < N < M.

상기 인코더는 또한 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 N 개의 다운믹스 신호들을 고 주파수 재구성 인코딩하도록 구성된 고 주파수 재구성 인코딩 스테이지를 구비하며, 그에 의해 상기 고 주파수 재구성 인코딩 스테이지는 제 2 크로스-오버 주파수보다 높은 상기 N 개의 다운믹스 신호들의 고 주파수 재구성을 가능하게 하는 고 주파수 재구성 파라미터들을 추출하도록 구성된다.The encoder also includes a high frequency reconstruction encoding stage configured to receive the N downmix signals from the downmixing stage and to high-frequency reconstructively encode the N downmix signals, whereby the high-frequency reconstruction encoding stage And to extract high frequency reconstruction parameters that enable high frequency reconstruction of the N downmix signals higher than the second cross-over frequency.

상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 M 개의 신호들을 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 주파수 범위에 대해 파라메트릭 인코딩하도록 구성된 파라메트릭 인코딩 스테이지를 구비하며, 그에 의해 상기 파라메트릭 인코딩 스테이지는 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위에 대해 상기 M 개의 채널들에 대응하는 M 개의 재구성된 신호들로의 상기 N 개의 다운믹스 신호들의 업믹싱을 가능하게 하는 업믹스 파라미터들을 추출하도록 구성된다. The encoder also receives the M signals from the receiving stage, receives the N downmix signals from the downmixing stage, and converts the M signals into a signal corresponding to frequencies higher than the first cross- Wherein the parametric encoding stage is configured to perform M parametric encoding stages corresponding to the M channels for a frequency range higher than the first cross- And to extract upmix parameters that enable upmixing of the N downmix signals into the signals.

상기 인코더는 또한 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 주파수 범위에 대해 상기 N 개의 다운믹스 신호들을 파형-코딩함으로써 N 개의 파형-코딩된 다운믹스 신호들을 발생시키도록 구성된 제 2 파형-코딩 스테이지를 구비하며, 그에 의해 상기 N 개의 파형-코딩된 다운믹스 신호들은 상기 제 1 크로스-오버 주파수와 상기 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. The encoder also receives the N downmix signals from the downmixing stage and performs waveform-coding of the N downmix signals for a frequency range corresponding to frequencies between the first and second cross- Coded downmix signals to generate N waveform-coded downmix signals, wherein the N waveform-coded downmix signals are generated by combining the first cross-over frequency and the second cross- - spectral coefficients corresponding to frequencies between over-frequencies.

한 실시예에 따라, 상기 N 개의 다운믹스 신호들을 상기 고 주파수 재구성 인코딩 스테이지에서 고 주파수 재구성 코딩하는 것은 주파수 도메인, 바람직하게는 QMF(Quadrature Mirror Filters) 도메인에서 실행된다.According to one embodiment, the high frequency reconstruction coding of the N downmix signals in the high frequency reconstruction encoding stage is performed in a frequency domain, preferably a QMF (Quadrature Mirror Filters) domain.

다른 실시예에 따라, 상기 M 개의 신호들을 상기 파라메트릭 인코딩 스테이지에서 파라메트릭 인코딩하는 것은 주파수 도메인, 바람직하게는 QMF(Quadrature Mirror Filters) 도메인에서 실행된다.According to another embodiment, the parametric encoding of the M signals in the parametric encoding stage is performed in the frequency domain, preferably the QMF (Quadrature Mirror Filters) domain.

또 다른 실시예에 따라, 상기 제 1 파형-코딩 스테이지에서 상기 M 개의 신호들을 개별적으로 파형-코딩함으로써 M 개의 파형-코딩된 신호들을 발생시키는 것은 상기 M 개의 신호들에 오버래핑 윈도윙된 변환을 적용하는 것을 구비하고, 여기서 상이한 오버래핑 윈도우 시퀀스들이 상기 M 개의 신호들 중 적어도 두 개에 대해 사용된다. According to yet another embodiment, generating M waveform-coded signals by separately waveform-coding the M signals in the first waveform-coding stage comprises applying overlapping windowed transforms to the M signals Wherein different overlapping window sequences are used for at least two of the M signals.

실시예들에 따라, 상기 인코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트에 대응하는 주파수 범위에 대해 상기 M 개의 신호들 중 하나를 파형-코딩함으로써 추가의 파형-코딩된 신호를 발생시키도록 구성된 제 3 파형-인코딩 스테이지를 구비할 수 있다. According to embodiments, the encoder is further configured to waveform-code one of the M signals for a frequency range corresponding to a subset of the frequency range higher than the first cross-over frequency, Encoding stage configured to generate the first waveform-encoding stage.

실시예들에 따라, 상기 인코더는 또한 제어 신호 발생 스테이지를 구비할 수 있다. 상기 제어 신호 발생 스테이지는 상기 추가의 파형-코딩된 신호를 디코더에서 상기 M 개의 신호들 중 하나의 파라메트릭 재구성으로 어떻게 인터리빙하는지를 표시하는 제어 신호를 발생시키도록 구성된다. 예를 들어, 상기 제어 신호는 상기 추가의 파형-코딩된 신호가 상기 M 개의 업믹스 신호들 중 하나와 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다. According to embodiments, the encoder may also include a control signal generation stage. The control signal generation stage is configured to generate a control signal indicating how to interleave the additional waveform-coded signal at the decoder with one parametric reconstruction of the M signals. For example, the control signal may indicate a frequency range and a time range in which the additional waveform-coded signal is interleaved with one of the M upmix signals.

예시적 실시예들Exemplary embodiments

도 1은 M 개의 인코딩 채널들을 재구성하기 위한 다-채널 오디오 프로세싱 시스템에서의 디코더(100)의 일반화된 블록도이다. 디코더(100)는 세 개의 개념적 부분들(200, 300, 400)을 구비하고, 이에 대해서는 도 2 내지 도 4와 함께 보다 상세하게 설명될 것이다. 제 1 개념적 부분(200)에서, 인코더는 N 개의 파형-코딩된 다운믹스 신호들 및 디코딩될 다-채널 오디오 신호를 나타내는 M 개의 파형-코딩된 신호들을 수신하고, 여기서 1<N<M 이다. 설명되는 예에서는, N 은 2로 설정된다. 제 2 개념적 부분(300)에서, M 개의 파형-코딩된 신호들은 다운믹싱되어 N 개의 파형-코딩된 다운믹스 신호들과 결합된다. 이후 상기 결합된 다운믹스 신호들에 대해 고 주파수 재구성(HFR)이 실행된다. 제 3 개념적 부분(400)에서, 상기 고 주파수 재구성된 신호들은 업믹스되고, M 개의 파형-코딩된 신호들이 상기 업믹스 신호들과 결합되어 M 개의 인코딩된 채널들을 재구성한다. 1 is a generalized block diagram of a decoder 100 in a multi-channel audio processing system for reconstructing M encoded channels. The decoder 100 has three conceptual parts 200, 300 and 400, which will be described in more detail with reference to FIGS. In a first conceptual part 200, the encoder receives N waveform-coded downmix signals and M waveform-coded signals representing the multi-channel audio signal to be decoded, where 1 <N <M. In the illustrated example, N is set to two. In a second conceptual part 300, M waveform-coded signals are downmixed and combined with N waveform-coded downmix signals. High frequency reconstruction (HFR) is then performed on the combined downmix signals. In a third conceptual part 400, the high frequency reconstructed signals are upmixed and M waveform-coded signals are combined with the upmix signals to reconstruct the M encoded channels.

도 2 내지 도 4와 함께 기술되는 예시적인 실시예에 있어서, 인코딩된 5.1 서라운드 사운드의 재구성이 기술된다. 이러한 기술된 실시예 또는 도면들에서는 저 주파수 효과 신호는 언급되지 않는다는 것이 주목될 수 있다. 이러한 것은 어떠한 저 주파수 효과들도 무시된다는 것을 의미하는 것은 아니다. 저 주파수 효과(Lfe)는 당 기술 분야에 숙련된 사람들에 의해 널리 알려진 어떠한 적절한 방식으로 재구성된 5 채널들에 부가된다. 또한 상기 기술된 디코더들은 7.1 또는 9.1 서라운드 사운드와 같이 인코딩된 서라운드 사운드의 다른 유형들에 동일하게 잘 적합된다는 것을 주목할 수 있다. In the exemplary embodiment described in conjunction with FIGS. 2-4, the reconstruction of the encoded 5.1 surround sound is described. It should be noted that in this described embodiment or figures the low frequency effect signal is not mentioned. This does not mean that any low frequency effects are ignored. The low frequency effect (Lfe) is added to the five reconstructed channels in any suitable manner known by those skilled in the art. It is also noted that the decoders described above are equally well suited to other types of surround sound encoded, such as 7.1 or 9.1 surround sound.

도 2는 도 1에서 디코더(100)의 제 1 개념적 부분(200)을 도시한다. 디코더는 두 개의 수신 스테이지들(212, 214)을 구비한다. 제 1 수신 스테이지(212)에서, 비트-스트림(202)은 디코딩되어 두 개의 파형-코딩된 다운믹스 신호들(208a-b)로 역양자화(dequantized)된다. 상기 두 개의 파형-코딩된 다운믹스 신호들(208a-b)의 각각은 제 1 크로스-오버 주파수(ky)와 제 2 크로스-오버 주파수(kx) 사이의 주파수들에 대응하는 트펙트럼 계수들을 구비한다. FIG. 2 shows a first conceptual part 200 of the decoder 100 in FIG. The decoder has two receive stages (212, 214). In a first receive stage 212, the bit-stream 202 is decoded and dequantized into two waveform-coded downmix signals 208a-b. Each of the two waveform-coded downmix signals 208a-b has a waveform coefficient corresponding to frequencies between a first cross-over frequency (k y ) and a second cross-over frequency (k x ) Respectively.

제 2 수신 스테이지(212)에서, 비트-스트림(202)은 디코딩되어, 다섯 개의 파형-코딩된 신호들(208a-e)로 역양자화된다. 다섯 개의 파형-코딩된 다운믹스 신호들(210a-e)의 각각은 제 1 크로스-오버 주파수 kx까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. In the second receive stage 212, the bit-stream 202 is decoded and dequantized into five waveform-coded signals 208a-e. Five waveform includes spectral coefficients corresponding to frequencies up to over frequency k x - each coded down-mix signals (210a-e) has a first cross.

예로서, 상기 신호들(210a-e)은 두 개의 채널 쌍 요소들 및 중심에 대한 하나의 단일 채널 요소를 구비한다. 상기 채널 쌍 요소들은 예컨대 좌측 전방과 좌측 서라운드 신호의 결합 및 우측 전방과 우측 서라운드 신호의 결합이 될 수 있다. 또 다른 예로서는 좌측 전방과 우측 전방 신호들의 결합 및 좌측 서라운드와 우측 서라운드 신호의 결합이 된다. 이들 채널 쌍 요소들은 예컨대 합-및-차 포맷(sum-and-difference format)으로 코딩될 수 있다. 오든 다섯 개의 신호들(210a-e)은 독립적 윈도윙(indenpendent windowing)으로 오버래핑 윈도윙된 변환들을 사용하여 코딩될 수 있으며, 여전히 상기 디코더에 의해 디코딩가능하다. 이러한 것은 개선된 코딩 품질을 가능하게 할 수 있으며, 따라서 개선된 품질의 디코딩된 신호를 가능하게 할 수 있다. By way of example, the signals 210a-e comprise two channel pair elements and one single channel element for the center. The channel pair elements may be, for example, a combination of a left front and a left surround signal and a combination of a right front and a right surround signal. As another example, a combination of left front and right front signals and a combination of left surround and right surround signals. These channel pair elements may be coded, for example, in a sum-and-difference format. The five signals 210a-e may be coded using overlapping windowed transforms with independent windowing and still be decodable by the decoder. This may enable improved coding quality and therefore enable an improved quality of the decoded signal.

예로서, 제 1 크로스-오버 주파수 ky는 1.1 kHz이다. 예로서, 제 2 크로스-오버 주파수 kx는 5.6-8 kHz의 범위 내에 있다. 제 1 크로스-오버 주파수 ky는 개개의 신호 단위로도 변화할 수 있다는 것을 유념해야한다. 즉, 인코더는 특정 출력 신호에서의 신호 구성요소가 상기 스테레오 다운믹스 신호들(208a-b)에 의해 충실히 재생되지 않을 수도 있다는 것을 검출할 수 있으며, 특정한 시간 인스턴스에 대해 관련 파형 코딩된 신호, 즉 210a-e의, 대역폭, 즉 제 1 크로스-오버 주파수 ky를 상기 신호 구성요소의 적절한 파형 코딩을 행하도록 증가시킬 수 있다는 것을 유념해야한다. As an example, the first cross-over frequency k y is 1.1 kHz. As an example, the second cross-over frequency k x is in the range of 5.6-8 kHz. It should be noted that the first cross-over frequency k y may also vary in individual signal units. That is, the encoder may detect that the signal components in a particular output signal may not be faithfully reproduced by the stereo downmix signals 208a-b, and that the associated waveform coded signals for a particular time instance 210a-e, the bandwidth, i. E. The first cross-over frequency, k y , to effectuate appropriate waveform coding of the signal component.

본 명세서에서 이후 기술될 바와 같이, 상기 인코더(100)의 남아있는 스테이지들은 전형적으로 QMF 도메인(Quadrature Mirror Filters domain)에서 동작한다. 이러한 이유로, 수정된 이산 코사인 변환(MDCT) 형태로 수신되는, 상기 제 1 및 제 2 수신 스테이지들(212, 214)에 의해 수신된 신호들(208a-b, 210a-e)의 각각은 역(inverse) MDCT(216)를 적용함으로써 시간 도메인으로 변환된다. 이후 각각의 신호는 QMF 변환(218)을 적용함으로써 주파수 도메인으로 다시 변환된다. As will be described later herein, the remaining stages of the encoder 100 typically operate in the QMF domain (Quadrature Mirror Filters domain). For this reason, each of the signals 208a-b, 210a-e received by the first and second receiving stages 212,214, received in a modified discrete cosine transform (MDCT) form, inverse &lt; RTI ID = 0.0 &gt; MDCT 216 &lt; / RTI &gt; Each signal is then converted back to the frequency domain by applying a QMF transform 218.

도 3에서, 다섯 개의 파형-코딩된 신호들(210)이 다운믹스 스테이지(308)에서 상기 제 1 크로스-오버 주파수 ky까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 두 개의 다운믹스 신호들(310, 312)로 다운믹스된다. 이들 다운믹스 신호들(310, 312)은, 도 2에 도시된 두 개의 다운믹스 신호들(208a-b)을 생성하기 위해 인코더에서 이용되었던 것과 동일한 다운믹싱 체계를 사용하여 저역(low pass) 다-채널 신호들(210a-e) 상에서 다운믹스를 실행함으로써 형성될 수 있다. In Figure 3, the five waveform two down-mix signal comprising spectral coefficients corresponding to frequencies up to over frequency k y - in the coded signal 210 is down-mix stage 308, the first cross- Lt; RTI ID = 0.0 &gt; 310, &lt; / RTI &gt; These downmix signals 310 and 312 are low pass using the same downmixing scheme used in the encoder to produce the two downmix signals 208a-b shown in FIG. - &lt; / RTI &gt; channel signals 210a-e.

두 개의 새로운 다운믹스 신호들(310, 312)은 이후 제 1 결합 스테이지(320, 322)에서 대응하는 다운믹스 신호들(208a-b)과 결합되어, 결합된 다운믹스 신호들(302a-b)을 형성한다. 그에 따라 상기 결합된 다운믹스 신호들(302a-b)의 각각은, 상기 다운믹스 신호들(310, 312)로부터 비롯하는 제 1 크로스-오버 주파수 ky까지의 주파수들에 대응하는 스펙트럼 계수들과 상기 제 1 수신 스테이지(212)(도 2에 도시됨)에서 수신된 상기 두 개의 파형-코딩된 다운믹스 신호들(208a-b)로부터 비롯하는 제 1 크로스-오버 주파수 ky와 제 2 크로스-오버 주파수 kx 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.The two new downmix signals 310 and 312 are then combined with the corresponding downmix signals 208a-b in the first combining stage 320 and 322 to produce combined downmix signals 302a-b, . Thus, each of the combined downmix signals 302a-b may include spectral coefficients corresponding to frequencies from the downmix signals 310,312 to the first cross-over frequency k y , A first cross-over frequency k y resulting from the two waveform-coded downmix signals 208a-b received at the first receiving stage 212 (shown in FIG. 2) Over frequency k x Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt;

상기 인코더는 또한 고 주파수 재구성(HFR) 스테이지(314)를 구비한다. 상기 HFR 스테이지는 고 주파수 재구성을 실행함으로써 상기 결합 스테이지로부터의 두 개의 결합된 다운믹스 신호들(302a-b)의 각각을 제 2 크로스-오버 주파수 kx 보다 높은 주파수 범위까지 확장하도록 구성된다. 상기 실행된 고 주파수 재구성은 일부 실시예들에 따라 SBR(spectral band replication)을 실행하는 것을 구비할 수 있다. 고 주파수 재구성은 어떠한 적절한 방식으로 HFR 스테이지(314)에 의해 수신될 수 있는 고 주파수 재구성 파라미터들을 사용함으로써 행해질 수 있다. The encoder also has a high frequency reconstruction (HFR) stage 314. The HFR stage two combined down-mix respectively a second cross of the signals (302a-b) from the coupling stage by executing a high-frequency reconstruction is configured to extend to a high frequency over the frequency range than k x. The performed high frequency reconstruction may comprise performing spectral band replication (SBR) according to some embodiments. High frequency reconstruction can be done by using high frequency reconstruction parameters that can be received by HFR stage 314 in any suitable manner.

고 주파수 재구성 스테이지(314)로부터의 출력은 상기 HFR 확장(316, 318)이 적용된 상기 다운믹스 신호들(208a-b)을 구비하는 두 개의 신호들(304a-b)이다. 상기한 바와 같이, HFR 스테이지(314)는 상기 두 개의 다운믹스 신호들(208a-b)과 결합된 제 2 수신 스테이지(214)(도 2에 도시됨)로부터의 입력 신호(210a-e)에 존재하는 주파수들에 기초하여 고 주파수 재구성을 실행한다. 다소 간소화하면, 상기 HFR 범위(316, 318)는 HFR 범위(316, 318)로 카피 업된 다운믹스 신호들(310, 312)로부터의 스펙트럼 계수들의 부분들을 구비한다. 결과적으로 상기 다섯 개의 파형-코딩된 신호들(210a-e)의 부분들이 상기 HFR 스테이지(314)로부터 상기 출력(304)의 HFR 범위(316, 318)에서 나타나게 된다.The output from the high frequency reconstruction stage 314 is two signals 304a-b with the downmix signals 208a-b to which the HFR extensions 316 and 318 are applied. As described above, the HFR stage 314 is coupled to the input signals 210a-e from a second receiving stage 214 (shown in Figure 2) combined with the two downmix signals 208a-b And performs a high frequency reconstruction based on the existing frequencies. Somewhat simplified, the HFR ranges 316 and 318 have portions of the spectral coefficients from the downmix signals 310 and 312 copied up to the HFR range 316 and 318. As a result, portions of the five waveform-coded signals 210a-e appear in the HFR range 316, 318 of the output 304 from the HFR stage 314.

고 주파수 재구성 스테이지(314) 이전의 다운믹싱 스테이지(308)에서의 다운믹싱 및 제 1 결합 스테이지(320, 322)에서의 결합은 시간 도메인에서, 즉 역(inverse) 수정된 이산 코사인 변환(MDCT)(216)(도 2에 도시됨)을 적용함으로써 각각의 신호가 시간 도메인으로 변환된 후, 행해질 수 있다는 것을 유념해야한다. 하지만, 파형-코딩된 신호들(210a-e) 및 파형-코딩된 다운믹스 신호들(208a-b)이 독립적 윈도윙을 갖는 오버래핑 윈도윙된 변환들을 사용하여 파형 코더에 의해 코딩될 수 있다는 것을 고려하면, 신호들(210a-e 및 208a-b)은 시간 도메인에서 매끄럽게 결합되지 않을 수도 있다. 따라서, 적어도 제 1 결합 스테이지(320, 322)에서의 결합이 QMF 도메인에서 행해진다면, 보다 나은 조절된 시나리오가 얻어진다. The downmixing in the downmixing stage 308 prior to the high frequency reconstruction stage 314 and the combination in the first combining stage 320 and 322 are performed in the time domain, i.e., inverse modified discrete cosine transform (MDCT) It should be noted that each signal may be converted to the time domain and then done by applying a signal 216 (shown in FIG. 2). However, it is noted that waveform-coded signals 210a-e and waveform-coded downmix signals 208a-b can be coded by waveform coder using overlapping windowed transforms with independent windowing Considering the signals 210a-e and 208a-b may not be smoothly coupled in the time domain. Thus, if at least the first combining stage 320, 322 is done in the QMF domain, a better regulated scenario is obtained.

도 4는 인코더(100)의 제 3 및 마지막 개념적 부분(400)을 도시한다. 상기 HFR 스테이지(314)로부터의 출력(304)은 업믹스 스테이지(402)로의 입력을 구성한다. 상기 업믹스 스테이지(402)는 주파수 확장된 신호(304a-b)에 대해 파라메트릭 업믹스를 실행함으로써 다섯 개의 신호 출력(404a-e)을 생성한다. 다섯 개의 업믹스 신호들(404a-e)의 각각은 상기 제 1 크로스-오버 주파수 ky 보다 높은 주파수들에 대한 인코딩된 5.1 서라운드 사운드에서의 다섯 개의 인코딩된 채널들 중 하나에 대응한다. 예시적인 파라메트릭 업믹스 절차에 따라, 상기 업믹스 스테이지(402)는 먼저 파라메트릭 믹싱 파라미터들을 수신한다. 상기 업믹스 스테이지(402)는 또한 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b)의 역상관된 버전들(decorrelated versions)을 발생시킨다. 상기 업믹스 스테이지(402)는 또한 상기 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b) 및 상기 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b)의 역상관된 버전들을 매트릭스 연산하며, 여기서 상기 매트릭스 연산의 파라미터들은 업믹스 파라미터들에 의해 주어진다. 대안적으로, 당 기술분야에 공지된 어떠한 다른 파라메트릭 업믹싱 절차들이 적용될 수도 있다. 적용가능한 파라메트릭 업믹싱 절차들은 예를 들면 "MPEG Surround-The ISO/MPEG Standard for Efficient and Compatible Multichannel Audio Coding"(2008년 11월, 오디오 엔지니어링 협회의 저널, Vol. 56, No. 11, 헤레 등)에 기술되어 있다.FIG. 4 shows the third and last conceptual part 400 of the encoder 100. FIG. The output 304 from the HFR stage 314 constitutes the input to the upmix stage 402. The upmix stage 402 generates five signal outputs 404a-e by performing a parametric upmix on the frequency extended signals 304a-b. Each of the five upmix signals 404a-e corresponds to one of the five encoded channels in the encoded 5.1 surround sound for frequencies above the first cross-over frequency k y . According to an exemplary parametric upmix procedure, the upmix stage 402 first receives the parametric mixing parameters. The upmix stage 402 also generates decorrelated versions of the two frequency-extended combined downmix signals 304a-b. The upmix stage 402 also includes decorrelated versions of the two frequency-extended combined downmix signals 304a-b and the two frequency-extended combined downmix signals 304a-b Wherein the parameters of the matrix operation are given by upmix parameters. Alternatively, any other parametric upmixing procedures known in the art may be applied. Applicable parametric upmixing procedures are described in, for example, " MPEG Surround-The ISO / MPEG Standard for Efficient and Compatible Multichannel Audio Coding &quot;, November 2008, Journal of Audio Engineering, vol. 56, No. 11, ).

상기 업믹스 스테이지(402)로부터의 출력(404a-e)은 따라서 제 1 크로스-오버 주파수 ky 아래의 주파수들을 구비하지 않는다. 상기 제 1 크로스-오버 주파수 ky 까지의 주파수들에 대응하는 남아있는 스텍트럼 계수들은 상기 업믹스 신호들(404)의 타이밍과 일치하도록 지연 스테이지(412)에 의해 지연된 다섯 개의 파형-코딩된 신호들(210a-e)에 존재한다. The outputs 404a-e from the upmix stage 402 thus do not have frequencies below the first cross-over frequency k y . The remaining spectral coefficients corresponding to the frequencies up to the first cross-over frequency k y are converted into five waveform-coded signals &lt; RTI ID = 0.0 &gt; 0.0 &gt; 210a-e. &Lt; / RTI &gt;

인코더(100)는 또한 제 2 결합 스테이지(416, 418)를 구비한다. 상기 제 2 결합 스테이지(416, 418)는 제 2 수신 스테이지(214)(도 2에 도시됨)에 의해 수신된 다섯 개의 파형-코딩된 신호들(210a-e)과 상기 다섯 개의 업믹스 신호들(404a-e)을 결합하도록 구성된다.The encoder 100 also includes a second coupling stage 416, The second combining stage 416,418 includes five waveform-coded signals 210a-e received by a second receiving stage 214 (shown in Figure 2) and the five up- Gt; 404a-e &lt; / RTI &gt;

어떠한 현재의 Lfe 신호들도 별개의 신호로서 상기 결과적인 결합된 신호(422)에 부가될 수 있다는 것을 주목할 수도 있다. 상기 신호들(422)의 각각은 이후 역 QMF 변환(420)을 적용함으로써 시간 도메인으로 변환된다. 상기 역 QMF 변환(414)으로부터의 출력은 따라서 완전히 디코딩된 5.1 채널 오디오 신호가 된다.It may be noted that any current Lfe signals may be added to the resulting combined signal 422 as a separate signal. Each of the signals 422 is then converted to the time domain by applying an inverse QMF transform 420. The output from the inverse QMF transform 414 thus becomes a fully decoded 5.1 channel audio signal.

도 6은 도 1의 디코딩 시스템의 수정된 디코딩 시스템(100')을 도시한다. 상기 디코딩 시스템(100')은 도 1의 개념적 부분들(200, 300 및 400)에 대응하는 개념적 부분들(200', 300' 및 400')을 포함한다. 도 1의 디코딩 시스템과 도 6의 디코딩 시스템(100') 사이의 차이는 개념적 부분(200') 내에 제 3 수신 스테이지(616)가 있고, 제 3 개념적 부분(400') 내에 인터리브 스테이지(714)가 있다는 것이다. FIG. 6 shows a modified decoding system 100 'of the decoding system of FIG. The decoding system 100 'includes conceptual portions 200', 300 'and 400' corresponding to the conceptual portions 200, 300 and 400 of FIG. The difference between the decoding system of Figure 1 and the decoding system 100'of Figure 6 is that there is a third receiving stage 616 in the conceptual portion 200'and an interleaving stage 714 in the third conceptual portion 400 ' .

상기 제 3 수신 스테이지(616)는 추가의 파형-코딩된 신호를 수신하도록 구성된다. 상기 추가의 파형-코딩된 신호는 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비한다. 상기 추가의 파형-코딩된 신호는 역 MDCT 변환(216)을 적용함으로써 시간 도메인으로 변환될 수 있다. 이는 이후 QMF 변환(218)을 적용함으로써 주파수 도메인으로 다시 변환될 수 있다.The third receiving stage 616 is configured to receive an additional waveform-coded signal. The further waveform-coded signal has spectral coefficients corresponding to a subset of frequencies higher than the first cross-over frequency. The further waveform-coded signal may be transformed into the time domain by applying an inverse MDCT transform 216. [ Which can then be converted back to the frequency domain by applying QMF transform 218. [

상기 추가의 파형-코딩된 신호는 별개의 신호로서 수신될 수도 있다는 것을 이해해야한다. 하지만, 상기 추가의 파형-코딩된 신호는 또한 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상의 부분을 형성할 수도 있다. 다시 말해서, 상기 추가의 파형-코딩된 신호는 실례로 동일한 MCDT 변환을 사용하여 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상과 함께 공동으로 코딩될 수도 있다. 그렇다면, 상기 제 3 수신 스테이지(616)는 상기 제 2 수신 스테이지에 대응하는데, 즉, 상기 추가의 파형-코딩된 신호는 상기 제 2 수신 스테이지(214)를 통해 상기 다섯 개의 파형-코딩된 신호들(210a-e)과 함께 수신된다. It should be appreciated that the additional waveform-coded signal may be received as a separate signal. However, the additional waveform-coded signal may also form one or more portions of the five waveform-coded signals 210a-e. In other words, the additional waveform-coded signal may be coded jointly with one or more of the five waveform-coded signals 210a-e using the same MCDT transform, for example. If so, the third receiving stage 616 corresponds to the second receiving stage, i.e., the additional waveform-coded signal is passed through the second receiving stage 214 to the five waveform- 0.0 &gt; 210a-e. &Lt; / RTI &gt;

도 7은 도 6의 디코더(100')의 제 3 개념적 부분(300')을 보다 상세하게 도시한다. 고 주파수 확장된 다운믹스-신호들(304a-b) 및 다섯 개의 파형-코딩된 신호들(210a-e)에 부가하여 추가의 파형-코딩된 신호(710)가 상기 제 3 개념적 부분(400')에 입력된다. 도시된 예에 있어서, 상기 추가의 파형-코딩된 신호(710)는 다섯 개의 채널들 중 제 3 채널에 대응한다. 상기 추가의 파형-코딩된 신호(710)는 또한 상기 제 1 크로스-오버 주파수 ky로부터 시작하는 주파수 간격에 대응하는 스펙트럼 계수들을 구비한다. 하지만, 상기 추가의 파형-코딩된 신호(710)에 의해 커버되는 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트의 형태는 다른 실시예들에서 물론 변화될 수 있다. 또한 복수의 파형-코딩된 신호들(710a-e)이 수신될 수도 있다는 것을 유념해야하며, 여기서 상이한 파형-코딩된 신호들이 상이한 출력 채널들에 대응할 수 있다. 상기 복수의 추가의 파형-코딩된 신호들(710a-e)에 의해 커버되는 주파수 범위의 서브세트는 상기 복수의 추가의 파형-코딩된 신호들(710a-e) 중 상이한 것들 사이에서 변화할 수도 있다. FIG. 7 shows a third conceptual part 300 'of the decoder 100' of FIG. 6 in more detail. In addition to the high frequency extended downmix signals 304a-b and the five waveform-coded signals 210a-e, an additional waveform-coded signal 710 is provided to the third conceptual portion 400 ' . In the illustrated example, the additional waveform-coded signal 710 corresponds to the third one of the five channels. The further waveform-coded signal 710 also has spectral coefficients corresponding to a frequency interval starting from the first cross-over frequency k y . However, the form of a subset of the frequency range higher than the first cross-over frequency covered by the additional waveform-coded signal 710 may, of course, be varied in other embodiments. It should also be noted that a plurality of waveform-coded signals 710a-e may be received, where different waveform-coded signals may correspond to different output channels. A subset of the frequency range covered by the plurality of additional waveform-coded signals 710a-e may vary between different ones of the plurality of additional waveform-coded signals 710a-e have.

상기 추가의 파형-코딩된 신호(710)는 업믹스 스테이지(402)로부터 출력되는 업믹스 신호들(404)의 타이밍과 일치하도록 지연 스테이지(712)에 의해 지연될 수도 있다. 상기 업믹스 신호들(404) 및 상기 추가의 파형-코딩된 신호(710)는 이후 인터리브 스테이지(714)에 입력된다. 상기 인터리브 스테이지(714)는 인터리빙된 신호(704)를 생성하도록 인터리빙되는데, 즉 상기 업믹스 신호들(404)을 상기 추가의 파형-코딩된 신호(710)와 결합한다. 현재 예에 있어서, 상기 인터리브 스테이지(714)는 따라서 상기 제 3 업믹스 신호(404c)를 상기 추가의 파형-코딩된 신호(710)와 인터리빙한다. 상기 인터리빙은 두 개의 신호들을 함께 부가함으로써 실행될 수도 있다. 하지만, 대체로는, 상기 인터리빙은 신호들이 오버랩되는 시간 범위 및 주파수 범위에서 상기 업믹스 신호들(404)을 상기 추가의 파형-코딩된 신호(710)로 대체함으로써 실행된다. The additional waveform-coded signal 710 may be delayed by the delay stage 712 to match the timing of the upmix signals 404 output from the upmix stage 402. The upmix signals 404 and the additional waveform-coded signal 710 are then input to the interleave stage 714. [ The interleaved stage 714 is interleaved to produce an interleaved signal 704, i.e., combines the upmix signals 404 with the additional waveform-coded signal 710. In the present example, the interleaving stage 714 thus interleaves the third upmix signal 404c with the further waveform-coded signal 710. [ The interleaving may be performed by adding two signals together. However, generally speaking, the interleaving is performed by replacing the upmix signals 404 with the additional waveform-coded signal 710 in a time range and frequency range where the signals overlap.

인터리빙된 신호(704)는 이후 제 2 결합 스테이지(416,418)로 입력되며, 여기서 도 4를 참조하여 기술된 바와 같은 동일한 방식으로 출력 신호(722)를 발생시키도록 파형-코딩된 신호들(201a-e)과 결합된다. 상기 결합이 상기 인터리빙 이전에 실행되도록, 상기 인터리브 스테이지(714) 및 상기 제 2 결합 스테이지(416,418)의 순서가 역전될 수 있다는 것을 유념해야한다. The interleaved signal 704 is then input to the second combining stage 416,418 where the waveform-coded signals 201a- &lt; RTI ID = 0.0 &gt; e). It should be noted that the order of the interleaving stage 714 and the second combining stage 416, 418 may be reversed such that the combining is performed before the interleaving.

또한, 상기 추가의 파형-코딩된 신호(710)가 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상의 일부를 형성하는 상황에서, 상기 제 2 결합 스테이지(416,418) 및 상기 인터리브 스테이지(714)는 단일의 스테이지로 결합될 수 있다. 특히, 그러한 결합된 스테이지는 제 1 크로스-오버 주파수 ky 까지의 주파수들에 대해 상기 다섯 개의 파형-코딩된 신호들(210a-e)의 스펙트럼 컨텐트를 이용할 것이다. 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해, 상기 결합된 스테이지는 상기 추가의 파형-코딩된 신호(710)와 인터리빙된 업믹스 신호들(404)을 이용할 것이다. Further, in a situation where the additional waveform-coded signal 710 forms part of at least one of the five waveform-coded signals 210a-e, the second combining stage 416, 418 and the interleave stage RTI ID = 0.0 &gt; 714 &lt; / RTI &gt; can be combined into a single stage. In particular, such a combined stage will utilize the spectral content of the five waveform-coded signals 210a-e for frequencies up to the first cross-over frequency k y . For frequencies above the first cross-over frequency, the combined stage will use the interleaved upmix signals 404 with the additional waveform-coded signal 710.

상기 인터리브 스테이지(714)는 제어 신호의 제어하에서 동작할 수도 있다. 이러한 목적으로, 상기 디코더(100')는 예컨대 상기 제 3 수신 스테이지(616)를 통해, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 어떻게 인터리빙할 것인지를 표시하는 제어 신호를 수신할 수 있다. 예를 들면, 상기 제어 신호는 상기 추가의 파형-코딩된 신호(710)가 상기 업믹스 신호들(404) 중 하나와 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다. 예를 들면, 상기 주파수 범위 및 상기 시간 범위는 상기 인터리빙이 이루어지게 될 시간/주파수 타일들(tiles)의 형태들로 표현될 수 있다. 상기 시간/주파수 타일들은 상기 인터리빙이 일어나게 되는 QMF 도메인의 시간/주파수 그리드(grid)와 관련한 시간/주파수 타일들이 될 수 있다.The interleave stage 714 may operate under control of a control signal. For this purpose, the decoder 100 'may, for example, control (via the third receiving stage 616) a control that indicates how to interleave the additional waveform-coded signal with one of the M upmix signals Signal can be received. For example, the control signal may indicate a frequency range and a time range in which the additional waveform-coded signal 710 is to be interleaved with one of the upmix signals 404. For example, the frequency range and the time range may be expressed in terms of time / frequency tiles to be interleaved. The time / frequency tiles may be time / frequency tiles related to a time / frequency grid of the QMF domain in which the interleaving occurs.

상기 제어 신호는 인터리빙이 이루어지게 될 상기 시간/주파수 타일들을 표시하도록 이진 벡터들과 같은 벡터들을 사용할 수 있다. 특히, 인터리빙이 실행되어질 주파수들을 표시하는, 주파수 방향에 관한 제 1 벡터가 있을 수 있다. 상기 표시는 예컨대 상기 제 1 벡터에서 대응하는 주파수 간격에 대해 논리 1(logic one)을 표시함으로써 이루어질 수 있다. 또한, 인터리빙이 실행되어질 시간 간격들을 표시하는, 시간 방향과 관련한 제 2 벡터가 있을 수 있다. 이러한 표시는 예컨대 상기 제 2 벡터에서 대응하는 시간 간격에 대해 논리 1을 표시함으로써 이루어질 수 있다. 이러한 목적으로, 시간 프레임은 전형적으로 복수의 시간 슬롯들로 분리되어, 상기 시간 표시가 서브-프레임 단위로 이루어질 수 있다. 상기 제 1 및 제 2 벡터들을 교차시킴으로써, 시간/주파수 매트릭스가 구성될 수 있다. 실례로, 시간/주파수 매트릭스는 상기 제 1 및 제 2 벡터들이 논리 1을 표시하는 각각의 시간/주파수 타일에 대해 논리 1을 구비하는 이진 매트릭스가 될 수 있다. 상기 인터리브 스테이지(714)는 이후 인터리빙 실행시 상기 시간/주파수 매트릭스를 사용할 수도 있어, 실례로 상기 업믹스 신호들(714) 중 하나 이상이 상기 시간/주파수 매트릭스에서 논리 1에 의해서와 같이 표시되는 시간/주파수 타일들에 대해 상기 추가의 파형-코딩된 신호(710)로 교체된다. The control signal may use vectors such as binary vectors to indicate the time / frequency tiles to be interleaved. In particular, there may be a first vector with respect to the frequency direction, indicating the frequencies at which interleaving is to be performed. The indication may be made, for example, by displaying a logic one for the corresponding frequency interval in the first vector. There may also be a second vector associated with the time direction, indicating the time intervals at which the interleaving is to be performed. This indication may be made, for example, by displaying a logic one for the corresponding time interval in the second vector. For this purpose, the time frame is typically divided into a plurality of time slots such that the time indication may be in sub-frame units. By intersecting the first and second vectors, a time / frequency matrix can be constructed. For example, the time / frequency matrix may be a binary matrix having a logic one for each time / frequency tile, where the first and second vectors represent logic one. The interleaving stage 714 may then use the time / frequency matrix in interleaving execution, for example, the time at which one or more of the upmix signals 714 are displayed as in logic 1 in the time / frequency matrix / Coded &lt; / RTI &gt; signal 710 relative to the frequency tiles.

인터리빙이 이루어지게 될 시간/주파수 타일들을 표시하기 위해 상기 벡터들은 이진 체계와는 다른 체계들을 사용할 수도 있다는 것을 유념해야한다. 예를 들면, 벡터들은 인터리빙이 이루어지지 않는 제로와 같은 제 1 값에 의해 및 인터리빙이 이루어지게 되는 제 2 값에 의해 표시될 수 있으며, 상기 인터리빙은 상기 제 2 값에 의해 식별되는 임의의 채널과 관련하여 이루어진다.It should be noted that the vectors may use schemes different from the binary system to indicate the time / frequency tiles to be interleaved. For example, the vectors may be represented by a first value, such as zero, where no interleaving is performed, and a second value where interleaving is performed, and the interleaving may be performed on any channel identified by the second value .

도 5는 실시예에 따라 M 개의 채널들을 인코딩하기 위한 다-채널 오디오 프로세싱 시스템에 대한 인코딩 시스템(500)의 개략적인 블록도를 예시적으로 도시한 것이다.FIG. 5 illustrates an exemplary block diagram of an encoding system 500 for a multi-channel audio processing system for encoding M channels according to an embodiment.

도 5에 도시된 예시적인 실시예에서, 5.1 서라운드 사운드의 인코딩이 기술된다. 따라서, 도시된 예에서 M은 다섯으로 설정된다. 기술되는 실시예에서 또는 도면들에서, 저 주파수 효과 신호는 언급되지 않는 것을 유의해야 할 수 있다. 이러한 것은 어떠한 저 주파수 효과도 무시된다는 것을 의미하는 것은 아니다. 저 주파수 효과들(Lfe)은 당 기술분야에 숙련된 사람에게 널지 공지된 어떠한 적절한 방식으로 비트스트림(552)에 부가된다. 또한, 기술된 인코더는 7.1 또는 9.1 서라운드 사운드와 같은 서라운드 사운드의 다른 유형들을 인코딩하는데 동일하게 아주 적합한 것이라는 것을 유의해야할 수 있다. 상기 인코더(500)에서, 다섯 개의 신호들(502,504)이 수신 스테이지(도시되지 않음)에서 수신된다. 상기 인코더(500)는 상기 수신 스테이지로부터 상기 다섯 개의 신호들(502,504)을 수신하도록 그리고 상기 다섯 개의 신호들(502,504)을 개별적으로 파형-코딩함으로써 다섯 개의 파형-코딩된 신호들(518)을 발생시키도록 구성된 제 1 파형-코딩 스테이지(506)를 구비한다. 상기 파형-코딩 스테이지(506)는 예를 들면 상기 다섯 개의 수신된 신호들(502, 504)의 각각을 MDCT 변환시키도록 할 수 있다. 상기 디코더와 관련하여 기술된 바와 같이, 상기 인코더는 독립적인 윈도잉으로 MDCT 변환을 사용하여 상기 다섯 개의 수신된 신호들(502,504)의 각각을 인코딩하도록 선택할 수 있다. 이러한 것은 개선된 코딩 품질을 가능하게 하고, 따라서 디코딩된 신호의 개선된 품질을 가능하게 한다.In the exemplary embodiment shown in FIG. 5, the encoding of 5.1 surround sound is described. Thus, in the illustrated example, M is set to five. It should be noted that in the described embodiment or in the figures, the low frequency effect signal is not mentioned. This does not mean that any low frequency effect is neglected. The low frequency effects (Lfe) are added to the bitstream (552) in any suitable manner well known to those skilled in the art. It should also be noted that the described encoder is equally well suited for encoding different types of surround sound, such as 7.1 or 9.1 surround sound. In the encoder 500, five signals 502 and 504 are received at a receiving stage (not shown). The encoder 500 generates five waveform-coded signals 518 by receiving the five signals 502,504 from the receiving stage and separately waveform-coding the five signals 502,504 And a first waveform-coding stage (506) configured to cause the first waveform-coding stage The waveform-coding stage 506 may for example MDCT transform each of the five received signals 502, 504. As described in connection with the decoder, the encoder may choose to encode each of the five received signals 502,504 using MDCT transforms with independent windowing. This enables an improved coding quality and thus an improved quality of the decoded signal.

상기 다섯 개의 파형-코딩된 신호들(518)은 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 주파수 범위에 대해 파형-코딩된다. 따라서, 상기 다섯 개의 파형-코딩된 신호들(518)은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. 이러한 것은 상기 다섯 개의 파형-코딩된 신호들(518)의 각각을 저역 필터로 처리되게 함으로써 달성될 수 있다. 상기 다섯 개의 파형-코딩된 신호들(518)은 이후 음향심리 모델에 따라 양자화된다(520). 상기 음향심리 모델은, 다-채널 오디오 프로세싱 시스템에서 이용가능한 비트 레이트를 고려하여 상기 시스템의 디코더측상에서 디코딩될 때 청취자에 의해 인지되도록 하는 인코딩된 신호들을 재생하는, 가능한 정확하게 설정된다.The five waveform-coded signals 518 are waveform-coded for a frequency range corresponding to frequencies up to the first cross-over frequency. Thus, the five waveform-coded signals 518 have spectral coefficients corresponding to frequencies up to the first cross-over frequency. This can be accomplished by having each of the five waveform-coded signals 518 processed by a low pass filter. The five waveform-coded signals 518 are then quantized (520) according to the psychoacoustic model. The psychoacoustic model is set as precisely as possible to reproduce encoded signals that are to be perceived by the listener when decoded on the decoder side of the system, taking into account the bit rate available in the multi-channel audio processing system.

상술한 바와 같이, 상기 인코더(500)는 이산적 다-채널 코딩 및 파라메트릭 코딩을 구비하는 하이브리드 코딩을 실행한다. 상기 이산적 다-채널 코딩은 상술한 바와 같이 제 1 크로스-오버 주파수까지의 주파수들에 대한 상기 입력 신호들(502,504)의 각각에 대해 상기 파형-코딩 스테이지(506)에서 실행된다. 상기 파라메트릭 코딩은 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해 N 개의 다운믹스 신호들로부터 상기 다섯 개의 입력 신호들(502,504)을 디코더 측에서 재구성할 수 있도록 실행된다. 도 5에 도시된 예에서, N은 2로 설정된다. 상기 다섯 개의 입력 신호들(502,504)의 다운믹싱은 다운믹싱 스테이지(534)에서 실행된다. 상기 다운믹싱 스테이지(534)는 QMF 도메인에서 동작하는 게 유익하다. 따라서, 상기 다운믹싱 스테이지(534)로 입력되기 전에, 상기 다섯 개의 신호들(502,504)은 QMF 분석 스테이지(526)에 의해 QMF 도메인으로 변환된다. 상기 다운믹싱 스테이지는 상기 다섯 개의 신호들(502,504)에 대해 선형 다운믹싱 동작을 실행하고, 두 개의 다운믹스 신호들(544,546)을 출력한다.As described above, the encoder 500 performs hybrid coding with discrete multi-channel coding and parametric coding. The discrete multi-channel coding is performed in the waveform-coding stage 506 for each of the input signals 502, 504 for frequencies up to the first cross-over frequency as described above. The parametric coding is performed so that the five input signals (502, 504) from the N downmix signals for frequencies higher than the first cross-over frequency can be reconstructed at the decoder side. In the example shown in FIG. 5, N is set to two. Downmixing of the five input signals 502, 504 is performed in the downmixing stage 534. The downmixing stage 534 is beneficial to operate in the QMF domain. Thus, before being input to the downmixing stage 534, the five signals 502, 504 are converted into the QMF domain by the QMF analysis stage 526. [ The downmixing stage performs a linear downmix operation on the five signals 502, 504 and outputs two downmix signals 544, 546.

이들 두 개의 다운믹스 신호들(544,546)은, 이들이 역 QMF 변환(554)을 받게 되는 것에 의해 시간 도메인으로 다시 변환된 후, 제 2 파형-코딩 스테이지(508)에 의해 수신된다. 상기 제 2 파형-코딩 스테이지(508)는 상기 제 1 및 상기 제 2 크로스-오버 주파수 사이에 주파수들에 대응하는 주파수 범위에 대해 상기 두 개의 다운믹스 신호들(544,546)을 파형-코딩함으로써 두 개의 파형-코딩된 다운믹스 신호들을 발생시킨다. 상기 파형-코딩 스테이지(508)는 예를 들면 상기 두 개의 다운믹스 신호들을 MDCT 변환되게 할 수 있다. 상기 두 개의 파형-코딩된 다운믹스 신호들은 따라서 상기 제 1 크로스-오버 주파수와 상기 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. 상기 두 개의 파형-코딩된 다운믹스 신호들은 이후 상기 음향심리 모델에 따라 양자화된다(522). These two downmix signals 544 and 546 are converted back into the time domain by being subjected to the inverse QMF transform 554 and then received by the second waveform-coded stage 508. The second waveform-coding stage 508 waveform-codes the two downmix signals 544 and 546 for a frequency range corresponding to frequencies between the first and second cross- And generates waveform-coded downmix signals. The waveform-coding stage 508 may, for example, cause the two downmix signals to be MDCT-transformed. The two waveform-coded downmix signals thus have spectral coefficients corresponding to frequencies between the first cross-over frequency and the second cross-over frequency. The two waveform-coded downmix signals are then quantized 522 according to the psychoacoustic model.

디코더 측 상에서 상기 제 2 크로스-오버 주파수보다 높은 주파수들을 재구성할 수 있도록, 고 주파수 재구성(HFR) 파라미터들(538)은 상기 두 개의 다운믹스 신호들(544,546)로부터 추출된다. 이들 파라미터들은 HFR 인코딩 스테이지(532)에서 추출된다.High frequency reconstruction (HFR) parameters 538 are extracted from the two downmix signals 544, 546 to be able to reconstruct frequencies above the second cross-over frequency on the decoder side. These parameters are extracted in the HFR encoding stage 532.

디코더 측 상에서 상기 두 개의 다운믹스 신호들(544,546)로부터 상기 다섯 개의 신호들을 재구성할 수 있도록, 상기 다섯 개의 입력 신호들(502,504)은 상기 파라메트릭 인코딩 스테이지(530)에 의해 수신된다. 상기 다섯 개의 신호들(502,504)은 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 주파수 범위에 대해 파라메트릭 코딩된다. 상기 파라메트릭 인코딩 스테이지(530)는 이후 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위에 대해 (인코딩된 5.1 서라운드 사운드에서의 다섯 개의 채널들인) 상기 다섯 개의 입력 신호들(502,504)에 대응하는 다섯 개의 재구성된 신호들로 상기 두 개의 다운믹스 신호들(544,546)을 업믹싱할 수 있는 업믹스 파라미터들(536)을 추출하도록 구성된다. 상기 업믹스 파라미터들(536)은 단지 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해 추출된다는 것을 유념해야한다. 이러한 것은 상기 파라메트릭 인코딩 스테이지(530)의 복잡성 및 대응하는 파라메트릭 데이터의 비트레이트를 감소시킬 수 있다.The five input signals (502, 504) are received by the parametric encoding stage (530) so that the five signals from the two downmix signals (544, 546) on the decoder side can be reconstructed. The five signals 502 and 504 are parametrically coded for a frequency range corresponding to frequencies higher than the first cross-over frequency. The parametric encoding stage 530 then generates five (5) channels corresponding to the five input signals 502,504 (which are five channels in the encoded 5.1 surround sound) for a frequency range higher than the first cross- And to extract the upmix parameters 536 that can upmix the two downmix signals 544, 546 with the reconstructed signals. It should be noted that the upmix parameters 536 are extracted only for frequencies above the first cross-over frequency. This may reduce the complexity of the parametric encoding stage 530 and the bit rate of the corresponding parametric data.

다운믹싱(534)은 상기 시간 도메인에서 달성될 수 있다. 그런 경우에, 상기 HRF 인코딩 스테이지(532)는 전형적으로 QMF 도메인에서 동작하기 때문에, 상기 QMF 분석 스테이지(526)는 상기 HFR 인코딩 스테이지(532) 이전에 상기 다운믹싱 스테이지(534)의 다운스트림에 위치되어야 한다. 이러한 경우, 역 QMF 스테이지(554)가 생략될 수 있다.Downmixing 534 may be accomplished in the time domain. In such a case, since the HRF encoding stage 532 typically operates in the QMF domain, the QMF analysis stage 526 is located downstream of the downmixing stage 534 prior to the HFR encoding stage 532 . In this case, the inverse QMF stage 554 may be omitted.

상기 인코더(500)는 또한 비트스트림 발생 스테이지, 즉 비트스트림 멀티플렉서(524)를 구비한다. 상기 인코더(500)의 예시적인 실시예에 따라, 상기 비트스트림 발생 스테이지는 다섯 개의 인코딩된 그리고 양자화된 신호(548), 두 개의 파라미터 신호들(536, 538) 및 두 개의 인코딩된 그리고 양자화된 다운믹스 신호들(550)을 수신하도록 구성된다. 이들은 또한 상기 비트스트림 발생 스테이지(524)에 의해 비트스트림(552)으로 변환되어, 다-채널 오디오 시스템에서 분배된다. The encoder 500 also includes a bitstream generation stage, i.e., a bitstream multiplexer 524. According to an exemplary embodiment of the encoder 500, the bitstream generation stage includes five encoded and quantized signals 548, two parameter signals 536 and 538, and two encoded and quantized down Mix signals &lt; RTI ID = 0.0 &gt; 550 &lt; / RTI &gt; Which are also converted to bitstream 552 by the bitstream generation stage 524 and distributed in a multi-channel audio system.

상기 기술된 다-채널 오디오 시스템에서, 예를 들면 인터넷 상에서 오디오를 스트리밍할 때, 최대 이용가능한 비트 레이트가 흔히 존재한다. 상기 입력 신호들(502,504)의 각각의 시간 프레임의 특성들은 다르므로, 상기 다섯 개의 파형-코딩된 신호들(548)과 상기 두 개의 다운믹스 파형-코딩된 신호들(550) 사이의 정확히 동일한 비트들의 할당은 사용되지 못할 수도 있다. 더욱이, 각각의 별개의 신호(548 및 550)는 보다 많은 또는 보다 적은 할당된 비트들을 필요로 할 수 있어, 상기 신호들은 음향심리 모델에 따라 재구성될 수 있다. 예시적인 실시예에 따라, 상기 제 1 및 상기 제 2 파형-코딩 스테이지(506,508)는 공통의 비트 저장소를 공유한다. 코딩된 프레임 당 이용가능한 비트들은 상기 현재의 음향심리 모델 및 인코딩될 신호들의 특성에 의존하여 상기 제 1 및 상기 제 2 파형-인코딩 스테이지(506,508) 사이에서 먼저 분배된다. 이후 상기 비트들은 상술한 바와 같이 상기 별개의 신호들(548,550) 사이에서 분배된다. 상기 업믹스 파라미터들(536) 및 상기 고 주파수 재구성 파라미터들(538)에 대해 사용된 비트들의 수는 물론 상기 이용가능한 비트들을 분배할 때 고려된다. 특정 시간 프레임에서 할당된 비트들의 수와 관련하여 상기 제 1 크로스-오버 주파수 주위에서 지각적으로 평활한 전이를 위해 상기 제 1 및 상기 제 2 파형-코딩 스테이지(506,508)에 대한 음향심리 모델을 조정하는데 주의가 필요하다.In the multi-channel audio system described above, for example when streaming audio on the Internet, there is often a maximum available bit rate. Since the characteristics of the respective time frames of the input signals 502 and 504 are different, exactly the same bits between the five waveform-coded signals 548 and the two downmix waveform-coded signals 550 May not be used. Moreover, each of the separate signals 548 and 550 may require more or less allocated bits, so that the signals can be reconstructed according to the psychoacoustic model. According to an exemplary embodiment, the first and second waveform-coding stages 506,508 share a common bit store. The bits available per coded frame are first distributed between the first and second waveform-encoding stages 506,508 depending on the current acoustic psychological model and the characteristics of the signals to be encoded. The bits are then distributed among the separate signals 548, 550 as described above. The number of bits used for the upmix parameters 536 and the high frequency reconstruction parameters 538 is, of course, taken into account when distributing the available bits. To adjust the psychoacoustic model for the first and second waveform-coded stages (506, 508) for a perceptually smooth transition around the first cross-over frequency with respect to the number of bits allocated in a particular time frame You need to be careful.

도 8은 인코딩 시스템(800)의 대안적인 실시예를 도시한다. 상기 인코딩 시스템(800)과 도 5의 인코딩 시스템(500) 사이의 차이는 상기 인코더(800)가 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트에 대응하는 주파수 범위에 대해 입력 신호들(502,504) 중 하나 이상을 파형-코딩함으로써 추가의 파형-코딩된 신호를 발생시키도록 배열된다는 것이다.Figure 8 illustrates an alternative embodiment of the encoding system 800. [ The difference between the encoding system 800 and the encoding system 500 of FIG. 5 is that the encoder 800 generates input signals 502,504 for a frequency range corresponding to a subset of the frequency range higher than the first cross- To generate an additional waveform-coded signal by waveform-coding one or more of the waveform-coded signals.

이러한 목적을 위해, 상기 인코더(800)는 인터리브 검출 스테이지(802)를 구비한다. 상기 인터리브 검출 스테이지(802)는 상기 파라메트릭 인코딩 스테이지(530) 및 상기 고 주파수 재구성 인코딩 스테이지(532)에 의해 인코딩되는 바와 같은 상기 파라메트릭 재구성에 의해 잘 재구성되지 않는 입력 신호들(502,504)의 부분들을 식별하도록 구성된다. 예를 들면, 상기 인터리브 검출 스테이지(802)는 상기 파라메트릭 인코딩 스테이지(530) 및 상기 고 주파수 재구성 인코딩 스테이지(532)에 의해 정의되는 바와 같은 상기 입력 신호(502,504)의 파라메트릭 재구성으로 상기 입력 신호들(502,504)을 비교할 수 있다. 이러한 비교에 기초하여, 상기 인터리브 검출 스테이지(802)는 파형-코딩될 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트(804)를 식별할 수 있다. 상기 인터리브 검출 스테이지(802)는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 상기 식별된 서브세트(804)가 파형-코딩되는, 시간 범위를 식별할 수 있다. 상기 식별된 주파수 및 시간 서브세트들(804,806)은 상기 제 1 파형 인코딩 스테이지(506)에 입력될 수 있다. 상기 수신된 주파수 및 시간 서브세트들(804 및 806)에 기초하여, 상기 제 1 파형 인코딩 스테이지(506)는 상기 서브세트들(804,806)에 의해 식별된 시간 및 주파수 범위들에 대해 상기 입력 신호들(502,504) 중 하나 이상을 파형-코딩함으로써 추가의 파형-코딩된 신호(808)를 발생시킨다. 상기 추가의 파형-코딩된 신호(808)는 이후, 스테이지(520)에 의해 인코딩 및 양자화되어, 상기 비트-스트림(846)에 부가될 수 있다. For this purpose, the encoder 800 comprises an interleave detection stage 802. [ The interleaving detection stage 802 includes a portion of the input signals 502,504 that are not well reconstructed by the parametric reconstruction as encoded by the parametric encoding stage 530 and the high frequency reconstruction encoding stage 532. [ Lt; / RTI &gt; For example, the interleaving detection stage 802 may be implemented by parametric reconstruction of the input signal (502, 504) as defined by the parametric encoding stage (530) and the high frequency reconstruction encoding stage (532) (502, 504). Based on this comparison, the interleaving detection stage 802 may identify a subset 804 of frequency range higher than the first cross-over frequency to be waveform-coded. The interleaving detection stage 802 may also identify a time range in which the identified subset 804 of the frequency range higher than the first cross-over frequency is waveform-coded. The identified frequency and time subsets 804 and 806 may be input to the first waveform encoding stage 506. Based on the received frequency and time subsets 804 and 806, the first waveform encoding stage 506 may generate the input signals &lt; RTI ID = 0.0 &gt; Coded &lt; / RTI &gt; signal 808 by waveform-coding one or more of the waveform-coded signals 502,504. The additional waveform-coded signal 808 may then be encoded and quantized by the stage 520 and added to the bit-stream 846.

상기 인터리브 검출 스테이지(802)는 또한 제어 신호 발생 스테이지를 구비할 수 있다. 상기 제어 신호 발생 스테이지는 디코더에서 상기 입력 신호들(502,504) 중 하나의 파라메트릭 재구성으로 상기 추가의 파형-코딩된 신호를 어떻게 인터리빙하는지를 표시하는 제어 신호(810)를 발생시키도록 구성된다. 예를 들면, 상기 제어 신호는, 상기 추가의 파형-코딩된 신호가 도 7를 참조하여 기술된 바와 같이 파라메트릭 재구성으로 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다. 상기 제어 신호는 상기 비트스트림(846)에 부가될 수 있다.The interleave detection stage 802 may also include a control signal generation stage. The control signal generation stage is configured to generate a control signal (810) indicating how to interleave the additional waveform-coded signal with a parametric reconstruction of one of the input signals (502, 504) at the decoder. For example, the control signal may indicate a frequency range and a time range in which the additional waveform-coded signal is to be interleaved with parametric reconstruction as described with reference to Fig. The control signal may be added to the bitstream 846.

등가물, 확장, 대체물 및 기타Equivalents, Expansion, Substitution and Others

본 개시의 추가적인 실시예들은 상기한 명세서를 학습한 후라면 당 기술분야에 숙련된 사람들에게는 명백할 것이다. 비록 본 명세서 및 도면들이 실시예들 및 예들을 개시하고는 있지만, 이러한 개시는 이들 특정 예들에 제한되지 않는다. 다양한 수정과 변경들이 첨부된 청구범위에 의해 정의된 본 개시의 범위를 벗어나지 않고서 이루어질 수 있다. 청구범위에 나타나있는 어떠한 참조 부호들도 그 범위를 제한하는 것으로 이해되어서는 안 된다. Additional embodiments of the present disclosure will be apparent to those skilled in the art after having learned the foregoing specification. Although the present specification and drawings disclose embodiments and examples, this disclosure is not limited to these specific examples. Various modifications and changes may be made without departing from the scope of the present disclosure as defined by the appended claims. Any reference signs shown in the claims should not be construed as limiting the scope thereof.

부가적으로, 개시된 실시예들에 대한 변형들은 본 도면들, 명세서 및 청구범위를 학습하여, 본 개시를 실천함으로써 당업자에 의해 이해될 수 있으며 그 결과가 얻어질 수 있다. 청구범위에 있어서, 용어 "구비하다"는 다른 요소들 또는 단계들을 배제하지 않으며, 복수의 표현이 아닌 것도 복수를 배제하지 않는다. 임의의 측정치들이 상호 상이한 종속 청구항들에서 인용되는 단순한 사실은 이들 측정된 것들의 조합이 유익하게 사용될 수 없다는 것을 나타내는 것은 아니다. Additionally, modifications to the disclosed embodiments can be understood by those skilled in the art by practicing the present teachings, by studying these figures, specification, and claims, and the results obtained. In the claims, the word "comprising" does not exclude other elements or steps, and does not exclude a plurality unless otherwise stated. The mere fact that any measure is recited in mutually different dependent claims does not indicate that a combination of these measures can not be beneficially used.

본 명세서에서 개시된 시스템들 및 방법들은 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어서, 상기한 설명에서 참조되는 기능 유닛들 간의 작업의 분할은 물리적 유닛들로의 분할에 반드시 대응하는 것은 아니며; 대조적으로, 하나의 물리적 성분은 복수의 기능들을 가질 수 있고, 하나의 작업은 몇몇의 물리적 성분들이 협력하여 실행될 수 있다. 임의의 성분들 또는 모든 성분들은 디지털 신호 프로세서 또는 마이크로프로세서에 의해 실행되는 소프트웨어로서 구현될 수 있으며, 하드웨어로서 또는 어플리케이션 특정의 집적 회로로서 구현될 수 있다. 그러한 소프트웨어는, 컴퓨터 저장 매체(또는 비-일시적 매체) 및 통신 매체(또는 일시적 매체)를 구비할 수 있는, 컴퓨터 판독가능 매체 상에 분포될 수 있다. 당 기술분야에 숙련된 사람에게 공지된 바와 같이, 용어 "컴퓨터 저장 매체"는, 컴퓨터 판독 가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 다른 데이터와 같은 정보 저장을 위한 어떠한 방법 또는 기술로 구현될 수 있는 휘발성과 비휘발성, 제거와 제거 불가능한 양쪽 모두의 매체를 포함한다. 컴퓨터 저장 매체는, 이에 제한되지는 않지만, RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 디스크 저장장치, 자기 카세트, 자기 테입, 자기 디스크 저장장치 또는 다른 자기 저장 디바이스, 또는 원하는 정보를 저장할 수 있으며 컴퓨터에 의해 액세스될 수 있는 어떠한 다른 매체도 포함한다. 또한, 통신 매체는 통상 컴퓨터 판독가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 반송파 또는 다른 전달 메카니즘과 같은 변조된 데이터 신호 내의 다른 데이터를 포함하며, 어떠한 정보 전달 매체도 포함한다는 것은 당업자에게는 널리 알려진 것이다.The systems and methods disclosed herein may be implemented in software, firmware, hardware, or a combination thereof. In a hardware implementation, the division of work between the functional units referred to in the above description does not necessarily correspond to the division into physical units; In contrast, one physical component may have multiple functions, and one operation may be performed by some physical components in concert. Any or all of the components may be implemented as software executed by a digital signal processor or microprocessor, and may be implemented as hardware or as application specific integrated circuits. Such software may be distributed on computer readable media, which may include computer storage media (or non-temporary media) and communication media (or temporary media). As is known to those skilled in the art, the term "computer storage media" is intended to be embodied in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data It includes both volatile and nonvolatile, removable and non-removable media. Computer storage media includes but is not limited to RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical disk storage, magnetic cassettes, magnetic tape, A device or other magnetic storage device, or any other medium which is capable of storing the desired information and which can be accessed by a computer. It will also be understood by those skilled in the art that communication media typically includes computer readable instructions, data structures, program modules or other data in a modulated data signal such as a carrier wave or other transmission mechanism, will be.

100: 디코더
200,300,400: 개념적 부분
500: 인코더
506,508: 파형-코딩 스테이지
520,522: 인코딩 및 양자화 스테이지
524: 비트스트림 멀티플렉서
530: 파라메트릭 인코딩 스테이지
532: HFR 인코딩 스테이지
534: 다운믹싱 스테이지
100: decoder
200,300,400: conceptual part
500: encoder
506,508: Waveform-Coding Stage
520, 522: Encoding and quantization stage
524: Bitstream multiplexer
530: parametric encoding stage
532: HFR encoding stage
534: Downmixing stage

Claims (16)

오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법에 있어서,
제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 제 1 파형-코딩된 신호를 상기 인코딩된 오디오 비트스트림으로부터 추출하는 단계;
재구성된 신호를 발생시키기 위해 제 2 크로스-오버 주파수에서 파라메트릭 디코딩(parametric decoding)을 실행하는 단계로서, 상기 제 2 크로스-오버 주파수는 상기 제 1 크로스-오버 주파수보다 높고 상기 파라메트릭 디코딩은 상기 재구성된 신호를 발생시키기 위해 상기 인코딩된 오디오 비트스트림으로부터 얻어진 재구성 파라미터들을 이용하는, 상기 파라메트릭 디코딩을 실행하는 단계;
상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비하는 제 2 파형-코딩된 신호를 상기 인코딩된 오디오 비트스트림으로부터 추출하는 단계;
인터리브된 신호를 생성하기 위해 상기 제 2 파형-코딩된 신호를 상기 재구성된 신호와 인터리빙하는 단계; 및
상기 인터리브된 신호를 상기 제 1 파형-코딩된 신호와 결합하는 단계를 포함하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
A method for decoding an encoded audio bitstream in an audio processing system,
Extracting from the encoded audio bit stream a first waveform-coded signal having spectral coefficients corresponding to frequencies up to a first cross-over frequency;
Performing a parametric decoding at a second cross-over frequency to generate a reconstructed signal, wherein the second cross-over frequency is higher than the first cross-over frequency and the parametric decoding Performing the parametric decoding using reconstruction parameters obtained from the encoded audio bitstream to generate a reconstructed signal;
Extracting from the encoded audio bit stream a second waveform-coded signal having spectral coefficients corresponding to a subset of frequencies higher than the first cross-over frequency;
Interleaving the second waveform-coded signal with the reconstructed signal to produce an interleaved signal; And
And combining the interleaved signal with the first waveform-coded signal. &Lt; Desc / Clms Page number 21 &gt;
제 1 항에 있어서,
상기 제 1 크로스-오버 주파수는 상기 오디오 처리 시스템의 비트 전송 레이트에 의존하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein the first cross-over frequency is dependent on a bit transmission rate of the audio processing system.
제 1 항에 있어서,
상기 인터리빙하는 단계는 (i) 상기 제 2 파형-코딩된 신호에 상기 재구성된 신호를 추가하는 단계, (ii) 상기 제 2 파형-코딩된 신호와 상기 재구성된 신호를 결합하는 단계, 또는 (iii) 상기 재구성된 신호를 상기 제 2 파형-코딩된 신호로 대체하는 단계를 포함하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
(I) adding the reconstructed signal to the second waveform-coded signal, (ii) combining the reconstructed signal with the second waveform-coded signal, or (iii) ) Replacing the reconstructed signal with the second waveform-coded signal. &Lt; Desc / Clms Page number 14 &gt;
제 1 항에 있어서,
(i) 상기 인터리브된 신호와 상기 제 1 파형-코딩된 신호를 결합하는 단계가 주파수 도메인 내에서 실행되거나 (ii) 상기 재구성된 신호를 발생시키기 위해 제 2 크로스-오버 주파수에서 파라메트릭 디코딩을 실행하는 단계가 주파수 도메인 내에서 실행되는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
(i) combining the interleaved signal with the first waveform-coded signal is performed in a frequency domain or (ii) performs parametric decoding at a second cross-over frequency to generate the reconstructed signal RTI ID = 0.0 &gt; 1, &lt; / RTI &gt; wherein the step of decoding is performed in a frequency domain.
제 1 항에 있어서,
상기 파라메트릭 디코딩을 수행하는 단계는 (i) 업믹스 파라미터들을 이용하는 파라메트릭 업믹싱이거나 (ii) 고 주파수 재구성 파라미터들을 이용하는 고 주파수 재구성인, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein performing the parametric decoding is a high frequency reconstruction using (i) parametric upmixing using upmix parameters or (ii) high frequency reconstruction parameters.
제 1 항에 있어서,
상기 파라메트릭 디코딩을 수행하는 단계는 스펙트럼 대역 복제(SBR)를 수행하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein performing the parametric decoding comprises performing spectral band replication (SBR).
제 1 항에 있어서,
상기 인터리브된 신호를 생성하기 위해 상기 인터리빙하는 단계 동안 사용된 제어 신호를 수신하는 단계를 더 포함하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Further comprising receiving a control signal used during the interleaving to generate the interleaved signal. &Lt; Desc / Clms Page number 21 &gt;
제 7 항에 있어서,
상기 제어 신호는 상기 인터리빙하는 단계를 위해 주파수 범위 또는 시간 범위를 특정함으로써 상기 제 2 파형-코딩된 신호를 상기 재구성된 신호와 어떻게 인터리빙하는지를 표시하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
8. The method of claim 7,
Wherein the control signal indicates how to interleave the second waveform-coded signal with the reconstructed signal by specifying a frequency range or time range for the interleaving step, wherein the control signal decodes the encoded audio bit stream in the audio processing system Way.
제 7 항에 있어서,
상기 제어 신호의 제 1 값은 각각의 주파수 영역에 대해 인터리빙이 실행되는 것을 표시하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
8. The method of claim 7,
Wherein the first value of the control signal indicates that interleaving is performed for each frequency domain.
제 1 항에 있어서,
상기 인터리빙하는 단계는 상기 결합하는 단계 이전에 실행되는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein the interleaving is performed prior to the combining step.
제 1 항에 있어서,
상기 오디오 처리 시스템은 파형-디코딩 및 파라메트릭 디코딩을 실행하는 하이브리드 디코더인, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein the audio processing system is a hybrid decoder that performs waveform-decoding and parametric decoding.
제 1 항에 있어서,
상기 제 1 파형-코딩된 신호 및 제 2 파형-코딩된 신호는 음향심리 모델을 이용하여 공통의 비트 저장소를 공유하는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein the first waveform-coded signal and the second waveform-coded signal share a common bit store using a psychoacoustic model.
제 1 항에 있어서,
상기 인터리빙하는 단계 및 상기 결합하는 단계는 단일의 스테이지 또는 동작으로 결합되는, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein said interleaving and said combining are combined in a single stage or operation.
제 1 항에 있어서,
상기 제 1 파형-코딩된 신호 및 상기 제 2 파형-코딩된 신호는 주파수 도메인 내의 오디오 신호의 파형을 나타내는 신호들인, 오디오 처리 시스템에서 인코딩된 오디오 비트스트림을 디코딩하는 방법.
The method according to claim 1,
Wherein the first waveform-coded signal and the second waveform-coded signal are signals representative of a waveform of an audio signal in the frequency domain.
인코딩된 오디오 스트림을 디코딩하는 오디오 디코더에 있어서,
제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 제 1 파형-코딩된 신호를 상기 인코딩된 오디오 비트스트림으로부터 추출하기 위한 역 다중화기(demultiplexer);
재구성된 신호를 발생시키기 위해 제 2 크로스-오버 주파수에서 동작하는 파라메트릭 디코더로서, 상기 제 2 크로스-오버 주파수는 상기 제 1 크로스-오버 주파수보다 높고 상기 파라메트릭 디코딩은 상기 재구성된 신호를 발생시키기 위해 상기 인코딩된 오디오 비트스트림으로부터 얻어진 재구성 파라미터들을 이용하는, 상기 파라메트릭 디코더;
상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비하는 제 2 파형-코딩된 신호를 상기 인코딩된 오디오 비트스트림으로부터 추출하기 위한 역 다중화기;
인터리브된 신호를 생성하기 위해 상기 제 2 파형-코딩된 신호를 상기 재구성된 신호와 인터리빙하기 위한 인터리버(interleaver); 및
상기 인터리브된 신호를 상기 제 1 파형-코딩된 신호와 결합하기 위한 합성기를 포함하는, 인코딩된 오디오 스트림을 디코딩하는 오디오 디코더.
An audio decoder for decoding an encoded audio stream,
A demultiplexer for extracting from the encoded audio bit stream a first waveform-coded signal having spectral coefficients corresponding to frequencies up to a first cross-over frequency;
And a parametric decoder operating at a second cross-over frequency to generate a reconstructed signal, wherein the second cross-over frequency is higher than the first cross-over frequency and the parametric decoding is to generate the reconstructed signal Using the reconstruction parameters obtained from the encoded audio bitstream;
A demultiplexer for extracting from the encoded audio bit stream a second waveform-coded signal having spectral coefficients corresponding to a subset of frequencies higher than the first cross-over frequency;
An interleaver for interleaving the second waveform-coded signal with the reconstructed signal to produce an interleaved signal; And
And a combiner for combining the interleaved signal with the first waveform-coded signal.
프로세서에 의해 수행될 때 제 1 항의 상기 방법을 실행하는 인스트럭션들(instructions)을 포함하는 비-일시적 컴퓨터 판독 매체.17. A non-transitory computer readable medium comprising instructions that when executed by a processor perform the method of claim 1.
KR1020177019979A 2013-04-05 2014-04-04 Audio encoder and decoder KR102094129B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361808680P 2013-04-05 2013-04-05
US61/808,680 2013-04-05
PCT/EP2014/056852 WO2014161992A1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020157023507A Division KR101763129B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020207007982A Division KR102142837B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Publications (2)

Publication Number Publication Date
KR20170087529A true KR20170087529A (en) 2017-07-28
KR102094129B1 KR102094129B1 (en) 2020-03-30

Family

ID=50439393

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020247008382A KR20240038819A (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020157023507A KR101763129B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020207022458A KR102201951B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020227009866A KR20220044609A (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020207007982A KR102142837B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020217000152A KR102380370B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020177019979A KR102094129B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Family Applications Before (6)

Application Number Title Priority Date Filing Date
KR1020247008382A KR20240038819A (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020157023507A KR101763129B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020207022458A KR102201951B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020227009866A KR20220044609A (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020207007982A KR102142837B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder
KR1020217000152A KR102380370B1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Country Status (21)

Country Link
US (6) US9489957B2 (en)
EP (3) EP3171361B1 (en)
JP (7) JP6031201B2 (en)
KR (7) KR20240038819A (en)
CN (2) CN109410966B (en)
AU (1) AU2014247001B2 (en)
BR (7) BR112015019711B1 (en)
CA (1) CA2900743C (en)
DK (1) DK2954519T3 (en)
ES (2) ES2748939T3 (en)
HK (1) HK1213080A1 (en)
HU (1) HUE031660T2 (en)
IL (1) IL240117A0 (en)
MX (4) MX369023B (en)
MY (3) MY185848A (en)
PL (1) PL2954519T3 (en)
RU (2) RU2641265C1 (en)
SG (1) SG11201506139YA (en)
TW (1) TWI546799B (en)
UA (1) UA113117C2 (en)
WO (1) WO2014161992A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI546799B (en) * 2013-04-05 2016-08-21 杜比國際公司 Audio encoder and decoder
WO2015007774A1 (en) 2013-07-18 2015-01-22 Basf Se Separating a polyarylene ether solution
KR102244612B1 (en) * 2014-04-21 2021-04-26 삼성전자주식회사 Appratus and method for transmitting and receiving voice data in wireless communication system
EP3067886A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
KR20240050483A (en) 2015-06-17 2024-04-18 삼성전자주식회사 Method and device for processing internal channels for low complexity format conversion
PL3405949T3 (en) 2016-01-22 2020-07-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for estimating an inter-channel time difference
US10146500B2 (en) * 2016-08-31 2018-12-04 Dts, Inc. Transform-based audio codec and method with subband energy smoothing
US10354667B2 (en) 2017-03-22 2019-07-16 Immersion Networks, Inc. System and method for processing audio data
EP3588495A1 (en) 2018-06-22 2020-01-01 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Multichannel audio coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080031463A1 (en) * 2004-03-01 2008-02-07 Davis Mark F Multichannel audio coding
KR20120006010A (en) * 2009-03-17 2012-01-17 돌비 인터네셔널 에이비 Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding
JP5400059B2 (en) * 2007-12-18 2014-01-29 エルジー エレクトロニクス インコーポレイティド Audio signal processing method and apparatus

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5459B2 (en) 1973-12-20 1979-01-05
IT1044736B (en) * 1975-04-23 1980-04-21 Cselt Centro Studi Lab Telecom NUMERICAL SYSTEM FOR THE TRANSMISSION OF TWO-BODY MODULES WITH PULSE CODED AT THE SPEED OF A SINGLE BAND
JP2000122679A (en) * 1998-10-15 2000-04-28 Sony Corp Audio range expanding method and device, and speech synthesizing method and device
JP3677185B2 (en) * 1999-11-29 2005-07-27 株式会社東芝 Code division multiplexing transmission system, transmitter and receiver
SE0004187D0 (en) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
WO2003046891A1 (en) * 2001-11-29 2003-06-05 Coding Technologies Ab Methods for improving high frequency reconstruction
US20030220800A1 (en) 2002-05-21 2003-11-27 Budnikov Dmitry N. Coding multichannel audio signals
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
WO2005098824A1 (en) 2004-04-05 2005-10-20 Koninklijke Philips Electronics N.V. Multi-channel encoder
DE602005011439D1 (en) 2004-06-21 2009-01-15 Koninkl Philips Electronics Nv METHOD AND DEVICE FOR CODING AND DECODING MULTI-CHANNEL TONE SIGNALS
US7756713B2 (en) * 2004-07-02 2010-07-13 Panasonic Corporation Audio signal decoding device which decodes a downmix channel signal and audio signal encoding device which encodes audio channel signals together with spatial audio information
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
CN101151660B (en) 2005-03-30 2011-10-19 皇家飞利浦电子股份有限公司 Multi-channel audio coder, demoder and method thereof
JP2006323037A (en) * 2005-05-18 2006-11-30 Matsushita Electric Ind Co Ltd Audio signal decoding apparatus
CN101253556B (en) * 2005-09-02 2011-06-22 松下电器产业株式会社 Energy shaping device and energy shaping method
US7974713B2 (en) * 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
WO2007046659A1 (en) * 2005-10-20 2007-04-26 Lg Electronics Inc. Method for encoding and decoding multi-channel audio signal and apparatus thereof
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
EP1853092B1 (en) 2006-05-04 2011-10-05 LG Electronics, Inc. Enhancing stereo audio with remix capability
WO2008031458A1 (en) * 2006-09-13 2008-03-20 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for a speech/audio sender and receiver
KR101435893B1 (en) * 2006-09-22 2014-09-02 삼성전자주식회사 Method and apparatus for encoding and decoding audio signal using band width extension technique and stereo encoding technique
JP5141180B2 (en) * 2006-11-09 2013-02-13 ソニー株式会社 Frequency band expanding apparatus, frequency band expanding method, reproducing apparatus and reproducing method, program, and recording medium
KR101405972B1 (en) 2007-07-02 2014-06-12 엘지전자 주식회사 broadcasting receiver and method of processing broadcast signal
US8295494B2 (en) * 2007-08-13 2012-10-23 Lg Electronics Inc. Enhancing audio with remixing capability
RU2443075C2 (en) 2007-10-09 2012-02-20 Конинклейке Филипс Электроникс Н.В. Method and apparatus for generating a binaural audio signal
WO2009068087A1 (en) * 2007-11-27 2009-06-04 Nokia Corporation Multichannel audio coding
WO2009084916A1 (en) * 2008-01-01 2009-07-09 Lg Electronics Inc. A method and an apparatus for processing an audio signal
EP2260487B1 (en) * 2008-03-04 2019-08-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mixing of input data streams and generation of an output data stream therefrom
MX2011000370A (en) * 2008-07-11 2011-03-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal.
ES2592416T3 (en) * 2008-07-17 2016-11-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding / decoding scheme that has a switchable bypass
TWI413109B (en) * 2008-10-01 2013-10-21 Dolby Lab Licensing Corp Decorrelator for upmixing systems
WO2010097748A1 (en) 2009-02-27 2010-09-02 Koninklijke Philips Electronics N.V. Parametric stereo encoding and decoding
US20100223061A1 (en) 2009-02-27 2010-09-02 Nokia Corporation Method and Apparatus for Audio Coding
BRPI1004215B1 (en) 2009-04-08 2021-08-17 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. APPARATUS AND METHOD FOR UPMIXING THE DOWNMIX AUDIO SIGNAL USING A PHASE VALUE Attenuation
KR20110018107A (en) 2009-08-17 2011-02-23 삼성전자주식회사 Residual signal encoding and decoding method and apparatus
ES2644520T3 (en) * 2009-09-29 2017-11-29 Dolby International Ab MPEG-SAOC audio signal decoder, method for providing an up mix signal representation using MPEG-SAOC decoding and computer program using a common inter-object correlation parameter value time / frequency dependent
MX2012004648A (en) * 2009-10-20 2012-05-29 Fraunhofer Ges Forschung Audio signal encoder, audio signal decoder, method for encoding or decoding an audio signal using an aliasing-cancellation.
US9026236B2 (en) * 2009-10-21 2015-05-05 Panasonic Intellectual Property Corporation Of America Audio signal processing apparatus, audio coding apparatus, and audio decoding apparatus
KR101710113B1 (en) * 2009-10-23 2017-02-27 삼성전자주식회사 Apparatus and method for encoding/decoding using phase information and residual signal
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
RU2683175C2 (en) * 2010-04-09 2019-03-26 Долби Интернешнл Аб Stereophonic coding based on mdct with complex prediction
PL3779979T3 (en) 2010-04-13 2024-01-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoding method for processing stereo audio signals using a variable prediction direction
RU2573774C2 (en) 2010-08-25 2016-01-27 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Device for decoding signal, comprising transient processes, using combiner and mixer
EP2477188A1 (en) 2011-01-18 2012-07-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of slot positions of events in an audio signal frame
FR2973551A1 (en) 2011-03-29 2012-10-05 France Telecom QUANTIZATION BIT SOFTWARE ALLOCATION OF SPATIAL INFORMATION PARAMETERS FOR PARAMETRIC CODING
EP2702589B1 (en) 2011-04-28 2017-04-05 Dolby International AB Efficient content classification and loudness estimation
CN103548077B (en) 2011-05-19 2016-02-10 杜比实验室特许公司 The evidence obtaining of parametric audio coding and decoding scheme detects
US9166864B1 (en) * 2012-01-18 2015-10-20 Google Inc. Adaptive streaming for legacy media frameworks
KR20230020553A (en) * 2013-04-05 2023-02-10 돌비 인터네셔널 에이비 Stereo audio encoder and decoder
TWI546799B (en) * 2013-04-05 2016-08-21 杜比國際公司 Audio encoder and decoder
EP2830061A1 (en) * 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
US9685164B2 (en) * 2014-03-31 2017-06-20 Qualcomm Incorporated Systems and methods of switching coding technologies at a device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080031463A1 (en) * 2004-03-01 2008-02-07 Davis Mark F Multichannel audio coding
JP5400059B2 (en) * 2007-12-18 2014-01-29 エルジー エレクトロニクス インコーポレイティド Audio signal processing method and apparatus
KR20120006010A (en) * 2009-03-17 2012-01-17 돌비 인터네셔널 에이비 Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ATSC Standard: Digital Audio Compression (AC-3). Advanced Television Systems Committee. Doc.A/52:2012. 2012.12.17. *
ISO/IEC 14496-3:2009 Information technology - Coding of audio-visual objects - Part 3:Audio. 2009.09.01.* *
ISO/IEC FDIS 23003-3:2011(E), Information technology - MPEG audio technologies - Part 3: Unified speech and audio coding. ISO/IEC JTC 1/SC 29/WG 11. 2011.09.20. *
Jurgen Herre, et al. MPEG Surround - The ISO/MPEG Standard for Efficient and Compatible Multichannel Audio Coding. Journal of the Audio Engineering Society, 2008.11., Vol.56,No.11, pp.932-955. *
Jurgen Herre, et al. MPEG Surround - The ISO/MPEG Standard for Efficient and Compatible Multi-ChannelAudio Coding. Audio Engineering Society Convention 122, 2007.05.08., Vol.56,No.11, pp.1-23. *

Also Published As

Publication number Publication date
JP6377110B2 (en) 2018-08-22
BR122022004786A8 (en) 2022-09-06
PL2954519T3 (en) 2017-06-30
US9728199B2 (en) 2017-08-08
BR122020017065B1 (en) 2022-03-22
US11830510B2 (en) 2023-11-28
BR112015019711A2 (en) 2017-07-18
US20240153517A1 (en) 2024-05-09
RU2602988C1 (en) 2016-11-20
DK2954519T3 (en) 2017-03-20
EP3171361B1 (en) 2019-07-24
BR122021004537B1 (en) 2022-03-22
BR122022004787A8 (en) 2022-09-06
KR102142837B1 (en) 2020-08-28
US9489957B2 (en) 2016-11-08
EP3171361A1 (en) 2017-05-24
JP6808781B2 (en) 2021-01-06
CN105308680A (en) 2016-02-03
MX2019012711A (en) 2019-12-16
BR122022004784B1 (en) 2022-06-07
ES2748939T3 (en) 2020-03-18
BR122022004786A2 (en) 2017-07-18
EP2954519B1 (en) 2017-02-01
KR20150113976A (en) 2015-10-08
MY185848A (en) 2021-06-14
JP7033182B2 (en) 2022-03-09
JP2018185536A (en) 2018-11-22
MX2022004397A (en) 2022-06-16
CA2900743C (en) 2016-08-16
KR20200033988A (en) 2020-03-30
UA113117C2 (en) 2016-12-12
CN109410966B (en) 2023-08-29
BR122022004787B1 (en) 2022-10-18
US20160343383A1 (en) 2016-11-24
WO2014161992A1 (en) 2014-10-09
BR112015019711B1 (en) 2022-04-26
BR122017006819B1 (en) 2022-07-26
AU2014247001A1 (en) 2015-08-13
JP2016513287A (en) 2016-05-12
MY183360A (en) 2021-02-18
JP2021047450A (en) 2021-03-25
KR20220044609A (en) 2022-04-08
KR20200096328A (en) 2020-08-11
JP7413418B2 (en) 2024-01-15
CA2900743A1 (en) 2014-10-09
KR101763129B1 (en) 2017-07-31
US20170301362A1 (en) 2017-10-19
KR102094129B1 (en) 2020-03-30
US20220059110A1 (en) 2022-02-24
CN109410966A (en) 2019-03-01
AU2014247001B2 (en) 2015-08-27
KR20210005315A (en) 2021-01-13
BR122017006819A2 (en) 2019-09-03
HK1213080A1 (en) 2016-06-24
RU2641265C1 (en) 2018-01-16
ES2619117T3 (en) 2017-06-23
IL240117A0 (en) 2015-09-24
BR122022004786B1 (en) 2022-10-04
JP2022068353A (en) 2022-05-09
KR102201951B1 (en) 2021-01-12
CN105308680B (en) 2019-03-19
US11114107B2 (en) 2021-09-07
JP6537683B2 (en) 2019-07-03
KR102380370B1 (en) 2022-04-01
MX2015011145A (en) 2016-01-12
BR122022004784B8 (en) 2022-09-13
TW201505024A (en) 2015-02-01
JP2024038139A (en) 2024-03-19
EP2954519A1 (en) 2015-12-16
US10438602B2 (en) 2019-10-08
KR20240038819A (en) 2024-03-25
US20160012825A1 (en) 2016-01-14
JP2019191596A (en) 2019-10-31
JP6031201B2 (en) 2016-11-24
SG11201506139YA (en) 2015-09-29
TWI546799B (en) 2016-08-21
MY196084A (en) 2023-03-14
BR122022004787A2 (en) 2017-07-18
MX369023B (en) 2019-10-25
EP3627506A1 (en) 2020-03-25
JP2017078858A (en) 2017-04-27
MX347936B (en) 2017-05-19
US20200098381A1 (en) 2020-03-26
HUE031660T2 (en) 2017-07-28

Similar Documents

Publication Publication Date Title
KR101763129B1 (en) Audio encoder and decoder

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant