KR101763131B1 - 오디오 인코더 및 디코더 - Google Patents

오디오 인코더 및 디코더 Download PDF

Info

Publication number
KR101763131B1
KR101763131B1 KR1020157036397A KR20157036397A KR101763131B1 KR 101763131 B1 KR101763131 B1 KR 101763131B1 KR 1020157036397 A KR1020157036397 A KR 1020157036397A KR 20157036397 A KR20157036397 A KR 20157036397A KR 101763131 B1 KR101763131 B1 KR 101763131B1
Authority
KR
South Korea
Prior art keywords
vector
symbol
entropy coded
index value
encoding
Prior art date
Application number
KR1020157036397A
Other languages
English (en)
Other versions
KR20160013154A (ko
Inventor
레이프 요나스 사무엘손
헤이코 푸른하겐
Original Assignee
돌비 인터네셔널 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 인터네셔널 에이비 filed Critical 돌비 인터네셔널 에이비
Publication of KR20160013154A publication Critical patent/KR20160013154A/ko
Application granted granted Critical
Publication of KR101763131B1 publication Critical patent/KR101763131B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Abstract

본 개시는 오디오 코딩 시스템에서 파라미터들의 벡터를 인코딩 및 디코딩하는 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제공한다. 이러한 개시는 또한 오디오 디코딩 시스템에서 오디오 객체를 재구성하는 방법 및 장치에 관한 것이다. 본 개시에 따라, 비-주기적인 양의 벡터를 코딩 및 인코딩하는 모듈로 차분 접근법이 코딩 효율을 개선할 수 있고, 낮은 메모리 요건을 갖는 인코더들 및 디코더들을 제공할 수 있다. 더욱이, 스파스 매트릭스를 인코딩 및 디코딩하는 효율적인 방법이 제공된다.

Description

오디오 인코더 및 디코더{AUDIO ENCODER AND DECODER}
본 출원은 2013년 5월 24일 출원된 미국 가 특허 출원번호 61/827,264의 이익을 청구하며, 본 명세서에 참조되어 포함된다.
본 개시는 일반적으로 오디오 코딩에 관한 것이며, 특히 오디오 코딩 시스템에서 파라미터들의 벡터의 인코딩 및 디코딩에 관한 것이다. 본 개시는 또한 오디오 디코딩 시스템에서 오디오 객체(audio object)를 재구성하는 방법 및 장치에 관한 것이다.
종래의 오디오 시스템들에서는 채널 기반의 접근법들이 채용된다. 각각의 채널은 예컨대 하나의 스피커 또는 하나의 스피커 어레이의 컨텐트를 나타낼 수도 있다. 그러한 시스템들에 대한 가능한 코딩 방식들은 이산 다-채널 코딩 또는 MPEG 서라운드와 같은 파라메트릭 코딩을 포함한다.
아주 최근에, 새로운 접근법이 개발되었는데, 이러한 접근법은 객체에 기반하는 것이다. 이러한 객체 기반의 접근법을 채용하는 시스템에서, 오디오 객체들에 의해 3차원 오디오 장면이 그들의 연관된 위치적 메타데이터로 표현된다. 이들 오디오 객체들은 오디오 신호의 재생 동안 상기 3차원 오디오 장면으로 이동하게 된다(move around). 상기 시스템은 또한 소위 베드 채널들(bed channels)을 포함할 수 있으며, 이는 예를 들면 상기한 종래의 오디오 시스템의 스피커 위치들에 직접적으로 맵핑된 고정된 오디오 객체들로서 기술될 수 있다.
객체-기반의 오디오 시스템에서 야기될 수 있는 문제는 어떻게 효과적으로 상기 오디오 신호를 인코딩 및 디코딩할 것인지 및 코딩된 신호의 품질을 보존할 것인지에 있다. 가능한 코딩 방식은 인코더 측 상에 오디오 객체들로부터의 복수의 채널들 및 베드 채널들을 포함하는 다운믹스 신호와, 디코더 측 상에 베드 채널들 및 오디오 객체들의 재생성을 가능하게 하는 사이드 정보를 생성하는 것을 포함한다.
MPEG SAOC(MPEG Spatial Audio Object Coding)은 오디오 객체들의 파라메트릭 코딩을 위한 시스템을 기술한다. 이러한 시스템은 객체들의 상호 상관 및 레벨 차와 같은 파라미터들에 의해 객체들의 특성을 기술하는(업믹스 매트릭스 참조) 사이드 정보를 전송한다. 이들 파라미터들은 이때 디코더 측 상에서 상기 오디오 객체들의 재생성을 제어하는 데 사용된다. 이러한 프로세스는 수학적으로 복잡할 수 있으며, 상기 파라미터들에 의해 명쾌하게 기술되지 않는 오디오 객체들의 특성에 관한 추정들에 종종 의존해야만 한다. MPEG SAOC으로 제공되는 방법은 객체 기반의 오디오 시스템에 대해 요구된 비트 레이트를 낮출 수도 있지만, 상술한 바와 같은 효율과 품질을 더 증가시키기 위한 추가의 개선들이 요구될 수 있다.
이제, 예시적인 실시예들이 첨부된 도면들을 참조하여 기술될 것이다.
도 1은 예시적인 실시예에 따른 오디오 인코딩 시스템의 일반화된 블록도.
도 2는 도 1에 도시된 예시적인 업믹스 매트릭스 인코더의 일반화된 블록도.
도 3은 도 1의 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응하는 파라미터들의 벡터 내의 제 1 요소에 대한 예시적인 확률 분포를 도시한 도면.
도 4는 도 1의 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응하는 파라미터들의 벡터 내의 적어도 하나의 모듈로 차분 코딩된 제 2 요소에 대한 예시적인 확률 분포를 도시한 도면.
도 5는 예시적인 실시예에 따른 오디오 디코딩 시스템의 일반화된 블록도.
도 6은 도 5에 도시된 업믹스 매트릭스 디코더의 일반화된 블록도.
도 7은 도 1의 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응하는 파라미터들의 벡터 내의 제 2 요소들에 대한 인코딩 방법을 도시한 도면.
도 8은 도 1의 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응하는 파라미터들의 벡터 내의 제 1 요소에 대한 인코딩 방법을 도시한 도면.
도 9는 파라미터들의 예시적인 벡터에서 제 2 요소들에 대한 도 7의 인코딩 방법의 일부를 도시한 도면.
도 10은 파라미터들의 예시적인 벡터에서 제 1 요소에 대한 도 8의 인코딩 방법의 일부를 도시한 도면.
도 11은 도 1에 도시된 제 2 예시적인 업믹스 매트릭스 인코더의 일반화된 블록도.
도 12는 예시적인 실시예에 따른 오디오 디코딩 시스템의 일반화된 블록도.
도 13은 업믹스 매트릭스의 행의 스파스 인코딩(sparse encoding)에 대한 인코딩 방법을 도시하는 도면.
도 14는 업믹스 매트릭스의 예시적인 행에 대한 도 10의 인코딩 방법의 일부를 도시하는 도면.
도 15는 업믹스 매트릭스의 예시적인 행에 대한 도 10의 인코딩 방법의 일부를 도시하는 도면.
모든 도면들은 도식적이며, 일반적으로 본 개시를 설명하기 위해 필요한 부분들만을 도시하였고, 다른 부분들은 생략될 수도 있거나 또는 단지 제시되기만 할 수도 있다. 그렇지 않다고 명시하지 않는 한, 동일한 참조 번호들은 상이한 도면들에서도 동일한 부분들을 나타낸다.
상기한 바를 고려하면, 본 발명의 목적은 코딩된 오디오 신호의 증가된 효율과 품질을 제공하는 인코더들, 디코더들 및 연관된 방법들을 제공하는 것이다.
I. 개관-인코더
제 1 양태에 따라, 예시적인 실시예들은 인코딩 방법, 인코더들, 및 인코딩을 위한 컴퓨터 프로그램 제품을 제안한다. 상기 제안된 방법, 인코더들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들과 이점들을 가질 수 있다.
예시적인 실시예들에 따라, 오디오 인코딩 시스템에서 파라미터들의 벡터를 인코딩하는 방법이 제공되며, 각각의 파라미터는 비-주기적인 양(non-periodic quantity)에 대응하고, 상기 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 가지며, 상기 방법은: 상기 벡터 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱스 값으로 나타내는 단계; 상기 적어도 하나의 제 2 요소의 각각을 심볼과 연관시키는 단계를 구비한다. 상기 심볼은: 상기 제 2 요소의 인덱스 값과 상기 벡터에서 그 앞선의 요소의 인덱스 값 사이의 차를 산출하고; 모듈로 N을 상기 차에 적용하는 것에 의해 산출된다. 상기 방법은 또한 상기 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 단계를 포함한다.
이러한 방법의 이점은 가능한 심볼들의 수가, 모듈로 N이 상기 차분에 적용되지 않는 종래의 차분 코딩 전략들에 비교하여 대략 2배만큼 감소된다는 것이다. 따라서, 확률 테이블의 크기가 대략 2배만큼 감소된다. 결과적으로, 확률 테이블을 저장하는데 보다 작은 메모리가 요구되고, 확률 테이블은 종종 인코더에서 값비싼 메모리에 저장되므로, 이러한 방법에 의해 인코더는 보다 값싸게 만들어질 수 있다. 더욱이, 확률 테이블에서 심볼들을 찾는 속도가 증가될 수 있다. 또 다른 이점은, 확률 테이블 내의 모든 심볼들이 특정의 제 2 요소와 연관될 가능한 후보들이기 때문에, 코딩 효율이 증가할 수 있다는 것이다. 이러한 것은, 확률 테이블에서 대략 심볼의 절반만이 특정의 제 2 요소와 연관될 후보들이 되는 종래의 차분 코딩 전략들에 비견될 수 있다.
실시예들에 따라, 상기 방법은 또한 상기 벡터 내의 제 1 요소를 심볼과 연관시키는 것을 포함하며, 상기 심볼은: 상기 벡터 내의 제 1 요소를 나타내는 인덱스 값을 오프-셋 값(off-set value)만큼 시프트시키고; 모듈로 N을 상기 시프트된 인덱스 값에 적용함으로써 산출된다. 상기 방법은 또한 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 확률 테이블을 사용하여 상기 제 1 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 제 1 요소를 인코딩하는 단계를 포함한다.
이러한 실시예는, 상기 제 1 요소의 인덱스 값의 확률 분포 및 상기 적어도 하나의 제 2 요소의 심볼들의 확률 분포가, 이들이 비록 오프-셋 값만큼 서로에 대해 시프트되기는 하지만, 서로 유사하다는 사실을 활용한다. 결과적으로, 동일한 확률 테이블이, 전용 확률 테이블 대신에, 상기 벡터 내의 제 1 요소에 대해 사용될 수 있다. 이러한 것은 메모리 필요조건을 감소하게 할 것이며, 상기한 바에 따라 보다 값싼 인코더를 가능하게 한다.
한 실시예에 따라, 상기 오프-셋 값은, 확률 테이블에서 상기 제 1 요소에 대해 최상 확률의 인덱스 값(most probable index value)과 상기 적어도 하나의 제 2 요소에 대해 최상 확률의 심볼 사이의 차와 동일하다. 이러한 것은, 확률 분포들의 피크들이 정렬된다는 것을 의미한다. 따라서, 상기 제 1 요소에 대해 전용 확률 테이블이 사용되는 경우에 비교하여 실질적으로 동일한 코딩 효율이 상기 제 1 요소에 대해 유지된다.
실시예들에 따라, 상기 파라미터들의 벡터의 상기 제 1 요소 및 상기 적어도 하나의 제 2 요소는 특정의 시간 프레임에서 오디오 인코딩 시스템에 사용된 상이한 주파수 대역들에 대응한다. 이러한 것은, 복수의 주파수 대역들에 대응하는 데이터가 동일한 동작으로 인코딩될 수 있다는 것을 의미한다. 예를 들면, 상기 파라미터들의 벡터는 복수의 주파수 대역들 상에서 변화하는 업믹스 또는 재구성 계수에 대응할 수 있다.
실시예들에 따라, 상기 파라미터들의 벡터의 상기 제 1 요소 및 상기 적어도 하나의 제 2 요소는 특정의 주파수 대역에서 오디오 인코딩 시스템에 사용된 상이한 시간 프레임들에 대응한다. 이러한 것은, 복수의 시간 프레임들에 대응하는 데이터가 동일한 동작으로 인코딩될 수 있다는 것을 의미한다. 예를 들면, 상기 파라미터들의 벡터는 복수의 시간 프레임들 상에서 변화하는 업믹스 또는 재구성 계수에 대응할 수 있다.
실시예들에 따라, 상기 확률 테이블은 호프만 코드북(Huffman codebook)으로 변환되며, 여기서 상기 벡터 내의 요소와 연관되는 심볼은 코드북 인덱스로서 사용되고, 상기 인코딩 단계는 상기 제 2 요소와 연관된 코드북 인덱스에 의해 인덱싱된 상기 코드북 내의 코드워드로 상기 제 2 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 단계를 포함한다. 코드북 인덱스로서 상기 심볼을 사용함으로써, 상기 요소를 나타내기 위해 상기 코드워드를 찾는 속도가 증가될 수 있다.
실시예들에 따라, 상기 인코딩 단계는 상기 제 1 요소와 연관된 코드북 인덱스에 의해 인덱싱된 호프만 코드북 내의 코드워드로 상기 제 1 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용된 동일한 호프만 코드북을 사용하여 상기 벡터 내의 제 1 요소를 인코딩하는 단계를 포함한다. 따라서, 상기 인코더의 메모리에 단지 하나의 호프만 코드북만이 저장될 필요가 있으며, 결국 상기한 바에 따라 보다 값싼 인코더를 실현시킬 수 있다.
다른 실시예에 따라, 상기 파라미터들의 벡터는 상기 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응한다. 이러한 것은, 상기 업믹스 매트릭스가 효율적으로 코딩될 수 있으므로, 오디오 인코딩/디코딩 시스템에서 요구되는 비트 레이트를 감소시킬 수 있다.
예시적인 실시예에 따라, 프로세싱 능력을 갖는 디바이스 상에서 실행될 때 상기 제 1 양태의 어떠한 방법도 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 매체가 제공된다.
예시적인 실시예들에 따라, 오디오 인코딩 시스템에서 파라미터들의 벡터를 인코딩하는 인코더가 제공되며, 각각의 파라미터는 비-주기적인 양에 대응하고, 상기 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 가지며, 상기 인코더는: 상기 벡터를 수신하도록 적응된 수신 구성요소; 상기 벡터 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱스 값으로 나타내도록 적응된 인덱싱 구성요소; 상기 적어도 하나의 제 2 요소의 각각을 심볼과 연관시키도록 적응된 연관 구성요소를 구비하고, 상기 심볼은: 상기 제 2 요소의 인덱스 값과 상기 벡터에서 그 앞선의 요소의 인덱스 값 사이의 차를 산출하고; 모듈로 N을 상기 차에 적용하는 것에 의해 산출된다. 상기 인코더는 또한 상기 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 인코딩 구성요소를 포함한다.
II. 개관-디코더
제 2 양태에 따라, 예시적인 실시예들은 디코딩 방법, 디코더들, 및 디코딩을 위한 컴퓨터 프로그램 제품을 제안한다. 상기 제안된 방법, 디코더들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들과 이점들을 가질 수 있다.
상기한 인코더의 개관에서 제공된 바와 같은 특징들 및 셋업들과 관련한 이점들은 일반적으로 상기 디코더의 대응하는 특징들 및 셋업들에 대해 유효할 것이다.
예시적인 실시예들에 따라, 오디오 디코딩 시스템에서 엔트로피 코딩된 심볼들의 벡터를 비-주기적인 양과 관련한 파라미터들의 벡터로 디코딩하는 방법이 제공되며, 상기 엔트로피 코딩된 심볼들의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하고, 상기 파라미터들의 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 포함하며, 상기 방법은: 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타내고; 상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키고; 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키는 것을 구비하고, 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 인덱스 값은: 상기 엔트로피 코딩된 심볼들의 벡터에서 상기 제 2 엔트로피 코딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔트로피 코딩된 심볼을 나타내는 심볼의 합을 산출하고; 모듈로 N을 상기 합에 적용하는 것에 의해 산출된다. 상기 방법은 또한 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 나타내는 단계를 구비한다.
예시적인 실시예들에 따라, 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 심볼로 나타내는 단계는,상기 엔트로피 코딩된 심볼들의 벡터 내의 모든 엔트로피 코딩된 심볼들에 대해 동일한 확률 테이블을 사용하여 실행되며, 여기에서 상기 제 1 엔트로피 코딩된 심볼과 연관된 인텍스 값은: 상기 엔트로피 코딩된 심볼들의 벡터 내의 상기 제 1 엔트로피 코딩된 심볼을 나타내는 심볼을 오프-셋 값만큼 시프트하고; 모듈로 N을 상기 시프트된 심볼에 적용하는 것에 의해 산출된다. 상기 방법은 또한 상기 제 1 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 상기 파라미터들의 벡터의 제 1 요소를 나타내는 단계를 구비한다.
한 실시예에 따라, 상기 확률 테이블은 호프만 코드북으로 변환될 수 있으며, 각각의 엔트로피 코딩된 심볼은 호프만 코드북 내의 코드워드에 대응한다.
다른 실시예들에 따라, 상기 호프만 코드북 내의 각각의 코드워드는 코드북 인덱스와 연관되고, 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 심볼로 나타내는 단계는, 상기 엔트로피 코딩된 심볼을 상기 엔트로피 코딩된 심볼에 대응하는 상기 코드워드와 연관되는 코드북 인덱스로 나타내는 것을 포함한다.
실시예들에 따라, 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼은 특정의 시간 프레임에서 상기 오디오 디코딩 시스템에 사용된 상이한 주파수 대역들에 대응한다.
실시예들에 따라, 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼은 특정의 주파수 대역에서 상기 오디오 디코딩 시스템에 사용된 상이한 시간 프레임들에 대응한다.
실시예들에 따라, 상기 파라미터들의 벡터는 상기 오디오 디코딩 시스템에 의해 사용된 업믹스 매트릭스 내의 요소에 대응한다.
예시적인 실시예들에 따라, 프로세싱 능력을 갖는 디바이스 상에서 실행될 때 상기 제 2 양태의 어떠한 방법도 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 매체가 제공된다.
예시적인 실시예들에 따라, 오디오 디코딩 시스템에서 엔트로피 코딩된 심볼들의 벡터를 비-주기적인 양과 관련된 파라미터들의 벡터로 디코딩하는 디코더가 제공되며, 상기 엔트로피 코딩된 심볼들의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하고, 상기 파라미터들의 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 가지며, 상기 디코더는: 상기 엔트로피 코딩된 심볼들의 벡터를 수신하도록 구성된 수신 구성요소; 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타내도록 구성된 인덱싱 구성요소; 상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키도록 구성된 연관 구성요소를 구비하며, 상기 연관 구성요소는 또한 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키도록 구성되고, 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼들의 인덱스 값은: 상기 엔트로피 코딩된 심볼들의 벡터에서 상기 제 2 엔트로피 코딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔트로피 코딩된 심볼을 나타내는 심볼의 합을 산출하고; 모듈로 N을 상기 합에 적용하는 것에 의해 산출된다. 상기 디코더는 또한 상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내도록 구성된 디코딩 구성요소를 구비한다.
III. 개관-스파스 매트릭스 인코더
제 3 양태에 따라, 예시적인 실시예들은 인코딩 방법, 인코더들, 및 인코딩을 위한 컴퓨터 프로그램 제품을 제안한다. 상기 제안된 방법, 인코더들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들과 이점들을 가질 수 있다.
예시적인 실시예들에 따라, 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는 방법이 제공되며, 상기 업믹스 매트릭스의 각각의 행은 M 개의 채널을 포함하는 다운믹스 신호들로부터 오디오 객체의 시간/주파수 타일의 재구성을 가능하게 하는 M 개의 요소들을 포함하며, 상기 방법은, 상기 업믹스 매트릭스 내의 각각의 행에 대해: 상기 업믹스 매트릭스 내의 상기 행의 M 개의 요소들로부터 요소들의 서브세트를 선택하고; 상기 업믹스 매트릭스 내의 값 및 위치에 의해 상기 선택된 요소들의 서브세트 내의 각각의 요소들을 나타내고; 상기 선택된 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 값 및 위치를 인코딩하는 것을 구비한다.
여기에서 사용되는 바와 같이, 용어 "M 개의 채널들을 포함하는 다운믹스 신호"는 M 개의 신호들 또는 채널들을 포함하는 신호를 의미하며, 여기서 상기 채널들의 각각은 재구성될 오디오 객체들을 포함하는 복수의 오디오 객체들의 조합이다. 채널들의 수는 일반적으로 하나 보다 크며, 많은 경우에 있어서, 채널들의 수는 다섯 또는 그 이상이다.
여기에서 사용되는 바와 같이, 용어 "업믹스 매트릭스"는 N 개의 행들 및 M 개의 열들을 갖는 매트릭스이며, M 개의 채널들을 포함하는 다운믹스 신호로부터 N 개의 오디오 객체들이 재구성될 수 있게 한다. 상기 업믹스 매트릭스의 각각의 행에 있는 요소는 하나의 오디오 객체에 대응하며, 상기 오디오 객체를 재구성하기 위해 상기 다운믹스의 M 개의 채널들로 곱해질 계수들을 제공한다.
여기에서 사용되는 바와 같이, 상기 매트릭스 소자의 행 및 열을 나타내는 행 및 열 인덱스는 일반적으로 상기 업믹스 매트릭스 내의 "위치"를 의미한다. 상기 용어 "위치"는 또한 상기 업믹스 매트릭스의 주어진 열에서의 행 인덱스를 의미할 수도 있다.
일부 경우들에 있어서, 시간/주파수 타일에 대한 업믹스 매트릭스의 모든 요소들을 전송하는 것은 오디오 인코딩/디코딩 시스템에 있어서 바람직하지 않은 높은 비트 레이트를 요구하게 된다. 본 발명의 이점은 인코딩되어 디코더로 전송될 필요가 있는 것은 단지 상기 업믹스 매트릭스 요소들의 서브세트뿐이라는 것이다. 이러한 것은, 보다 적은 데이터가 전송되고 상기 데이터는 더욱 효과적으로 코딩될 수 있으므로, 오디오 인코딩/디코딩 시스템의 요구되는 비트 레이트를 낮출 수 있다.
오디오 인코딩/디코딩 시스템은 대체로 시간-주파수 공간을 시간/주파수 타일들로, 예를 들면 적절한 필터 뱅크들을 입력 오디오 신호들에 적용함으로써, 분할한다. 시간/주파수 타일은 일반적으로 시간 간격 및 주파수 서브-대역에 대응하는 시간-주파수 공간의 일부를 의미한다. 상기 시간 간격은 대체로 오디오 인코딩/디코딩 시스템에 사용된 시간 프레임의 지속 시간에 대응할 수 있다. 상기 주파수 서브-대역은 대체로 오디오 인코딩/디코딩 시스템에 사용된 필터 뱅크에 의해 규정된 하나 또는 몇몇의 인접하는 주파수 서브-대역들에 대응할 수 있다. 상기 주파수 서브-대역이 상기 필터 뱅크에 의해 규정된 몇몇의 인접하는 주파수 서브-대역들에 대응하는 경우, 이는, 예를 들면 오디오 신호의 보다 높은 주파수들에 대해 보다 넓은 주파수 서브-대역들과 같이, 상기 오디오 신호들에 대해 디코딩 프로세스에서 균일하지 않은(non-uniform) 주파수 서브-대역들을 가질 수 있게 한다. 상기 오디오 인코딩/디코딩 시스템이 전체의 주파수 범위 상에서 동작하는 광대역의 경우에 있어서, 상기 시간/주파수 타일의 주파수 서브-대역은 전체 주파수 범위에 대응할 수 있다. 상기한 방법은 하나의 그러한 시간/주파수 타일 동안 오디오 객체의 재구성을 가능하게 하는 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는 인코딩 단계들을 개시한다. 하지만, 상기 방법은 상기 오디오 인코딩/디코딩 시스템의 각각의 시간/주파수 타일에 대해 반복될 수 있음을 이해해야한다. 또한, 몇몇의 시간/주파수 타일들이 동시에 인코딩될 수 있다는 것도 이해해야한다. 대체로, 인접하는 시간/주파수 타일들은 시간 및/또는 주파수에서 비트를 오버랩할 수도 있다. 예를 들면, 시간에 있어서의 오버랩(overlap)은 시간에 있어서, 즉 한 시간 간격에서 다음 시간 간격까지, 재구성 매트릭스의 요소들의 선형 보간과 동등할 수 있다. 하지만, 이러한 개시는 인코딩/디코딩 시스템의 다른 부분들을 대상으로 하며, 인접하는 시간/주파수 타일들 사이의 시간 및/또는 주파수에서의 오버랩에 대해서는 당업자가 실행하도록 남겨두었다.
실시예들에 따라, 상기 업믹스 매트릭스에서의 각각의 행에 대해, 선택된 요소들의 서브세트의 상기 업믹스 매트릭스에서의 위치들은 복수의 주파수 대역들에 걸쳐 및/또는 복수의 시간 프레임들에 걸쳐 변화한다. 따라서, 상기 요소들의 선택은 특정의 시간/주파수 타일에 의존할 수 있으며, 따라서 상이한 요소들이 상이한 시간/주파수 타일들에 대해 선택될 수 있다. 이러한 것은 보다 유연한 인코딩 방법을 제공하여 코딩 신호의 품질을 향상시킨다.
실시예들에 따라, 상기 선택된 요소들의 서브세트는 상기 업믹스 매트릭스의 각각의 행에 대해 동일한 수의 요소들을 포함한다. 다른 실시예들에 있어서, 상기 선택된 요소들의 수는 정확히 하나가 될 수 있다. 이러한 것은, 알고리즘이 각각의 행에 대해 동일한 수의 요소(들), 즉 디코더 측에서 업믹스를 실행할 때 가장 중요한 요소(들)를 선택할 필요가 있을 뿐이므로, 인코더의 복잡성을 감소시킨다.
실시예들에 따라, 상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트들의 요소들의 값들은 하나 이상의 파라미터들의 벡터를 형성하며, 상기 파라미터들의 벡터 내의 각각의 파라미터는 복수의 주파수 대역들 또는 복수의 시간 프레임들 중 하나에 대응하고, 상기 파라미터들의 하나 이상의 벡터는 상기 제 1 양태에 따른 방법을 사용하여 인코딩된다. 다시 말해, 상기 선택된 요소들의 값들은 효과적으로 코딩될 수 있다. 상기한 제 1 양태의 개관에서 제시된 바와 같은 특징들 및 셋업들과 관련한 이점들은 일반적으로 본 실시예에 대해서도 유효할 것이다.
실시예들에 따라, 상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트들의 요소들의 위치들은 하나 이상의 파라미터들의 벡터를 형성하며, 상기 파라미터들의 벡터 내의 각각의 파라미터는 복수의 주파수 대역들 또는 복수의 시간 프레임들 중 하나에 대응하고, 상기 파라미터들의 하나 이상의 벡터는 상기 제 1 양태에 따른 방법을 사용하여 인코딩된다. 다시 말해, 상기 선택된 요소들의 위치들은 효과적으로 코딩될 수 있다. 상기한 제 1 양태의 개관에서 제시된 바와 같은 특징들 및 셋업들과 관련한 이점들은 일반적으로 본 실시예에 대해서도 유효할 것이다.
예시적인 실시예들에 따라, 프로세싱 능력을 갖는 디바이스 상에서 실행될 때 상기 제 3 양태의 어떠한 방법도 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 매체가 제공된다.
예시적인 실시예들에 따라, 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는 인코더가 제공되며, 상기 업믹스 매트릭스의 각각의 행은 M 개의 채널을 포함하는 다운믹스 신호들로부터 오디오 객체의 시간/주파수 타일의 재구성을 가능하게 하는 M 개의 요소들을 포함하며, 상기 인코더는: 상기 업믹스 매트릭스 내의 각각의 행을 수신하도록 적응된 수신 구성요소; 상기 업믹스 매트릭스 내의 상기 행의 M 개의 요소들로부터 요소들의 서브세트를 선택하도록 적응된 선택 구성요소; 상기 업믹스 매트릭스 내의 값 및 위치에 의해 상기 선택된 요소들의 서브세트 내의 각각의 요소들을 나타내도록 적응된 인코딩 구성요소를 구비하고, 상기 인코딩 구성요소는 또한 상기 선택된 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 값 및 위치를 인코딩하도록 적응된다.
IV. 개관-스파스 매트릭스 디코더
제 4 양태에 따라, 예시적인 실시예들은 디코딩 방법들, 디코더들, 및 디코딩을 위한 컴퓨터 프로그램 제품들을 제안한다. 상기 제안된 방법들, 디코더들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들과 이점들을 가질 수 있다.
상기한 스파스 매트릭스 인코더의 개관에서 제시된 바와 같은 특징들 및 셋업들과 관련한 이점들은 일반적으로 상기 디코더에 대한 대응하는 특징들 및 셋업들에 대해 유효할 수 있다.
예시적인 실시예들에 따라, 오디오 디코딩 시스템에서 오디오 객체의 시간/주파수 타일을 재구성하는 방법이 제공되며, 상기 방법은: M 개의 채널들을 포함하는 다운믹스 신호들을 수신하는 단계; 업믹스 매트릭스 내의 한 행의 M 개의 요소들의 서브세트를 나타내는 적어도 하나의 인코딩된 요소를 수신하는 단계, 각각의 인코딩된 요소는 상기 업믹스 매트릭스 내의 상기 행 내에 값 및 위치를 포함하고, 상기 위치는 상기 인코딩된 요소가 대응하는 다운믹스 신호의 상기 M 개의 채널들 중 하나를 나타내며; 및 상기 적어도 하나의 인코딩된 요소에 대응하는 상기 다운믹스 채널들의 선형 조합을 형성함으로써 상기 다운믹스 신호로부터 상기 오디오 객체의 시간/주파수 타일을 재구성하는 단계를 구비하며, 상기 선형 조합에서 각각의 다운믹스 채널은 그 대응하는 인코딩된 요소의 값으로 곱해진다.
따라서, 이러한 방법에 따라, 오디오 객체의 시간/주파수 타일은 상기 다운믹스 채널들의 서브세트의 선형 조합을 형성함으로써 재구성된다. 상기 다운믹스 채널들의 서브세트는 인코딩된 업믹스 계수들이 수신되어진 채널들에 대응한다. 따라서, 상기 방법은, 상기 업믹스 매트릭스의 스파스 서브세트(sparse subset)와 같은 서브세트만이 수신된다는 사실에도 불구하고, 오디오 객체를 재구성할 수 있게 한다. 상기 적어도 하나의 인코딩된 요소에 대응하는 다운믹스 채널만의 선형 조합을 형성함으로써, 디코딩 프로세스의 복잡성이 감소될 수 있다. 대안으로는, 모든 상기 다운믹스 신호들의 선형 조합을 형성하여, 이들(상기 적어도 하나의 인코딩된 요소에 대응하지 않음)의 일부를 제로 값으로 곱하는 것이 될 수 있다.
실시예들에 따라, 상기 적어도 하나의 인코딩된 요소의 위치들은 복수의 주파수 대역들에 걸쳐 및/또는 복수의 시간 프레임들에 걸쳐 변화한다. 다시 말해서, 상기 업믹스 매트릭스의 상이한 요소들이 상이한 시간/주파수 타일들에 대해 인코딩될 수 있다.
실시예들에 따라, 상기 적어도 하나의 인코딩된 요소의 요소들의 수는 하나가 된다. 이러한 것은, 상기 오디오 객체가 각각의 시간/주파수 타일 내의 하나의 다운믹스 채널로부터 재구성된다는 것을 의미한다. 하지만, 상기 오디오 객체를 재구성하는데 사용된 하나의 다운믹스 채널은 상이한 시간/주파수 타일들 사이에서 변화할 수 있다.
실시예들에 따라, 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 적어도 하나의 인코딩된 요소의 값들은 하나 이상의 벡터들을 형성하며, 여기에서 각각의 값은 엔트로피 코딩된 심볼로 나타내지고, 엔트로피 코딩된 심볼들의 각각의 벡터 내의 각각의 심볼은 상기 복수의 주파수 대역들 중 하나 또는 상기 복수의 시간 프레임들 중 하나에 대응하며, 상기 엔트로피 코딩된 심볼들의 하나 이상의 벡터는 상기 제 2 양태에 따른 방법을 사용하여 디코딩된다. 이러한 방법에서, 상기 업믹스 매트릭스의 요소들의 값들은 효과적으로 코딩될 수 있다.
실시예들에 따라, 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 적어도 하나의 인코딩된 요소의 위치들은 하나 이상의 벡터들을 형성하며, 여기에서 각각의 위치는 엔트로피 코딩된 심볼로 나타내지고, 엔트로피 코딩된 심볼들의 각각의 벡터 내의 각각의 심볼은 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응하며, 상기 엔트로피 코딩된 심볼들의 하나 이상의 벡터는 상기 제 2 양태에 따른 방법을 사용하여 디코딩된다. 이러한 방법에서, 상기 업믹스 매트릭스의 요소들의 위치들은 효과적으로 코딩될 수 있다.
예시적인 실시예들에 따라, 프로세싱 능력을 갖는 디바이스 상에서 실행될 때 상기 제 3 양태의 어떠한 방법도 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 매체가 제공된다.
예시적인 실시예들에 따라, 오디오 객체의 시간/주파수 타일을 재구성하는 디코더가 제공되며, 상기 디코더는: 업믹스 매트릭스 내의 행의 M 개의 요소들의 서브세트를 나타내는 적어도 하나의 인코딩된 요소 및 M 개의 채널들을 포함하는 다운믹스 신호를 수신하도록 구성된 수신 구성요소로서, 각각의 인코딩된 요소는 상기 업믹스 매트릭스 내의 상기 행의 값 및 위치를 포함하고, 상기 위치는 상기 인코딩된 요소가 대응하는 다운믹스 신호의 M 개의 채널들 중 하나를 나타내는, 상기 수신 구성요소; 및 상기 적어도 하나의 인코딩된 요소에 대응하는 다운믹스 채널들의 선형 조합을 형성함으로써 상기 다운믹스 신호로부터 상기 오디오 객체의 시간/주파수 타일을 재구성하도록 구성된 재구성 구성요소를 구비하며, 상기 선형 조합에서 각각의 다운믹스 채널은 그 대응하는 인코딩된 요소의 값으로 곱해진다.
IV. 예시적인 실시예들
도 1은 오디오 객체들(104)을 인코딩하기 위한 오디오 인코딩 시스템(100)의 일반화된 블록도를 도시한다. 상기 오디오 인코딩 시스템은 상기 오디오 객체들(104)로부터 다운믹스 신호(110)를 생성하는 다운믹스 구성요소(106)를 포함한다. 상기 다운믹스 신호(110)는 예를 들면 AAC, USAC 또는 MP3와 같은 MPEG 표준들 또는 돌비 디지털 플러스와 같은 확립된 사운드 디코딩 시스템들과 역으로 호환가능한(backwards compatible) 5.1 또는 7.1 서라운드 신호가 될 수 있다. 또 다른 실시예들에서는, 상기 다운믹스 신호는 역으로 호환되지 않는다.
상기 다운믹스 신호(110)로부터 상기 오디오 객체들(104)을 재구성할 수 있도록, 업믹스 파라미터들이 상기 오디오 객체들(104)과 상기 다운믹스 신호(110)로부터의 업믹스 파라미터 분석 구성요소(112)에서 결정된다. 예를 들면, 상기 업믹스 파라미터들은 상기 다운믹스 신호(110)로부터 상기 오디오 객체들(104)의 재구성을 가능하게 하는 업믹스 매트릭스의 요소들에 대응할 수 있다. 상기 업믹스 파라미터 분석 구성요소(112)는 개별적인 시간/주파수 타일들과 관련하여 상기 다운믹스 신호(110) 및 상기 오디오 객체들(104)을 처리한다. 따라서, 상기 업믹스 파라미터들은 각각의 시간/주파수 타일들에 대해 결정된다. 예를 들면, 업믹스 매트릭스는 각각의 시간/주파수 타일에 대해 결정될 수 있다. 예를 들면, 업믹스 파라미터 분석 구성요소(112)는 주파수-선택적 프로세싱을 가능하게 하는 QMF(Quadrature Mirror Filters) 도메인과 같은 주파수 도메인에서 동작할 수 있다. 이러한 이유로, 상기 다운믹스 신호(110) 및 상기 오디오 객체들(104)은, 상기 다운믹스 신호(110) 및 상기 오디오 객체들(104)을 필터 뱅크(108)로 처리되게 함으로써 주파수 도메인으로 변환될 수 있다. 이러한 것은 예를 들면 QMF 변환 또는 어떠한 다른 적절한 변환을 적용함으로써 행해질 수 있다.
상기 업믹스 파라미터들(114)은 벡터 포맷으로 조직될 수 있다. 벡터는 특정의 시간 프레임에서의 상이한 주파수 대역들에서 상기 오디오 객체들(104)로부터 특정 오디오 객체를 재구성하기 위한 업믹스 파라미터를 나타낼 수 있다. 예를 들면, 벡터는 상기 업믹스 파라미터 내의 임의의 매트릭스 요소와 대응할 수 있으며, 여기에서 상기 벡터는 후속하는 주파수 대역들 동안 상기 임의의 매트릭스 요소의 값들을 포함한다. 또 다른 실시예들에서, 상기 벡터는 특정의 주파수 대역에서의 상이한 시간 프레임들에서 상기 오디오 객체들(104)로부터 특정 오디오 객체를 재구성하기 위한 업믹스 파라미터를 나타낼 수 있다. 예를 들면, 벡터는 상기 업믹스 파라미터 내의 임의의 매트릭스 요소와 대응할 수 있으며, 여기에서 상기 벡터는 후속하는 시간 프레임들이지만 동일한 주파수 대역에서 상기 임의의 매트릭스 요소의 값들을 포함한다.
상기 벡터 내의 각각의 파라미터는, 예를 들면 -9.6과 9.4 사이의 값을 취하는 양(quantity)과 같은, 비-주기적인 양에 대응한다. 비-주기적인 양은 상기 양이 취할 수 있는 값들에 있어서 주기성이 없는 양을 통상 의미한다. 이러한 것은, 양이 취할 수 있는 값들 사이에 명백한 주기적 연관성이 있는, 각(angle)과 같은, 주기적인 양과는 대조적이다. 예를 들면, 각에 있어서는, 2π의 주기성이 있어, 예를 들면 각 제로는 각 2π에 대응한다.
상기 업믹스 파라미터들(114)은 이후 업믹스 매트릭스 인코더(102)에 의해 벡터 포맷으로 수신된다. 상기 업믹스 매트릭스 인코더가 이제 도 2를 참조하여 상세하게 설명될 것이다. 상기 벡터는 수신 구성요소(202)에 의해 수신되고, 제 1 요소 및 적어도 하나의 제 2 요소를 갖는다. 상기 요소들의 수는 예를 들면 오디오 신호 내의 주파수 대역들의 수에 의존한다. 상기 요소들의 수는 또한 한 인코딩 동작으로 인코딩되는 오디오 신호의 시간 프레임들의 수에 의존할 수 있다.
상기 벡터는 이후 인덱싱 구성요소(204)에 의해 인덱싱된다. 상기 인덱싱 구성요소는 미리 규정된 수들의 값들을 취할 수 있는 인덱스 값에 의해 상기 벡터 내의 각각의 파라미터를 나타내도록 적응된다. 이렇게 나타내는 것은 두 개의 단계들로 행해질 수 있다. 먼저, 상기 파라미터가 양자화되고, 이후 상기 양자화된 값이 인덱스 값에 의해 인덱싱된다. 예로서, 상기 벡터 내의 각각의 파라미터가 -9.6과 9.4 사이의 값을 취할 수 있는 경우, 이러한 것은 0.2의 양자화 스텝들을 사용하여 행해질 수 있다. 상기 양자화된 값은 이후 인덱스들 0-95, 즉 96개의 상이한 값들에 의해 인덱싱될 수 있다. 다음의 예들에서, 인덱스 값은 0-95의 범위에 있지만, 이러한 것은 당연히 실례일 뿐이며, 예컨대 0-191, 0-63과 같이 인덱스 값들의 다른 범위들이 가능하다. 보다 작은 양자화 스텝들이 디코더 측상에서 보다 적은 왜곡된 디코딩된 오디오 신호를 야기할 수도 있지만, 또한 상기 오디오 인코딩 시스템(100)과 상기 디코더 사이에 데이터의 전송을 위해 요구된 비트 레이트를 보다 커지게 한다.
상기 인덱싱된 값들은 상기 적어도 하나의 제 2 요소의 각각을 모듈로 차분 인코딩 전략을 사용하여 심볼과 연관시키는 연관 구성요소(206)로 순차적으로 전송된다. 상기 연관 구성요소(206)는 상기 제 2 요소의 인덱스 값과 상기 벡터 내의 앞선 요소의 인덱스 값 사이의 차를 산출하도록 적응된다. 통상의 차분 인코딩 전략만을 사용함으로써, 상기 차는 어디에서도 -95 내지 95의 범위 내에 있게 될 것이다. 즉, 191 개의 가능한 값들을 갖는다. 이러한 것은, 상기 차가 엔트로피 코딩을 사용하여 인코딩될 때, 상기 차들의 191 개의 가능한 값들의 각각에 대해 하나의 확률이 되는, 191 개의 확률들을 포함하는 확률 테이블이 필요하게 된다는 것을 의미한다. 더욱이, 각각의 차에 대해 191 개의 확률들의 대략 절반이 불가능하므로, 상기 인코딩의 효율은 낮아지게 될 것이다. 예를 들면, 차분 인코딩될 제 2 요소가 인덱스 값 90을 갖는다면, 가능한 차분은 -5 내지 90의 범위에 있게 된다. 대체로, 코딩될 각각의 값에 대해 확률들의 일부가 불가능한 엔트로피 인코딩 전략을 갖는 것은 인코딩의 효율을 낮추게 될 것이다. 본 개시에서의 차분 인코딩 전략은 차분에 모듈로 96 동작을 적용함으로써 이러한 문제를 극복하고 동시에 요구되는 코드들의 수를 96으로 줄일 수 있다. 그에 따른 관련 알고리즘은 다음과 같이 표현될 수 있다:
Figure 112015126252042-pct00001
(수식 1)
여기서, b는 차분 인코딩되는 벡터 내의 요소이고, NQ는 가능한 인덱스 값들의 수이며,
Figure 112015126252042-pct00002
는 요소 b와 연관된 심볼이다.
일부 실시예들에 따라, 확률 테이블은 호프만 코드북으로 변환된다. 이 경우, 상기 벡터 내의 요소와 연관된 심볼은 코드북 인덱스로서 사용된다. 인코딩 구성요소(208)는 이후 상기 제 2 요소와 연관된 코드북 인덱스에 의해 인덱싱된 호프만 코드북 내의 코드워드로 상기 제 2 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소의 각각을 인코딩할 수 있다.
어떠한 다른 적절한 엔트로피 인코딩 전략도 상기 인코딩 구성요소(208)에서 실행될 수 있다. 예로서, 그러한 인코딩 전략은 범위 코딩 전략 또는 산술 코딩 전략이 될 수 있다.
다음에는, 모듈로 접근법의 엔트로피가 언제나 통상의 차분 접근법의 엔트로피보다 낮거나 같다는 것을 보여준다. 통상의 차분 접근법의 엔트로피 Ep는:
Figure 112015126252042-pct00003
(수식 2)
여기서, p(n)p(n)은 플레인 차분(plain differential) 인덱스 값 n의 확률이다.
상기 모듈로 접근법의 엔트로피 Eq는:
Figure 112015126252042-pct00004
(수식 3)
여기서, q(n)은 다음과 같이 주어진 바에 따른 모듈로 차분 인덱스 값 n의 확률이다:
Figure 112015126252042-pct00005
(수식 4)
Figure 112015126252042-pct00006
(수식 5)
그에 따라,
Figure 112015126252042-pct00007
(수식 6)
마지막의 합산 내에서
Figure 112015126252042-pct00008
를 대체하여 다음과 같이 된다.
Figure 112015126252042-pct00009
(수식 7)
또한,
Figure 112015126252042-pct00010
Figure 112015126252042-pct00011
Figure 112015126252042-pct00012
(수식 8)
상기 합산들을 항 대 항으로 비교하면,
Figure 112015126252042-pct00013
(수식 9)
유사하게,
Figure 112015126252042-pct00014
(수식 10)
이므로,
Figure 112015126252042-pct00015
가 된다.
상기에서 알 수 있는 바와 같이, 상기 모듈로 접근법의 엔트로피는 언제나 통상의 차분 접근법의 엔트로피보다 낮거나 같게 된다. 엔트로피가 동일한 경우는, 인코딩될 데이터가 병리적인 데이터(pathological data) 즉, 대부분의 경우에 있어서, 실례로 업믹스 매트릭스에 적용하지 않는 비정상적으로 움직이는 데이터인 드문 경우이다.
모듈로 접근법의 엔트로피는 언제나 통상의 차분 접근법의 엔트로피보다 낮거나 같기 때문에, 상기 모듈로 접근법에 의해 산출된 심볼들의 엔트로피 코딩은 통상의 차분 접근법에 의해 산출된 심볼들의 엔트로피 코딩에 비하여 낮거나 또는 적어도 동일한 비트 레이트를 야기할 것이다. 다시 말해서, 상기 모듈로 접근법에 의해 산출된 심볼들의 엔트로피 코딩은 통상의 차분 접근법에 의해 산출된 심볼들의 엔트로피 코딩보다 대부분의 경우 더욱 효과적이다.
추가의 이점은, 상기 언급된 바와 같이 상기 모듈로 접근법에서 확률 테이블에서의 요구된 확률들의 수가 통상의 비-모듈로 접근법에서 요구된 확률들의 수에 비해 대략 절반이 된다는 것이다.
상기한 바에서는 파라미터들의 벡터에서 적어도 하나의 제 2 요소를 인코딩하기 위한 모듈로 접근법을 기술하였다. 제 1 요소는 상기 제 1 요소로 나타내어진 인덱싱된 값을 사용하여 인코딩될 수 있다. 상기 제 1 요소의 인덱스 값 및 상기 적어도 하나의 제 2 요소의 모듈로 차분 값의 확률 분포는 매우 상이할 수 있으므로(인덱싱된 제 1 요소의 확률 분포에 대한 도 3 및 적어도 하나의 제 2 요소에 대한 모듈로 차분 값, 즉 심볼의 확률 분포에 대한 도 4 참조), 상기 제 1 요소에 대한 전용 확률 테이블이 필요할 수 있다. 이는, 오디오 인코딩 시스템(100) 및 대응하는 디코더 양쪽 모두가 그 메모리에 그 전용 확률 테이블을 가질 것을 요구한다.
하지만, 본 발명자들은 상기 확률 분포들의 형상이 비록 서로에 대해 시프트된다고 하더라도 일부 경우에 있어서 아주 유사하다는 것을 확인하였다. 이러한 확인은 상기 적어도 하나의 제 2 요소에 대한 심볼의 확률 분포의 시프트된 버전만큼 상기 인덱싱된 제 1 요소의 확률 분포를 근접시키는데 활용될 수 있다. 그러한 시프팅은, 상기 벡터 내의 제 1 요소를 나타내는 인덱스 값을 오프-셋 값만큼 시프트함으로써 상기 벡터 내의 제 1 요소를 심볼과 연관시키고, 이어서 상기 시프트된 인덱스 값에 모듈로 96(또는 대응하는 값)을 적용하도록 상기 연관 구성요소(206)를 구성(adapt)함으로써 실행될 수 있다.
그에 따라 상기 제 1 요소와 연관된 심볼의 산출은 다음과 같이 표현될 수 있다:
Figure 112015126252042-pct00016
(수식 11)
그에 따라 얻어진 심볼은 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 확률 테이블을 사용한 상기 제 1 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 제 1 요소를 인코딩하는 상기 인코딩 구성요소(208)에 의해 사용된다. 상기 오프-셋 값은 상기 확률 테이블에서 상기 제 1 소자에 대해 최상 확률의 인덱스 값과 상기 적어도 하나의 제 2 요소에 대해 최상 확률의 심볼 사이의 차와 동일 또는 적어도 근접하게 될 수 있다. 도 3에서, 상기 제 1 소자에 대해 최상 확률의 인덱스 값은 화살표(302)로 표시되었다. 상기 적어도 하나의 제 2 요소에 대한 최상 확률의 심볼이 제로라고 가정한다면, 화살표(302)로 표시된 값은 사용된 오프-셋 값이 될 것이다. 오프-셋 접근법을 사용함으로써, 도 3 및 도 4에서 분포들의 피크들이 정렬된다. 이러한 접근법은 상기 제 1 요소에 대한 전용 확률 테이블의 필요성을 제거하고, 그에 따라 전용 확률 테이블이 제공하게 될 효율과 거의 동일한 코딩 효율을 대체로 유지하면서, 오디오 인코딩 시스템(100) 및 대응하는 디코더에서 메모리를 절약하게 된다.
상기 적어도 하나의 제 2 요소의 엔트로피 코딩이 호프만 코드북을 사용하여 행해지는 경우에, 상기 인코딩 구성요소(208)는, 상기 제 1 요소와 연관된 코드북 인덱스에 의해 인덱싱되는 호프만 코드북 내의 코드워드로 상기 제 1 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 호프만 코드북을 사용하여 상기 벡터 내의 제 1 요소를 인코딩할 수 있다.
찾는(look-up) 속도는 오디오 디코딩 시스템에서 파라미터를 인코딩할 때 중요할 수 있으므로, 상기 코드북이 저장되는 메모리는 고속 메모리가 유익하며, 따라서 값이 비싸다. 단지 하나의 확률 테이블만을 사용함으로써, 그에 따라 상기 인코더는 두 개의 확률 테이블들이 사용되는 경우에서보다 값싸게 될 것이다.
도 3 및 도 4에 도시된 확률 분포들은 흔히 트레이닝 데이터 셋(training data set)을 통해 사전에 산출되므로, 그에 따라 상기 벡터를 인코딩하는 동안 산출되지 않지만, 인코딩을 하면서 "그때 그때 상황에 따라(on the fly)" 상기 분포들을 산출하는 것 역시 가능하다.
인코딩되는 파라미터들의 벡터로서 업믹스 매트릭스로부터 벡터를 사용하는 오디오 인코딩 시스템(100)의 상기한 설명은 단지 예시적인 응용이라는 것 역시 주의해야할 수도 있다. 본 개시에 따라 파라미터들의 벡터를 인코딩하는 방법은, 예를 들면 SBR(Spectral band replication)과 같은 파라메트릭 대역폭 확장 시스템에서 사용된 파라미터들과 같은 다운믹스 인코딩 시스템에서 다른 내부 파라미터들을 인코딩할 때, 오디오 인코딩 시스템의 다른 응용들에서 사용될 수도 있다.
도 5는 코딩된 다운믹스 신호(510) 및 코딩된 업믹스 신호(512)로부터 인코딩된 오디오 객체들을 재생성하기 위한 오디오 디코딩 시스템(500)의 일반화된 블록도다. 상기 코딩된 다운믹스 신호(510)는 다운믹스 수신 구성요소(506)에 의해 수신되며, 여기서 상기 신호는 디코딩되고, 이미 적합한 주파수 도메인에 있지 않다면 적합한 주파수 도메인으로 변환된다. 이후 디코딩된 다운믹스 신호(516)가 업믹스 구성요소(508)로 전송된다. 상기 업믹스 구성요소(508)에서, 인코딩된 오디오 객체들이 상기 디코딩된 다운믹스 신호(516) 및 디코딩된 업믹스 매트릭스(504)를 사용하여 재생성된다. 특히, 상기 업믹스 구성요소(508)는 매트릭스 연산을 실행할 수 있고, 여기에서 상기 디코딩된 업믹스 매트릭스(504)는 상기 디코딩된 다운믹스 신호(516)를 포함하는 벡터로 곱해진다. 상기 업믹스 매트릭스의 디코딩 프로세스가 하기에 기술된다. 상기 오디오 디코딩 시스템(500)은 또한 상기 오디오 디코딩 시스템(500)에 접속된 재생 유닛이 어떤 유형인지에 의존하여 재구성된 오디오 객체들(518)에 기초하여 오디오 신호를 출력하는 렌더링 구성요소(514)를 더 포함한다.
코딩된 업믹스 매트릭스(512)가 이제 도 6을 참조하여 상세히 기술될 업믹스 매트릭스 디코더(502)에 의해 수신된다. 상기 업믹스 매트릭스 디코더(502)는 오디오 디코딩 시스템의 엔트로피 코딩된 심볼들의 벡터를 비-주기적인 양과 관련한 파라미터들의 벡터로 디코딩하도록 구성된다. 상기 엔트로피 코딩된 심볼들의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하며, 상기 파라미터들의 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 포함한다. 상기 코딩된 업믹스 매트릭스(512)는 그에 따라서 벡터 포맷으로 수신 구성요소(602)에 의해 수신된다. 상기 디코더(502)는 또한 상기 벡터 내의 각각의 엔트로피 코딩된 심볼을 확률 테이블을 사용하여 N 개의 값들을 취할 수 있는 심볼로 나타내도록 구성된 인덱싱 구성요소(604)를 포함한다. N은 실례로 96이 될 수 있다. 연관 구성요소(606)가 상기 파라미터들의 벡터 내의 제 1 요소를 인코딩하는데 사용된 인코딩 방법에 의존하여 어떠한 적합한 수단에 의해 상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키도록 구성된다. 제 2 코드들의 각각에 대한 심볼 및 제 1 코드에 대한 인덱스 값이 이후 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키는 연관 구성요소(606)에 의해 사용된다. 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 인덱스 값은 먼저 엔트로피 코딩된 심볼들의 벡터 내의 제 2 엔트로피 코딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔트로피 코딩된 심볼을 나타내는 심볼의 합을 산출함으로써 산출된다. 이어서 모듈로 N이 상기 합에 적용된다. 일반성을 잃지 않고서 최소 인덱스 값은 0이고, 최대 인덱스 값은 N-1, 예를 들면 95로 가정한다. 연관 알고리즘은 그에 따라 다음과 같이 표현될 수 있다:
Figure 112015126252042-pct00017
(수식 12)
여기서, b는 디코딩되는 벡터 내의 요소이고, NQN은 가능한 인덱스 값들의 수이다.
상기 업믹스 매트릭스 디코더(502)는 또한 디코딩 구성요소(608)를 포함한다. 상기 디코딩 구성요소(608)는 상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내도록 구성된다. 그에 따라 이렇게 나타낸 것은 예를 들면 도 1에 도시된 오디오 인코딩 시스템(100)에 의해 인코딩된 파라미터의 디코딩된 버전이 된다. 다시 말해서, 이와 같이 나타낸 것은 도 1에 도시된 오디오 인코딩 시스템(100)에 의해 인코딩된 양자화된 파라미터와 동일하다.
본 발명의 한 실시예에 따라, 엔트로피 코딩된 심볼들의 벡터 내에서 각각의 엔트로피 코딩된 심볼은 상기 엔트로피 코딩된 심볼들의 벡터 내의 모든 엔트로피 코딩된 심볼들에 대해 동일한 확률 테이블을 사용하여 심볼로 나타내진다. 이러한 것의 이점은 단지 하나의 확률 테이블만이 상기 디코더의 메모리에 저장될 필요가 있다는 것이다. 오디오 디코딩 시스템에서 엔트로피 코딩된 심볼을 디코딩할 때 찾는 속도는 중요할 수 있으므로, 확률 테이블이 저장되는 메모리는 고속 메모리인 것이 유익하지만, 그게 따라 값비싸게 된다. 단지 하나의 확률 테이블만을 사용함으로써, 상기 디코더는 그에 따라 두 개의 확률 테이블들이 사용되는 경우에서보다 저렴하게 될 수 있다. 이러한 실시예에 따라, 상기 연관 구성요소(606)는, 먼저 상기 엔트로피 코딩된 심볼들의 벡터 내의 제 1 엔트로피 코딩된 심볼을 나타내는 심볼을 오프-셋 값만큼 시프트함으로써 상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키도록 구성될 수 있다. 이후 상기 시프트된 심볼에 모듈로 N이 적용된다. 이러한 연관 알고리즘은 그에 따라 다음과 같이 표현된다:
Figure 112015126252042-pct00018
(수식 13)
상기 디코딩 구성요소(608)는 상기 파라미터들의 벡터의 제 1 요소를 상기 제 1 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내도록 구성된다. 그에 따라 이와 같이 나타낸 것은 예를 들면 도 1에 도시된 오디오 인코딩 시스템(100)에 의해 인코딩된 파라미터들의 디코딩된 버전이 된다.
비-주기적인 양을 차분 인코딩하는 방법이 이제 도 7 내지 도 10과 함께 상세히 설명된다.
도 7 및 도 9는 파라미터들의 벡터 내의 네 개의(4) 제 2 요소들에 대한 인코딩 방법을 기술한다. 그에 따라 입력 벡터(902)는 다섯 개의 파라미터들을 포함한다. 상기 파라미터들은 최소 값과 최대 값 사이의 어떠한 값도 취할 수 있다. 이러한 예에서, 최소 값은 -9.6이고, 최대 값은 9.4이다. 상기 인코딩 방법에서 제 1 단계(S702)는 상기 벡터(902) 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱스 값으로 나타내는 것이다. 이 경우에서, N은 96이 되도록 선택되며, 이러한 것은 양자화 스텝 사이즈가 0.2라는 것을 의미한다. 이로써 상기 벡터(904)를 제공한다. 다음 단계(S704)는 벡터(904) 내의 상기 네 개의 상위 파라미터들인 상기 제 2 요소들의 각각과 그 앞선 요소 사이의 차를 산출하는 것이다. 그 결과적인 벡터(906)는 그에 따라 네 개의 차분 값들, 즉 상기 벡터(906) 내의 네 개의 상위 값들을 포함한다. 도 9에 도시된 바와 같이, 상기 차분 값들은 양쪽 모두 네가티브, 제로, 포지티브가 될 수 있다. 상기 설명된 바와 같이, 단지 N 개의 값, 즉 본 경우에서는 96 개의 값들을 취할 수 있는 차분 값들을 갖는 것이 바람직하다. 이러한 것을 달성하기 위해서, 본 방법의 다음 단계(S706)에서, 모듈로 96이 상기 벡터(906) 내의 제 2 요소들에 적용된다. 그 결과적인 벡터(908)는 어떠한 네가티브 값들도 포함하지 않는다. 벡터(908)에서 보여진 이와 같이 달성된 심볼은, 이후 벡터(908)에서 보여진 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 도 7에 도시된 방법의 마지막 단계(S708)에서 상기 벡터의 제 2 요소들을 인코딩하는데 사용된다.
도 9에 도시된 바와 같이, 인덱싱 단계(S702) 후 상기 제 1 요소는 처리되지 않는다. 도 8 및 도 10에서, 입력 벡터 내의 제 1 요소를 인코딩하는 방법이 기술된다. 가능한 인덱스 값들의 수 및 상기 파라미터들의 최소 및 최대 값과 관련하여 도 7 및 도 9의 상기한 설명에서 이루어진 것과 동일한 가정이 도 8 및 도 10을 설명할 때에도 유효하다. 제 1 요소(1002)가 디코더에 의해 수신된다. 인코딩 방법의 제 1 단계(S802)에서, 상기 제 1 요소의 파라미터는 인덱스 값(1004)으로 나타낸다. 다음 단계(S804)에서, 상기 인덱싱된 값(1004)은 오프-셋 값만큼 시프트된다. 본 예에 있어서, 상기 오프-셋의 값은 49이다. 이러한 값은 상기한 바와 같이 산출된다. 다음 단계(S806)에서, 모듈로 96이 상기 시프트된 인덱스 값(1006)에 적용된다. 그 결과적인 값(1008)이 이후 도 7의 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용된 것과 동일한 확률 테이블을 사용하여 상기 제 1 요소를 상기 심볼(1008)의 엔트로피 코딩으로 인코딩하도록 인코딩 단계(S802)에서 사용될 수 있다.
도 11은 도 1의 업믹스 매트릭스 인코딩 구성요소(102)의 실시예(102')를 도시한다. 상기 업믹스 매트릭스 인코더(102')는 예를 들면 도 1에 도시된 오디오 인코덩 시스템(100)과 같은 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는데 사용될 수 있다. 상기 기술된 바와 같이, 상기 업믹스 매트릭스의 각각의 행은 M 개의 채널들을 포함하는 다운믹스 신호로부터 오디오 객체의 재구성을 가능하게 하는 M 개의 요소들을 포함한다.
전체의 목표 비트 레이트들을 낮게 하는데 있어, 각각의 다운믹스 채널에 대해 하나씩, T/F 타일 및 객체 당 모든 M 개의 업믹스 매트릭스 요소들을 인코딩 및 전송하는 것은 바람직하지 않는 높은 비트 레이트를 요구할 수 있다. 이러한 것은 상기 업믹스 매트릭스의 "스파스 처리(sparsening)", 즉 비-제로 요소들의 수를 줄이고자 하는 시도에 의해 감소될 수 있다. 일부 경우에 있어서, 다섯 개의 요소들 중 네 개가 제로이고, 단지 단일의 다운믹스 채널만이 상기 오디오 객체의 재구성을 위한 근거로서 사용된다. 스파스 매트릭스들(sparse matrices)은 비-스파스 매트릭스들과는 다른 (절대 또는 차분의) 코딩된 인덱스들의 확률 분포들 갖는다. 상기 업믹스 매트릭스가 제로들의 대부분을 포함하여 값 제로가 0.5보다 발생 확률이 높게 되고 호프만 코딩이 사용되는 경우, 특정 값, 예컨대 제로가 0.5보다 높은 확률을 가질 때 호프만 코딩 알고리즘은 비효율적이므로 코딩 효율이 낮아질 것이다. 더욱이, 상기 업믹스 매트릭스 내의 요소들의 다수가 값 제로를 가지므로, 이들은 어떠한 정보도 포함하지 않는다. 그에 따라 상기 업믹스 매트릭스 요소들의 서브세트를 선택하여 이들을 인코딩하여 디코더로 전송하는 것만이 전략이 될 수 있다. 이러한 것은 적은 데이터가 전송되므로 오디오 인코딩/디코딩 시스템의 요구된 비트 레이트를 감소시킬 수 있다.
상기 업믹스 매트릭스의 코딩의 효율을 증가시키기 위해, 스파스 매트릭스들을 위한 전용 코딩 모드가 사용될 수 있으며, 이에 대해 하기에 구체적으로 설명될 것이다.
상기 인코더(102')는 상기 업믹스 매트릭스 내의 각각의 행을 수신하도록 적응된 수신 구성요소(1102)를 포함한다. 상기 인코더(102')는 또한 상기 업믹스 매트릭스 내의 상기 행의 M 개의 요소들로부터 요소들의 서브세트를 선택하도록 적응된 선택 구성요소(1104)를 포함한다. 대부분의 경우에 있어서, 상기 서브세트는 제로 값을 갖지 않는 모든 요소들을 포함한다. 하지만 일부 실시예에 따라서는, 상기 선택 구성요소는 예를 들면 제로와 근접한 값을 갖는 요소와 같은, 비-제로 값을 갖는 요소를 선택하지 않도록 선택할 수도 있다. 실시예들에 따라, 상기 선택된 요소들의 서브세트는 상기 업믹스 매트릭스의 각각의 행에 대해 동일한 수의 요소들을 포함할 수 있다. 요구된 비트 레이트를 더욱 감소하기 위해, 상기 선택된 요소들의 수는 하나 (1)가 될 수 있다.
상기 인코더(102')는 또한 상기 선택된 요소들의 서브세트 내의 각각의 요소를 상기 업믹스 매트릭스 내의 값 및 위치로 나타내도록 적응된 인코딩 구성요소(1106)를 포함한다. 상기 인코딩 구성요소(1106)는 또한 상기 선택된 요소들의 서브세트 내에 각각의 요소의 상기 업믹스 매트릭스 내의 값 및 위치를 인코딩하도록 적응된다. 이러한 것은 예를 들면 상기 기술된 바와 같이 모듈로 차분 인코딩을 사용하여 상기 값을 인코딩하도록 적응될 수도 있다. 이러한 경우에, 상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트의 요소들의 값들이 하나 이상의 파라미터들의 벡터를 형성한다. 상기 파라미터들의 벡터 내의 각각의 파라미터는 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응한다. 상기 파라미터들의 벡터는 그에 따라 상기 기술된 바와 같이 모듈로 차분 인코딩을 사용하여 코딩될 수 있다. 다른 실시예들에서, 파라미터들의 벡터는 정규의 차분 인코딩을 사용하여 코딩될 수도 있다. 또 다른 실시예에서, 상기 인코딩 구성요소(1106)는, 차분 인코딩이 아닌, 각각의 값의 순수 양자화 값(true quantization value)의 고정된 레이트 코딩을 사용하여 개별적으로 각각의 값을 코딩하도록 적응된다.
통상적인 콘텐트에 대해 하기의 평균 비트 레이트들의 예들이 관찰되었다. 비트 레이트는 M=5인 경우에 대해 측정되었고, 디코더 측 상에 재구성될 오디오 객체들의 수는 11이며, 주파수 대역들의 수는 12이고, 파라미터 양자화기의 스텝 사이즈는 0.1이고 192 레벨들을 갖는다.
상기 업믹스 매트릭스 내의 행 당 모두 다섯 개의 요소들이 인코딩된 경우, 다음의 평균 비트 레이트들이 관찰되었다:
고정된 레이트 코딩: 165 kb/sec,
차분 코딩: 51 kb/sec
모듈로 차분 코딩: 51 kb/sec, 하지만, 상기 기술된 바와 같이 확률 테이블 또는 코드북의 절반의 크기를 가짐.
상기 업믹스 매트릭스 내의 각각의 행에 대해 단지 하나의 요소만이 상기 선택 구성요소(1104)에 의해 선택되는, 즉 스파스 인코딩인 경우, 다음의 평균 비트 레이트들이 관찰되었다:
고정된 레이트 코딩(상기 값에 대해 8 비트를 사용하고, 상기 위치에 대해 3 비트를 사용): 45 kb/sec,
상기 요소의 값 및 상기 요소의 위치 양쪽에 대한 모듈로 차분 코딩: 20 kb/sec.
상기 인코딩 구성요소(1106)는 상기 값과 동일한 방식으로 상기 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 위치를 인코딩하도록 적응될 수 있다. 상기 인코딩 구성요소(1106)는 또한 상기 값의 인코딩과는 다른 방식으로 상기 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 위치를 인코딩하도록 적응될 수 있다. 차분 코딩 또는 모듈로 차분 코딩을 사용하여 위치를 코딩하는 경우, 상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트들의 요소들의 위치들은 하나 이상의 파라미터들의 벡터를 형성한다. 상기 파라미터들의 벡터 내의 각각의 파라미터들은 상기 복수의 주파수 대역들 또는 복수의 시간 프레임 중 하나에 대응한다. 상기 파라미터들의 벡터는 그에 따라 상기 기술된 바와 같이 차분 코딩 또는 모듈로 차분 코딩을 사용하여 인코딩된다.
상기 인코더(102')가 상기한 바에 따라 스파스 업믹스 매트릭스의 모듈로 차분 코딩을 달성하기 위해 도 2의 인코더(102)와 결합될 수도 있다는 것을 유의해야 할 수 있다.
또한, 스파스 매트릭스 내의 행을 인코딩하는 방법은 스파스 업믹스 매트릭스 내의 행을 인코딩하는데 대해 상기에서 전형적인 예가 되었지만, 상기 방법은 당업자에게 널리 공지된 다른 유형들의 스파스 매트릭스들을 코딩하는데 사용될 수도 있다.
스파스 업믹스 매트릭스를 인코딩하는 방법은 이제 도 13 내지 도 15와 함께 더 설명될 것이다.
업믹스 매트릭스는 예를 들면 도 11에서 수신 구성요소(1102)에 의해 수신된다. 상기 업믹스 매트릭스 내의 각각의 행(1402, 1502)에 대해, 상기 방법은 상기 업믹스 매트릭스 내의 행의 M 개, 예컨대 5 개의 요소들로부터 서브세트를 선택하는 단계(S1302)를 포함한다. 상기 선택된 요소들의 서브세트 내의 각각의 요소는 이어서 상기 업믹스 매트릭스 내의 값 및 위치에 의해 나타내진다(S1304). 도 14에서, 예를 들면 2.34의 값을 갖는 요소 번호 3인, 하나의 요소가 서브세트로서 선택된다(S1302). 그에 따라 이와 같이 나타낸 것은 두 개의 필드들을 갖는 벡터(1404)가 될 수 있다. 상기 벡터(1404) 내의 제 1 필드는 예를 들면 2.34인 값을 나타내고, 상기 벡터(1404) 내의 제 2 필드는 예를 들면 3인 위치를 나타낸다. 도 15에서, 예를 들면 2.34의 값을 갖는 요소 번호 3 및 -1.81의 값을 갖는 요소 번호 5의 두 개의 요소들이 서브세트로서 선택된다(S1302). 그에 따라 이와 같이 나타낸 것은 네 개의 필드들을 갖는 벡터(1504)가 될 수 있다. 상기 벡터(1504) 내의 제 1 필드는 예를 들면 2.34인 상기 제 1 요소의 값을 나타내고, 상기 벡터(1504) 내의 제 2 필드는 예를 들면 3인 상기 제 1 요소의 위치를 나타낸다. 상기 벡터(1504) 내의 제 3 필드는 예를 들면 -1.81인 상기 제 2 요소의 값을 나타내고, 상기 벡터(1504) 내의 제 4 필드는 예를 들면 5인 상기 제 2 요소의 위치를 나타낸다. 이와 같이 나타낸 것들(1404, 1504)은 이후 상기한 바에 따라 인코딩된다(S1306).
도 12는 예시적인 실시예에 따라 오디오 디코딩 시스템(1200)의 일반호된 블록도를 도시한다. 디코더(1200)는 업믹스 매트릭스 내의 행의 M 개의 요소들의 서브세트를 나타내는 적어도 하나의 인코딩된 요소(1204) 및 M 개의 채널들을 포함하는 다운믹스 신호(1210)를 수신하도록 구성된 수신 구성요소(1206)를 포함한다. 상기 인코딩된 요소들의 각각은 상기 업믹스 매트릭스의 상기 행 내의 값 및 위치를 포함하고, 상기 위치는 상기 인코딩된 요소가 대응하는 다운믹스 신호(1210)의 M 개의 채널들 중 하나를 나타낸다. 상기 적어도 하나의 인코딩된 요소(1204)는 업믹스 매트릭스 요소 디코딩 구성요소(1202)에 의해 디코딩된다. 상기 업믹스 매트릭스 요소 디코딩 구성요소(1202)는 상기 적어도 하나의 인코딩된 요소(1204)를 인코딩하는데 사용된 인코딩 전략에 따라 상기 적어도 하나의 인코딩된 요소(1204)를 디코딩하도록 구성된다. 그러한 인코딩 전략들에 대한 예들은 상기에서 기술되었다. 상기 적어도 하나의 디코딩된 요소(1214)는 이어서 재구성 구성요소(1208)로 전송되고, 상기 재구성 구성요소(1208)는 상기 적어도 하나의 인코딩된 요소(1204)에 대응하는 상기 다운믹스 채널들의 선형 조합을 형성함으로써 상기 다운믹스 신호(1210)로부터 상기 오디오 객체의 시간/주파수 타일을 재구성하도록 구성된다. 상기 선형 조합을 형성할 때, 각각의 다운믹스 채널은 그 대응하는 인코딩된 요소(1204)의 값으로 곱해진다.
예를 들면, 상기 디코딩된 요소(1214)가 값 1.1 및 위치 2를 포함한다면, 상기 제 2 다운믹스 채널의 시간/주파수 타일은 1.1로 곱해지고, 이후 이것은 상기 오디오 객체를 재구성하는데 사용된다.
상기 오디오 디코딩 시스템(500)은 또한 상기 재구성된 오디오 객체(1218)에 기초하여 오디오 신호를 출력하는 렌더링 구성요소(1216)를 포함한다. 상기 오디오 신호의 유형은 어떤 유형의 재생 유닛이 상기 오디오 디코딩 시스템(1200)에 접속되는지에 의존한다. 예를 들면, 한 쌍의 헤드폰이 상기 오디오 디코딩 시스템(1200)에 접속된다면, 상기 렌더링 구성요소(1216)에 의해 스테레오 신호가 출력될 수 있다.
등가물들, 확장물들, 대안물들 및 기타
본 개시내용의 다른 실시예들은 상기 기술을 연구한 후에 본 기술분야의 통상의 기술자에게 명백해질 것이다. 본 기술 및 도면들이 실시예들 및 예들을 개시하지만, 본 개시내용은 이들 특정 예들에만 제한되지 않는다. 첨부된 청구항들에 의해 규정된 본 개시내용의 범위를 벗어나지 않고 다양한 수정들 및 변형들이 이루어질 수 있다. 청구항들에 나타나는 임의의 참조 부호들은 그 범위를 제한하는 것으로 해석되어서는 안된다.
또한, 도면들, 개시내용, 및 첨부된 청구항들의 연구로부터, 개시된 실시예들에 대한 변형들은 본 개시내용을 실시하는 당업자에 의해 이해되고 수행될 수 있다. 청구항들에서, 단어 "구비(comprising)"은 다른 요소들 또는 단계들을 배제하지 않고, 부정관사("a" 또는 "an")는 복수를 배제하지 않는다. 특정 조치들(measures)이 서로 다른 종속 청구항들에서 인용되는 단순한 사실은 이들 조치들의 조합이 유리하게 사용될 수 없다는 것을 나타내지 않는다.
본 명세서의 상기에 개시된 시스템들 및 방법들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구현될 수 있다. 하드웨어 구현에서, 상기 기술에 언급된 기능적 유닛들 사이에서 작업들의 분할은 반드시 물리적 유닛들로의 분할에 대응하는 것은 아니고; 반대로 하나의 물리적 구성요소는 다수의 기능들을 가질 수 있고, 하나의 작업이 여러 물리적 구성요소들에 의해 협력하여 실행될 수 있다. 특정 구성요소들 또는 모든 구성요소들은 디지털 신호 처리기 또는 마이크로프로세서에 의해 실행되는 소프트웨어로서 구현될 수 있거나, 또는 하드웨어나 주문형 반도체로서 구현될 수 있다. 이러한 소프트웨어는 컴퓨터 판독 가능한 매체들 상으로 배포될 수 있고, 이것은 컴퓨터 저장 매체들(또는 비일시적 매체들)을 포함할 수 있다. 본 기술분야의 통상의 기술자에게 잘 알려진 바와 같이, 용어 컴퓨터 저장 매체들은, 컴퓨터 판독 가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 다른 데이터와 같이 정보의 저장을 위한 임의의 방법 또는 기술로 구현되는 쌍의 휘발성 및 비휘발성, 제거 가능한 및 제거 불가능한 매체들을 포함한다. 컴퓨터 저장 매체들은 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크들(DVD) 또는 다른 광 디스크 저장 장치, 자기 카세트들, 자기 테이프, 자기 디스크 저장장치 또는 다른 자기 저장 디바이스들, 또는 원하는 정보를 저장하는데 사용될 수 있다. 또한, 통신 매체들이 통상적으로 컴퓨터 판독 가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 반송파 또는 다른 전송 메커니즘과 같이 변조된 데이터 신호의 다른 데이터를 구현하고 임의의 정보 전달 매체들을 포함한다는 것은 당업자에게 잘 알려져 있다.
102: 업믹스 매트릭스 인코딩
104: 오디오 객체들
106: 다운믹스
108: 필터 뱅크
112: 업믹스 파라미터 분석
202: 수신
204: 인덱싱
206: 연관
208: 인코딩
502: 업믹스 매트릭스 디코딩
506: 수신
508: 업믹스
510: 다운믹스 신호
514: 렌더링
602: 수신
604: 인덱싱
606: 연관
608: 디코딩
1102: 수신
1104: 선택
1106: 인코딩
1202: 업믹스 매트릭스 요소 디코딩
1206: 수신
1208: 재구성
1216: 렌더링

Claims (34)

  1. 오디오 인코딩 시스템에서 파라미터들의 벡터를 인코딩하는 방법으로서, 각각의 파라미터는 비-주기적인 양(non-periodic quantity)에 대응하고, 상기 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 갖는, 상기 인코딩 방법에 있어서:
    상기 벡터 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱스 값으로 나타내는 단계;
    상기 적어도 하나의 제 2 요소의 각각을 심볼과 연관시키는 단계로서,
    상기 심볼은,
    상기 제 2 요소의 인덱스 값과 상기 벡터에서 상기 제 2 요소에 앞선 요소의 인덱스 값 사이의 차를 산출하고,
    모듈로 N을 상기 차에 적용함으로써 산출되는, 상기 연관시키는 단계; 및
    상기 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 단계를 포함하고
    상기 방법은 또한:
    상기 벡터 내의 제 1 요소를 심볼과 연관시키는 단계로서,
    상기 심볼은,
    상기 인덱스 값으로부터 오프-셋 값을 감산함으로써 상기 벡터 내의 제 1 요소를 나타내는 인덱스 값을 시프트시키고,
    모듈로 N을 상기 시프트된 인덱스 값에 적용함으로써 산출되는, 상기 연관시키는 단계; 및
    상기 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 확률 테이블을 사용하여 상기 제 1 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 제 1 요소를 인코딩하는 단계를 더 구비하는, 인코딩 방법.
  2. 제 1 항에 있어서,
    상기 오프-셋 값은, 상기 확률 테이블에서 상기 제 1 요소에 대해 최상 확률의 인덱스 값(most probable index value)과 상기 적어도 하나의 제 2 요소에 대해 최상 확률의 심볼 사이의 차와 동일한, 인코딩 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 파라미터들의 벡터의 상기 제 1 요소 및 상기 적어도 하나의 제 2 요소는 특정의 시간 프레임에서 상기 오디오 인코딩 시스템에 사용된 상이한 주파수 대역들에 대응하는, 인코딩 방법.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 파라미터들의 벡터의 상기 제 1 요소 및 상기 적어도 하나의 제 2 요소는 특정의 주파수 대역에서 상기 오디오 인코딩 시스템에 사용된 상이한 시간 프레임들에 대응하는, 인코딩 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 확률 테이블은 호프만 코드북(Huffman codebook)으로 변환되고, 상기 벡터 내의 요소와 연관되는 심볼은 코드북 인덱스로서 사용되며, 상기 인코딩 단계는 상기 제 2 요소와 연관된 코드북 인덱스에 의해 인덱싱된 상기 코드북 내의 한 코드워드로 상기 제 2 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 단계를 포함하는, 인코딩 방법.
  6. 제 5 항에 있어서,
    상기 인코딩 단계는 상기 제 1 요소와 연관된 코드북 인덱스에 의해 인덱싱된 호프만 코드북 내의 한 코드워드로 상기 제 1 요소를 나타냄으로써 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용된 동일한 호프만 코드북을 사용하여 상기 벡터 내의 상기 제 1 요소를 인코딩하는 단계를 포함하는, 인코딩 방법.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 파라미터들의 벡터는 상기 오디오 인코딩 시스템에 의해 결정된 업믹스 매트릭스 내의 요소에 대응하는, 인코딩 방법.
  8. 오디오 인코딩 시스템에서 파라미터들의 벡터를 인코딩하는 인코더로서, 각각의 파라미터는 비-주기적인 양에 대응하고, 상기 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 갖는, 상기 인코더에 있어서:
    상기 벡터를 수신하도록 적응된 수신 구성요소;
    상기 벡터 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱스 값으로 나타내도록 적응된 인덱싱 구성요소;
    상기 적어도 하나의 제 2 요소의 각각을 심볼과 연관시키도록 적응된 연관 구성요소로서,
    상기 심볼은:
    상기 제 2 요소의 인덱스 값과 상기 벡터에서 상기 제 2 요소에 앞선 요소의 인덱스 값 사이의 차를 산출하고,
    모듈로 N을 상기 차에 적용함으로써 산출되는, 상기 연관 구성요소; 및
    상기 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 적어도 하나의 제 2 요소의 각각을 인코딩하는 인코딩 구성요소를 구비하고,
    상기 연관 구성요소는 상기 벡터 내의 제 1 요소를 심볼과 연관시키도록 적응되고,
    상기 심볼은,
    상기 인덱스 값으로부터 오프-셋 값을 감산함으로써 상기 벡터 내의 제 1 요소를 나타내는 인덱스 값을 시프트시키고,
    모듈로 N을 상기 시프트된 인덱스 값에 적용함으로써 산출되며,
    상기 인코딩 구성요소는 상기 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 확률 테이블을 사용하여 상기 제 1 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 제 1 요소를 인코딩하도록 적응되는, 인코더.
  9. 오디오 디코딩 시스템에서 엔트로피 코딩된 심볼들의 벡터를 비-주기적인 양과 관련된 파라미터들의 벡터로 디코딩하는 방법으로서, 상기 엔트로피 코딩된 심볼들의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하고, 상기 파라미터들의 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 포함하는, 상기 디코딩 방법에 있어서:
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타내는 단계;
    상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키는 단계;
    상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키는 단계로서,
    상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 인덱스 값은,
    상기 엔트로피 코딩된 심볼들의 벡터에서 상기 제 2 엔트로피 코딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔트로 피 코딩된 심볼을 나타내는 심볼의 합을 산출하고,
    모듈로 N을 상기 합에 적용함으로써 산출되는, 상기 연관시키는 단계; 및
    상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내는 단계를 구비하며,
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 심볼로 나타내는 상기 단계는 상기 엔트로피 코딩된 심볼들의 벡터 내의 모든 엔트로피 코딩된 심볼들에 대해 동일한 확률 테이블을 사용하여 실행되고,
    상기 제 1 엔트로피 코딩된 심볼과 연관된 인텍스 값은,
    상기 심볼에 오프-셋 값을 가산함으로써 상기 엔트로피 코딩된 심볼들 의 벡터 내의 상기 제 1 엔트로피 코딩된 심볼을 나타내는 심볼을 시프트하 고,
    모듈로 N을 상기 시프트된 심볼에 적용함으로써 산출되고,
    상기 방법은:
    상기 파라미터들의 벡터의 상기 제 1 요소를 상기 제 1 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내는 단계를 더 구비하는, 디코딩 방법.
  10. 제 9 항에 있어서,
    상기 확률 테이블은 호프만 코드북으로 변환될 수 있으며, 각각의 엔트로피 코딩된 심볼은 상기 호프만 코드북 내의 코드워드에 대응하는, 디코딩 방법.
  11. 제 10 항에 있어서,
    상기 호프만 코드북 내의 각각의 코드워드는 코드북 인덱스와 연관되고, 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 심볼로 나타내는 단계는, 상기 엔트로피 코딩된 심볼을 상기 엔트로피 코딩된 심볼에 대응하는 상기 코드워드와 연관되는 코드북 인덱스로 나타내는 단계를 포함하는, 디코딩 방법.
  12. 제 9 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼은 특정 시간 프레임에서 상기 오디오 디코딩 시스템에서 사용된 상이한 주파수 대역들에 대응하는, 디코딩 방법.
  13. 제 9 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼은 특정 주파수 대역에서 상기 오디오 디코딩 시스템에서 사용된 상이한 시간 프레임들에 대응하는, 디코딩 방법.
  14. 제 9 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 파라미터들의 벡터는 상기 오디오 디코딩 시스템에 의해 사용된 업믹스 매트릭스 내의 요소에 대응하는, 디코딩 방법.
  15. 오디오 디코딩 시스템에서 엔트로피 코딩된 심볼들의 벡터를 비-주기적인 양과 관련된 파라미터들의 벡터로 디코딩하는 디코더로서, 상기 엔트로피 코딩된 심볼들의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하고, 상기 파라미터들의 벡터는 제 1 요소 및 적어도 하나의 제 2 요소를 포함하는, 상기 디코더에 있어서:
    상기 엔트로피 코딩된 심볼들의 벡터를 수신하도록 구성된 수신 구성요소;
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타내도록 구성된 인덱싱 구성요소;
    상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키도록 구성된 연관 구성요소로서, 상기 연관 구성요소는 또한 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키도록 구성되고, 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 인덱스 값은,
    상기 엔트로피 코딩된 심볼들의 벡터에서 상기 제 2 엔트로피 코딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔트로 피 코딩된 심볼을 나타내는 심볼의 합을 산출하고,
    모듈로 N을 상기 합에 적용함으로써 산출되는, 상기 연관 구성요소; 및
    상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내도록 구성된 디코딩 구성요소를 구비하며,
    상기 인덱싱 구성요소는 상기 엔트로피 코딩된 심볼들의 벡터 내의 모든 엔트로피 코딩된 심볼들에 대해 동일한 확률 테이블을 사용하여 상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심볼을 심볼로 나타내도록 구성되고, 상기 제 1 엔트로피 코딩된 심볼과 연관된 인텍스 값은,
    상기 심볼에 오프-셋 값을 가산함으로써 상기 엔트로피 코딩된 심볼들 의 벡터 내의 상기 제 1 엔트로피 코딩된 심볼을 나타내는 심볼을 시프트하 고,
    모듈로 N을 상기 시프트된 심볼에 적용함으로써 산출되고,
    상기 디코딩 구성요소는, 상기 파라미터들의 벡터의 상기 제 1 요소를 상기 제 1 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타내도록 구성되는, 디코더.
  16. 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는 방법으로서, 상기 업믹스 매트릭스의 각각의 행은 M 개의 채널들을 포함하는 다운믹스 신호로부터 오디오 객체의 시간/주파수 타일의 재구성을 가능하게 하는 M 개의 요소들을 포함하는, 상기 인코딩 방법에 있어서,
    상기 업믹스 매트릭스 내의 각각의 행에 대해:
    상기 업믹스 매트릭스 내의 상기 행의 M 개의 요소들로부터 요소들의 서브세트를 선택하는 단계;
    상기 선택된 요소들의 서브세트 내의 각각의 요소를 상기 업믹스 매트릭스 내의 값 및 위치로 나타내는 단계; 및
    상기 선택된 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 값 및 위치를 인코딩하는 단계를 구비하며,
    상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트들의 상기 요소들의 값들 및/또는 상기 요소들의 위치들은 하나 이상의 파라미터들의 벡터들을 형성하고, 상기 파라미터들의 벡터 내의 각각의 파라미터는 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응하며, 상기 파라미터들의 하나 이상의 벡터들은 제 1 항 또는 제 2 항에 따른 방법을 사용하여 인코딩되는, 인코딩 방법.
  17. 제 16 항에 있어서,
    상기 업믹스 매트릭스에서의 각각의 행에 대해, 상기 선택된 요소들의 서브세트의 상기 업믹스 매트릭스 내의 위치들은 복수의 주파수 대역들에 걸쳐 및/또는 복수의 시간 프레임들에 걸쳐 변화하는, 인코딩 방법.
  18. 제 16 항에 있어서,
    상기 선택된 요소들의 서브세트는 상기 업믹스 매트릭스의 각각의 행에 대해 동일한 수의 요소들을 포함하는, 인코딩 방법.
  19. 프로세싱 능력을 갖는 디바이스 상에서 실행될 때, 제 1 항 또는 제 2 항 중 어느 한 항의 방법을 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 저장 매체.
  20. 오디오 인코딩 시스템에서 업믹스 매트릭스를 인코딩하는 인코더로서, 상기 업믹스 매트릭스의 각각의 행은 M 개의 채널들을 포함하는 다운믹스 신호로부터 오디오 객체의 시간/주파수 타일의 재구성을 가능하게 하는 M 개의 요소들을 포함하는, 상기 인코더에 있어서:
    상기 업믹스 매트릭스 내의 각각의 행을 수신하도록 적응된 수신 구성요소;
    상기 업믹스 매트릭스 내의 상기 행의 M 개의 요소들로부터 요소들의 서브세트를 선택하도록 적응된 선택 구성요소; 및
    상기 선택된 요소들의 서브세트 내의 각각의 요소를 상기 업믹스 매트릭스 내의 값 및 위치로 나타내도록 적응된 인코딩 구성요소로서, 상기 선택된 요소들의 서브세트 내의 각각의 요소의 상기 업믹스 매트릭스 내의 값 및 위치를 인코딩하도록 또한 적응된, 상기 인코딩 구성요소를 구비하며,
    상기 업믹스 매트릭스 내의 각각의 행에 대해 및 복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 선택된 요소들의 서브세트들의 상기 요소들의 값들 및/또는 상기 요소들의 위치들은 하나 이상의 파라미터들의 벡터들을 형성하고, 상기 파라미터들의 벡터 내의 각각의 파라미터는 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응하고, 상기 파라미터들의 벡터는 제 1 소자 및 적어도 하나의 제 2 소자를 가지며,
    상기 인코딩 구성요소는 각각의 벡터에 대해:
    상기 벡터 내의 각각의 파라미터를 N 개의 값들을 취할 수 있는 인덱 스 값으로 나타내고;
    상기 적어도 하나의 제 2 요소의 각각을, 상기 제 2 요소의 인덱스 값 과 상기 벡터에서 상기 제 2 요소에 앞선 요소의 인덱스 값 사이의 차를 산 출하고 모듈로 N을 상기 차에 적용함으로써 산출되는 심볼과 연관시키고,
    상기 심볼들의 확률들을 포함하는 확률 테이블에 기초하여 상기 적어 도 하나의 제 2 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 적어도 하 나의 제 2 요소의 각각을 인코딩하고,
    상기 벡터 내의 제 1 요소를, 상기 인덱스 값으로부터 오프-셋 값을 감산함으로써 상기 벡터 내의 제 1 요소를 나타내는 인덱스 값을 시프트시키 고 모듈로 N을 상기 시프트된 인덱스 값에 적용함으로써 산출되는 심볼과 연 관시키고,
    상기 적어도 하나의 제 2 요소를 인코딩하는데 사용되는 동일한 확률 테이블을 사용하여 상기 제 1 요소와 연관된 심볼의 엔트로피 코딩에 의해 상기 제 1 요소를 인코딩함으로써, 상기 파라미터들의 하나 이상의 벡터들을 인코딩하도록 적응된, 인코더.
  21. 오디오 디코딩 시스템에서 오디오 객체의 시간/주파수 타일을 재구성하는 방법에 있어서:
    M 개의 채널들을 포함하는 다운믹스 신호를 수신하는 단계;
    업믹스 매트릭스 내의 행의 M 개의 요소들의 서브세트를 나타내는 적어도 하나의 인코딩된 요소를 수신하는 단계로서, 각각의 인코딩된 요소는 상기 업믹스 매트릭스 내의 상기 행 내의 값 및 위치를 포함하고, 상기 위치는 상기 인코딩된 요소가 대응하는 다운믹스 신호의 상기 M 개의 채널들 중 하나를 나타내는, 상기 수신 단계; 및
    상기 적어도 하나의 인코딩된 요소에 대응하는 다운믹스 채널들의 선형 조합을 형성함으로써 상기 다운믹스 신호로부터 상기 오디오 객체의 시간/주파수 타일을 재구성하는 단계로서, 상기 선형 조합에서 각각의 다운믹스 채널은 그에 대응하는 인코딩된 요소의 값으로 곱해지는, 상기 재구성 단계를 구비하며,
    복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 적어도 하나의 인코딩된 요소의 값들 및/또는 위치들은 하나 이상의 벡터들을 형성하며, 각각의 위치는 엔트로피 코딩된 심볼로 나타내지고, 엔트로피 코딩된 심볼들의 각각의 벡터 내의 각각의 심볼은 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응하며, 상기 엔트로피 코딩된 심볼들의 하나 이상의 벡터들은 제 9 항 내지 제 11 항 중 어느 한 항에 따른 방법을 사용하여 디코딩되는, 재구성 방법.
  22. 제 21 항에 있어서,
    상기 적어도 하나의 인코딩된 요소의 위치들은 복수의 주파수 대역들에 걸쳐 및/또는 복수의 시간 프레임들에 걸쳐 변화하는, 재구성 방법.
  23. 프로세싱 능력을 갖는 디바이스 상에서 실행될 때, 제 9 항 내지 제 11 항 중 어느 한 항의 방법을 실행하도록 적응된 컴퓨터 코드 명령들을 구비하는 컴퓨터-판독 가능한 저장 매체.
  24. 오디오 객체의 시간/주파수 타일을 재구성하는 디코더에 있어서:
    업믹스 매트릭스 내의 행의 M 개의 요소들의 서브세트를 나타내는 적어도 하나의 인코딩된 요소 및 M 개의 채널들을 포함하는 다운믹스 신호를 수신하도록 구성된 수신 구성요소로서, 각각의 인코딩된 요소는 상기 업믹스 매트릭스 내의 상기 행의 값 및 위치를 포함하고, 상기 위치는 상기 인코딩된 요소가 대응하는 다운믹스 신호의 M 개의 채널들 중 하나를 나타내는, 상기 수신 구성요소; 및
    상기 적어도 하나의 인코딩된 요소에 대응하는 다운믹스 채널들의 선형 조합을 형성함으로써 상기 다운믹스 신호로부터 상기 오디오 객체의 시간/주파수 타일을 재구성하도록 구성된 재구성 구성요소로서, 상기 선형 조합에서 각각의 다운믹스 채널은 그에 대응하는 인코딩된 요소의 값으로 곱해지는, 상기 재구성 구성요소를 구비하며,
    복수의 주파수 대역들 또는 복수의 시간 프레임들에 대해, 상기 적어도 하나의 인코딩된 요소의 값들 및/또는 위치들은 하나 이상의 벡터들을 형성하며, 각각의 위치는 엔트로피 코딩된 심볼로 나타내지고, 엔트로피 코딩된 심볼들의 각각의 벡터 내의 각각의 심볼은 상기 복수의 주파수 대역들 또는 상기 복수의 시간 프레임들 중 하나에 대응하며,
    상기 디코더는 상기 엔트로피 코딩된 심볼들의 하나 이상의 벡터들을 파라미터들의 하나 이상의 벡터들로 디코딩하도록 구성된 디코딩 구성요소를 더 구비하고,
    엔트로피 코딩된 심볼들의 각각의 벡터는 제 1 엔트로피 코딩된 심볼 및 적어도 하나의 제 2 엔트로피 코딩된 심볼을 포함하고, 파라미터들의 각각의 벡터는 제 1 소자 및 적어도 하나의 제 2 소자를 포함하며,
    상기 디코딩 구성요소는:
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심 볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타 내고;
    상기 제 1 엔트로피 코딩된 심볼을 인덱스 값과 연관시키고;
    상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 각각을 인덱스 값과 연관시키는 것으로서, 상기 적어도 하나의 제 2 엔트로피 코딩된 심볼의 인 덱스 값이 상기 엔트로피 코딩된 심볼들의 벡터에서 상기 제 2 엔트로피 코 딩된 심볼에 앞선 엔트로피 코딩된 심볼과 연관된 인덱스 값과 상기 제 2 엔 트로피 코딩된 심볼을 나타내는 심볼의 합을 산출하고 모듈로 N을 상기 합에 적용함으로써 산출되고;
    상기 파라미터들의 벡터의 상기 적어도 하나의 제 2 요소를 상기 적어 도 하나의 제 2 엔트로피 코딩된 심볼과 연관된 인덱스 값에 대응하는 파라 미터 값으로 나타내고;
    상기 엔트로피 코딩된 심볼들의 벡터 내의 각각의 엔트로피 코딩된 심 볼을 확률 테이블을 사용하여 N 개의 정수 값들을 취할 수 있는 심볼로 나타 내는 단계가 상기 엔트로피 코딩된 심볼들의 벡터 내의 모든 엔트로피 코딩 된 심볼들에 대해 동일한 확률 테이블을 사용하여 실행되며;
    상기 제 1 엔트로피 코딩된 심볼과 연관된 인텍스 값이, 상기 심볼에 오프-셋 값을 가산함으로써 상기 엔트로피 코딩된 심볼들의 벡터 내의 상기 제 1 엔트로피 코딩된 심볼을 나타내는 심볼을 시프트하고 모듈로 N을 상기 시프트된 심볼에 적용함으로써 산출되고;
    상기 파라미터들의 벡터의 상기 제 1 요소를 상기 제 1 엔트로피 코딩 된 심볼과 연관된 인덱스 값에 대응하는 파라미터 값으로 나타냄으로써, 상기 엔트로피 코딩된 심볼들의 하나 이상의 벡터들의 각각을 디코딩하도록 구성되는, 디코더.
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
KR1020157036397A 2013-05-24 2014-05-23 오디오 인코더 및 디코더 KR101763131B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361827264P 2013-05-24 2013-05-24
US61/827,264 2013-05-24
PCT/EP2014/060731 WO2014187988A2 (en) 2013-05-24 2014-05-23 Audio encoder and decoder

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177020394A Division KR101895198B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더

Publications (2)

Publication Number Publication Date
KR20160013154A KR20160013154A (ko) 2016-02-03
KR101763131B1 true KR101763131B1 (ko) 2017-07-31

Family

ID=50771514

Family Applications (9)

Application Number Title Priority Date Filing Date
KR1020157036397A KR101763131B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020177020394A KR101895198B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020217015014A KR102384348B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020207002641A KR102192245B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020207035676A KR102280461B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020237028826A KR20230129576A (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020227036517A KR102572382B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020227011202A KR102459010B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020187024874A KR102072777B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더

Family Applications After (8)

Application Number Title Priority Date Filing Date
KR1020177020394A KR101895198B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020217015014A KR102384348B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020207002641A KR102192245B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020207035676A KR102280461B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020237028826A KR20230129576A (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020227036517A KR102572382B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020227011202A KR102459010B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더
KR1020187024874A KR102072777B1 (ko) 2013-05-24 2014-05-23 오디오 인코더 및 디코더

Country Status (19)

Country Link
US (7) US9704493B2 (ko)
EP (5) EP3005350B1 (ko)
JP (5) JP6105159B2 (ko)
KR (9) KR101763131B1 (ko)
CN (2) CN105229729B (ko)
AU (1) AU2014270301B2 (ko)
BR (1) BR112015029031B1 (ko)
CA (4) CA3077876C (ko)
DK (1) DK3005350T3 (ko)
ES (3) ES2965423T3 (ko)
HK (1) HK1217246A1 (ko)
IL (1) IL242410B (ko)
MX (2) MX350117B (ko)
MY (1) MY173644A (ko)
PL (1) PL3005350T3 (ko)
RU (3) RU2676041C1 (ko)
SG (2) SG10201710019SA (ko)
UA (1) UA112833C2 (ko)
WO (1) WO2014187988A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087971A (ko) * 2013-05-24 2017-07-31 돌비 인터네셔널 에이비 오디오 인코더 및 디코더

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712630B (zh) 2013-05-24 2023-05-30 杜比国际公司 包括音频对象的音频场景的高效编码
CN105229731B (zh) 2013-05-24 2017-03-15 杜比国际公司 根据下混的音频场景的重构
MY178342A (en) 2013-05-24 2020-10-08 Dolby Int Ab Coding of audio scenes
KR101760248B1 (ko) 2013-05-24 2017-07-21 돌비 인터네셔널 에이비 오디오 오브젝트들을 포함한 오디오 장면들의 효율적 코딩
EP3074970B1 (en) 2013-10-21 2018-02-21 Dolby International AB Audio encoder and decoder
EP3127109B1 (en) 2014-04-01 2018-03-14 Dolby International AB Efficient coding of audio scenes comprising audio objects
GB2528460B (en) 2014-07-21 2018-05-30 Gurulogic Microsystems Oy Encoder, decoder and method
KR20180026528A (ko) * 2015-07-06 2018-03-12 노키아 테크놀로지스 오와이 오디오 신호 디코더를 위한 비트 에러 검출기
US9961475B2 (en) * 2015-10-08 2018-05-01 Qualcomm Incorporated Conversion from object-based audio to HOA
US10249312B2 (en) 2015-10-08 2019-04-02 Qualcomm Incorporated Quantization of spatial vectors
KR102546098B1 (ko) * 2016-03-21 2023-06-22 한국전자통신연구원 블록 기반의 오디오 부호화/복호화 장치 및 그 방법
CN107886960B (zh) * 2016-09-30 2020-12-01 华为技术有限公司 一种音频信号重建方法及装置
CN116324979A (zh) * 2020-09-28 2023-06-23 三星电子株式会社 音频编码装置和方法,以及音频解码装置和方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040039568A1 (en) 2001-09-28 2004-02-26 Keisuke Toyama Coding method, apparatus, decoding method and apparatus

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5470801A (en) 1977-11-16 1979-06-07 Mitsubishi Monsanto Chem Sound shielding plate
JPS615159A (ja) 1984-06-16 1986-01-10 株式会社アイジー技術研究所 サイデイングボ−ド
DE4423612A1 (de) 1994-07-06 1996-01-11 Basf Ag 2-[(Dihydro)pyrazolyl-3'-oxymethylen]-anilide, Verfahren zu ihrer Herstelung und ihre Verwendung
WO2002052732A1 (en) * 2000-12-22 2002-07-04 Sony Corporation Encoder and decoder
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP3982397B2 (ja) * 2001-11-28 2007-09-26 日本ビクター株式会社 可変長符号化データ復号化用プログラム及び可変長符号化データ受信用プログラム
US7263692B2 (en) * 2003-06-30 2007-08-28 Intel Corporation System and method for software-pipelining of loops with sparse matrix routines
EP3869802A1 (en) * 2004-01-20 2021-08-25 Panasonic Intellectual Property Corporation of America Picture coding and decoding method and apparatus and program thereof
US7895034B2 (en) * 2004-09-17 2011-02-22 Digital Rise Technology Co., Ltd. Audio encoding system
US20060080090A1 (en) 2004-10-07 2006-04-13 Nokia Corporation Reusing codebooks in parameter quantization
US20070055510A1 (en) 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
KR100857119B1 (ko) 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
CN101401153B (zh) 2006-02-22 2011-11-16 法国电信公司 Celp技术中改进的数字音频信号的编码/解码
MX2008010836A (es) * 2006-02-24 2008-11-26 France Telecom Un metodo para codificacion binaria de indices de cuantificacion de una envoltura de señal, un metodo para descodificar una envoltura de señal, y modulos de codificacion y descodificacion correspondiente.
PL2068307T3 (pl) * 2006-10-16 2012-07-31 Dolby Int Ab Udoskonalony sposób kodowania i odtwarzania parametrów w wielokanałowym kodowaniu obiektów poddanych procesowi downmiksu
US7953595B2 (en) 2006-10-18 2011-05-31 Polycom, Inc. Dual-transform coding of audio signals
RU2509379C2 (ru) 2008-07-10 2014-03-10 Войсэйдж Корпорейшн Устройство и способ квантования и обратного квантования lpc-фильтров в суперкадре
MX2011000382A (es) 2008-07-11 2011-02-25 Fraunhofer Ges Forschung Codificador de audio, decodificador de audio, metodos para la codificacion y decodificacion de audio; transmision de audio y programa de computacion.
CA2739736C (en) 2008-10-08 2015-12-01 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-resolution switched audio encoding/decoding scheme
EP2214161A1 (en) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal
US8194862B2 (en) 2009-07-31 2012-06-05 Activevideo Networks, Inc. Video game system with mixing of independent pre-encoded digital audio bitstreams
UA48138U (ru) 2009-08-31 2010-03-10 Винницкий Национальный Технический Университет Способ направленного поиска векторов при уплотнении языковых сигналов
US9117458B2 (en) 2009-11-12 2015-08-25 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
US8505001B2 (en) 2009-12-17 2013-08-06 Broadcom Corporation Method and system for utilizing data flow graphs to compile shaders
TR201901336T4 (tr) 2010-04-09 2019-02-21 Dolby Int Ab Mdct-tabanlı karmaşık tahmin stereo kodlama.
ES2953084T3 (es) 2010-04-13 2023-11-08 Fraunhofer Ges Forschung Decodificador de audio para procesar audio estéreo usando una dirección de predicción variable
US9112591B2 (en) 2010-04-16 2015-08-18 Samsung Electronics Co., Ltd. Apparatus for encoding/decoding multichannel signal and method thereof
KR101798079B1 (ko) * 2010-05-10 2017-11-16 삼성전자주식회사 픽셀값의 차분을 이용하여 영상 프레임을 부호화하는 방법 및 이를 위한 장치
US8660195B2 (en) 2010-08-10 2014-02-25 Qualcomm Incorporated Using quantized prediction memory during fast recovery coding
US9111526B2 (en) * 2010-10-25 2015-08-18 Qualcomm Incorporated Systems, method, apparatus, and computer-readable media for decomposition of a multichannel music signal
US9881625B2 (en) * 2011-04-20 2018-01-30 Panasonic Intellectual Property Corporation Of America Device and method for execution of huffman coding
WO2013064957A1 (en) * 2011-11-01 2013-05-10 Koninklijke Philips Electronics N.V. Audio object encoding and decoding
EP3748632A1 (en) * 2012-07-09 2020-12-09 Koninklijke Philips N.V. Encoding and decoding of audio signals
RU2676041C1 (ru) 2013-05-24 2018-12-25 Долби Интернэшнл Аб Аудиокодер и аудиодекодер

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040039568A1 (en) 2001-09-28 2004-02-26 Keisuke Toyama Coding method, apparatus, decoding method and apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Gerard Hotho, et al. Multichannel coding of applause signals. EURASIP Journal on Advances in Signal Processing, 2008.01, pp.1-9.
Seung Jun Lee, et al. An efficient Huffman table sharing method for memory-constrained entropy coding of multiple sources. Signal Processing: Image Communication 13, 1998, Vol.13, No,2, pp.99-110.

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087971A (ko) * 2013-05-24 2017-07-31 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
US9940939B2 (en) 2013-05-24 2018-04-10 Dolby International Ab Audio encoder and decoder
KR20180099942A (ko) * 2013-05-24 2018-09-05 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR101895198B1 (ko) * 2013-05-24 2018-09-07 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
US10418038B2 (en) 2013-05-24 2019-09-17 Dolby International Ab Audio encoder and decoder
KR102072777B1 (ko) 2013-05-24 2020-02-03 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR20200013091A (ko) * 2013-05-24 2020-02-05 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
US10714104B2 (en) 2013-05-24 2020-07-14 Dolby International Ab Audio encoder and decoder
KR102192245B1 (ko) 2013-05-24 2020-12-17 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR20200145837A (ko) * 2013-05-24 2020-12-30 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR20210060660A (ko) * 2013-05-24 2021-05-26 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
US11024320B2 (en) 2013-05-24 2021-06-01 Dolby International Ab Audio encoder and decoder
KR102280461B1 (ko) 2013-05-24 2021-07-22 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR102384348B1 (ko) 2013-05-24 2022-04-08 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR20220045259A (ko) * 2013-05-24 2022-04-12 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR102459010B1 (ko) 2013-05-24 2022-10-27 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
KR20220148314A (ko) * 2013-05-24 2022-11-04 돌비 인터네셔널 에이비 오디오 인코더 및 디코더
US11594233B2 (en) 2013-05-24 2023-02-28 Dolby International Ab Audio encoder and decoder
KR102572382B1 (ko) 2013-05-24 2023-09-01 돌비 인터네셔널 에이비 오디오 인코더 및 디코더

Also Published As

Publication number Publication date
EP4290510A3 (en) 2024-02-14
KR102572382B1 (ko) 2023-09-01
RU2015155311A (ru) 2017-06-30
RU2643489C2 (ru) 2018-02-01
AU2014270301B2 (en) 2017-08-03
US11594233B2 (en) 2023-02-28
CN105229729B (zh) 2019-03-19
CA2911746A1 (en) 2014-11-27
EP3961622B1 (en) 2023-11-01
AU2014270301A1 (en) 2015-11-19
BR112015029031B1 (pt) 2021-02-23
MY173644A (en) 2020-02-13
SG11201509001YA (en) 2015-12-30
CA3077876A1 (en) 2014-11-27
US10714104B2 (en) 2020-07-14
EP3252757B1 (en) 2019-12-25
JP2021179627A (ja) 2021-11-18
US10418038B2 (en) 2019-09-17
US20180240465A1 (en) 2018-08-23
ES2902518T3 (es) 2022-03-28
US20170309279A1 (en) 2017-10-26
HK1217246A1 (zh) 2016-12-30
MX2020010038A (es) 2020-10-14
EP3252757A1 (en) 2017-12-06
JP2016526186A (ja) 2016-09-01
EP3605532A1 (en) 2020-02-05
KR20160013154A (ko) 2016-02-03
KR20170087971A (ko) 2017-07-31
KR20200013091A (ko) 2020-02-05
EP3005350B1 (en) 2017-05-10
CN110085238A (zh) 2019-08-02
ES2629025T3 (es) 2017-08-07
KR102192245B1 (ko) 2020-12-17
US20200013415A1 (en) 2020-01-09
RU2019141091A (ru) 2021-06-15
KR20200145837A (ko) 2020-12-30
JP2020016884A (ja) 2020-01-30
BR112015029031A2 (pt) 2017-07-25
RU2676041C1 (ru) 2018-12-25
KR101895198B1 (ko) 2018-09-07
US9704493B2 (en) 2017-07-11
CA2990261C (en) 2020-06-16
JP2023076575A (ja) 2023-06-01
US20160111098A1 (en) 2016-04-21
US11024320B2 (en) 2021-06-01
KR20230129576A (ko) 2023-09-08
KR102459010B1 (ko) 2022-10-27
KR102072777B1 (ko) 2020-02-03
IL242410B (en) 2018-11-29
EP3005350A2 (en) 2016-04-13
RU2710909C1 (ru) 2020-01-14
JP2017102484A (ja) 2017-06-08
KR20220148314A (ko) 2022-11-04
KR20210060660A (ko) 2021-05-26
KR102384348B1 (ko) 2022-04-08
KR102280461B1 (ko) 2021-07-22
CA3163664A1 (en) 2014-11-27
US20200411017A1 (en) 2020-12-31
WO2014187988A2 (en) 2014-11-27
US20210390963A1 (en) 2021-12-16
ES2965423T3 (es) 2024-04-15
US20230282219A1 (en) 2023-09-07
EP4290510A2 (en) 2023-12-13
US9940939B2 (en) 2018-04-10
CN105229729A (zh) 2016-01-06
DK3005350T3 (en) 2017-07-17
SG10201710019SA (en) 2018-01-30
CA3077876C (en) 2022-08-09
CN110085238B (zh) 2023-06-02
UA112833C2 (uk) 2016-10-25
KR20220045259A (ko) 2022-04-12
JP7258086B2 (ja) 2023-04-14
JP6105159B2 (ja) 2017-03-29
EP3961622A1 (en) 2022-03-02
WO2014187988A3 (en) 2015-02-05
PL3005350T3 (pl) 2017-09-29
KR20180099942A (ko) 2018-09-05
CA2990261A1 (en) 2014-11-27
EP3605532B1 (en) 2021-09-29
CA2911746C (en) 2018-02-13
JP6573640B2 (ja) 2019-09-11
JP6920382B2 (ja) 2021-08-18
MX2015015926A (es) 2016-04-06
MX350117B (es) 2017-08-28

Similar Documents

Publication Publication Date Title
KR101763131B1 (ko) 오디오 인코더 및 디코더
RU2810027C2 (ru) Аудиокодер и аудиодекодер

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant