KR20210005315A - 오디오 인코더 및 디코더 - Google Patents

오디오 인코더 및 디코더 Download PDF

Info

Publication number
KR20210005315A
KR20210005315A KR1020217000152A KR20217000152A KR20210005315A KR 20210005315 A KR20210005315 A KR 20210005315A KR 1020217000152 A KR1020217000152 A KR 1020217000152A KR 20217000152 A KR20217000152 A KR 20217000152A KR 20210005315 A KR20210005315 A KR 20210005315A
Authority
KR
South Korea
Prior art keywords
signals
waveform
stage
coded
frequency
Prior art date
Application number
KR1020217000152A
Other languages
English (en)
Other versions
KR102380370B1 (ko
Inventor
크리스토퍼 쿄어링
하이코 푸른하겐
하랄트 문트
칼 요나스 뢰덴
라이프 셸스트롬
Original Assignee
돌비 인터네셔널 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 인터네셔널 에이비 filed Critical 돌비 인터네셔널 에이비
Priority to KR1020227009866A priority Critical patent/KR20220044609A/ko
Publication of KR20210005315A publication Critical patent/KR20210005315A/ko
Application granted granted Critical
Publication of KR102380370B1 publication Critical patent/KR102380370B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)

Abstract

본 발명의 개시는 입력 신호에 기초하여 다-채널 오디오 신호를 인코딩 및 디코딩하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제공한다. 이러한 개시에 따라, 처리된 다-채널 오디오 신호의 파라메트릭 스테레오 코딩 및 이산적 표현 양쪽 모두를 사용한 하이브리드 접근방식이 이용되어, 어떠한 비트레이트들에 대해 인코딩 및 디코딩된 오디오의 품질을 개선할 수 있다.

Description

오디오 인코더 및 디코더{AUDIO ENCODER AND DECODER}
관련 출원들에 대한 교차-참조
이 출원은, 전체 내용이 본 명세서에 참조로 포함되는, 2013년 4월 5일에 출원된 미국 가 특허 출원 번호 61/808,680에 대한 우선권을 주장한다.
기술 분야
본 발명은 일반적으로 다-채널 오디오 코딩에 관한 것이다. 특히, 본 발명은 파라메트릭 코딩(parametric coding) 및 이산적 다-채널 코딩(discrete multi-channel coding)을 구비하는 하이브리드 코딩을 위한 인코더 및 디코더에 관한 것이다.
통상의 다-채널 오디오 코딩에 있어서, 가능한 코딩 체계들은 이산적 다-채널 코딩 또는 MPEC 사운드와 같은 파라메트릭 코딩을 포함한다. 이용되는 상기 체계는 오디오 시스템의 대역폭에 의존한다. 파라메트릭 코딩 방법들은 청취 품질과 관련하여 효율적이고 스케일가능한 것으로 알려져 있으며, 이러한 것은 낮은 비트레이트 어플리케이션들에서 특히 매력적이게 한다. 높은 비트레이트 어플리케이션에서는 상기 이산적 다-채널 코딩이 종종 이용된다. 기존의 분배 또는 프로세싱 포맷들 및 관련 코딩 기술들은 그들의 대역폭 효율의 관점으로부터, 특히 상기 낮은 비트레이트와 상기 높은 비트레이트 사이의 비트레이트를 갖는 어플리케이션에서 개선될 수 있다.
US 7292901 (크룬 등)은 하이브리드 코딩 방법에 관한 것이며, 여기서 하이브리드 오디오 신호는 적어도 하나의 다운믹싱된 스펙트럼 구성요소 및 적어도 하나의 업믹싱된 스펙트럼 구성요소로부터 형성된다. 상기 방법은 그러한 어플리케이션이 특정의 비트레이트를 갖는 어플리케이션의 용량(capacity)을 증가시킨다는 점을 제시하고 있지만, 오디오 프로세싱 시스템의 효율을 더 증가시켜야하는 추가의 개선들이 요구될 수 있다.
본원 청구범위(또는 그 보정)에 기재된 바와 같은 구성을 개시한다.
도 1은 예시적인 실시예에 따른 디코딩 시스템의 일반화된 블록도를 도시한 도면.
도 2는 도 1에서의 디코딩 시스템의 제 1 부분을 도시한 도면.
도 3은 도 1에서의 디코딩 시스템의 제 2 부분을 도시한 도면.
도 4는 도 1에서의 디코딩 시스템의 제3 부분을 도시한 도면.
도 5는 예시적인 실시예에 따른 인코딩 시스템의 일반화된 블록도를 도시한 도면.
도 6는 예시적인 실시예에 따른 디코딩 시스템의 일반화된 블록도를 도시한 도면.
도 7는 도 6의 디코딩 시스템의 제 3 부분을 도시한 도면.
도 8은 예시적인 실시예에 따른 인코딩 시스템의 일반화된 블록도를 도시한 도면.
예시적인 실시예들이 이제 첨부된 도면들을 참조하여 기술된다.
모든 도면들은 도식적으로 나타냈으며, 일반적으로 본 개시를 상세히 설명하기 위하여 필요한 부분들만을 나타내었고, 다른 부분들은 생략되거나 단지 시사되었을 수 있다. 그렇지 않다고 명시하지 않는 한, 동일한 참조 번호들은 다른 도면들에서도 동일한 부분들로서 참조된다.
개요-디코더
본 명세서에서 사용되는 바로서, 오디오 신호는 순수한 오디오 신호, 오디오비주얼 신호 또는 멀티미디어 신호의 오디오 부분 또는 메타데이터와 결합한 이들 중 어떠한 것도 될 수 있다.
본 명세서에서 사용되는 바로서, 복수의 신호들의 다운믹싱(downmixing)은 예컨대 선형 결합들을 형성함으로써 보다 적은 수의 신호들이 얻어지도록 상기 복수의 신호들을 결합하는 것을 의미한다. 다운믹싱의 역 동작은 업믹싱(upmixing)으로 참조되며, 보다 낮은 수의 신호들에 대해 동작을 실행하여 보다 높은 수의 신호들을 얻게 한다.
제 1 관점에 따라, 예시적인 실시예들은 입력 신호에 기초하여 다-채널 오디오 신호를 재구성하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제안한다. 상기 제안된 방법들, 디바이스들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들 및 이점들을 갖는다.
예시적인 실시예들에 따라, M 개의 인코딩된 채널들을 재구성하기 위한 다-채널 오디오 프로세싱 시스템을 위한 디코더가 제공된다. 여기서, M > 2. 상기 디코더는 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 파형-코딩된 다운믹스 신호들을 수신하도록 구성된 제 1 수신 스테이지를 구비한다. 여기서, 1<N<M.
상기 디코더는 또한 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 M 개의 파형-코딩된 신호들을 수신하도록 구성된 제 2 수신 스테이지를 더 구비하며, 상기 M 개의 파형-코딩된 신호들의 각각은 상기 M 개의 인코딩된 채널들의 각각의 하나에 대응한다.
상기 디코더는 또한 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 상기 M 개의 파형-코딩된 신호들을 다운믹싱하도록 구성된 상기 제 2 수신 스테이지의 다운믹스 스테이지 다운스트림들을 더 구비한다.
상기 디코더는 또한 상기 제 1 수신 스테이지에 의해 수신된 상기 N 개의 다운믹스 신호들의 각각과 상기 다운믹스 스테이지로부터의 상기 N 개의 다운믹스 신호들의 대응하는 하나를 N 개의 결합된 다운믹스 신호들로 결합하도록 구성된, 상기 제 1 수신 스테이지 및 상기 다운믹스 스테이지의 제 1 결합 스테이지 다운스트림들을 더 구비한다.
상기 디코더는 또한 고 주파수 재구성을 실행함으로써 상기 결합 스테이지로부터의 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하도록 구성된, 상기 제 1 결합 스테이지의 고 주파수 재구성 스테이지 다운스트림들을 더 구비한다.
상기 디코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들을 구비하는 M 개의 업믹스 신호들로 상기 고 주파수 재구성 스테이지로부터의 상기 N 개의 주파수 확장된 신호들의 파라메트릭 업믹스를 실행하도록 구성된, 상기 고 주파수 재구성 스테이지의 업믹스 스테이지 다운스트림들을 더 구비하며, 상기 M 개의 업믹스 신호들의 각각은 상기 M 개의 인코딩된 채널들 중 하나에 대응한다.
상기 디코더는 또한 상기 업믹스 스테이지로부터의 상기 M 개의 업믹스 신호들을 상기 제 2 수신 스테이지에 의해 수신된 상기 M 개의 파형-코딩된 신호들과 결합하도록 구성된, 상기 업믹스 스테이지 및 상기 제 2 수신 스테이지의 제 2 결합 스테이지 다운스트림들을 더 구비한다.
상기 M 개의 파형-코딩된 신호들은 파라메트릭 신호들이 혼합되지 않은 순수하게 파형-코딩된 신호들이며, 즉 이들은 프로세싱된 다-채널 오디오 신호의 다운믹싱되지 않은 이산적 표현(non-downmixed discrete representation)이다. 상기 저 주파수들이 이들 파형-코딩된 신호들로 표현되는 이점은 사람의 청각이 저 주파수들을 갖는 오디오 신호의 부분에 더욱 민감하다는 것일 수 있다. 보다 나은 품질을 갖는 이러한 부분을 코딩함으로써 디코딩된 오디오의 전체적인 감동이 증가할 수 있다.
적어도 두 개의 다운믹스 신호들을 갖는 이점은, 본 실시예가 단지 하나의 다운믹스 채널을 갖는 시스템들과 비교하여 상기 다운믹스 신호들의 차원수(dimensionality)의 증가를 제공한다는 것이다. 본 실시예에 따라, 보다 양호한 디코딩된 오디오 품질이 그에 따라 제공될 수 있어, 하나의 다운믹스 신호 시스템에 의해 제공되는 비트레이트에서의 이득보다 더 크게 될 수 있다.
파라메트릭 다운믹스 및 이산적 다-채널 코딩을 구비하는 하이브리드 코딩을 사용하는 이점은, 이러한 것이 HE-AAC를 갖는 MPEG 서라운드와 같이 종래의 파라메트릭 코딩 접근방식을 사용하는 것에 비하여 어떠한 비트레이트들에 대한 디코딩된 오디오 신호의 품질을 개선할 수 있다는 것이다. 72 kbps(kilobits per second) 주변의 비트레이트들에서, 종래의 파라메트릭 코딩 모델은 포화될 수 있다. 즉, 디코딩된 오디오 신호의 품질이 상기 파라메트릭 모델의 결점에 의해 제한되며, 이는 코딩을 위한 비트들의 부족에 의한 것이 아니다. 결과적으로, 약 72 kbps로부터의 비트레이트들에 대해, 이산적으로(discretely) 파형-코딩한 저 주파수들에서 비트들을 사용하는 것이 더욱 유익할 수 있다. 동시에, 파라메트릭 다운믹스 및 이산적 다-채널 코딩을 사용하는 하이브리드 접근방식은, 이러한 것이, 모든 비트들이 파형-코딩의 하위의 주파수들에서 사용되고 그리고 남아있는 주파수들에 대해 SBR(Spectral band replication)을 사용하는 것에 비해, 예컨대 128kbps 이하와 같은 어떠한 비트레이트들에 대해 디코딩된 오디오의 품질을 개선할 수 있다는 것이다.
제 1 크로스-오버 주파수와 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 데이터만을 구비하는 N 개의 파형-코딩된 다운믹스 신호들을 갖는 이점은, 오디오 신호 프로세싱 시스템을 위한 요구된 비트 전송 레이트가 감소될 수 있다는 것이다. 대안적으로, 대역 통과 필터링된 다운믹스 신호를 가짐으로써 세이브된 비트들은 파형-코딩의 보다 낮은 주파수들에 대해 사용될 수 있으며, 예컨대 그 주파수들에 대한 샘플 주파수가 보다 높아질 수 있거나, 또는 제 1 크로스-오버 주파수가 증가될 수 있다.
상술한 바와 같이, 사람의 청각은 저 주파수들을 갖는 오디오 신호의 부분에 더 민감하므로, 제 2 크로스-오버 주파수보다 높은 주파수들을 갖는 오디오 신호의 부분들과 같은 고 주파수들은 디코딩된 오디오 신호의 지각된 오디오 품질을 낮추지 않고서 고 주파수 재구성에 의해 재생성될 수 있다.
본 실시예가 갖는 추가의 이점은, 상기 업믹스 스테이지에서 실행된 파라메트릭 업믹스가 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들에 대해서만 동작하므로, 상기 업믹스의 복잡성이 감소된다는 것이다.
다른 실시예에 따라, 상기 제 1 결합 스테이지에서 실행된 결합은 주파수 도메인에서 실행되며, 여기에서 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 N 개의 파형-코딩된 다운믹스 신호들의 각각은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 N 개의 다운믹스 신호들의 대응하는 하나와 N 개의 결합된 다운믹스로 결합된다.
이러한 실시예의 이점은, M 개의 파형-코딩된 신호들 및 상기 N 개의 파형-코딩된 다운믹스 신호들이 상기 M 개의 파형-코딩된 신호들 및 상기 N 개의 파형-코딩된 다운믹스 신호들에 대해 각각 독립된 윈도윙(independent windowing)으로 오버래핑 윈도윙된 변환들을 사용하여 파형 코더에 의해 코딩될 수 있고, 여전히 상기 디코더에 의해 디코딩가능하다는 것이다.
다른 실시예에 따라, 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 고 주파수 재구성 스테이지에서 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하는 것은 주파수 도메인에서 실행된다.
다른 실시예에 따라, 상기 제 2 결합 단계에서 실행된 결합, 즉 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 M 개의 업믹스 신호들을 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 상기 M 개의 파형-코딩된 신호들과 결합하는 것은 주파수 도메인에서 실행된다.
상술한 바와 같이, QMF 도메인에서 상기 신호들을 결합하는 이점은 상기 MDCT 도메인에서 상기 신호들을 코딩하는데 사용되는 오버래핑 윈도윙된 변환들의 독립적인 윈도윙이 사용될 수 있다는 것이다.
다른 실시예에 따라, 상기 업믹스 스테이지에서 M 개의 업믹스 신호들로의 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 파라메트릭 업믹스를 실행하는 것은 주파수 도메인에서 실행된다.
또 다른 실시예에 따라, 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 상기 M 개의 파형-코딩된 신호들을 다운믹싱하는 것은 주파수 도메인에서 실행된다.
실시예에 따라, 상기 주파수 도메인은 QMF(Quadrature Mirror Filters) 도메인이다.
다른 실시예에 따라, 상기 다운믹싱 스테이지에서 실행된 다운믹싱은 시간 도메인에서 실행되며, 여기서 상기 M 개의 파형-코딩된 신호들은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 N 개의 다운믹스 신호들로 다운믹싱된다.
또 다른 실시예에 따라, 상기 제 1 크로스-오버 주파수는 상기 다-채널 오디오 프로세싱 시스템의 비트 전송 레이트에 의존한다. 이러한 것은, 상기 제 1 크로스-오버 주파수보다 낮은 주파수들을 갖는 오디오 신호의 부분이 순수하게 파형-코딩되므로, 이용가능한 대역폭이 디코딩된 오디오 신호의 품질을 개선하도록 활용될 수 있게 할 수 있다.
다른 실시예에 따라, 고 주파수 재구성 스테이지에서 고 주파수 재구성을 실행함으로써 상기 N 개의 결합된 다운믹스 신호들의 각각을 상기 제 2 크로스-오버 주파수보다 높은 주파수 범위로 확장하는 것은 고 주파수 재구성 파라미터들을 사용하여 실행된다. 상기 고 주파수 재구성 파라미터들은 상기 디코더에 의해 예컨대 상기 수신 스테이지에서 수신될 수 있으며, 이후 고 주파수 재구성 스테이지로 전송된다. 상기 고 주파수 재구성은 예를 들면 SBR(Spectral band replication)을 실행하는 것을 구비할 수 있다.
다른 실시예에 따라, 상기 업믹싱 스테이지에서의 파라메트릭 업믹스는 업믹스 파라미터들을 사용하여 행해진다. 상기 업믹스 파라미터들은 상기 인코더에 의해 예를 들면 상기 수신 스테이지에서 수신되고, 상기 업믹싱 스테이지로 전송된다. 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 역상관된 버전(decorrelated version)이 발생되어, 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들 및 상기 N 개의 주파수 확장된 결합된 다운믹스 신호들의 역상관된 버전이 매트릭스 연산(matrix operation)된다. 상기 매트릭스 연산의 파라미터들은 상기 업믹스 파라미터들에 의해 주어진다.
다른 실시예에 따라, 상기 제 1 수신 스테이지에서의 상기 수신된 N 개의 파형-코딩된 다운믹스 신호들 및 상기 제 2 수신 스테이지에서의 상기 수신된 M 개의 파형-코딩된 신호들은 상기 N 개의 파형-코딩된 다운믹스 신호들 및 상기 M 개의 파형-코딩된 신호들에 대해 독립적 윈도윙(windowing)을 갖는 오버래핑 윈도윙된 변환들(overlapping windowed transforms)을 사용하여 각각 코딩된다.
이러한 것의 이점은 이러한 것이 개선된 코딩 품질을 가능하게 할 수 있어, 디코딩된 멀티-채널 오디오 신호의 개선된 품질을 가능하게 할 수 있다는 것이다. 예를 들면, 어떠한 시간 지점에서 트랜션트(transient)가 보다 높은 주파수 대역들에서 검출된다면, 파형 코더는 보다 짧은 윈도우 시퀀스로 이러한 특정 시간 프레임을 코딩할 수 있으며, 그러는 동안 보다 낮은 주파수 대역에 대해서는 디폴트 윈도우 시퀀스가 유지될 수 있다.
실시예들에 따라, 상기 디코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비하는 추가의 파형-코딩된 신호를 수신하도록 구성된 제 3 수신 스테이지를 구비할 수 있다. 상기 디코더는 또한 상기 업믹스 스테이지의 인터리브 스테이지 다운스트림을 구비할 수 있다. 상기 인터리브 스테이지는 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하도록 구성될 수 있다. 상기 제 3 수신 스테이지는 또한 복수의 추가의 파형-코딩된 신호들을 수신하도록 구성될 수 있으며, 상기 인터리브 스테이지는 또한 상기 복수의 추가의 파형-코딩된 신호를 복수의 M 개의 업믹스 신호들과 인터리빙하도록 구성될 수 있다.
이러한 것은 상기 다운믹스 신호들로부터 파라메트릭하게(parametrically) 재구성하기 어려운 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 어떤 부분들이 파라메트릭하게 재구성된 업믹스 신호들과 인터리빙하기 위한 파형-코딩된 형태로 제공될 수 있다는 점에서 유익하다.
하나의 예시적 실시예에 있어서, 상기 인터리빙은 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 부가함으로써 실행된다. 또 다른 예시적인 실시예에 따라, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하는 단계는, 상기 추가의 파형-코딩된 신호의 스펙트럼 계수들에 대응하는 상기 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에서 상기 M 개의 업믹스 신호들 중 하나를 상기 추가의 파형-코딩된 신호로 대체하는 것을 구비한다.
예시적인 실시예들에 따라, 상기 디코더는 또한 예를 들면 상기 제 3 수신 스테이지에 의해 제어 신호를 수신하도록 구성될 수 있다. 상기 제어 신호는 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 어떻게 인터리빙하는지를 표시할 수 있으며, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 인터리빙하는 단계는 상기 제어 신호에 기초한다. 특히, 상기 제어 신호는 상기 추가의 파형-코딩된 신호가 상기 M 개의 업믹스 신호들 중 하나와 인터리빙되어질, QMF 도메인에서의 하나 이상의 시간/주파수 타일들(tiles)과 같은, 주파수 범위 및 시간 범위를 표시할 수 있다. 따라서, 인터리빙은 한 채널 내에 시간 및 주파수에서 일어날 수 있다.
이러한 것의 이점은, 상기 파형-코딩된 신호들을 코딩하는데 이용되는 오버래핑 윈도윙된 변환의 앨리어싱 또는 스타트-업/페이드-아웃 문제들을 겪지않는 시간 범위들 및 주파수 범위들이 선택될 수 있다를 것이다.
개요-인코더
제 2 관점에 따라, 예시적인 실시예들은 입력 신호에 기초하여 다-채널 오디오 신호를 인코딩하기 위한 방법들, 디바이스들 및 컴퓨터 프로그램 제품들을 제안한다.
상기 제안된 방법들, 다바이스들 및 컴퓨터 프로그램 제품들은 일반적으로 동일한 특징들 및 이점들을 가질 수 있다.
상기한 디코더의 개요에서 나타낸 바와 같은 특징들 및 구성들과 관련한 이점들은 일반적으로 인코더에 대한 대응하는 특징들 및 구성들에 대해 유효하게 될 것이다.
예시적인 실시예들에 따라, M 개의 채널들을 인코딩하기 위한 다-채널 오디오 프로세싱 시스템을 위한 인코더가 제공되며, 여기서 M>2이다.
상기 인코더는 인코딩될 상기 M 개의 채널들에 대응하는 M 개의 신호들을 수신하도록 구성된 수신 스테이지를 구비한다.
상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 주파수 범위에 대해 상기 M 개의 신호들을 개별적으로 파형-코딩함으로써 M 개의 파형-코딩된 신호들을 발생시키도록 구성된 제 1 파형-코딩 스테이지를 구비하며, 그에 의해 상기 M 개의 파형-코딩된 신호들은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.
상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 상기 M 개의 신호들을 N 개의 다운믹스 신호들로 다운믹싱하도록 구성된 다운믹싱 스테이지를 구비하며, 여기서 1<N<M 이다.
상기 인코더는 또한 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 N 개의 다운믹스 신호들을 고 주파수 재구성 인코딩하도록 구성된 고 주파수 재구성 인코딩 스테이지를 구비하며, 그에 의해 상기 고 주파수 재구성 인코딩 스테이지는 제 2 크로스-오버 주파수보다 높은 상기 N 개의 다운믹스 신호들의 고 주파수 재구성을 가능하게 하는 고 주파수 재구성 파라미터들을 추출하도록 구성된다.
상기 인코더는 또한 상기 수신 스테이지로부터 상기 M 개의 신호들을 수신하고, 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 M 개의 신호들을 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 주파수 범위에 대해 파라메트릭 인코딩하도록 구성된 파라메트릭 인코딩 스테이지를 구비하며, 그에 의해 상기 파라메트릭 인코딩 스테이지는 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위에 대해 상기 M 개의 채널들에 대응하는 M 개의 재구성된 신호들로의 상기 N 개의 다운믹스 신호들의 업믹싱을 가능하게 하는 업믹스 파라미터들을 추출하도록 구성된다.
상기 인코더는 또한 상기 다운믹싱 스테이지로부터 상기 N 개의 다운믹스 신호들을 수신하고, 상기 제 1 및 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 주파수 범위에 대해 상기 N 개의 다운믹스 신호들을 파형-코딩함으로써 N 개의 파형-코딩된 다운믹스 신호들을 발생시키도록 구성된 제 2 파형-코딩 스테이지를 구비하며, 그에 의해 상기 N 개의 파형-코딩된 다운믹스 신호들은 상기 제 1 크로스-오버 주파수와 상기 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.
한 실시예에 따라, 상기 N 개의 다운믹스 신호들을 상기 고 주파수 재구성 인코딩 스테이지에서 고 주파수 재구성 코딩하는 것은 주파수 도메인, 바람직하게는 QMF(Quadrature Mirror Filters) 도메인에서 실행된다.
다른 실시예에 따라, 상기 M 개의 신호들을 상기 파라메트릭 인코딩 스테이지에서 파라메트릭 인코딩하는 것은 주파수 도메인, 바람직하게는 QMF(Quadrature Mirror Filters) 도메인에서 실행된다.
*또 다른 실시예에 따라, 상기 제 1 파형-코딩 스테이지에서 상기 M 개의 신호들을 개별적으로 파형-코딩함으로써 M 개의 파형-코딩된 신호들을 발생시키는 것은 상기 M 개의 신호들에 오버래핑 윈도윙된 변환을 적용하는 것을 구비하고, 여기서 상이한 오버래핑 윈도우 시퀀스들이 상기 M 개의 신호들 중 적어도 두 개에 대해 사용된다.
실시예들에 따라, 상기 인코더는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트에 대응하는 주파수 범위에 대해 상기 M 개의 신호들 중 하나를 파형-코딩함으로써 추가의 파형-코딩된 신호를 발생시키도록 구성된 제 3 파형-인코딩 스테이지를 구비할 수 있다.
실시예들에 따라, 상기 인코더는 또한 제어 신호 발생 스테이지를 구비할 수 있다. 상기 제어 신호 발생 스테이지는 상기 추가의 파형-코딩된 신호를 디코더에서 상기 M 개의 신호들 중 하나의 파라메트릭 재구성으로 어떻게 인터리빙하는지를 표시하는 제어 신호를 발생시키도록 구성된다. 예를 들어, 상기 제어 신호는 상기 추가의 파형-코딩된 신호가 상기 M 개의 업믹스 신호들 중 하나와 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다.
예시적 실시예들
도 1은 M 개의 인코딩 채널들을 재구성하기 위한 다-채널 오디오 프로세싱 시스템에서의 디코더(100)의 일반화된 블록도이다. 디코더(100)는 세 개의 개념적 부분들(200, 300, 400)을 구비하고, 이에 대해서는 도 2 내지 도 4와 함께 보다 상세하게 설명될 것이다. 제 1 개념적 부분(200)에서, 인코더는 N 개의 파형-코딩된 다운믹스 신호들 및 디코딩될 다-채널 오디오 신호를 나타내는 M 개의 파형-코딩된 신호들을 수신하고, 여기서 1<N<M 이다. 설명되는 예에서는, N 은 2로 설정된다. 제 2 개념적 부분(300)에서, M 개의 파형-코딩된 신호들은 다운믹싱되어 N 개의 파형-코딩된 다운믹스 신호들과 결합된다. 이후 상기 결합된 다운믹스 신호들에 대해 고 주파수 재구성(HFR)이 실행된다. 제 3 개념적 부분(400)에서, 상기 고 주파수 재구성된 신호들은 업믹스되고, M 개의 파형-코딩된 신호들이 상기 업믹스 신호들과 결합되어 M 개의 인코딩된 채널들을 재구성한다.
도 2 내지 도 4와 함께 기술되는 예시적인 실시예에 있어서, 인코딩된 5.1 서라운드 사운드의 재구성이 기술된다. 이러한 기술된 실시예 또는 도면들에서는 저 주파수 효과 신호는 언급되지 않는다는 것이 주목될 수 있다. 이러한 것은 어떠한 저 주파수 효과들도 무시된다는 것을 의미하는 것은 아니다. 저 주파수 효과(Lfe)는 당 기술 분야에 숙련된 사람들에 의해 널리 알려진 어떠한 적절한 방식으로 재구성된 5 채널들에 부가된다. 또한 상기 기술된 디코더들은 7.1 또는 9.1 서라운드 사운드와 같이 인코딩된 서라운드 사운드의 다른 유형들에 동일하게 잘 적합된다는 것을 주목할 수 있다.
도 2는 도 1에서 디코더(100)의 제 1 개념적 부분(200)을 도시한다. 디코더는 두 개의 수신 스테이지들(212, 214)을 구비한다. 제 1 수신 스테이지(212)에서, 비트-스트림(202)은 디코딩되어 두 개의 파형-코딩된 다운믹스 신호들(208a-b)로 역양자화(dequantized)된다. 상기 두 개의 파형-코딩된 다운믹스 신호들(208a-b)의 각각은 제 1 크로스-오버 주파수(ky)와 제 2 크로스-오버 주파수(kx) 사이의 주파수들에 대응하는 트펙트럼 계수들을 구비한다.
제 2 수신 스테이지(212)에서, 비트-스트림(202)은 디코딩되어, 다섯 개의 파형-코딩된 신호들(208a-e)로 역양자화된다. 다섯 개의 파형-코딩된 다운믹스 신호들(210a-e)의 각각은 제 1 크로스-오버 주파수 kx까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.
예로서, 상기 신호들(210a-e)은 두 개의 채널 쌍 요소들 및 중심에 대한 하나의 단일 채널 요소를 구비한다. 상기 채널 쌍 요소들은 예컨대 좌측 전방과 좌측 서라운드 신호의 결합 및 우측 전방과 우측 서라운드 신호의 결합이 될 수 있다. 또 다른 예로서는 좌측 전방과 우측 전방 신호들의 결합 및 좌측 서라운드와 우측 서라운드 신호의 결합이 된다. 이들 채널 쌍 요소들은 예컨대 합-및-차 포맷(sum-and-difference format)으로 코딩될 수 있다. 오든 다섯 개의 신호들(210a-e)은 독립적 윈도윙(indenpendent windowing)으로 오버래핑 윈도윙된 변환들을 사용하여 코딩될 수 있으며, 여전히 상기 디코더에 의해 디코딩가능하다. 이러한 것은 개선된 코딩 품질을 가능하게 할 수 있으며, 따라서 개선된 품질의 디코딩된 신호를 가능하게 할 수 있다.
예로서, 제 1 크로스-오버 주파수 ky는 1.1 kHz이다. 예로서, 제 2 크로스-오버 주파수 kx는 5.6-8 kHz의 범위 내에 있다. 제 1 크로스-오버 주파수 ky는 개개의 신호 단위로도 변화할 수 있다는 것을 유념해야한다. 즉, 인코더는 특정 출력 신호에서의 신호 구성요소가 상기 스테레오 다운믹스 신호들(208a-b)에 의해 충실히 재생되지 않을 수도 있다는 것을 검출할 수 있으며, 특정한 시간 인스턴스에 대해 관련 파형 코딩된 신호, 즉 210a-e의, 대역폭, 즉 제 1 크로스-오버 주파수 ky를 상기 신호 구성요소의 적절한 파형 코딩을 행하도록 증가시킬 수 있다는 것을 유념해야한다.
본 명세서에서 이후 기술될 바와 같이, 상기 인코더(100)의 남아있는 스테이지들은 전형적으로 QMF 도메인(Quadrature Mirror Filters domain)에서 동작한다. 이러한 이유로, 수정된 이산 코사인 변환(MDCT) 형태로 수신되는, 상기 제 1 및 제 2 수신 스테이지들(212, 214)에 의해 수신된 신호들(208a-b, 210a-e)의 각각은 역(inverse) MDCT(216)를 적용함으로써 시간 도메인으로 변환된다. 이후 각각의 신호는 QMF 변환(218)을 적용함으로써 주파수 도메인으로 다시 변환된다.
도 3에서, 다섯 개의 파형-코딩된 신호들(210)이 다운믹스 스테이지(308)에서 상기 제 1 크로스-오버 주파수 ky까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는 두 개의 다운믹스 신호들(310, 312)로 다운믹스된다. 이들 다운믹스 신호들(310, 312)은, 도 2에 도시된 두 개의 다운믹스 신호들(208a-b)을 생성하기 위해 인코더에서 이용되었던 것과 동일한 다운믹싱 체계를 사용하여 저역(low pass) 다-채널 신호들(210a-e) 상에서 다운믹스를 실행함으로써 형성될 수 있다.
두 개의 새로운 다운믹스 신호들(310, 312)은 이후 제 1 결합 스테이지(320, 322)에서 대응하는 다운믹스 신호들(208a-b)과 결합되어, 결합된 다운믹스 신호들(302a-b)을 형성한다. 그에 따라 상기 결합된 다운믹스 신호들(302a-b)의 각각은, 상기 다운믹스 신호들(310, 312)로부터 비롯하는 제 1 크로스-오버 주파수 ky까지의 주파수들에 대응하는 스펙트럼 계수들과 상기 제 1 수신 스테이지(212)(도 2에 도시됨)에서 수신된 상기 두 개의 파형-코딩된 다운믹스 신호들(208a-b)로부터 비롯하는 제 1 크로스-오버 주파수 ky와 제 2 크로스-오버 주파수 kx 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다.
상기 인코더는 또한 고 주파수 재구성(HFR) 스테이지(314)를 구비한다. 상기 HFR 스테이지는 고 주파수 재구성을 실행함으로써 상기 결합 스테이지로부터의 두 개의 결합된 다운믹스 신호들(302a-b)의 각각을 제 2 크로스-오버 주파수 kx 보다 높은 주파수 범위까지 확장하도록 구성된다. 상기 실행된 고 주파수 재구성은 일부 실시예들에 따라 SBR(spectral band replication)을 실행하는 것을 구비할 수 있다. 고 주파수 재구성은 어떠한 적절한 방식으로 HFR 스테이지(314)에 의해 수신될 수 있는 고 주파수 재구성 파라미터들을 사용함으로써 행해질 수 있다.
고 주파수 재구성 스테이지(314)로부터의 출력은 상기 HFR 확장(316, 318)이 적용된 상기 다운믹스 신호들(208a-b)을 구비하는 두 개의 신호들(304a-b)이다. 상기한 바와 같이, HFR 스테이지(314)는 상기 두 개의 다운믹스 신호들(208a-b)과 결합된 제 2 수신 스테이지(214)(도 2에 도시됨)로부터의 입력 신호(210a-e)에 존재하는 주파수들에 기초하여 고 주파수 재구성을 실행한다. 다소 간소화하면, 상기 HFR 범위(316, 318)는 HFR 범위(316, 318)로 카피 업된 다운믹스 신호들(310, 312)로부터의 스펙트럼 계수들의 부분들을 구비한다. 결과적으로 상기 다섯 개의 파형-코딩된 신호들(210a-e)의 부분들이 상기 HFR 스테이지(314)로부터 상기 출력(304)의 HFR 범위(316, 318)에서 나타나게 된다.
고 주파수 재구성 스테이지(314) 이전의 다운믹싱 스테이지(308)에서의 다운믹싱 및 제 1 결합 스테이지(320, 322)에서의 결합은 시간 도메인에서, 즉 역(inverse) 수정된 이산 코사인 변환(MDCT)(216)(도 2에 도시됨)을 적용함으로써 각각의 신호가 시간 도메인으로 변환된 후, 행해질 수 있다는 것을 유념해야한다. 하지만, 파형-코딩된 신호들(210a-e) 및 파형-코딩된 다운믹스 신호들(208a-b)이 독립적 윈도윙을 갖는 오버래핑 윈도윙된 변환들을 사용하여 파형 코더에 의해 코딩될 수 있다는 것을 고려하면, 신호들(210a-e 및 208a-b)은 시간 도메인에서 매끄럽게 결합되지 않을 수도 있다. 따라서, 적어도 제 1 결합 스테이지(320, 322)에서의 결합이 QMF 도메인에서 행해진다면, 보다 나은 조절된 시나리오가 얻어진다.
도 4는 인코더(100)의 제 3 및 마지막 개념적 부분(400)을 도시한다. 상기 HFR 스테이지(314)로부터의 출력(304)은 업믹스 스테이지(402)로의 입력을 구성한다. 상기 업믹스 스테이지(402)는 주파수 확장된 신호(304a-b)에 대해 파라메트릭 업믹스를 실행함으로써 다섯 개의 신호 출력(404a-e)을 생성한다. 다섯 개의 업믹스 신호들(404a-e)의 각각은 상기 제 1 크로스-오버 주파수 ky 보다 높은 주파수들에 대한 인코딩된 5.1 서라운드 사운드에서의 다섯 개의 인코딩된 채널들 중 하나에 대응한다. 예시적인 파라메트릭 업믹스 절차에 따라, 상기 업믹스 스테이지(402)는 먼저 파라메트릭 믹싱 파라미터들을 수신한다. 상기 업믹스 스테이지(402)는 또한 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b)의 역상관된 버전들(decorrelated versions)을 발생시킨다. 상기 업믹스 스테이지(402)는 또한 상기 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b) 및 상기 두 개의 주파수 확장된 결합된 다운믹스 신호들(304a-b)의 역상관된 버전들을 매트릭스 연산하며, 여기서 상기 매트릭스 연산의 파라미터들은 업믹스 파라미터들에 의해 주어진다. 대안적으로, 당 기술분야에 공지된 어떠한 다른 파라메트릭 업믹싱 절차들이 적용될 수도 있다. 적용가능한 파라메트릭 업믹싱 절차들은 예를 들면 "MPEG Surround-The ISO/MPEG Standard for Efficient and Compatible Multichannel Audio Coding"(2008년 11월, 오디오 엔지니어링 협회의 저널, Vol. 56, No. 11, 헤레 등)에 기술되어 있다.
상기 업믹스 스테이지(402)로부터의 출력(404a-e)은 따라서 제 1 크로스-오버 주파수 ky 아래의 주파수들을 구비하지 않는다. 상기 제 1 크로스-오버 주파수 ky 까지의 주파수들에 대응하는 남아있는 스텍트럼 계수들은 상기 업믹스 신호들(404)의 타이밍과 일치하도록 지연 스테이지(412)에 의해 지연된 다섯 개의 파형-코딩된 신호들(210a-e)에 존재한다.
인코더(100)는 또한 제 2 결합 스테이지(416, 418)를 구비한다. 상기 제 2 결합 스테이지(416, 418)는 제 2 수신 스테이지(214)(도 2에 도시됨)에 의해 수신된 다섯 개의 파형-코딩된 신호들(210a-e)과 상기 다섯 개의 업믹스 신호들(404a-e)을 결합하도록 구성된다.
어떠한 현재의 Lfe 신호들도 별개의 신호로서 상기 결과적인 결합된 신호(422)에 부가될 수 있다는 것을 주목할 수도 있다. 상기 신호들(422)의 각각은 이후 역 QMF 변환(420)을 적용함으로써 시간 도메인으로 변환된다. 상기 역 QMF 변환(414)으로부터의 출력은 따라서 완전히 디코딩된 5.1 채널 오디오 신호가 된다.
도 6은 도 1의 디코딩 시스템의 수정된 디코딩 시스템(100')을 도시한다. 상기 디코딩 시스템(100')은 도 1의 개념적 부분들(200, 300 및 400)에 대응하는 개념적 부분들(200', 300' 및 400')을 포함한다. 도 1의 디코딩 시스템과 도 6의 디코딩 시스템(100') 사이의 차이는 개념적 부분(200') 내에 제 3 수신 스테이지(616)가 있고, 제 3 개념적 부분(400') 내에 인터리브 스테이지(714)가 있다는 것이다.
상기 제 3 수신 스테이지(616)는 추가의 파형-코딩된 신호를 수신하도록 구성된다. 상기 추가의 파형-코딩된 신호는 제 1 크로스-오버 주파수보다 높은 주파수들의 서브세트에 대응하는 스펙트럼 계수들을 구비한다. 상기 추가의 파형-코딩된 신호는 역 MDCT 변환(216)을 적용함으로써 시간 도메인으로 변환될 수 있다. 이는 이후 QMF 변환(218)을 적용함으로써 주파수 도메인으로 다시 변환될 수 있다.
상기 추가의 파형-코딩된 신호는 별개의 신호로서 수신될 수도 있다는 것을 이해해야한다. 하지만, 상기 추가의 파형-코딩된 신호는 또한 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상의 부분을 형성할 수도 있다. 다시 말해서, 상기 추가의 파형-코딩된 신호는 실례로 동일한 MCDT 변환을 사용하여 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상과 함께 공동으로 코딩될 수도 있다. 그렇다면, 상기 제 3 수신 스테이지(616)는 상기 제 2 수신 스테이지에 대응하는데, 즉, 상기 추가의 파형-코딩된 신호는 상기 제 2 수신 스테이지(214)를 통해 상기 다섯 개의 파형-코딩된 신호들(210a-e)과 함께 수신된다.
도 7은 도 6의 디코더(100')의 제 3 개념적 부분(300')을 보다 상세하게 도시한다. 고 주파수 확장된 다운믹스-신호들(304a-b) 및 다섯 개의 파형-코딩된 신호들(210a-e)에 부가하여 추가의 파형-코딩된 신호(710)가 상기 제 3 개념적 부분(400')에 입력된다. 도시된 예에 있어서, 상기 추가의 파형-코딩된 신호(710)는 다섯 개의 채널들 중 제 3 채널에 대응한다. 상기 추가의 파형-코딩된 신호(710)는 또한 상기 제 1 크로스-오버 주파수 ky로부터 시작하는 주파수 간격에 대응하는 스펙트럼 계수들을 구비한다. 하지만, 상기 추가의 파형-코딩된 신호(710)에 의해 커버되는 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트의 형태는 다른 실시예들에서 물론 변화될 수 있다. 또한 복수의 파형-코딩된 신호들(710a-e)이 수신될 수도 있다는 것을 유념해야하며, 여기서 상이한 파형-코딩된 신호들이 상이한 출력 채널들에 대응할 수 있다. 상기 복수의 추가의 파형-코딩된 신호들(710a-e)에 의해 커버되는 주파수 범위의 서브세트는 상기 복수의 추가의 파형-코딩된 신호들(710a-e) 중 상이한 것들 사이에서 변화할 수도 있다.
상기 추가의 파형-코딩된 신호(710)는 업믹스 스테이지(402)로부터 출력되는 업믹스 신호들(404)의 타이밍과 일치하도록 지연 스테이지(712)에 의해 지연될 수도 있다. 상기 업믹스 신호들(404) 및 상기 추가의 파형-코딩된 신호(710)는 이후 인터리브 스테이지(714)에 입력된다. 상기 인터리브 스테이지(714)는 인터리빙된 신호(704)를 생성하도록 인터리빙되는데, 즉 상기 업믹스 신호들(404)을 상기 추가의 파형-코딩된 신호(710)와 결합한다. 현재 예에 있어서, 상기 인터리브 스테이지(714)는 따라서 상기 제 3 업믹스 신호(404c)를 상기 추가의 파형-코딩된 신호(710)와 인터리빙한다. 상기 인터리빙은 두 개의 신호들을 함께 부가함으로써 실행될 수도 있다. 하지만, 대체로는, 상기 인터리빙은 신호들이 오버랩되는 시간 범위 및 주파수 범위에서 상기 업믹스 신호들(404)을 상기 추가의 파형-코딩된 신호(710)로 대체함으로써 실행된다.
인터리빙된 신호(704)는 이후 제 2 결합 스테이지(416,418)로 입력되며, 여기서 도 4를 참조하여 기술된 바와 같은 동일한 방식으로 출력 신호(722)를 발생시키도록 파형-코딩된 신호들(201a-e)과 결합된다. 상기 결합이 상기 인터리빙 이전에 실행되도록, 상기 인터리브 스테이지(714) 및 상기 제 2 결합 스테이지(416,418)의 순서가 역전될 수 있다는 것을 유념해야한다.
또한, 상기 추가의 파형-코딩된 신호(710)가 상기 다섯 개의 파형-코딩된 신호들(210a-e) 중 하나 이상의 일부를 형성하는 상황에서, 상기 제 2 결합 스테이지(416,418) 및 상기 인터리브 스테이지(714)는 단일의 스테이지로 결합될 수 있다. 특히, 그러한 결합된 스테이지는 제 1 크로스-오버 주파수 ky 까지의 주파수들에 대해 상기 다섯 개의 파형-코딩된 신호들(210a-e)의 스펙트럼 컨텐트를 이용할 것이다. 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해, 상기 결합된 스테이지는 상기 추가의 파형-코딩된 신호(710)와 인터리빙된 업믹스 신호들(404)을 이용할 것이다.
상기 인터리브 스테이지(714)는 제어 신호의 제어하에서 동작할 수도 있다. 이러한 목적으로, 상기 디코더(100')는 예컨대 상기 제 3 수신 스테이지(616)를 통해, 상기 추가의 파형-코딩된 신호를 상기 M 개의 업믹스 신호들 중 하나와 어떻게 인터리빙할 것인지를 표시하는 제어 신호를 수신할 수 있다. 예를 들면, 상기 제어 신호는 상기 추가의 파형-코딩된 신호(710)가 상기 업믹스 신호들(404) 중 하나와 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다. 예를 들면, 상기 주파수 범위 및 상기 시간 범위는 상기 인터리빙이 이루어지게 될 시간/주파수 타일들(tiles)의 형태들로 표현될 수 있다. 상기 시간/주파수 타일들은 상기 인터리빙이 일어나게 되는 QMF 도메인의 시간/주파수 그리드(grid)와 관련한 시간/주파수 타일들이 될 수 있다.
상기 제어 신호는 인터리빙이 이루어지게 될 상기 시간/주파수 타일들을 표시하도록 이진 벡터들과 같은 벡터들을 사용할 수 있다. 특히, 인터리빙이 실행되어질 주파수들을 표시하는, 주파수 방향에 관한 제 1 벡터가 있을 수 있다. 상기 표시는 예컨대 상기 제 1 벡터에서 대응하는 주파수 간격에 대해 논리 1(logic one)을 표시함으로써 이루어질 수 있다. 또한, 인터리빙이 실행되어질 시간 간격들을 표시하는, 시간 방향과 관련한 제 2 벡터가 있을 수 있다. 이러한 표시는 예컨대 상기 제 2 벡터에서 대응하는 시간 간격에 대해 논리 1을 표시함으로써 이루어질 수 있다. 이러한 목적으로, 시간 프레임은 전형적으로 복수의 시간 슬롯들로 분리되어, 상기 시간 표시가 서브-프레임 단위로 이루어질 수 있다. 상기 제 1 및 제 2 벡터들을 교차시킴으로써, 시간/주파수 매트릭스가 구성될 수 있다. 실례로, 시간/주파수 매트릭스는 상기 제 1 및 제 2 벡터들이 논리 1을 표시하는 각각의 시간/주파수 타일에 대해 논리 1을 구비하는 이진 매트릭스가 될 수 있다. 상기 인터리브 스테이지(714)는 이후 인터리빙 실행시 상기 시간/주파수 매트릭스를 사용할 수도 있어, 실례로 상기 업믹스 신호들(714) 중 하나 이상이 상기 시간/주파수 매트릭스에서 논리 1에 의해서와 같이 표시되는 시간/주파수 타일들에 대해 상기 추가의 파형-코딩된 신호(710)로 교체된다.
인터리빙이 이루어지게 될 시간/주파수 타일들을 표시하기 위해 상기 벡터들은 이진 체계와는 다른 체계들을 사용할 수도 있다는 것을 유념해야한다. 예를 들면, 벡터들은 인터리빙이 이루어지지 않는 제로와 같은 제 1 값에 의해 및 인터리빙이 이루어지게 되는 제 2 값에 의해 표시될 수 있으며, 상기 인터리빙은 상기 제 2 값에 의해 식별되는 임의의 채널과 관련하여 이루어진다.
도 5는 실시예에 따라 M 개의 채널들을 인코딩하기 위한 다-채널 오디오 프로세싱 시스템에 대한 인코딩 시스템(500)의 개략적인 블록도를 예시적으로 도시한 것이다.
도 5에 도시된 예시적인 실시예에서, 5.1 서라운드 사운드의 인코딩이 기술된다. 따라서, 도시된 예에서 M은 다섯으로 설정된다. 기술되는 실시예에서 또는 도면들에서, 저 주파수 효과 신호는 언급되지 않는 것을 유의해야 할 수 있다. 이러한 것은 어떠한 저 주파수 효과도 무시된다는 것을 의미하는 것은 아니다. 저 주파수 효과들(Lfe)은 당 기술분야에 숙련된 사람에게 널지 공지된 어떠한 적절한 방식으로 비트스트림(552)에 부가된다. 또한, 기술된 인코더는 7.1 또는 9.1 서라운드 사운드와 같은 서라운드 사운드의 다른 유형들을 인코딩하는데 동일하게 아주 적합한 것이라는 것을 유의해야할 수 있다. 상기 인코더(500)에서, 다섯 개의 신호들(502,504)이 수신 스테이지(도시되지 않음)에서 수신된다. 상기 인코더(500)는 상기 수신 스테이지로부터 상기 다섯 개의 신호들(502,504)을 수신하도록 그리고 상기 다섯 개의 신호들(502,504)을 개별적으로 파형-코딩함으로써 다섯 개의 파형-코딩된 신호들(518)을 발생시키도록 구성된 제 1 파형-코딩 스테이지(506)를 구비한다. 상기 파형-코딩 스테이지(506)는 예를 들면 상기 다섯 개의 수신된 신호들(502, 504)의 각각을 MDCT 변환시키도록 할 수 있다. 상기 디코더와 관련하여 기술된 바와 같이, 상기 인코더는 독립적인 윈도잉으로 MDCT 변환을 사용하여 상기 다섯 개의 수신된 신호들(502,504)의 각각을 인코딩하도록 선택할 수 있다. 이러한 것은 개선된 코딩 품질을 가능하게 하고, 따라서 디코딩된 신호의 개선된 품질을 가능하게 한다.
상기 다섯 개의 파형-코딩된 신호들(518)은 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 주파수 범위에 대해 파형-코딩된다. 따라서, 상기 다섯 개의 파형-코딩된 신호들(518)은 상기 제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. 이러한 것은 상기 다섯 개의 파형-코딩된 신호들(518)의 각각을 저역 필터로 처리되게 함으로써 달성될 수 있다. 상기 다섯 개의 파형-코딩된 신호들(518)은 이후 음향심리 모델에 따라 양자화된다(520). 상기 음향심리 모델은, 다-채널 오디오 프로세싱 시스템에서 이용가능한 비트 레이트를 고려하여 상기 시스템의 디코더측상에서 디코딩될 때 청취자에 의해 인지되도록 하는 인코딩된 신호들을 재생하는, 가능한 정확하게 설정된다.
상술한 바와 같이, 상기 인코더(500)는 이산적 다-채널 코딩 및 파라메트릭 코딩을 구비하는 하이브리드 코딩을 실행한다. 상기 이산적 다-채널 코딩은 상술한 바와 같이 제 1 크로스-오버 주파수까지의 주파수들에 대한 상기 입력 신호들(502,504)의 각각에 대해 상기 파형-코딩 스테이지(506)에서 실행된다. 상기 파라메트릭 코딩은 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해 N 개의 다운믹스 신호들로부터 상기 다섯 개의 입력 신호들(502,504)을 디코더 측에서 재구성할 수 있도록 실행된다. 도 5에 도시된 예에서, N은 2로 설정된다. 상기 다섯 개의 입력 신호들(502,504)의 다운믹싱은 다운믹싱 스테이지(534)에서 실행된다. 상기 다운믹싱 스테이지(534)는 QMF 도메인에서 동작하는 게 유익하다. 따라서, 상기 다운믹싱 스테이지(534)로 입력되기 전에, 상기 다섯 개의 신호들(502,504)은 QMF 분석 스테이지(526)에 의해 QMF 도메인으로 변환된다. 상기 다운믹싱 스테이지는 상기 다섯 개의 신호들(502,504)에 대해 선형 다운믹싱 동작을 실행하고, 두 개의 다운믹스 신호들(544,546)을 출력한다.
이들 두 개의 다운믹스 신호들(544,546)은, 이들이 역 QMF 변환(554)을 받게 되는 것에 의해 시간 도메인으로 다시 변환된 후, 제 2 파형-코딩 스테이지(508)에 의해 수신된다. 상기 제 2 파형-코딩 스테이지(508)는 상기 제 1 및 상기 제 2 크로스-오버 주파수 사이에 주파수들에 대응하는 주파수 범위에 대해 상기 두 개의 다운믹스 신호들(544,546)을 파형-코딩함으로써 두 개의 파형-코딩된 다운믹스 신호들을 발생시킨다. 상기 파형-코딩 스테이지(508)는 예를 들면 상기 두 개의 다운믹스 신호들을 MDCT 변환되게 할 수 있다. 상기 두 개의 파형-코딩된 다운믹스 신호들은 따라서 상기 제 1 크로스-오버 주파수와 상기 제 2 크로스-오버 주파수 사이의 주파수들에 대응하는 스펙트럼 계수들을 구비한다. 상기 두 개의 파형-코딩된 다운믹스 신호들은 이후 상기 음향심리 모델에 따라 양자화된다(522).
디코더 측 상에서 상기 제 2 크로스-오버 주파수보다 높은 주파수들을 재구성할 수 있도록, 고 주파수 재구성(HFR) 파라미터들(538)은 상기 두 개의 다운믹스 신호들(544,546)로부터 추출된다. 이들 파라미터들은 HFR 인코딩 스테이지(532)에서 추출된다.
디코더 측 상에서 상기 두 개의 다운믹스 신호들(544,546)로부터 상기 다섯 개의 신호들을 재구성할 수 있도록, 상기 다섯 개의 입력 신호들(502,504)은 상기 파라메트릭 인코딩 스테이지(530)에 의해 수신된다. 상기 다섯 개의 신호들(502,504)은 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대응하는 주파수 범위에 대해 파라메트릭 코딩된다. 상기 파라메트릭 인코딩 스테이지(530)는 이후 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위에 대해 (인코딩된 5.1 서라운드 사운드에서의 다섯 개의 채널들인) 상기 다섯 개의 입력 신호들(502,504)에 대응하는 다섯 개의 재구성된 신호들로 상기 두 개의 다운믹스 신호들(544,546)을 업믹싱할 수 있는 업믹스 파라미터들(536)을 추출하도록 구성된다. 상기 업믹스 파라미터들(536)은 단지 상기 제 1 크로스-오버 주파수보다 높은 주파수들에 대해 추출된다는 것을 유념해야한다. 이러한 것은 상기 파라메트릭 인코딩 스테이지(530)의 복잡성 및 대응하는 파라메트릭 데이터의 비트레이트를 감소시킬 수 있다.
다운믹싱(534)은 상기 시간 도메인에서 달성될 수 있다. 그런 경우에, 상기 HRF 인코딩 스테이지(532)는 전형적으로 QMF 도메인에서 동작하기 때문에, 상기 QMF 분석 스테이지(526)는 상기 HFR 인코딩 스테이지(532) 이전에 상기 다운믹싱 스테이지(534)의 다운스트림에 위치되어야 한다. 이러한 경우, 역 QMF 스테이지(554)가 생략될 수 있다.
상기 인코더(500)는 또한 비트스트림 발생 스테이지, 즉 비트스트림 멀티플렉서(524)를 구비한다. 상기 인코더(500)의 예시적인 실시예에 따라, 상기 비트스트림 발생 스테이지는 다섯 개의 인코딩된 그리고 양자화된 신호(548), 두 개의 파라미터 신호들(536, 538) 및 두 개의 인코딩된 그리고 양자화된 다운믹스 신호들(550)을 수신하도록 구성된다. 이들은 또한 상기 비트스트림 발생 스테이지(524)에 의해 비트스트림(552)으로 변환되어, 다-채널 오디오 시스템에서 분배된다.
상기 기술된 다-채널 오디오 시스템에서, 예를 들면 인터넷 상에서 오디오를 스트리밍할 때, 최대 이용가능한 비트 레이트가 흔히 존재한다. 상기 입력 신호들(502,504)의 각각의 시간 프레임의 특성들은 다르므로, 상기 다섯 개의 파형-코딩된 신호들(548)과 상기 두 개의 다운믹스 파형-코딩된 신호들(550) 사이의 정확히 동일한 비트들의 할당은 사용되지 못할 수도 있다. 더욱이, 각각의 별개의 신호(548 및 550)는 보다 많은 또는 보다 적은 할당된 비트들을 필요로 할 수 있어, 상기 신호들은 음향심리 모델에 따라 재구성될 수 있다. 예시적인 실시예에 따라, 상기 제 1 및 상기 제 2 파형-코딩 스테이지(506,508)는 공통의 비트 저장소를 공유한다. 코딩된 프레임 당 이용가능한 비트들은 상기 현재의 음향심리 모델 및 인코딩될 신호들의 특성에 의존하여 상기 제 1 및 상기 제 2 파형-인코딩 스테이지(506,508) 사이에서 먼저 분배된다. 이후 상기 비트들은 상술한 바와 같이 상기 별개의 신호들(548,550) 사이에서 분배된다. 상기 업믹스 파라미터들(536) 및 상기 고 주파수 재구성 파라미터들(538)에 대해 사용된 비트들의 수는 물론 상기 이용가능한 비트들을 분배할 때 고려된다. 특정 시간 프레임에서 할당된 비트들의 수와 관련하여 상기 제 1 크로스-오버 주파수 주위에서 지각적으로 평활한 전이를 위해 상기 제 1 및 상기 제 2 파형-코딩 스테이지(506,508)에 대한 음향심리 모델을 조정하는데 주의가 필요하다.
도 8은 인코딩 시스템(800)의 대안적인 실시예를 도시한다. 상기 인코딩 시스템(800)과 도 5의 인코딩 시스템(500) 사이의 차이는 상기 인코더(800)가 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트에 대응하는 주파수 범위에 대해 입력 신호들(502,504) 중 하나 이상을 파형-코딩함으로써 추가의 파형-코딩된 신호를 발생시키도록 배열된다는 것이다.
이러한 목적을 위해, 상기 인코더(800)는 인터리브 검출 스테이지(802)를 구비한다. 상기 인터리브 검출 스테이지(802)는 상기 파라메트릭 인코딩 스테이지(530) 및 상기 고 주파수 재구성 인코딩 스테이지(532)에 의해 인코딩되는 바와 같은 상기 파라메트릭 재구성에 의해 잘 재구성되지 않는 입력 신호들(502,504)의 부분들을 식별하도록 구성된다. 예를 들면, 상기 인터리브 검출 스테이지(802)는 상기 파라메트릭 인코딩 스테이지(530) 및 상기 고 주파수 재구성 인코딩 스테이지(532)에 의해 정의되는 바와 같은 상기 입력 신호(502,504)의 파라메트릭 재구성으로 상기 입력 신호들(502,504)을 비교할 수 있다. 이러한 비교에 기초하여, 상기 인터리브 검출 스테이지(802)는 파형-코딩될 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 서브세트(804)를 식별할 수 있다. 상기 인터리브 검출 스테이지(802)는 또한 상기 제 1 크로스-오버 주파수보다 높은 주파수 범위의 상기 식별된 서브세트(804)가 파형-코딩되는, 시간 범위를 식별할 수 있다. 상기 식별된 주파수 및 시간 서브세트들(804,806)은 상기 제 1 파형 인코딩 스테이지(506)에 입력될 수 있다. 상기 수신된 주파수 및 시간 서브세트들(804 및 806)에 기초하여, 상기 제 1 파형 인코딩 스테이지(506)는 상기 서브세트들(804,806)에 의해 식별된 시간 및 주파수 범위들에 대해 상기 입력 신호들(502,504) 중 하나 이상을 파형-코딩함으로써 추가의 파형-코딩된 신호(808)를 발생시킨다. 상기 추가의 파형-코딩된 신호(808)는 이후, 스테이지(520)에 의해 인코딩 및 양자화되어, 상기 비트-스트림(846)에 부가될 수 있다.
상기 인터리브 검출 스테이지(802)는 또한 제어 신호 발생 스테이지를 구비할 수 있다. 상기 제어 신호 발생 스테이지는 디코더에서 상기 입력 신호들(502,504) 중 하나의 파라메트릭 재구성으로 상기 추가의 파형-코딩된 신호를 어떻게 인터리빙하는지를 표시하는 제어 신호(810)를 발생시키도록 구성된다. 예를 들면, 상기 제어 신호는, 상기 추가의 파형-코딩된 신호가 도 7를 참조하여 기술된 바와 같이 파라메트릭 재구성으로 인터리빙되어질 주파수 범위 및 시간 범위를 표시할 수 있다. 상기 제어 신호는 상기 비트스트림(846)에 부가될 수 있다.
등가물, 확장, 대체물 및 기타
본 개시의 추가적인 실시예들은 상기한 명세서를 학습한 후라면 당 기술분야에 숙련된 사람들에게는 명백할 것이다. 비록 본 명세서 및 도면들이 실시예들 및 예들을 개시하고는 있지만, 이러한 개시는 이들 특정 예들에 제한되지 않는다. 다양한 수정과 변경들이 첨부된 청구범위에 의해 정의된 본 개시의 범위를 벗어나지 않고서 이루어질 수 있다. 청구범위에 나타나있는 어떠한 참조 부호들도 그 범위를 제한하는 것으로 이해되어서는 안 된다.
부가적으로, 개시된 실시예들에 대한 변형들은 본 도면들, 명세서 및 청구범위를 학습하여, 본 개시를 실천함으로써 당업자에 의해 이해될 수 있으며 그 결과가 얻어질 수 있다. 청구범위에 있어서, 용어 "구비하다"는 다른 요소들 또는 단계들을 배제하지 않으며, 복수의 표현이 아닌 것도 복수를 배제하지 않는다. 임의의 측정치들이 상호 상이한 종속 청구항들에서 인용되는 단순한 사실은 이들 측정된 것들의 조합이 유익하게 사용될 수 없다는 것을 나타내는 것은 아니다.
본 명세서에서 개시된 시스템들 및 방법들은 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어서, 상기한 설명에서 참조되는 기능 유닛들 간의 작업의 분할은 물리적 유닛들로의 분할에 반드시 대응하는 것은 아니며; 대조적으로, 하나의 물리적 성분은 복수의 기능들을 가질 수 있고, 하나의 작업은 몇몇의 물리적 성분들이 협력하여 실행될 수 있다. 임의의 성분들 또는 모든 성분들은 디지털 신호 프로세서 또는 마이크로프로세서에 의해 실행되는 소프트웨어로서 구현될 수 있으며, 하드웨어로서 또는 어플리케이션 특정의 집적 회로로서 구현될 수 있다. 그러한 소프트웨어는, 컴퓨터 저장 매체(또는 비-일시적 매체) 및 통신 매체(또는 일시적 매체)를 구비할 수 있는, 컴퓨터 판독가능 매체 상에 분포될 수 있다. 당 기술분야에 숙련된 사람에게 공지된 바와 같이, 용어 "컴퓨터 저장 매체"는, 컴퓨터 판독 가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 다른 데이터와 같은 정보 저장을 위한 어떠한 방법 또는 기술로 구현될 수 있는 휘발성과 비휘발성, 제거와 제거 불가능한 양쪽 모두의 매체를 포함한다. 컴퓨터 저장 매체는, 이에 제한되지는 않지만, RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 디스크 저장장치, 자기 카세트, 자기 테입, 자기 디스크 저장장치 또는 다른 자기 저장 디바이스, 또는 원하는 정보를 저장할 수 있으며 컴퓨터에 의해 액세스될 수 있는 어떠한 다른 매체도 포함한다. 또한, 통신 매체는 통상 컴퓨터 판독가능한 명령들, 데이터 구조들, 프로그램 모듈들 또는 반송파 또는 다른 전달 메카니즘과 같은 변조된 데이터 신호 내의 다른 데이터를 포함하며, 어떠한 정보 전달 매체도 포함한다는 것은 당업자에게는 널리 알려진 것이다.
100: 디코더
200,300,400: 개념적 부분
500: 인코더
506,508: 파형-코딩 스테이지
520,522: 인코딩 및 양자화 스테이지
524: 비트스트림 멀티플렉서
530: 파라메트릭 인코딩 스테이지
532: HFR 인코딩 스테이지
534: 다운믹싱 스테이지

Claims (10)

  1. 다-채널 오디오 프로세싱 시스템의 디코더에서의 방법으로서:
    제 1 크로스-오버 주파수 ky 위의 주파수들에 대응하는 스펙트럼 계수들을 구비하는, M개의 입력 신호들(404)을 수신하는 단계;
    제 1 크로스-오버 주파수 ky로부터 시작하는 주파수 간격에 대응하는 스펙트럼 계수들을 구비하는, 제 1 파형-코딩된 신호(710)를 수신하는 단계;
    제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는, M개의 제 2 파형-코딩된 신호들(210)을 수신하는 단계;
    M개의 입력 신호들 중 하나의 입력 신호의 인터리빙된 버전이 얻어지도록 제 1 파형-코딩된 신호(710)를 M개의 입력 신호들 중 상기 하나의 입력 신호와 인터리빙(interleaving)하는 단계; 및
    인터리빙 이전에, 인터리빙 이후에, 또는 인터리빙과 결합된 단계에서, M개의 제 2 파형-코딩된 신호들을 M개의 입력 신호들과 결합하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    M개의 입력 신호들(404)은 제 1 크로스-오버 주파수 ky 아래의 주파수들에 대응하는 스펙트럼 계수들을 구비하지 않는, 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    제 1 크로스-오버 주파수는 다-채널 오디오 프로세싱 시스템의 비트 전송 레이트에 의존하는, 방법
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    디코더는 이산적(discrete) 다-채널 코딩 및 파라메트릭 코딩을 구비하는 하이브리드 코딩을 위한 디코더인, 방법.
  5. 제 4 항에 있어서,
    M개의 입력 신호들(404)은 파라메트릭 인코딩된 오디오 신호로부터 재구성되는, 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    M개의 제 2 파형-코딩된 신호들(210)을 M개의 입력 신호들(404)과 결합하는 것은 주파수 도메인에서 수행되는, 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    인터리빙 및 결합은 단일 스테이지 또는 동작(operation)으로 결합되는, 방법.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    인터리빙은, 제 1 파형-코딩된 신호(710)가 M개의 입력 신호들(404)과 인터리빙되어질 주파수 범위 및 시간 범위를 표시하는, 제어 신호에 따라 수행되는, 방법.
  9. 다-채널 오디오 프로세싱 시스템으로서:
    제 1 크로스-오버 주파수 ky 위의 주파수들에 대응하는 스펙트럼 계수들을 구비하는, M개의 입력 신호들(404)을 수신하도록 구성된, 제 1 입력;
    제 1 크로스-오버 주파수 ky로부터 시작하는 주파수 간격에 대응하는 스펙트럼 계수들을 구비하는, 제 1 파형-코딩된 신호(710)를 수신하도록 구성된, 제 2 입력;
    제 1 크로스-오버 주파수까지의 주파수들에 대응하는 스펙트럼 계수들을 구비하는, M개의 제 2 파형-코딩된 신호들(210)을 수신하도록 구성된, 제 3 입력;
    M개의 입력 신호들 중 하나의 입력 신호의 인터리빙된 버전이 얻어지도록 제 1 파형-코딩된 신호(710)를 M개의 입력 신호들(404) 중 상기 하나의 입력 신호와 인터리빙(interleaving)하도록 구성된, 인터리브 스테이지; 및
    인터리빙 이전에, 인터리빙 이후에, 또는 인터리빙과 결합된 단계에서, M개의 제 2 파형-코딩된 신호들을 M개의 입력 신호들과 결합하도록 구성된, 결합 스테이지를 포함하는, 다-채널 오디오 프로세싱 시스템.
  10. 컴퓨팅 디바이스 또는 시스템에 의해 실행될 때, 제 1 항 내지 제 8 항 중 어느 한 항의 방법을 상기 컴퓨팅 디바이스 또는 시스템이 수행하게 하는 명령을 가지는, 컴퓨터 프로그램 제품.
KR1020217000152A 2013-04-05 2014-04-04 오디오 인코더 및 디코더 KR102380370B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227009866A KR20220044609A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361808680P 2013-04-05 2013-04-05
US61/808,680 2013-04-05
KR1020207022458A KR102201951B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
PCT/EP2014/056852 WO2014161992A1 (en) 2013-04-05 2014-04-04 Audio encoder and decoder

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207022458A Division KR102201951B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227009866A Division KR20220044609A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더

Publications (2)

Publication Number Publication Date
KR20210005315A true KR20210005315A (ko) 2021-01-13
KR102380370B1 KR102380370B1 (ko) 2022-04-01

Family

ID=50439393

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020217000152A KR102380370B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020227009866A KR20220044609A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020247008382A KR20240038819A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020157023507A KR101763129B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020207022458A KR102201951B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020177019979A KR102094129B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020207007982A KR102142837B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더

Family Applications After (6)

Application Number Title Priority Date Filing Date
KR1020227009866A KR20220044609A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020247008382A KR20240038819A (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020157023507A KR101763129B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020207022458A KR102201951B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020177019979A KR102094129B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더
KR1020207007982A KR102142837B1 (ko) 2013-04-05 2014-04-04 오디오 인코더 및 디코더

Country Status (21)

Country Link
US (6) US9489957B2 (ko)
EP (3) EP2954519B1 (ko)
JP (7) JP6031201B2 (ko)
KR (7) KR102380370B1 (ko)
CN (2) CN109410966B (ko)
AU (1) AU2014247001B2 (ko)
BR (7) BR122022004784B8 (ko)
CA (1) CA2900743C (ko)
DK (1) DK2954519T3 (ko)
ES (2) ES2619117T3 (ko)
HK (1) HK1213080A1 (ko)
HU (1) HUE031660T2 (ko)
IL (1) IL240117A0 (ko)
MX (4) MX347936B (ko)
MY (3) MY183360A (ko)
PL (1) PL2954519T3 (ko)
RU (2) RU2602988C1 (ko)
SG (1) SG11201506139YA (ko)
TW (1) TWI546799B (ko)
UA (1) UA113117C2 (ko)
WO (1) WO2014161992A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI546799B (zh) * 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
JP6273003B2 (ja) 2013-07-18 2018-01-31 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se ポリアリーレンエーテル溶液の分割
KR102244612B1 (ko) * 2014-04-21 2021-04-26 삼성전자주식회사 무선 통신 시스템에서 음성 데이터를 송신 및 수신하기 위한 장치 및 방법
EP3067887A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
KR102657547B1 (ko) 2015-06-17 2024-04-15 삼성전자주식회사 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치
KR102219752B1 (ko) 2016-01-22 2021-02-24 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 채널 간 시간 차를 추정하기 위한 장치 및 방법
US10146500B2 (en) * 2016-08-31 2018-12-04 Dts, Inc. Transform-based audio codec and method with subband energy smoothing
US10354668B2 (en) * 2017-03-22 2019-07-16 Immersion Networks, Inc. System and method for processing audio data
EP3588495A1 (en) * 2018-06-22 2020-01-01 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Multichannel audio coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080031463A1 (en) * 2004-03-01 2008-02-07 Davis Mark F Multichannel audio coding
KR20120006010A (ko) * 2009-03-17 2012-01-17 돌비 인터네셔널 에이비 적응형으로 선택가능한 좌/우 또는 미드/사이드 스테레오 코딩과 파라메트릭 스테레오 코딩의 조합에 기초한 진보된 스테레오 코딩
JP5400059B2 (ja) * 2007-12-18 2014-01-29 エルジー エレクトロニクス インコーポレイティド オーディオ信号処理方法及び装置

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5459B2 (ko) 1973-12-20 1979-01-05
IT1044736B (it) * 1975-04-23 1980-04-21 Cselt Centro Studi Lab Telecom Sistema numerico per la trasmissione dei canali di due fasci modulati a impulsi codificati alla velocita di un solo fascio
JP2000122679A (ja) * 1998-10-15 2000-04-28 Sony Corp 音声帯域拡張方法及び装置、音声合成方法及び装置
JP3677185B2 (ja) * 1999-11-29 2005-07-27 株式会社東芝 符号分割多重伝送方式と送信装置及び受信装置
SE0004187D0 (sv) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
ES2237706T3 (es) * 2001-11-29 2005-08-01 Coding Technologies Ab Reconstruccion de componentes de alta frecuencia.
US20030220800A1 (en) 2002-05-21 2003-11-27 Budnikov Dmitry N. Coding multichannel audio signals
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
RU2382419C2 (ru) 2004-04-05 2010-02-20 Конинклейке Филипс Электроникс Н.В. Многоканальный кодер
ATE416455T1 (de) 2004-06-21 2008-12-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zum kodieren und dekodieren von mehrkanaltonsignalen
CA2572805C (en) * 2004-07-02 2013-08-13 Matsushita Electric Industrial Co., Ltd. Audio signal decoding device and audio signal encoding device
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
US7840411B2 (en) 2005-03-30 2010-11-23 Koninklijke Philips Electronics N.V. Audio encoding and decoding
JP2006323037A (ja) * 2005-05-18 2006-11-30 Matsushita Electric Ind Co Ltd オーディオ信号復号化装置
CN101253556B (zh) * 2005-09-02 2011-06-22 松下电器产业株式会社 能量整形装置以及能量整形方法
US7974713B2 (en) * 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
US20080262853A1 (en) * 2005-10-20 2008-10-23 Lg Electronics, Inc. Method for Encoding and Decoding Multi-Channel Audio Signal and Apparatus Thereof
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
ATE527833T1 (de) 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
ATE463028T1 (de) * 2006-09-13 2010-04-15 Ericsson Telefon Ab L M Verfahren und anordnungen für einen sprach- /audiosender und empfänger
KR101435893B1 (ko) * 2006-09-22 2014-09-02 삼성전자주식회사 대역폭 확장 기법 및 스테레오 부호화 기법을 이용한오디오 신호의 부호화/복호화 방법 및 장치
JP5141180B2 (ja) * 2006-11-09 2013-02-13 ソニー株式会社 周波数帯域拡大装置及び周波数帯域拡大方法、再生装置及び再生方法、並びに、プログラム及び記録媒体
KR101405972B1 (ko) 2007-07-02 2014-06-12 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8295494B2 (en) * 2007-08-13 2012-10-23 Lg Electronics Inc. Enhancing audio with remixing capability
ES2461601T3 (es) 2007-10-09 2014-05-20 Koninklijke Philips N.V. Procedimiento y aparato para generar una señal de audio binaural
EP2215629A1 (en) * 2007-11-27 2010-08-11 Nokia Corporation Multichannel audio coding
US20100284549A1 (en) * 2008-01-01 2010-11-11 Hyen-O Oh method and an apparatus for processing an audio signal
EP2250641B1 (en) * 2008-03-04 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for mixing a plurality of input data streams
PL2304723T3 (pl) * 2008-07-11 2013-03-29 Fraunhofer Ges Forschung Urządzenie i sposób dekodowania zakodowanego sygnału audio
EP2146344B1 (en) * 2008-07-17 2016-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding/decoding scheme having a switchable bypass
TWI413109B (zh) * 2008-10-01 2013-10-21 Dolby Lab Licensing Corp 用於上混系統之解相關器
US20100223061A1 (en) 2009-02-27 2010-09-02 Nokia Corporation Method and Apparatus for Audio Coding
WO2010097748A1 (en) 2009-02-27 2010-09-02 Koninklijke Philips Electronics N.V. Parametric stereo encoding and decoding
KR101356972B1 (ko) 2009-04-08 2014-02-05 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 위상값 평활화를 이용하여 다운믹스 오디오 신호를 업믹스하는 장치, 방법 및 컴퓨터 프로그램
KR20110018107A (ko) 2009-08-17 2011-02-23 삼성전자주식회사 레지듀얼 신호 인코딩 및 디코딩 방법 및 장치
EP2483887B1 (en) * 2009-09-29 2017-07-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mpeg-saoc audio signal decoder, method for providing an upmix signal representation using mpeg-saoc decoding and computer program using a time/frequency-dependent common inter-object-correlation parameter value
EP4358082A1 (en) * 2009-10-20 2024-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, audio signal decoder, method for encoding or decoding an audio signal using an aliasing-cancellation
WO2011048792A1 (ja) * 2009-10-21 2011-04-28 パナソニック株式会社 音響信号処理装置、音響符号化装置および音響復号装置
KR101710113B1 (ko) * 2009-10-23 2017-02-27 삼성전자주식회사 위상 정보와 잔여 신호를 이용한 부호화/복호화 장치 및 방법
ES2935911T3 (es) * 2010-04-09 2023-03-13 Dolby Int Ab Descodificación estéreo de predicción compleja basada en MDCT
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
ES2950751T3 (es) 2010-04-13 2023-10-13 Fraunhofer Ges Forschung Codificador de audio o vídeo, decodificador de audio o vídeo y métodos relacionados para procesar señales de audio o vídeo multicanal usando una dirección de predicción variable
AU2011295367B2 (en) 2010-08-25 2014-07-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus for decoding a signal comprising transients using a combining unit and a mixer
EP2477188A1 (en) 2011-01-18 2012-07-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of slot positions of events in an audio signal frame
FR2973551A1 (fr) 2011-03-29 2012-10-05 France Telecom Allocation par sous-bandes de bits de quantification de parametres d'information spatiale pour un codage parametrique
JP6185457B2 (ja) 2011-04-28 2017-08-23 ドルビー・インターナショナル・アーベー 効率的なコンテンツ分類及びラウドネス推定
CN103548077B (zh) 2011-05-19 2016-02-10 杜比实验室特许公司 参数化音频编译码方案的取证检测
US9166864B1 (en) * 2012-01-18 2015-10-20 Google Inc. Adaptive streaming for legacy media frameworks
TWI546799B (zh) * 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
US9570083B2 (en) * 2013-04-05 2017-02-14 Dolby International Ab Stereo audio encoder and decoder
EP2830065A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal using a cross-over filter around a transition frequency
US9685164B2 (en) * 2014-03-31 2017-06-20 Qualcomm Incorporated Systems and methods of switching coding technologies at a device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080031463A1 (en) * 2004-03-01 2008-02-07 Davis Mark F Multichannel audio coding
JP5400059B2 (ja) * 2007-12-18 2014-01-29 エルジー エレクトロニクス インコーポレイティド オーディオ信号処理方法及び装置
KR20120006010A (ko) * 2009-03-17 2012-01-17 돌비 인터네셔널 에이비 적응형으로 선택가능한 좌/우 또는 미드/사이드 스테레오 코딩과 파라메트릭 스테레오 코딩의 조합에 기초한 진보된 스테레오 코딩

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ATSC Standard: Digital Audio Compression (AC-3). Advanced Television Systems Committee. Doc.A/52:2012. 2012.12.17. *
ISO/IEC 14496-3:2009 Information technology - Coding of audio-visual objects - Part 3:Audio. 2009.09.01.* *
ISO/IEC FDIS 23003-3:2011(E), Information technology - MPEG audio technologies - Part 3: Unified speech and audio coding. ISO/IEC JTC 1/SC 29/WG 11. 2011.09.20. *
Jurgen Herre, et al. MPEG Surround - The ISO/MPEG Standard for Efficient and Compatible Multichannel Audio Coding. Journal of the Audio Engineering Society, 2008.11., Vol.56,No.11, pp.932-955. *
Jurgen Herre, et al. MPEG Surround - The ISO/MPEG Standard for Efficient and Compatible Multi-ChannelAudio Coding. Audio Engineering Society Convention 122, 2007.05.08., Vol.56,No.11, pp.1-23. *

Also Published As

Publication number Publication date
MX2015011145A (es) 2016-01-12
JP2022068353A (ja) 2022-05-09
AU2014247001A1 (en) 2015-08-13
MY183360A (en) 2021-02-18
CN109410966B (zh) 2023-08-29
JP2016513287A (ja) 2016-05-12
UA113117C2 (xx) 2016-12-12
MX2019012711A (es) 2019-12-16
BR122022004784B8 (pt) 2022-09-13
RU2602988C1 (ru) 2016-11-20
BR122022004784B1 (pt) 2022-06-07
BR122017006819A2 (pt) 2019-09-03
JP2024038139A (ja) 2024-03-19
EP2954519B1 (en) 2017-02-01
JP6377110B2 (ja) 2018-08-22
ES2748939T3 (es) 2020-03-18
CN109410966A (zh) 2019-03-01
BR122022004787B1 (pt) 2022-10-18
EP3171361B1 (en) 2019-07-24
US10438602B2 (en) 2019-10-08
HK1213080A1 (zh) 2016-06-24
US20160343383A1 (en) 2016-11-24
KR20220044609A (ko) 2022-04-08
IL240117A0 (en) 2015-09-24
JP2018185536A (ja) 2018-11-22
ES2619117T3 (es) 2017-06-23
US9489957B2 (en) 2016-11-08
KR102380370B1 (ko) 2022-04-01
MX2022004397A (es) 2022-06-16
RU2641265C1 (ru) 2018-01-16
BR122022004787A8 (pt) 2022-09-06
JP7413418B2 (ja) 2024-01-15
KR20170087529A (ko) 2017-07-28
CA2900743A1 (en) 2014-10-09
MY196084A (en) 2023-03-14
CN105308680A (zh) 2016-02-03
US20200098381A1 (en) 2020-03-26
EP2954519A1 (en) 2015-12-16
KR20150113976A (ko) 2015-10-08
JP2017078858A (ja) 2017-04-27
MX369023B (es) 2019-10-25
PL2954519T3 (pl) 2017-06-30
US11830510B2 (en) 2023-11-28
AU2014247001B2 (en) 2015-08-27
BR122020017065B1 (pt) 2022-03-22
JP6808781B2 (ja) 2021-01-06
TW201505024A (zh) 2015-02-01
KR20200033988A (ko) 2020-03-30
BR122022004787A2 (ko) 2017-07-18
KR102201951B1 (ko) 2021-01-12
US20160012825A1 (en) 2016-01-14
JP6031201B2 (ja) 2016-11-24
EP3171361A1 (en) 2017-05-24
US11114107B2 (en) 2021-09-07
KR102094129B1 (ko) 2020-03-30
KR20200096328A (ko) 2020-08-11
MX347936B (es) 2017-05-19
BR122022004786A2 (ko) 2017-07-18
CN105308680B (zh) 2019-03-19
KR102142837B1 (ko) 2020-08-28
MY185848A (en) 2021-06-14
KR20240038819A (ko) 2024-03-25
JP2021047450A (ja) 2021-03-25
DK2954519T3 (en) 2017-03-20
HUE031660T2 (en) 2017-07-28
KR101763129B1 (ko) 2017-07-31
US20170301362A1 (en) 2017-10-19
SG11201506139YA (en) 2015-09-29
TWI546799B (zh) 2016-08-21
BR122022004786A8 (pt) 2022-09-06
EP3627506A1 (en) 2020-03-25
JP7033182B2 (ja) 2022-03-09
BR112015019711B1 (pt) 2022-04-26
BR122017006819B1 (pt) 2022-07-26
CA2900743C (en) 2016-08-16
BR122021004537B1 (pt) 2022-03-22
BR122022004786B1 (pt) 2022-10-04
US20240153517A1 (en) 2024-05-09
WO2014161992A1 (en) 2014-10-09
US20220059110A1 (en) 2022-02-24
BR112015019711A2 (pt) 2017-07-18
JP2019191596A (ja) 2019-10-31
JP6537683B2 (ja) 2019-07-03
US9728199B2 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
US11830510B2 (en) Audio decoder for interleaving signals

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right