KR101224560B1 - 인코드된 오디오 신호를 디코딩하는 장치 및 방법 - Google Patents

인코드된 오디오 신호를 디코딩하는 장치 및 방법 Download PDF

Info

Publication number
KR101224560B1
KR101224560B1 KR1020117000699A KR20117000699A KR101224560B1 KR 101224560 B1 KR101224560 B1 KR 101224560B1 KR 1020117000699 A KR1020117000699 A KR 1020117000699A KR 20117000699 A KR20117000699 A KR 20117000699A KR 101224560 B1 KR101224560 B1 KR 101224560B1
Authority
KR
South Korea
Prior art keywords
signal
audio signal
encoded
frequency
algorithm
Prior art date
Application number
KR1020117000699A
Other languages
English (en)
Other versions
KR20110040828A (ko
Inventor
맥스 네우엔돌프
번하드 그릴
울리흐 크라에머
마르쿠스 물트루스
하랄드 포프
리콜라우스 레텔바흐
프레드리크 나겔
마르쿠스 로하설
마크 가이어
마뉴엘 잰더
비르질리오 바찌갈루포
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Publication of KR20110040828A publication Critical patent/KR20110040828A/ko
Application granted granted Critical
Publication of KR101224560B1 publication Critical patent/KR101224560B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring

Abstract

본 발명은 인코더된 오디오 신호(102)를 디코딩하는 장치(100)에 관한 것으로, 인코드된 오디오 신호(102)는 제 1 인코딩 알고리즘에 따라 인코드되는 제 1 부(104a), 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부(104b), 제 1 부(104a) 및 제 2 부(104b)에 대한 BWE 파라미터들(106), 제 1 디코딩 알고리즘 또는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보(108)로 구성된 장치에 관한 것이다.
이 장치는 제 1 디코더(110a), 제 2 디코더(110b), BWE 모듈(130) 및 컨트롤러(140)를 포함한다. 제 1 디코더(110a)는 제 1 디코드된 신호(114a)를 얻도록 인코드된 신호(102)의 제 1 시간부에 대한 제 1 디코딩 알고리즘에 따라 제 1 부(104a)를 디코더한다. 제 2 디코더(110b)는 제 2 디코드된 신호(114b)를 얻도록 인코드된 신호(102)의 제 2 시간부에 대한 제 2 디코딩 알고리즘에 따라 제 2 부(104b)를 디코드한다.

Description

인코드된 오디오 신호를 디코딩하는 장치 및 방법{AN APPARATUS AND A METHOD FOR DECODING AN ENCODED AUDIO SIGNAL}
본 발명은 인코드된 오디오 신호를 디코딩하는 장치와 방법, 인코딩하는 장치 및 오디오 신호를 인코딩하는 방법에 관한 것이다.
종래에는 MP3 혹은 ACC와 같은 주파수 도메인 코딩 기술이 잘 알려져 있다. 이러한 주파수-도메인 인코더는 시간-도메인/ 주파수-도메인 변환과, 종속적인 양자화단을 근거로 하고, 그 속에는 양자화 에러가 사이코 어코스틱 모듈 및 인코딩단으로부터의 정보를 이용하여 제어되며, 양자화된 스팩트럴 계수(coefficients)와 해당 사이드 정보들은 코드 테이블을 이용하여 엔트로피-인코드된다.
반면, 3GPP TS 26.290에 설명된 AMR-WB+에서와 같은 언어 프로세싱에 적합한 인코더들이 있다. 그러한 언어 코딩 체계는 시간-도메인 신호의 선형 예측 필터링(a Linear Predictive filtering)을 수행한다. 그러한 LP 필터링은 입력 시간-도메인 신호의 선형 예측 분석으로부터 유도된다. 결과 LP 필터 계수는 그 때 사이드 정보로써 코드화되고 전송된다. 그 프로세스는 선형 예측 코딩(LPC)으로써 알려져 있다. 필터의 출력에서, 여기 신호(excitation signal)로 알려진 예측 잔류 신호(prediction residual signal) 또는 예측 에러 신호는 ACELP 인코더의 분석 합성단들(analysis-by-synthesis stages)을 이용하여 인코드되고, 선택적으로 오버랩을 갖는 퓨리에 변환을 이용한 변환(transform) 인코더를 이용하여 인코드된다. TCX 코딩이라 불리는 변형코드된 여기 코딩과 ACELP 코딩 사이의 결정은 패쇄 루프 또는 개방 루프 알고리즘을 이용하여 행해진다. AAC 코딩 체계 및 스팩트럴 대역폭 복제(replication) 기술을 조합한 고효율-AAC 인코딩 체계와 같은 주파수-도메인 오디오 코딩 체계는 "MPEG 서라운드"로 알려진 멀티-채널 코딩 툴 또는 조인트 스테레오에 또한 결합될 수 있다.
반면, AMR-WB+와 같은 언어 인코더들은 고주파수 향상단 및 스테레오 기능성을 갖는다.
상기 스팩트럴 대역 복제(SBR)는 MP3 및 개선된 오디오 코딩(AAC)과 같이 코드된 유명한 지각 오디오에 대해서 애드-온(add-on)과 같이 명성을 얻는 테크닉을 포함한다. SBR은 스팩트럼의 하부 대역(저대역 또는 코어 대역)이 기존의 코딩을 이용하여 인코드되고, 반면 상부대역(고대역)은 소수의 파라미터들을 이용하여 대략적으로 파라미터화되는 대역폭 확장(BWE) 방법을 포함한다. SBR은 하부 대역 특징들을 추출하여 고대역 신호를 예측하도록 하부 대역과 상부 대역 사이의 상관 관계를 이용하여 만든다.
SBR은 예를 들어 HE-AAC 또는 AAC + SBR에 이용된다. SBR에서는, 프레임마다 다수의 파라미터 셋(엔빌로프)을 의미하는 일시 해상도와 마찬가지로 크로스오버 주파수(BWE 시작 주파수)를 동적으로 변화시키는 것이 가능하다. AMR-WB+는 언어 신호들을 위한 양질의 오디오를 얻기 위한 스위치된 시간/주파수 도메인 코어 코더와 결합되어 시간 도메인 대역폭 확장을 실행한다. AMR-WB+ 오디오 퀄리티에 대한 제한요소는 시스템의 내부 샘플링 주파수의 1/4인 BWE 시작 주파수와 코어 코더 양자 모두에 대하여 오디오 대역폭 공통(common)이다. 반면 ACELP 언어 모델은 전 대역을 통하여 잘 언어 신호들은 모델링할 수 있으며, 주파수 도메인 오디오 코더는 약간의 일반적인 오디오 신호들에 대하여 제대로 된 품질(decent quality)을 내놓지 못한다. 따라서, 언어 코딩 체계는 저 비트율에서 조차 언어 신호에 대한 고품질을 보여주지만, 저 비트 비율에서는 음악 신호에 대해 저품질을 보여준다. HE-AAC 같은 주파수-도메인 코딩 체계는 음악 신호에 대하여 저 비트율에서는 고품질을 보여준다는 점에서는 유리하다. 문제점은 그러나 저 비트율에서는 언어 신호의 품질이다. 따라서, 오디오 신호의 상이한 계층(classes)은 대역폭 확장 툴의 상이한 특성을 요구한다.
본 발명의 목적은 개선된 인코딩/디코딩 개념을 제공하는데 있다.
이러한 목적은 청구항 1에 따른 오디오 디코더와, 청구항 13에 따른 오디오 디코딩 방법과, 청구항 8에 따른 인코더와, 청구항 14에 따른 인코딩 방법과, 청구항 15에 따른 인코딩 신호 또는 청구항 16에 따른 컴퓨터 프로그램에 의해 달성된다.
본 발명은 BWE 스타트 주파수 또는 크로스오버 주파수가 오디오 품질에 영향을 미치는 파라미터이라는 것을 알아내는데 근거한 것이다. 시간 도메인(언어) 코덱이 보통 주어진 샘플링 비율에 대해 전체 주파수 범위를 코드화하는 반면, 오디오 대역폭이 트랜스폼 베이스 코더(즉, 음악용 코드)에 대한 튜닝 파라미터이다. 인코드하는 스펙트럴 라인의 총수가 감소함에 따라 동시에 인코딩할 수 있는 스펙트럴 라인당 비트 수가 증가할 것이다. 오디오 대역폭 드레이드-오프에 대비한 품질이 만들어짐을 의미한다. 따라서 새로운 접근에 있어서, 다양한 오디오 대역폭을 갖는 다른 코어 코더들은 하나의 보통 BWE 모듈을 갖는 스위치 시스템에 결합되고, 그 속에서 BWE 모듈은 다른 오디오 대역폭에 대한 것으로 간주해야 한다.
간단한 방법은 모든 코어 코더 대역폭의 가장 낮은 것을 찾으면 되고 BWE 스타트 주파수와 같이 이것을 이용하면 되나, 이것은 감지되는 오디오 품질을 악화시킨다.
또한, 코딩 효율은 감소될 수 있는데, 그 이유는 BWE 스타트 주파수보다 더 큰 대역폭을 갖고 코어 코더가 액티브(활성 상태)인 시간 영역에서 약간의 주파수 영역이 여유분을 유도하는 BWE와 마찬가지로 코어 코더에 의해 2배로 표시될 수 있다. 더 좋은 해결책은 사용된 코어 코더의 오디오 대역폭에 대해 BWE 스타트 주파수를 적용시키는 것이다.
따라서, 본 발명의 일실시예에 따른 오디오 코딩 시스템은 신호 의존 코어 코더(예를 들면 스위치되는 언어/오디오 코더)로 된 대역폭 확장 툴을 조합하되, 크로스오버 주파수는 가변적 파라미터를 포함한다. 다른 코어 코딩 모드 사이의 스위칭을 제어하는 신호 분류기 출력은 시간적 해상도와 스미어링(smearing), 스팩트럼 해상도와 크로스오버 주파수와 같은 BWE 시스템의 특성을 스위치하는데 사용될 수 있다.
따라서, 본 발명의 다른 양태는 인코드된 오디오 신호용 오디오 디코더에 관한 것으로, 상기 인코드된 오디오 신호는 제1 인코딩 알고리즘에 따라 인코드되는 제 1 부와, 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부와, 제 1 부와 제 2 부에 대한 BWE 파라미터들과, 제 1 디코딩 알고리즘 또는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보로 구성된다. 또한 제 1 디코더, 제 2 디코더, BWE 모듈 및 컨트롤러로 구성된다.
제 1 디코더는 제 1 디코드된 신호를 얻도록 인코드된 신호의 제 1 타임부용 제 1 디코딩 알고리즘에 따라서 제 1 부를 디코드한다. 제 2 디코더는 제 2 디코드된 신호를 얻도록 인코드된 신호의 제 2 시간부용 제 2 디코딩 알고리즘에 따라 제 2 부를 디코드한다. BWE 모듈은 제어가능한 크로스오버 주파수를 가지며, 제 1 디코드된 신호와 제 1 부용 BWE 파라미터들을 이용하여 대역폭 확장 알고리즘을 수행하고, 제 2 디코드된 신호와 제 2 부용 대역폭 확장 파라미터를 이용하여 대역폭 확장 알고리즘을 수행하기 위해 구성된다. 컨트롤러는 코딩 모드 정보에 따라 BWE 모듈용 크로스오버 주파수를 제어한다.
본 발명의 다른 양태에 따르면, 오디오 신호를 인코딩하는 장치는 제 1 및 제 2 인코더와, 결정 단과 BWE 모듈을 포함하고 있다. 제 1 인코더는 제 1 인코딩 알고리즘에 따라 인코드하도록 구성되며, 제 1 인코딩 알고리즘은 제 1 주파수 대역폭을 갖는다. 제 2 인코더는 제 2 인코딩 알고리즘에 따라 인코드하도록 구성되며, 제 2 인코딩 알고리즘은 제 1 주파수 대역폭보다 작은 제 2 주파수 대역폭을 갖는다. 결정 단은 오디오 신호의 제 1 부용 제 1 인코딩 알고리즘과, 제 1 부와 다른 오디오 신호의 제 2 부용 제 2 인코딩 알고리즘을 지시한다. 대역폭 확장 모듈은 오디오 신호용 BWE 파라미터들을 계산하며, 이 BWE 모듈은 오디오 신호의 제 1 부 내에 있는 제 1 주파수 대역폭을 포함하지 않는 밴드와, 상기 오디오 신호의 제 2 부내에 있는 제 2 주파수 대역폭을 포함하지 않는 밴드용 BWE 파라미터들을 계산하도록 결정 단에 의해서 제어되도록 구성된다.
실시예와 대조적으로, 종래 SBR은 후술되는 문제점을 초래하는 비-스위치 오디오 코덱에 적용된다. 크로스오버 주파수와 마찬가지로 양 시간적 해상도는 동적으로 응용될 수도 있으나, 3GPD 소스와 같은 기술적 충족(implementations)상태는 예를 들어 캐스터네츠(castanets)와 같이 시간적을 위한 시간 해상도의 변화만을 위해서만 응용된다. 또한 대체로 미세한 중첩(finer overall) 시간적 해상도는 튜닝 파라미터에 의존하는 비트율에서 처럼 고비율에서 선택된다. 어떠한 명확한 분류도 시간 해상도 또는 시간적 해상도를 제어하는 결정한계와, 예를 들어 언어에 비해 정지된(stationary) 토널 음악대 음성 같은 신호 타입을 잘 매칭하는 것 등을 잘 결정할 수가 없다. 본 발명의 일실시예는 이러한 문제점을 극복하기 위한 것으로써, 본 실시예들은 사용된 코어 코더에 대한 유연한 선택이 결합된 적응형 크로스오버 주파수를 특히 가능케 하여 코드된 신호가 종래 기술의 인코더/디코더와 비교하여 상당히 높은 지각적인 품질을 제공한다.
본 발명의 일실시예에 따른 오디오 코딩 시스템은 신호 의존 코어 코더(예를 들면 스위치되는 언어/오디오 코더)로 된 대역폭 확장 툴을 조합하되, 크로스오버 주파수는 가변적 파라미터를 포함한다. 다른 코어 코딩 모드 사이의 스위칭을 제어하는 신호 분류기 출력은 시간적 해상도와 스미어링(smearing), 스팩트럼 해상도와 크로스오버 주파수와 같은 BWE 시스템의 특성을 스위치하는데 사용될 수 있다.
종래 SBR은 후술되는 문제점을 초래하는 비-스위치 오디오 코덱에 적용된다. 크로스오버 주파수와 마찬가지로 양 시간적 해상도는 동적으로 응용될 수도 있으나, 3GPD 소스와 같은 기술적 충족(implementations)상태는 예를 들어 캐스터네츠(castanets)와 같이 시간적을 위한 시간 해상도의 변화만을 위해서만 응용된다. 또한 대체로 질 좋은(finer overall) 시간적 해상도는 튜닝 파라미터에 의존하는 비트율에서 처럼 고비율에서 선택된다. 어떠한 명확한 분류도 시간 해상도 또는 시간적 해상도를 제어하는 결정한계와, 예를 들어 언어에 비해 정지된(stationary) 토널 음악 같은 신호 타입을 잘 매칭하는 것 등을 잘 결정할 수가 없다. 본 발명의 일실시예는 이러한 문제점을 극복한 것으로써, 본 실시예들은 사용된 코어 코더에 대한 유연한 선택이 결합된 적응형 크로스오버 주파수를 특히 가능케 한다.
도 1은 본 발명의 제 1 양태에 따른 디코딩을 위한 장치의 블럭도이다.
도 2는 본 발명의 제 1 양태에 따른 인코딩을 위한 장치의 블럭도이다.
도 3은 인코딩 체계의 상세블럭도이다.
도 4는 디코딩 체계의 상세블럭도이다.
도 5는 본 발명의 제 2 양태에 따른 인코딩 체계의 블럭도이다.
도 6은 본 발명의 제 2 양태에 따른 디코딩 체계의 개략도이다.
도 7은 단기간 예측 정보 및 예측 에러 신호를 제공하는 인코더-사이드 LPC단을 나타낸 도면이다.
도 8은 가중 신호를 발생하는 LPC 장치의 다른 실시예를 나타낸 도면이다.
도 9a ~ 도 9b는 오디오 신호에 대한 다른 시간적 해상도를 초래하는 오디오/언어 스위치를 포함하는 인코더를 보여주는 도면이다.
도 10은 인코드된 오디오 신호에 대한 대표도이다.
도 1은 인코드된 오디오 신호(102)를 디코딩하는 디코더 장치(100)를 보여준다. 인코드된 오디오 신호(102)는 제 1 인코딩 알고리즘에 따라 인코드되는 제 1 부(104a), 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부(104b), 각각의 시 부에 대하여 제 1 디코딩 알고리즘 또는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보(108)와 제 1 시부(104a) 및 제 2 시부(104b)를 위한 BWE 파라미터(106)를 포함한다. 디코딩 장치(100)는 제 1 디코더(110a), 제 2 디코더(110b), BWE모듈(130)과 컨트롤러(140)를 포함한다. 제 1 디코더(110a)는 제 1 디코드된 신호(114a)를 얻도록 인코드된 신호(102)의 제 1 시간부를 위한 제 1 디코딩 알고리즘에 따른 제 1 부(104a)를 디코드하도록 구성된다. 제 2 디코더(110b)는 제 2 디코드된 신호(114b)를 얻도록 인코드된 신호의 제 2 시간부를 위한 제 2 디코딩 알고리즘에 따른 제 2 부(104b)를 디코드하도록 구성된다. BWE모듈(130)은 BWE 모듈(130)의 상태를 조정하는 제어가능한 크로스오버 주파수(fx)를 갖는다. BWE 모듈(130)은 제 1 부를 위한 BWE 파라미터들(106)과 제 1 디코드된 신호(114a)에 기반으로 상부 주파수 대역 내에 있는 오디오 신호의 성분을 발생시킴과 동시에, 제 2 부를 위한 대역폭 확장 파라미터와 제 2 디코드된 신호에 기반으로 상부 주파수 내에 있는 오디오 신호의 성분을 발생시키도록 대역폭 확장 알고리즘을 수행하도록 구성된다.
컨트롤러(140)는 코딩 모드 정보(108)에 따른 BWE 모듈(130)의 크로스오버 주파수(fx)를 제어하도록 구성되어 있다.
BWE모듈(130)은 하부 및 상부 주파수 대역의 오디오 신호 성분을 조합하는 조합기를 포함할 수 있으며, 최종 오디오 신호(105)를 출력한다.
디코딩 모드 정보(108)는 예를 들어, 인코딩 알고리즘에 의해 인코드된 오디오 신호(102)의 시간부가 인코드되는 것을 지시한다. 이러한 정보는 동시에 상이한 시간부에 대하여 사용되는 디코더를 동일시한다. 덧붙여, 코딩 모드 정보(108)는 상이한 시간부에 대한 상이한 디코더 사이에서 스위치하도록 스위치를 제어할 수 있다.
따라서, 크로스오버 주파수(fx)는 사용된 디코더에 따라 조정되는 조정가능한 파라미터인데, 그것은 예를 들어 제 1 디코더(110a)와 같은 언어코더와, 제 2 디코더(110b)와 같은 오디오 디코더를 포함할 수 있다. 전술한 바와 같이, 언어 디코더(LPC를 기반으로 한 예)를 위한 크로스오버 주파수(fx)는 오디오 디코더(음악용)를 위해 사용된 크로스오버 주파수보다 높을 수 있다. 따라서, 또 다른 실시예에서 컨트롤러(220)는 하나의 시간부(예를 들어 제 2 시간부) 내에서 크로스오버 주파수(fx)를 감소시키거나 증가시키도록 구성됨으로써, 디코딩 알고리즘을 변화시킴이 없이 크로스오버 주파수가 변화될 수 있다.
이것은 크로스오버 주파수 내의 변화는 사용된 디코더 내의 변화와 관련이 없다는 것을 의미한다. 반대로 크로스오버 주파수는 크로스오버 주파수를 변화시킴이 없이 디코더가 변화될 수 있거나, 사용된 디코더를 변화시킴이 없이 크로스오버 주파수가 변화된다.
BWE모듈(130)은 BWE 파라미터(106)에 의해 및/또는 컨트롤러(140)에 의해 제어되는 스위치를 포함함으로써, 제 1 디코드된 신호(114a)는 제 1 시간부 동안에 BWE 모듈(130)에 의해 진행되고, 아울러 제 2 디코드된 신호(114b)는 제 2 시간부 동안 BWE 모듈(130)에 의해 진행된다. 이러한 스위치는 크로스오버 주파수(fx) 내에서의 변화에 의해 활성화될 수 있거나, 각각 시간부 동안에 사용된 인코딩 알고리즘을 지시하는 인코드된 오디오 신호(102) 내의 명확한(explicit) 비트에 의해 활성화될 수 있다.
다른 실시예에서, 스위치는 제 1 디코더로부터 제 2 디코더까지 제 1 시간 및 제 2 시간부 사이에서 스위칭하도록 구성됨으로써, 대역폭 확장 알고리즘이 제 1 디코드된 신호 또는 제 2 디코드된 신호 중 둘 중 어느 하나에 적용된다. 선택적으로, 대역폭 확장 알고리즘은 제 1 및/또는 제 2 디코드된 신호에 적용되고, 스위치는 이것 뒤에 위치되어 그 결과 대역폭 확장 신호들 중 하나가 드롭된다.
도 2는 오디오 신호(105)를 인코딩하는 장치(200)에 대한 블럭도이다.
인코딩 장치(200)는 제 1 인코더(210a), 제 2 인코더(210b), 결정단(220) 및 대역폭 확장 모듈(BWE모듈, 230)을 포함하고 있다. 제 1 인코더(210a)는 제 1 주파수 대역폭을 갖는 제 1 인코딩 알고리즘에 따라 인코드되도록 동작된다. 제 2 인코더(210b)는 제 1 주파수 대역폭보다 작은 제 2 주파수 대역폭을 갖는 제 2 인코딩 알고리즘에 따라 인코드되도록 동작된다. 제 1 인코더는 예를 들어 LPC-기반 코더와 같은 언어 코더가 될 수 있다. 반면, 제 2 인코더(210b)는 오디오(음악) 인코더를 포함할 수 있다. 결정단(220)은 오디오 신호(105)의 제 1 부(204a)를 위한 제 1 인코딩 알고리즘을 지시하고, 오디오 신호(105)의 제 2 부(204b)를 위한 제 2 인코딩 알고리즘을 지시하도록 구성되며, 제 1 시간부와 제 2 시간부가 상이하다. 제 1 부(204a)는 제 1 시간부와 연관될 수 있으며, 제 2 부(204b)는 제 1 시간부와 상이한 제 2 시간부에 연관된다.
BWE 모듈(230)은 오디오 신호(105)용 BWE 파라미터들(106)을 계산하도록 구성되고, 오디오 신호(105)의 제 1 부(204a)에서 제 1 주파수 대역폭을 포함하지 않는 제 1 대역에 대한 BWE 파라미터(106)를 계산하기 위해 결정단(220)에 의해 제어되도록 구성된다.
BWE 모듈(230)은 또한 오디오 신호(105)의 제 2 시간부(204b) 내의 제 2 대역폭을 포함하고 있지 않는 제 2 대역용 BWE 파라미터(106)를 계산하도록 구성된다. 제 1 (제 2) 대역은 따라서 제 1 (제 2) 주파수 대역폭 외부에 있고, 크로스오버 주파수(fx)에 의해 하단의 스펙트럼을 향하여 제한되는 오디오 신호(105)의 주파수 성분을 포함한다. 제 1 또는 제 2 대역폭은 따라서 결정단(220)에 의해 제어되는 가변 크로스오버 주파수에 의해 한정될 수 있다.
또한, BWE 모듈(230)은 결정단(220)에 의해 제어되는 스위치를 포함할 수도 있다. 결정단(220)은 소정 시간부에 대한 바람직한 코딩 알고리즘을 결정하고, 스위치를 제어함으로써, 소정 시간부 동안 바람직한 코드가 사용된다. 변형된 코딩 모드 정보(108')는 해당 스위치 신호를 포함한다. 더 나아가, BWE 모듈(230)은 약 4KHz 또는 5KHZ의 값을 갖는 크로스오버 주파수(fx)에 의해 분리된 저/고 주파수 대역 내의 오디오 신호(105)의 성분을 얻도록 필터를 포함할 수 있다.
최종적으로 BWE 모듈(130)은 BWE 파라미터(106)를 결정하도록 분석 툴을 또한 포함할 수 있다. 변형된 코딩 모드 정보(108')는 코딩 모드 정보(108)와 등가이거나 동등할 수 있다.
코딩 모드 정보(108)는 예를 들어 인코드된 오디오 신호(105)의 비트스트림내의 각 시간부에 대한 사용된 코딩 알고리즘을 지시한다.
다른 실시예에 따르면, 결정단(220)은 원래의 입력 신호(105)를 분석하는 신호 분류 툴을 포함하고, 상이한 코딩 모드의 선택을 트리거하는 제어 정보(108)를 생성한다. 입력 신호(105)의 분석은 소정 입력 신호 프레임에 대한 최적 코어 코딩 모드를 선택하도록 하기 위한 목적에 따라 충족된다. 신호 분류기의 출력은 (선택적으로) 다른 툴 들의 존재, 예를 들면, MPEG 서라운드, 향상된 SBR, 시간 -휘어진(warped) 필터뱅크, 기타 등등에 영향을 받도록 사용된다.
신호 분류기 툴의 입력은 예를 들면 원래의 변형없는 입력 신호(105)이지만, 파라미터에 종속된 선택적으로 부가되고 충족되는 신호이다. 신호 분류기 툴의 출력은 코어 코덱(예를 들면, 비-LP 필터된 주파수 도메인 또는 LP 필터된 시간 또는 주파수 도메인 코딩 또는 코딩 알고리즘)의 선택을 제어하도록 제어신호(108)를 포함한다.
실시예에 따르면, 크로스오버 주파수(fx)는 상이한 코딩 알고리즘을 사용하도록 스위칭 결정과 조합되어 의존하는 신호가 조절된다. 따라서, 간단한 스위치 신호는 크로스오버 주파수(fx) 내에서 간단히 변화(점프)될 수 있다. 또한, 코딩 모드 정보(108)는 바람직한 코딩 체계(예, 언어/오디오/음악)를 동시에 지시하는 크로스오버 주파수(fx)의 변환을 포함할 수 있다.
또 다른 실시예에 따르면, 결정단(220)은 오디오 신호(105) 또는 제 1 인코더(210a)의 제 1 출력 또는 제 2 인코더(210b)의 제 2 출력 또는 인코더(210a)의 출력 신호를 디코딩하여 얻어진 신호 또는 최종 목표 기능에 관한 제 2 인코더(210b)를 분석하도록 동작된다.
결정단(220)은 언어/음악 구별을 수행하도록 선택적으로 동작될 수 있는데, 그 방법으로 언어에 대한 결정은, 음악에 대한 결정에 비해 유리하며, 그 결과 예를 들어, 언어의 결정은 제 1 스위치에 대하여 50%의 프레임보다 적은 부분이 언어이고, 제 1 스위치에 대하여 50%의 프레임보다 큰 부분은 음악인 것으로 결정된다. 따라서, 결정단(220)은 오디오 신호가 주로 언어 신호인지 또는 음악신호인지를 결정하도록 오디오 신호를 분석하는 분석 툴을 포함함으로써, 결정단의 결과에 기반으로 오디오 신호의 분석된 시간부에 대해 사용되는 최적의 코덱인지를 결정할 수 있다.
도 1 및 도 2는 인코더/디코더에 대한 상세한 것을 나타내고 있지는 않는다. 이러한 인코더/디코더에 대한 상세 예들은 후도면에 나타나 있다. 더하여, 도 1의 제 1 및 제 2 디코더(110a, 110b)는 또 하나의 디코더가 있는데, 이 디코더는 또 다른 인코딩 알고리즘을 사용할 수도 있고, 사용하지 않을 수도 있다.
동일한 방법으로, 도 2의 인코더(200) 추가 인코딩 알고리즘을 사용할 수 있는 추가 인코더를 포함할 수도 있다. 그 인코더/디코더를 갖는 예는 아래에서 상세히 설명된다.
도 3은 그 캐스캐이드 스위치를 갖는 인코더를 상세히 나타내고 있다. 모노 신호, 스테레오 신호 또는 멀티-채널 신호는 도 2의 BWE모듈(230)의 일부인 결정단(220)과 스위치(232)로 입력된다. 스위치(232)는 결정단(220)에 의해 제어된다. 선택적으로는, 결정단(220)은 모노, 스테레오 신호 또는 멀티 채널 신호에 포함되고, 정보가 존재할 때 모노신호, 스테레오 신호 또는 멀티 채널 신호를 원래대로 재생되는 그러한 신호와 적어도 연합되는 사이드 정보를 또한 수신한다.
결정단(220)은 도 3의 상부 브랜치에 있는 주파수 인코딩 부(210b)에 있거나 도 3의 하부 브랜치에 있는 LPC-도메인 인코딩 부(210a)에 있는 신호를 공급하도록 스위치(232)를 활성화시킨다.
주파수 도메인 인코딩 브랜치의 키 엘리멘트는 일반 프로세싱 단 출력 신호(후술되는)를 스팩트럼 도메인으로 변환시키도록 동작하는 스팩트럼 변환 블럭(410)이다. 이 스팩트럼 변환블럭은 MDCT 알고리즘, QMF, FFT알고리즘, 베벨릿 분석 또는 필터뱅크 즉, 소정수의 필터뱅크 채널을 갖는 정밀하게 샘플된 필터뱅크를 포함하고 있으며, 이러한 필터 뱅크 내의 서브대역 신호들은 실제 가치 신호나 복합 가치 신호일 수 있다.
스팩트럼 변환 블럭(410)의 출력은 AAC 코딩 체계로부터 알려진 프로세싱 블럭을 포함할 수 있는 스팩트럼 오디오 인코더(421)를 이용하여 인코드된다. 일반적으로, 브랜치(210b) 내의 프로세싱은 지각 근거 모델 또는 정보 싱크 모델에 근거한 프로세싱이다. 따라서, 이러한 브랜치는 소리를 수신하는 인간 청각 시스템을 모델로 삼는다. 상반되게는, 브랜치(210a) 내의 프로세싱은 여기, 잔류 또는 LPC 도메인 내에서의 신호를 발생시킨다. 일반적으로 브랜치(210a) 내의 프로세싱은 언어 모델 또는 정보 발생 모델에 근거한 프로세싱이다. 언어 신호에 대해서는, 이러한 모델이 소리를 발생시키는 인간 언어/소리 발생시스템의 모델이다.
그러나 만약, 상이한 소리 발생모델을 요구하는 상이한 소스로부터 소리가 인코드되면, 그 때 브랜치(210a) 내의 프로세싱이 서로 다르게 될 것이다. 보여진 코딩 브랜치에 더하여, 또 다른 실시예는 부가적 브랜치 또는 코어 코더를 포함한다. 예를 들어, 다른 코더들은 다른 소스에 대해 선택적으로 나타낼 수 있어서, 각각의 소스로부터의 소리는 바람직한 코더를 사용하여 코드될 수 있다.
하부 인코딩 브랜치(210a)에서, 키 엘리먼트는 LPC 필터의 특성을 제어하기 위하여 사용되는 LPC 정보를 출력하는 LPC 디바이스(510)이다. 이러한 LPC 정보는 디코더로 전송된다.
LPC 디바이스 단(510) 출력 신호는 여기 신호 및/또는 가중 신호로 구성된 LPC-도메인 신호이다.
LPC 디바이스는 일반적으로 LPC 도메인 내의 어떤 신호 또는 LPC 필터 계수(coefficients)를 오디오 신호에 인가함으로써 발생되는 다른 신호일 수도 있는 LPC 도메인 신호를 출력한다. 더욱이, LPC 디바이스는 이러한 계수(coefficients)들을 결정하고, 이러한 계수(coefficients)를 양자화하거나/인코드할 수 있다.
결정단(220)에서의 결정은 신호 적응될 수 있어서 결정단이 음악/언어 식별을 수행하고 스위치(232)를 제어하는데, 그 방법은 음악 신호들은 상부 브랜치(210b)로 입력되고, 언어 신호들은 하부 브랜치(210a)로 입력된다. 다른 실시예에서는, 결정단(220)은 그것의 결정정보를 출력 비트 스트림으로 공급함으로써 디코더가 교정된 디코딩 작동을 수행하도록 결정 정보를 사용할 수 있다. 이러한 결정 정보는 예를 들어 크로스오버 주파수(fx) 또는 크로스오버 주파수(fx)의 변화에 대한 정보를 또한 포함할 수 있는 코딩 모드 정보(108)를 포함할 수 있다.
그러한 디코더가 도 4에 도시되어 있다, 스팩트럼 오디오 인코더(421)의 신호 출력은 스팩트럼 오디오 디코더(431)로 전달 이후에 입력된다. 스팩트럼 오디오 디코더(431)의 출력은 타임-도메인 변환기(440), (타임-도메인 변환기는 일반적으로 제 1 도메인에서 제 2 도메인까지의 변환기일 수 있음)로 입력된다.
유사하게, 도 3의 LPC 도메인 인코딩 브랜치(210a)의 출력은 LPC 여기 신호를 얻도록 디코더 측면에서 수신되고, 엘리먼트(531, 533, 534 및 532)에 의해 처리된다.
LPC 여기 신호는 해당 LPC 분석단(510)에 의해 발생된 LPC 정보를 또 다른 입력으로 수신하는 LPC 합성단(540)으로 입력된다. 타임-도메인 변환기(440)의 출력 및/또는 LPC 합성단(540)의 출력은 도 1의 BWE 모듈(130)의 일부로 될 수도 있는 스위치(132)로 입력된다. 스위치(132)는 결정단(220)에 의해 발생되거나 또는 원래의 모노 신호, 스테레오 또는 멀티-채널 신호의 창시자에 의해 외부에서 제공된 스위치 제어 신호(코딩 모드 정보(108) 및/또는 BWE 파라미터(106)와 같은)를 통하여 제어된다.
도 3에서, 스위치(232) 및 결정단(220) 속으로의 입력신호는 모노 신호, 스테레오 신호, 멀티-채널 신호 또는 일반적인 다른 오디오 신호일 수 있다. 스위치(232) 입력 신호나, 단(232) 속으로 입력 신호를 근본하는(underlying) 원래의 오디오 신호의 생산자와 같은 외부 소스로부터 유도되는 결정에 따라, 스위치는 주파수 인코딩 브랜치(210b)와 LPC 인코딩 브랜치(210a) 사이에서 스위치한다. 주파수 인코딩 브랜치(210b)는 스팩트럼한 변환단(410)과 연속적으로 연결된 양자화/코딩 단(421)을 포함한다. 양자화/코딩 단은 AAC 인코더와 같은 최근 주파수-도메인 인코더로 알려진 어떤 기능성을 포함할 수 있다. 더욱이, 양자화/코딩 단(421)에서의 양자화 동작은 주파수를 넘어 사이코어코스틱 매스킹 한계(threshold)와 같은 사이코어코스틱 정보를 발생시키는 사이코어코스틱 모듈을 통하여 제어되며, 그곳에서 이러한 정보는 단(421)으로 입력된다.
LPC 인코딩 브랜치(210a)에서, 스위치 출력 신호는 LPC측 정보 및 LPC-도메인 신호를 발생시키는 LPC 분석단(510)을 통하여 처리된다. 여기 인코더는 LPC-도메인에서의 양자화/코딩 동작(522) 또는 LPC-스팩터럴 도메인에서의 값을 처리하는 양자화/ 코딩 단(524) 사이의 LPC-도메인 신호의 또 다른 처리를 스위칭하는 부가적 스위치를 포함할 수 있다. 이것을 위해서, 스팩터럴 변환기(523)는 양자화/ 코딩단(524)의 입력에 제공된다. 스위치(521)는 오픈 루프 패션내에서 또는 예를 들어 AMR-WB + 기술적 명세서에 기술된 특별 세팅에 의존하는 패쇄형 루프 패션으로 제어된다.
폐쇄형 루프 제어 모드에 대하여, 인코더는 부가적으로 LPC도메인 신호에 대한 인버스 양자기/코더(531)와, LPC 스팩트럴 도메인 신호에 대한 인버스 양자기/코더(533)와 아이템(53) 출력에 대한 인버스 스팩트럴 변환기(534)를 포함한다. 제 2 인코딩 브랜치의 프로세싱 브랜치 내의 인코드된 그리고 다시 디코드된 신호들은 스위치 제어 디바이스(525)로 입력된다. 스위치 제어 디바이스(525)에서 이러한 2 개의 출력신호들은 서로 목표기능끼리 비교되고, 양 신호에서의 왜곡의 비교에 근거하여 계산되어, 하부 왜곡을 갖는 신호가 스위치(521)가 취해야 될 위치를 결정하는데 이용된다. 대안으로, 양 브랜치가 일정하지 않은 비트레이트를 제공하는 경우, 심지어 하나의 브랜치의 왜곡 또는 지각의 왜곡이 다른 하나의 브랜치의 왜곡 또는 지각의 왜곡보다 낮은 경우에도 더 낮은 비트레이트를 제공하는 브랜치가 선택될 수 있다(상기 왜곡의 예는 신호대 잡음비일 수 있다). 선택적으로 타깃 기능 특정 목표에 대한 최적의 결정을 찾도록 입력시에 각 신호의 왜곡과 각 신호의 비트비율 및/또는 부가적 표준(criteria)을 이용한다.
만약, 예를 들어 목표는 비트율이 가능한 낮게 되면, 그 때 타깃 기능은 엘리먼트(531, 534)의 2개의 신호 출력에 매우 의존해야 하는 식이다. 반면에, 주 목표가 소정의 비트율에 대하여 최적을 품질을 가져야 하며, 그 때 스위치 제어(525)는 예를 들어 양신호가 허가된 비트율 이상일 때의 신호는 버려야 하고, 양 신호 모두가 허가된 비트율일 때, 스위치 제어는 더 좋은 평가의 주 품질을 갖는 신호를 선택하는데, 즉, 신호대 노이즈 비에 대해 더 좋은 신호이거나 더 적은 양자화/코딩 왜곡을 갖는 신호를 선택한다.
디코딩 체계는 일실시예에 따라서 전술한 바와 같이, 도 4에 나타나 있다. 특정 디코딩/재양자화 단(431, 531 또는 533)의 3개의 가능한 출력 신호가 존재한다. 반면, 단(431)은 주파수/시간 변환기(440)를 사용하여 시-도메인으로 변환되고, 단(531)은 LPC-도메인 신호를 출력하며, 아이템(533)은 LPC-스팩트럼을 출력한다. 스위치(532)로 입력된 신호가 LPC-도메인 내에서 있다는 것을 보장하기 위해서는, LPC-스팩트럼/LPC-변환기(534)가 제공된다. 스위치(532)의 출력 데이터는 인코더 측에서 발생되고 전송된 LPC 정보를 통해 제어되는 LPC 합성단(540)을 이용하여 시-도메인으로 다시 전송된다.
그 다음, 블럭(540)에 따르면 양 브랜치는 도 3에 인코딩 체계로 입력되는 신호에 의존하는 모노 신호, 스테레오 신호 또는 멀티-채널 신호와 같은 오디오 신호를 최종적으로 얻기 위해 스위치 제어 신호에 따라 스위치되는 시-도메인 정보를 갖는다.
도 5 및 도 6은 인코더/디코더에 대한 다른 실시예를 보여주고 있고, 그 속에는 BWE 모듈(130, 230)의 일부분으로써 BWE단이 공통 프로세싱 유닛으로 표현되었다.
도 5는 인코딩 체계를 보여주고 있고, 스위치(232) 입력에 연결된 공통 프리 프로세싱 체계는 출력으로써, 두 개 또는 그 이상의 채널을 갖는 신호인 입력신호를 다운믹싱하여 발생되는 조인트 스테레오 파라미터들과 모노 출력 신호를 발생시키는 서라운드/조인트 스테레오 블럭(101)을 포함시킬 수 있다. 일반적으로, 블럭(101)의 출력에서의 신호는 많은 채널들을 갖는 신호일 수 있으나, 블럭(101)의 다운믹싱 기능성에 기인하여, 블럭(101)의 출력에서의 많은 채널이 블럭(101)으로 입력되는 많은 수의 채널보다는 적다.
공통 프로세싱 체계는 블럭(101)에 추가하여 대역폭 확장단(230)을 포함할 수 있다.
도 5의 실시예에서, 블럭(101)의 출력은 출력으로써 저대역 신호나 로우 패스 신호와 같은 대역-제한 신호를 출력하는 대역폭 확장 블럭(230)으로 입력된다. 바람직하게는, 이러한 신호는 다운 샘플(2개의 요소에 의해)된다. 더욱이, 블럭(230)으로 입력된 신호의 고대역에 대하여, 스팩트럴 엔빌로프 파라미터들과 같은 대역폭 확장 파라미터(106), 인버스 필터링 파라미터, MPEG-4의 HE-AAC 프로파일로부터 잘 알려진 노이즈 플로의 파라미터 등의 요소들이 발생되고 비트 스트림 멀티 플렉서(800)로 보내어진다.
바람직하게는, 결정단(220)은 예를 들어 음악모드 또는 언어모드 사이에서 결정하도록 블럭(230)으로 입력되거나, 블럭(101)으로 입력되는 신호를 수신한다. 음악 모드에서는, 상부 인코딩 블랜치(210b, 도 2의 제 2 인코더)가 선택된다. 반면, 언어모드에서는 하부 인코딩 브랜치(210a)가 선택된다. 바람직하게는 결정단은 특정 신호에 이러한 블럭들의 기능성을 적용하도록, 조인트 스테레오 블럭(101) 및/또는 대역폭 확장 블럭(230)을 부가적으로 제어한다. 따라서, 결정단(220)은 입력 신호의 소정 시간부가 음악모드와 같은 제 1 모드에 해당한다고 결정할 때, 블럭(101) 및/또는 블럭(230)의 특정 특징들이 결정단(220)에 의해 제어될 수 있다. 선택적으로, 결정단(220)은 신호가 일반적으로 제 2 LPC-도메인 모드에서 또는 언어모드에 상응하는 것을 결정하고, 그러면 블럭(101, 230)의 구체적인 특징은 결정단 출력에 따라 제어될 수 있다. 결정단(220)은 BWE 블럭(230)으로 전송되고, 비트스트림 멀티플렉서(800)로 전송되어서, 그 결과 디코더 측으로 전송될 크로스오버 주파수(fx) 및/또는 제어 정보(108)를 생성시킨다.
바람직하게는, 코딩 브랜치(210b)의 스팩트럴 변환은 보다 바람직하게는 시간-휘어짐 MDCT 동작하는 MDCT 동작을 이용하여 수행되고, 그곳에는 강도(strength) 또는 일반적으로 휘어짐 강도(warping strength)는 제로와 높은 휘어짐 강도 사이에서 제어된다. 제로 휘어짐 강도에 있어서, 블럭(411) 내의 MDCT 동작은 종래에 알려진 직진 방향 MDCT 동작이다. 타임 휘어짐 사이드 정보를 갖는 시간 휘어짐 강도는 사이드 정보와 같이 비트스트림 멀티플렉서(800)로 전송되거나/입력될 수 있다.
LPC 인코딩 브랜치에서, LPC-도메인 인코더는 피치 게인을 계산하는 ACELP 코어(526)와 피치 지체(lag) 코드 북 인덱스 및 게인과 같이 코드북 정보를 포함한다. 3GPP TS 26,290으로 잘 알려진 TCX 모드는 변형 도메인내에서 지각적으로 가중치된 신호의 프로세싱을 포함한다. 퓨리에 변형 가중치 신호는 노이즈 팩터 양자화를 갖는 스플릿 멀티-비율 격자 양자화(대수적 VQ)를 이용하여 양자화된다.
변형은 도면 부호 "1024, 512, 256" 샘플 윈도우 내에서 계산된다. 여기 신호는 인버스 가중 필터를 통하여 양자화된 가중 신호를 필터링하는 인버스에 의해 회복된다. TCX 모드는 MDCT가 확대된 오버랩, 스칼라 양자화, 인코딩 스팩트럴 라인에 대한 연산(arithmetic) 코더가 이용되는데, 변형된 형태(form)로 이용된다.
음악 코딩 브랜치(210b)에서, 스팩트럴 변환기는 바람직하게는 싱글 백터 양자화단으로 구성된 양자/엔트로피 인코딩단, 더 바람직하게는 도 5의 아이템(421) 내의 주파수 도메인 코딩 브랜치에 있는 양자/코더와 유사한 조합된 스칼라 양자/엔트로피 코더에 의해 일어나는 소정의 윈도우 기능을 갖는 특별히 채용된 MDCT 동작을 포함한다.
언어 코딩 브랜치(210a)에서, ACELP 블럭(526) 또는 TCX 블럭(527)에 의해 따르는 스위치(521)에 의해 따르는 LPC 블럭(510)이 있다. ACELP는 3GPP TS 26.190으로 서술되고, TCX는 3GPP TS 26.290으로 서술되어 있다.
일반적으로 ACELP 블럭(526)은 도 7에 도시된 과정에 의해 계산되는 LPC 여기신호를 수신한다. TCX 블럭(527)은 도 8에 의해 발생된 것과 같이 가중된 신호를 수신한다.
도 6에 도시된 디코더 측에서는, 블럭(537) 내에 있는 인버스 스팩트럴 변형 후에 가중된 필터의 인버스는 즉(1-μz-1)/[1-A(Z/γ)]이 인가된다. 그 때 신호는 LPC 여기 도메인으로 가도록 [1-A(z)]를 경유하여 필터된다. 따라서, LPC 도메인 블럭(534)과 TCX- 1블럭(537)의 변환은 인버스 변형을 포함하고, 다음 가중치 도메인으로부터 여기 도메인으로 변환하도록 (1-μz-1)[1-A(z)]/[1-A(Z/γ)]를 통하여 필터링된다.
도 3, 5에서의 아이템(510)이 싱글 블럭으로 나타나 있지만, 블럭(510)은 이러한 신호가 LPC 도메인 내에 있는 한, 상이한 신호를 출력할 수 있다. 여기 신호모드나 가중된 신호 모드와 같이 블럭(510)의 실제 모드는 실제 스위치 상태에 의해 의존된다. 선택적으로, 블럭(510)은 2개의 병렬 프로세싱 디바이스를 갖으며, 그속에는 하나의 디바이스는 도 7과 유사하게 충족되어 있고, 다른 하나의 디바이스는 도 8과 유사하게 충족되어 있다. 따라서 도면 부호(510)의 출력에 있는 LPC 도메인은 LPC 여기 신호 또는 LPC 가중 신호 또는 다른 LPC 도메인 신호 중 하나를 표시한다.
도 5의 제 2 인코딩 브랜치(ACELP/TCX)에서, 신호는 인코딩 전에 바람직하게는 필터 "1-μz-1"을 통하여 전치-증폭된다. 도 6의 ACELP/TCX 디코더에서는 합성된 신호가 필터 1/(1-μz-1)에 의해 감폭된다.
바람직한 실시예에서는, 파라미터(μ)는 0.68의 값을 가진다.
전치증폭은 LPC 블럭(510)의 일부분이 될 수 있는데, 그 곳에는 신호가 LPC 분석과 양자화 전에 전치 증폭된다. 유사하게, 감폭은 LPD 합성 블럭 LPC-1(540)의 일부분이 될 수도 있다.
도 6은 도 5의 인코딩 체계에 해당하는 디코딩 체계를 도시하고 있다.
도 5의 비트 스트림 멀티플렉서(800, 또는 출력 인터페이스)에 의해 발생된 비트 스트림은 비트 스트림 디멀티플렉서(900, 혹은 입력 인터페이스)로 입력된다. 예를 들면, 모드 탐지 블럭(601, 예로써 도 1의 컨트롤러 "140"의 부분)을 통하여 비트스트림으로부터 유도된 정보에 의존하여, 디코더-측 스위치(132)는 상부 브랜치로부터의 포워드 신호들이나 하부 브랜치로부터 대역폭 확장 블럭(701)까지의 신호들 중 어느 하나를 제어한다. 대역폭 확장 블럭(701)은 비트 스트림 디멀티플렉서(900)로부터 사이드 정보를 수신하고, 이러한 사이드 정보와 모드 탐지(601)의 출력에 근거하여, 스위치(132)에 의해 출력된 저대역 상에 근거한 고대역을 재생시킨다. 제어 신호(108)는 사용된 크로스오버 주파수(fx)를 제어한다.
블럭(701)에 의해 발생된 완전 대역 신호는 2 개의 스테레오 채널 또는 몇 개의 멀티-채널을 재생시키는 조인트 스테레오 서라운드 프로세싱단(702)으로 입력된다. 일반적으로, 블럭(702)은 이러한 블럭으로 입력되는 것보다 더 많은 채널로 출력될 것이다. 이러한 응용에 의존하여, 블럭(702) 내로의 입력은 이러한 블럭의 출력이 이러한 블럭으로의 입력보다 더 많은 채널을 갖는 한, 스테레오 모드와 같은 2 개의 채널과 많은 채널을 포함할 수가 있다.
도 5에서의 스위치(232)는 양 브랜치 사이에서 스위치하도록 도시되어 있어서, 그 결과 단지 어느 하나의 브랜치는 프로세스를 하기 위해 신호를 수신하고, 다른 하나의 브랜치는 처리하는 신호를 수신하지 않는다. 다른 실시예에서는, 그러나 스위치(232)는 예를 들면, 양 브랜치들(210a, 210b)이 병렬로 동일 신호를 처리한다는 의미인, 오디오 인코더(421)와 여기 인코더(522, 523, 524)에 종속되어 배열될 수 있다. 비트율을 이중으로 하지 않도록, 단지 이러한 인코딩 브랜치(210a 또는 210b) 중 하나인 신호 출력만이 출력 비트 스트림 내에서 쓰여지도록 선택된다. 결정단은 그 때 동작됨으로써, 그 결과 비트 스트림 내에서 쓰여진 신호는 그곳에서 코스트 기능이 발생된 비트율 또는 발생된 지각성 왜곡 또는 조합되는 비율/왜곡 코스트 기능이 되는 소정의 코스트 기능을 최소화한다.
따라서, 이러한 모드 또는 도면에 나타난 모드 중 어느 하나에서 결정단은 최종적으로 단지 인코딩 브랜치 출력만이 주어진 지각성 왜곡 최하부의 비트율에 대하여 가지고, 또는 주어진 비트율에 대해 최하부의 지각성 왜곡을 갖는 비트 스트림 내에 쓰여지는 것을 확실히 하기 위하여 폐쇄 루프 모드에서 또한 작동할 수 있다. 폐쇄 루프 모드에서는, 피드백 입력은 3 개의 양자/ 스케일러 블럭(421, 522, 424)의 출력으로부터 유도된다.
또한 도 6의 실시예에서는, 스위치(132)가 BWE 모듈(701) 이후에 배열되어, 그 결과 대역폭 확장이 양 브랜치에 대해 병렬로 수행되고, 스위치는 2개의 대역폭 확장 신호 중 하나를 선택한다. 2 개의 스위치를 갖는 실시예에서, 즉, 제 1 스위치(232) 및 제 2 스위치(521)이고, 제 1 스위치에 대한 시간 해상도는 제 2 스위치에 대한 시간 해상도보다 낮은 것이 바람직하다.
다르게 말하면, 스위치 동작을 통하여 스위치되는 제 1 스위치내의 입력신호의 블럭들은 LPC-도메인 내에서 동작하는 제 2 스위치(521)에 의해 스위치되는 블럭보다 크다. 모범적으로 주파수 도메인/LPC-도메인 스위치(232)는 1024개의 샘플 길이의 블럭을 스위치할 수 있고, 제 2 스위치(521)는 각 256개의 샘플을 갖는 블럭들을 스위치할 수 있다.
도 7은 LPC 분석 블럭(510)의 상세한 실시를 나타내고 있다. 오디오 신호는 필터 정보 A(z)를 결정하는 필터 결정 블럭(83)으로 입력된다. 이러한 정보는 디코더에 요구된 짧은-구간 예측 정보로써의 출력이다. 짧은-구간 예측 정보는 실제 예측 필터(85)에 의해 요구된다. 감산기(86)에서, 오디오 신호의 현재 샘플은 입력이고 현재 샘플에 대한 예측값은 감산됨으로써, 그 결과 이러한 샘플에서는 예측 에러 신호가 라인(84)에서 발생된다.
한편, 도 7은 여기신호를 계산하는 바람직한 방법을 보여주고 있고, 도 8은 가중된 신호를 계산하는 바람직한 방법을 보여주고 있다. 도 7과 대조적으로, 필터(85)는 상이하고, "γ"는 "1"로부터 상이하다. "γ"로 "1"보다 더 적은 값이 바람직하다. 더욱이, 블럭(87)이 존재할 때, 그리고 "μ"가 1보다 작은 수일 때, 더 바람직하다. 일반적으로 도 7과 도 8의 엘리먼트는 3GPP TS 26.190 또는 3GPP TS 26.290으로 만족시킬 수 있다.
뒤이어, 분석-합성 CELP 인코더는 이러한 알고리즘에 적용된 변경을 설명하도록 논의가 된다. 이러한 CELP 인코더는 "언어 코딩; 튜토리얼 리뷰(A Tutorial Review) Andreas Spanias, Proceedings of the IEEE, Vol.82, No.10, October 1994, page 1541-1582"에 상세히 설명되어 있다.
특별한 경우에 대하여, 프레임이 비음성 합성물과 음성 언어 또는 음악이 중복된 언어일 때, TCX 코딩은 LPC 도메인 내의 여기 상태를 코딩하기에 훨씬 더 적절할 수 있다. TCX 코딩은 여기 물질의 존재한다는 가정이 없이도 주파수 도메인 내의 여기를 직접 처리한다. TCX는 그 다음에 CELP 코딩보다 훨씬 제너릭(generic)하고, 여기의 비-음성 소스 모델 또는 음성에 한정되지 않는다. TCX는 아직까지도 음성과 유사한 신호의 포먼트(formant)를 모델링하는 선형 예측 필터를 이용한 소스-필터 모델 코딩이다.
AMR-WB+ -유사 코딩에서, AMR-WB+ 설명에서 알 수 있는 것과 같이 상이한 TCX 모드와 ACELP 사이의 선택이 발생된다. TCX 모드들은 블럭-와이즈 빠른 퓨리에 트랜스폼의 길이가 상이한 모드들에 대하여 다르다는 것과, 최적의 모드가 합성 접근법 또는 직접 "전방 공급(feed forward)" 모드에 의하여 분석에 의해 선택될 수 있다는 점에서 상이하다.
도 5 및 도 6에서 설명한 바와 같이, 공통 프리-프로세싱 단(100)은 조인트 멀티-채널(101, 서라운드/조인트 스테레오 디바이스)와, 부가적으로 대역폭 확장 단(230)을 포함하고 있다.
연관하여, 디코더는 대역폭 확장단(701)과, 뒤이어 연결된 조인트 멀티채널단(702)을 포함한다. 바람직하게는, 조인트 채널 단(101)은 인코더에 관하여는, 대역폭 확장단(230)에 앞서 연결되어 있고, 디코더 측에서는 대역폭 확장단(701)은 신호 처리 방향과 관련하여 조인트 멀티채널(702) 전에 연결되어 있다. 선택적으로, 그러나 공통 프리-프로세싱 단은 뒤이어 연결된 대역폭 확장단이 없이 조인트 멀티 채널단을 포함하거나, 연결 조인트 멀티 채널단 없이 대역폭 확장단을 포함한다.
도 9a 내지 도 9b는 도 5의 인코더에 대한 간단한 도면이다.
여기에는 인코더가 스위치-결정 유닛(220)과 스테레오 코딩 유닛(101)을 포함하고 있다. 또한, 인코더는 예로써 엔빌로프 데이터 계산기와 SBR-연관 모듈과 같이 대역폭 확장 툴(230)을 포함하고 있다. 스위치-결정 유닛(220)은 오디오 코더(210b)와 언어 코더(210a) 사이에서 스위치하는 스위치 결정 신호(108')를 제공한다. 언어 코더(210a)는 음성과 비음성 코더로 분할될 수 있다. 이러한 코더의 각각은 상이한 수의 샘플값(예. 고해상도에 대한 1024 또는 저해상도의 256)을 이용하여 코어 주파수 밴드 내의 오디오 신호를 인코드할 수 있다. 스위치 결정 신호(108')는 또한 대역폭 확장(BWE) 툴(230)에 공급된다. BWE 툴(230)은, 예를 들어 스팩트럴 엔빌로프(104)의 수를 조정하도록 하는 것과 동시에, 선택적인 과도치 탐지기를 턴 온/오프 하도록 하고, 크로스오버 주파수(fx)를 조정하도록, 스위치 결정(108')을 이용할 것이다.
오디오 신호(105)는 스위치-결정 유닛(220) 속으로 입력되고, 스테레오 코딩(101) 속으로 입력됨으로써, 스테레오 코딩(101)은 대역폭 확장 유닛(230) 속으로 입력되는 샘플값을 생성시킬 수 있다.
스위치-유닛 결정 유닛(200)에 의해 발생된 결정(108')에 따라 대역폭 확장 툴(230)은 차례로, 오디오 코더(210b) 또는 언어 코더(210a) 중 어느 하나를 향하여 스팩트럴 대역 복제(replication) 데이터를 발생시킨다.
스위치 결정 신호(108')는 신호 종속이고, 예를 들어, 개연 한계치(threshold)를 포함시키거나 또는 포함시키지 않는 과도치 탐지기 또는 다른 탐지기를 이용하여 오디오 신호를 분석함으로써 스위치-결정 유닛(220)으로부터 획득할 수 있다. 선택적으로 스위치 결정 신호(108')는 (예를 들어 사용자에 의해) 수동으로 조정되거나 (오디오 신호에 포함된) 데이터 스트림으로부터 얻어질 수 있다.
오디오 코더(210b)의 출력과 언어 코더(210a)의 출력은 다시 비트 스트림 포맷터(800) 속으로 입력될 수 있다(도 5참조).
도 9b는 제 1 시간 이전(ta) 및 제 2 시간(tb) 이전의 시간 구간에 대하여 오디오 신호를 탐지하는 스위치 결정 신호(108')의 예를 도시한다. 제 1 시간(ta) 및 제 2 시간(tb) 사이에서, 스위치-결정 유닛(220)은 스위치 결정 신호(108')에 대한 상이한 분산 값을 초래하는 언어신호를 탐지한다.
높은 크로스오버 주파수(fx)를 사용하기 위한 결정은 결정 유닛(220)을 스위칭함으로써 제어된다. 이것은 서술된 방법이 SBR 모듈이 단지 싱글 코어 코더와 가변 크로스오버 주파수(fx)와 결합되어 있는 시스템 내에서 사용가능하다는 것을 의미한다.
비록 도 1 내지 도 9의 모든 내용이 장치의 블럭 다이어그램으로 설명되었지만, 이러한 도면은 동시에 방법의 예시이기도 하고, 블럭 기능성이 방법 스텝과 연관된다.
도 10은 제 1 부(104a), 제 2 부(104b), 제 3 부(104c) 및 제 4 부(104d)를 포함하는 인코드된 오디오 신호(102)에 대한 표시를 나타낸 것이다. 이 표시에서, 인코드된 오디오 신호(102)는 코딩 모드 정보(108)를 더 포함한 전달 채널을 통하여 전달된 비트 스트림이다. 인코드된 오디오 신호(102)의 각 부(104)는 비록 상이한 부(104)가 시간 도메인과 마찬가지로 인코드된 오디오 신호(102)가 시간 라인을 표시하고 있지 않는 주파수 내에서 일찌라도, 상이한 시간부를 표시할 수가 있다.
이 실시예에서, 인코드된 오디오 신호(102)는 또한 제 1 부(104a)에 대하여 사용된 코딩 알고리즘을 확인하는 제 1 코딩 모드 정보(108a), 제 2 부(104b)에 대하여 사용된 코딩 알고리즘을 확인하는 제 2 코딩 모드 정보(108b), 제 4 부(104d)에 대하여 사용된 코딩 알고리즘을 확인하는 제 3 코딩 모드 정보(108d)를 포함한다. 제 1 코딩 모드 정보(108a)는 제 1 부(104a) 내에서 사용된 제 1 크로스오버 주파수(fx1)를 확인할 수 있으며, 제 2 코딩 모드 정보(108b)는 제 2 부(104b) 내에서 사용된 제 2 크로스오버 주파수(fx2)를 또한 확인할 수 있다. 예를 들면, 제 1 부(104a) 내에서 언어 코딩 모드는 제 2 부(104b) 내에서 음악 코딩 모드가 사용됨으로써, 제 1 크로스오버 주파수(fx1)가 제 2 크로스오버 주파수(fx2) 보자 더 높게 될 것이다.
모범적인 실시예에서, 인코드된 오디오 신호(102)는 제 1 부와 제 3 부(104a, c) 사이에서 사용된 인코더 및/또는 크로스오버 주파수(fx)는 변경이 없다는 것을 나타내는 제 3 부(104c)에 대하여 코딩 모드 정보를 포함하지 않는다. 따라서 코딩 모드 정보(108)는 선행부와 비교되는 상이한 코어 코더 및/또는 크로스오버 주파수를 사용하는 단지 이러한 부들(104)에 대하여 헤더로써 나타날 것이다. 다른 실시예에서 상이한 부(104)에 대한 크로스오버 주파수들의 값을 신호화하는 대신에, 코드 모드 정보(108)는 각각의 부(104)에 대하여 사용된 코어 코더(제 1 또는 제 2 인코더, 210a, b)를 나타내는 싱글 비트를 포함할 수 있다.
따라서, 상이한 SBR-툴 사이의 스위치 존재의 신호화는 비트 스트림 내의 특정 비트 같은 것을 제공함으로써 행해지고, 그 결과 이러한 특정 비트는 디코더 내의 특정 존재를 턴-온 또는 턴-오프할 수 있다. 선택적으로, 실시예에 따른 2개의 코어 코더를 갖는 시스템에서는 스위치의 신호화는 코어 코덱을 분석함으로써 또한 시작될 수 있다. 이 경우 SBR 툴의 채택에 대한 결정(submission)은 묵시적으로 행해진다. 이것은 연관 코어 코더 활동성에 의해 결정된다는 것을 의미한다.
SBR 플레이로드에 대한 비트스트림 엘리먼트의 표준 설명에 대한 상세는 ISO/IEC 14496-3, 서브-절 4.5.2.8에 잘 나타나 있다. 이러한 표준 비트 스트림의 변경은 마스터 주파수 테이블(사용된 크로스오버 주파수를 확인하는)에 대한 인덱스의 확장을 포함한다. 사용된 인덱스는 예를 들면 크로스오버 대역으로 하여금 범위 0에서 15 대역을 통하여 가변될 수 있도록 4개의 비트로 코딩된다.
본 발명의 실시예는 따라서 아래와 같이 요약될 수 있다. 상이한 시간/주파수 특성을 갖는 상이한 신호들은 대역폭 확장 상의 캐릭터의 상이한 요구를 갖는다.
과도치 신호(예, 언어신호 내의)는 BWE의 정밀한 시간 해상도를 요구하며, 크로스오버 주파수(fx, 코어 코더의 상부 주파수 보더)는 가능한 높을 것이다(예, 4KHz, 6KHz). 특히 음성 언어에서는 왜곡된 시간적 구조가 지각성 퀄리티를 감소시킬 수 있다. 토널(Tonal) 신호들은 스팩트럴 컴포넌트의 안정한 재생과 재생된 고주파수부의 매칭 하모닉 패턴을 필요로 한다. 토널 부분의 안정한 재생은 코어 코더 대역을 제한하지만, 더 정밀한 스팩트럴 해상도 외에는 정밀 시간을 갖는 BWE를 필요로 하지 않는다. 스위치된 언어/오디오 코어 코더 디자인에서, 코어 코더 결정은 사용하는 것과 또한 신호 특성에 대하여 BWE 시작 주파수(크로스오버 주파수)를 채택하는 것 뿐만 아니라 BWE의 시간적 및 스팩트럴 양자 모두 채택하는 것도 가능하다. 따라서, 실시예들은 대역폭 확장 특성에 대하여 채택 기준(adaptation criterion)으로 작용하는 코어 코더 결정이 있는 대역폭 확장을 제공한다.
변경된 BWE 시작(크로스오버) 주파수의 신호화(signaling)는 추가적 정보를 보내거나(예로써, 비트 스트림 내의 코딩 모드 정보(108)) 또는 사용된 코어 코더(코어 코더가 비트 스트림 내에서 신호처리된 경우)로부터 직접적으로 크로스오버 주파수(fx)를 유도함으로써 분명히 실현될 수 있다. 예를 들어, 트랜스폼 코더(오디오/음악 코더)에 대하여 저 BWE 주파수(fx)와 시간 도메인(언어) 코더에 대하여 고주파수에 대하여 해당된다. 이 경우 크로스오버 주파수는 0Hz 에서 나이키스트 주파수에 이르기까지의 범위일 수 있다.
비록 다른 양태들이 다른 장치의 내용내에서 서술되었지만, 이러한 양태들은 해당 방법의 서술을 또한 나타내고 있음은 명확하고, 블럭 또는 장치가 방법 스텝의 특징이나 방법 스텝에 해당한다. 유사하게는, 방법 스텝의 내용이 서술된 다른 양태들도 해당 장치의 특징과 아이템 또는 해당 블럭의 설명을 대신한다.
개선된 인코드된 오디오 신호는 디지털 스토리지 미디엄 상에 저장되거나, 무선 전송용 미디엄 또는 인터넷과 같은 유선 전송용 미디엄 같은 전송 미디엄에 전송될 수도 있다.
소정의 실용 요구에 따라, 본 발명의 실시예는 하드웨어나 소프트웨어로 실행된다. 이러한 실행은 각각의 방법이 수행되는 프로그램가능한 컴퓨터시스템과 함께 협조가능한, 그리고 그 속에 저장된 전기적으로 읽을 수 있는 제어신호를 갖는 예를 들어, 플로피 디스크, DVD, CD, ROM, PROM, EPROM, EEPROM 또는 플래시 메모리를 이용하여 수행된다.
본 발명에 따른 다른 몇몇 실시예들은 프로그래머블 컴퓨터 시스템과 협조가능하고, 그로써 여기에 설명된 방법 중 하나가 수행되는 전기적으로 읽을 수 있는 제어신호를 갖는 데이터 캐리어를 포함한다.
일반적으로, 본 발명의 실시예는 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로써 실행가능하고, 이 프로그램 코드는 컴퓨터 프로그램 제품이 컴퓨터 상에서 운용될 때 방법들 중 하나를 실행하도록 동작된다. 이 프로그램 코드는 예를 들어 기계 판독가능한 캐리어에 저장될 수 있다.
다른 실시예는 여기에서 설명된 방법들 중 하나가 실행되고, 머신 읽기 가능한 캐리어상에 저장된 컴퓨터 프로그램을 포함한다.
다른 말로, 개선된 방법의 실시예는 컴퓨터 프로그램이 컴퓨터 상에서 운용될 때, 즉 여기에서 설명된 방법들 중 하나를 수행하는 프로그램 코드를 갖는 컴퓨터 프로그램이다.
개선된 방법의 또 다른 실시예는, 즉 여기에서 설명된 방법들 중 하나를 실행하는 컴퓨터 프로그램을 갖고, 그속에 저장된 데이터 캐리어(디지털 스토리지 미디엄, 또는 컴퓨터-읽기가능한 미디엄)이다.
개선된 방법의 또 다른 실시예는, 즉 여기에서 설명된 방법들 중 하나를 수행하는 컴퓨터 프로그램을 나타내는 일련의 신호들과 데이터 스트림이다.
데이터 스트림 또는 일련의 신호들은 예를 들면 인터넷 등을 통하여 데이터 커뮤니케이션 연결을 통하여 전달되도록 구성된다.
바람직한 실시예는 컴퓨터나 프로그래머블 로직 장치이고, 여기에서 설명된 방법들 중 하나를 수행하기에 적합한 프로세싱 수단을 포함한다.
또 다른 실시예는 여기에서 설명된 방법들 중 하나를 수행하는 컴퓨터 프로그램이 저장된 컴퓨터를 포함한다.
많은 실시예에서, 프로그래머블 로직 디바이스(예를 들어 필드 프로그래머블 게이트 어레이)는 여기에서 설명된 방법의 모든 기능과 일부 기능을 수행하도록 사용될 수 있다.
몇몇 실시예에서는, 필드 프로그래머블 게이트 어레이는 여기에서 설명된 방법 중 하나를 수행하도록 마이크로 프로세서와 협조적으로 동작된다.
일반적으로 이 방법들은 어떤 하드웨어 장치에 의해서 바람직하게 수행된다.
전술한 실시예들은 본 발명의 원리에 대해 예시적에 지나지 않는다. 이러한 장치와 여기에 설명된 내용의 변경과 변화는 당업자에게는 명백하다. 따라서, 본 특허의 청구범위의 범위에 한정되지 않고, 여기에 설명된 실시예에 의해 제공된 몇몇 특정예에 한정되지 않는다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 오디오 신호 디코딩 장치
200 : 인코드된 오디오 신호를 인코딩하는 장치
101 : 서라운드/조인트 스테레오 110a : 제 1 디코더
110b : 제2 디코더 130 : BWE 모듈
140 : 컨트롤러 210a : 제 1 인코더
210b : 제 2 인코더 220 : 결정단
230 : 대역폭 확장
410 : 스팩트럴 변환
440 : 시간 도메인 내의 변환
534 : LPC 도메인내의 변환

Claims (16)

  1. 제 1 인코딩 알고리즘에 따라 인코드되는 제 1 부(104a)와, 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부(104b)와, 제 1 부(104a)와 제 2 부(104b) 및 제 1 디코딩 알고리즘 또는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보(108)용 BWE 파라미터(106)를 포함하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100)에 있어서,
    제 1 디코드된 신호(114a)를 얻도록 인코드된 신호(102)의 제 1 시간 부에 대해 제 1 디코딩 알고리즘에 따라 제 1 부(104a)를 디코딩하고, LPC-기반의 코더인 제 1 디코더(110a);
    제 2 디코드된 신호(114b)를 얻도록 인코드된 신호(102)의 제 2 시간 부에 대해서 제 2 디코딩 알고리즘에 따라 제 2 부(104b)를 디코딩하고, 트랜스폼-기반의 코더인 제 2 디코더(110b);
    제어가능한 크로스오버 주파수(fx)를 가지며, 제 1 부(104a)에 대한 BWE 파라미터(106)와 제 1 디코드된 신호(114a)를 사용하는 대역폭 확장 알고리즘을 수행하고, 제 2 부(104b)에 대한 대역폭 확장 파라미터(106)와 제 2 디코드된 신호(114b)를 이용하는 대역폭 확장 알고리즘을 수행하고, 제 1 디코드된 신호(114a)에 대한 대역폭 확장용 제1 크로스오버 주파수(fx1)를 사용함과 동시에, 제 2 디코드된 신호(114b)에 대하여 대역폭 확장용 제 2 크로스오버 주파수(fx2)를 사용하되, 여기에서 제 1 크로스오버 주파수(fx1)가 제 2 크로스오버 주파수(fx2)보다 높은 BWE 모듈(130); 및
    코드 모드 정보(108)에 따라 BWE 모듈(130)에 대한 크로스오버 주파수(fx)를 제어하는 컨트롤러(140)를 포함하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100).
  2. 제 1 항에 있어서,
    비트 스트림으로써 인코드된 오디오 신호(102)를 입력하는 입력인터페이스(900)를 더 포함하는 것을 특징으로 하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100).
  3. 제 1 항에 있어서,
    상기 BWE 모듈(130)은 대역폭 확장 알고리즘이 제 1 디코드된 신호(114a) 또는 제 2 디코드된 신호(114b) 중 어느 하나에 적용되도록 제 1 디코더(110a)로부터 제 2 디코더(110b)까지 제1 및 제 2 시간부 사이에서 스위치하는 스위치(132)를 포함하는 것을 특징으로 하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100).
  4. 제 3 항에 있어서,
    상기 컨트롤러(140)는 코딩 모드 정보(108) 내에 있는 지시된 디코딩 알고리즘에 따라 스위치(132)를 제어하도록 구성된 것을 특징으로 하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100).
  5. 삭제
  6. 제 1 항에 있어서,
    상기 컨트롤러(140)는 제 1 시간부내에서 상기 크로스오버 주파수(fx)를 증가시키거나, 제 2 시간부내에서 상기 크로스오버 주파수(fx)를 감소시키는 것을 특징으로 하는 인코드된 오디오 신호(102)를 디코딩하는 장치(100).
  7. 삭제
  8. 오디오 신호(105)를 인코딩하는 장치(200)에 있어서,
    제 1 주파수 대역폭을 갖는 제 1 인코딩 알고리즘에 따라, 인코드하도록 구성되고, LPC-기반의 코더로 된 제 1 인코더(210a);
    제 1 주파수 대역폭보다 작은 제 2 주파수 대역폭을 갖는 제 2 인코딩 알고리즘에 따라 인코드되도록 구성되고, 트랜스폼 기반 코더로 된 제 2 인코더(210b);
    상기 오디오 신호(105)의 제 1 부(204a)에 대하여 제 1 인코딩 알고리즘을 지시하고, 상기 오디오 신호(105)의 제 2 부(204b)에 대하여 제 2 인코딩 알고리즘을 지시하되, 제 2 부(204b)가 제 1 부(204a)와 서로 다른 것으로 된 결정 단(220); 및
    오디오 신호(105)에 대한 BWE 파라미터들(106)을 계산하고, 오디오 신호(105)의 제 1 부(204a)내에 있는 제 1 주파수 대역폭을 포함하지 않는 밴드와, 오디오 신호(105)의 제 2 부(204b) 내에 있는 제 2 주파수 대역폭을 포함하지 않는 밴드를 위한 BME 파라미터(106)를 계산하도록 결정 단(220)에 의해 제어하게 구성된 대역폭 확장모듈(230)로 구성되고, 상기 제 1 또는 제 2 주파수 대역폭은 가변 크로스오버 주파수(fx)에 의해 제한되고, 상기 결정단(220)은 상기 가변 크로스오버 주파수(fx)를 출력하도록 구성되며, 상기 BWE 모듈(230)은 제 1 인코더(210a)를 이용하여 인코드된 신호에 대한 BWE파라미터들을 계산하는 제 1 크로스오버 주파수(fx1)를 이용함과 동시에, 제 2 인코더(210b)를 이용하여 인코드된 신호에 대한 제 2 크로스오버 주파수(fx2)를 이용하되, 상기 제 1 크로스오버 주파수(fx1)가 제 2 크로스오버 주파수(fx2)보다 큰 것을 특징으로 하는 인코드된 오디오 신호(105)를 인코딩하는 장치(200).
  9. 제 8 항에 있어서,
    제 1 인코딩 알고리즘에 따라 인코드되는 제 1 부(104a)와, 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부(104b)와, 제 1 부(104a) 및 제 2 부(104b)에 대한 BWE 파라미터(106)와, 상기 제 1 인코딩 알고리즘에 매칭되는(matching) 제 1 디코딩 알고리즘 또는 상기 제 2 인코딩 알고리즘에 매칭되는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보(108)를 포함하고 있는 인코드된 오디오 신호(102)를 출력하는 출력 인터페이스(800)를 더 구비하는 것을 특징으로 하는 인코드된 오디오 신호(105)를 인코딩하는 장치(200).
  10. 제 8 항에 있어서,
    상기 제 1 또는 제 2 주파수 대역폭은 가변 크로스오버 주파수(fx)에 의해 한정되고, 결정 단(220)은 상기 가변 크로스오버 주파수(fx)를 출력하도록 구성된 것을 특징으로 하는 오디오 신호(105)를 인코딩하는 장치(200).
  11. 제 8 항에 있어서,
    상기 BWE 모듈(230)은 상기 결정 단(220)에 의해 제어되는 스위치(232)로 구성되며, 상기 스위치(232)는 상기 오디오 신호(105)가 상기 제 1 또는 제 2 인코더(210a,210b) 중 어느 하나에 의해 인코드되는 다른 시간부를 갖도록 제 1 및 제 2 시간 인코더(210a, 210b) 사이에서 스위치되는 것을 특징으로 하는 오디오 신호(105)를 인코딩하는 장치(200).
  12. 제 8 항에 있어서,
    상기 결정 단(220)은, 오디오 신호(105) 또는 제 1 인코더(210a)의 제 1 출력 또는 제 2 인코더(210b)의 제 2 출력 또는 상기 제 1 인코더(210a)의 출력신호 또는 타깃기능에 대하여 제 2 인코더(210b)나 제 1 인코더(210a)의 출력 신호를 디코딩함으로써 얻어진 신호를 분석하도록 작동되는 것을 특징으로 하는 오디오 신호(105)를 인코딩하는 장치(200).
  13. 제 1 인코딩 알고리즘에 따라 인코드되는 제 1 부(104a)와, 제 2 인코딩 알고리즘에 따라 인코드되는 제 2 부(104b)와, 제 1 부(104a)와 제 2 부(104b)에 대한 BWE 파라미터(106)와, 제 1 디코딩 알고리즘 또는 제 2 디코딩 알고리즘을 지시하는 코딩 모드 정보(108)로 구성된 인코드된 오디오 신호(102)를 디코딩하는 방법에 있어서,
    제 1 디코드된 신호(114a)를 얻도록 인코드된 신호(102)의 제 1 시간부에 대한 제 1 디코딩 알고리즘에 따라 제 1 부(104a)를 디코딩하고, LPC-기반 코더를 이용하는 단계;
    제 2 디코드된 신호(114b)를 얻도록 인코드된 신호(102)의 제 2 시간부에 대한 제 2 디코딩 알고리즘에 따라 제 2 부(104b)를 디코딩하고, 트랜스폼-기반 코더를 이용하는 단계;
    BWE 모듈(130)은 제어가능한 크로스오버 주파수를 갖는 BWE 모듈(130)에 의해 수행되고, 제 1 디코드된 신호(114a)와 제 1 부(104a)에 대한 BWE 파라미터들(106)을 이용하여 대역폭 확장 알고리즘을 수행함과 동시에, 제어가능한 크로스오버 주파수(fx)를 갖는 BWE 모듈(130)에 의해 수행되고, 제 2 부(104b)에 대한 대역폭 확장 파라미터(106)와 제 2 디코드된 신호(114b)를 이용하여 대역폭 확장 알고리즘을 수행하도록 구성되고, 제 1 크로스오버 주파수(fx1)는 제 1 디코드된 신호(114a)에 대한 주파수 대역폭 확장에 대하여 이용되고, 제 2 크로스오버 주파수(fx2)는 제 2 디코드된 신호(114b)에 대한 주파수 대역폭 확장에 대하여 이용되며, 상기 제 1 크로스오버 주파수(fx1)는 상기 제 2 크로스오버 주파수(fx2)보다 높은 것으로 구성된 단계; 및
    상기 코딩 모드 정보(108)에 따라 BWE 모듈(130)에 대한 크로스 오버 주파수(fx)를 제어하는 단계를 포함하는 것을 특징으로 하는 인코드된 오디오 신호(102)를 디코딩하는 방법.
  14. 오디오 신호(105)를 인코딩하는 방법에 있어서,
    제 1 주파수 대역폭을 갖는 제 1 인코딩 알고리즘에 따라서 인코딩하고, LPC-기반 코더를 이용하여 인코딩하는 단계;
    상기 제 1 주파수 대역폭보다 작은 제 2 주파수 대역폭을 갖는 제 2 인코딩 알고리즘에 따라 인코딩하고, 트랜스폼-기반 코더를 이용하여 인코딩하는 단계;
    제 2 부(204b)와 제 1 부(204a)가 구별되며, 오디오 신호(105)의 상기 제 2 부(204b)에 대한 제 2 인코딩 알고리즘과 오디오 신호(105)의 제 1 부(204a)에 대한 제 1 인코딩 알고리즘을 지시하는 단계; 및
    오디오 신호(105)의 제 1 부(204a) 내에 있는 제 1 주파수대역폭을 포함하지 않는 밴드와, 오디오 신호(105)의 제 2 부(204b)내에 있는 제 2 주파수 대역폭을 포함하지 않는 밴드에 대하여 계산하도록, 오디오 신호(105)에 대한 BWE 파라미터(106)를 계산하고, 상기 제 1 또는 제 2 주파수 대역폭은 가변 크로스오버 주파수(fx)에 의해 제한되고, BWE 모듈(230)은 LPC-기반 코더를 이용하여 인코드된 신호에 대한 BWE 파라미터를 계산하는 제 1 크로스오버 주파수(fx1)를 이용함과 동시에, 트랜스폼-기반 코더(210b)를 이용하여 인코드된 신호에 대한 제 2 크로스오버 주파수(fx2)를 이용하며, 상기 제 1 크로스오버 주파수(fx1)가 제 2 크로스오버 주파수(fx2)보다 높은 것으로 구성된 단계를 포함하는 것을 특징으로 하는 오디오 신호(105)를 인코딩하는 방법.
  15. 인코드된 오디오 신호(102)가 그 위에 저장된 컴퓨터 판독가능한 매체에 있어서,
    제 1 인코딩 알고리즘에 따라 인코드되고, LPC-기반 코더가 이용되는 제 1 부(104a);
    제 2 다른 인코딩 알고리즘에 따라 인코드되고, 트랜스폼-기반 코더가 이용되는 제 2 부(104b);
    상기 제 1 부(104a)와 상기 제 2 부(104b)에 대한 대역폭 확장 파라미터들(106) 및
    상기 제 1 부(104a)에 사용되는 제 1 크로스오버 주파수(fx1) 또는 상기 제 2 부(104b)에 사용되는 제 2 크로스오버 주파수(fx2)를 지시하고, 상기 제 1 크로스오버 주파수(fx1)가 상기 제 2 크로스오버 주파수(fx2)보다 높은 코딩 모드 정보(108)로 구성된 것을 특징으로 하는 인코드된 오디오 신호(102)가 그 위에 저장된 컴퓨터 판독가능한 매체.
  16. 컴퓨터 상에서 구동될 때, 제 13 항 또는 제 14 항의 방법을 수행하기 위한 컴퓨터 프로그램이 그 위에 저장된 컴퓨터 판독가능한 매체.
KR1020117000699A 2008-07-11 2009-06-23 인코드된 오디오 신호를 디코딩하는 장치 및 방법 KR101224560B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US7984108P 2008-07-11 2008-07-11
US61/079,841 2008-07-11
US10382008P 2008-10-08 2008-10-08
US61/103,820 2008-10-08
PCT/EP2009/004522 WO2010003545A1 (en) 2008-07-11 2009-06-23 An apparatus and a method for decoding an encoded audio signal

Publications (2)

Publication Number Publication Date
KR20110040828A KR20110040828A (ko) 2011-04-20
KR101224560B1 true KR101224560B1 (ko) 2013-01-22

Family

ID=40886797

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117000699A KR101224560B1 (ko) 2008-07-11 2009-06-23 인코드된 오디오 신호를 디코딩하는 장치 및 방법

Country Status (19)

Country Link
US (1) US8275626B2 (ko)
EP (2) EP2304723B1 (ko)
JP (1) JP5325293B2 (ko)
KR (1) KR101224560B1 (ko)
CN (1) CN102089814B (ko)
AR (1) AR072481A1 (ko)
AU (1) AU2009267531B2 (ko)
BR (1) BRPI0910511B1 (ko)
CA (1) CA2730232C (ko)
CO (1) CO6341674A2 (ko)
ES (2) ES2396927T3 (ko)
HK (2) HK1154432A1 (ko)
IL (1) IL210414A (ko)
MX (1) MX2011000370A (ko)
PL (2) PL2304723T3 (ko)
RU (1) RU2483366C2 (ko)
TW (1) TWI435316B (ko)
WO (1) WO2010003545A1 (ko)
ZA (1) ZA201100087B (ko)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101403340B1 (ko) * 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치
US8566107B2 (en) * 2007-10-15 2013-10-22 Lg Electronics Inc. Multi-mode method and an apparatus for processing a signal
DE602008005250D1 (de) * 2008-01-04 2011-04-14 Dolby Sweden Ab Audiokodierer und -dekodierer
JP5551693B2 (ja) * 2008-07-11 2014-07-16 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ エイリアシングスイッチスキームを用いてオーディオ信号を符号化/復号化するための装置および方法
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
US8442837B2 (en) * 2009-12-31 2013-05-14 Motorola Mobility Llc Embedded speech and audio coding using a switchable model core
BR122021003688B1 (pt) 2010-08-12 2021-08-24 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Reamostrar sinais de saída de codecs de áudio com base em qmf
JP5743137B2 (ja) * 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
CN102610231B (zh) * 2011-01-24 2013-10-09 华为技术有限公司 一种带宽扩展方法及装置
WO2012126866A1 (en) 2011-03-18 2012-09-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder having a flexible configuration functionality
US9437202B2 (en) 2012-03-29 2016-09-06 Telefonaktiebolaget Lm Ericsson (Publ) Bandwidth extension of harmonic audio signal
GB201210373D0 (en) * 2012-06-12 2012-07-25 Meridian Audio Ltd Doubly compatible lossless audio sandwidth extension
EP2688066A1 (en) * 2012-07-16 2014-01-22 Thomson Licensing Method and apparatus for encoding multi-channel HOA audio signals for noise reduction, and method and apparatus for decoding multi-channel HOA audio signals for noise reduction
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
JPWO2014068817A1 (ja) * 2012-10-31 2016-09-08 株式会社ソシオネクスト オーディオ信号符号化装置及びオーディオ信号復号装置
CN105264599B (zh) 2013-01-29 2019-05-10 弗劳恩霍夫应用研究促进协会 音频编码器、音频解码器、提供编码音频信息的方法
ES2626809T3 (es) 2013-01-29 2017-07-26 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Concepto para compensación de conmutación del modo de codificación
SG10201608613QA (en) * 2013-01-29 2016-12-29 Fraunhofer Ges Forschung Decoder For Generating A Frequency Enhanced Audio Signal, Method Of Decoding, Encoder For Generating An Encoded Signal And Method Of Encoding Using Compact Selection Side Information
ES2790733T3 (es) * 2013-01-29 2020-10-29 Fraunhofer Ges Forschung Codificadores de audio, decodificadores de audio, sistemas, métodos y programas informáticos que utilizan una resolución temporal aumentada en la proximidad temporal de inicios o finales de fricativos o africados
TWI546799B (zh) 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
CN110265047B (zh) * 2013-04-05 2021-05-18 杜比国际公司 音频信号的解码方法和解码器、介质以及编码方法
US20160064004A1 (en) * 2013-04-15 2016-03-03 Nokia Technologies Oy Multiple channel audio signal encoder mode determiner
US9426569B2 (en) 2013-06-13 2016-08-23 Blackberry Limited Audio signal bandwidth to codec bandwidth analysis and response
KR101953613B1 (ko) 2013-06-21 2019-03-04 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 지터 버퍼 제어부, 오디오 디코더, 방법 및 컴퓨터 프로그램
EP3321934B1 (en) * 2013-06-21 2024-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time scaler, audio decoder, method and a computer program using a quality control
US9666202B2 (en) * 2013-09-10 2017-05-30 Huawei Technologies Co., Ltd. Adaptive bandwidth extension and apparatus for the same
CN104517610B (zh) 2013-09-26 2018-03-06 华为技术有限公司 频带扩展的方法及装置
US9620134B2 (en) * 2013-10-10 2017-04-11 Qualcomm Incorporated Gain shape estimation for improved tracking of high-band temporal characteristics
FR3013496A1 (fr) * 2013-11-15 2015-05-22 Orange Transition d'un codage/decodage par transformee vers un codage/decodage predictif
US9293143B2 (en) 2013-12-11 2016-03-22 Qualcomm Incorporated Bandwidth extension mode selection
KR101841380B1 (ko) * 2014-01-13 2018-03-22 노키아 테크놀로지스 오와이 다중-채널 오디오 신호 분류기
CN110992965A (zh) * 2014-02-24 2020-04-10 三星电子株式会社 信号分类方法和装置以及使用其的音频编码方法和装置
US9685164B2 (en) * 2014-03-31 2017-06-20 Qualcomm Incorporated Systems and methods of switching coding technologies at a device
FR3020732A1 (fr) * 2014-04-30 2015-11-06 Orange Correction de perte de trame perfectionnee avec information de voisement
US9685166B2 (en) 2014-07-26 2017-06-20 Huawei Technologies Co., Ltd. Classification between time-domain coding and frequency domain coding
CN104143335B (zh) 2014-07-28 2017-02-01 华为技术有限公司 音频编码方法及相关装置
EP2980797A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition
MX349256B (es) 2014-07-28 2017-07-19 Fraunhofer Ges Forschung Aparato y metodo para seleccionar uno de un primer algoritmo de codificacion y un segundo algoritmo de codificacion usando reduccion de armonicos.
EP2980794A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP3067886A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
US9837089B2 (en) * 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
WO2017039422A2 (ko) * 2015-09-04 2017-03-09 삼성전자 주식회사 음질 향상을 위한 신호 처리방법 및 장치
EP3208800A1 (en) * 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for stereo filing in multichannel coding
MX371223B (es) * 2016-02-17 2020-01-09 Fraunhofer Ges Forschung Post-procesador, pre-procesador, codificador de audio, decodificador de audio y metodos relacionados para mejorar el procesamiento de transitorios.
US10157621B2 (en) * 2016-03-18 2018-12-18 Qualcomm Incorporated Audio signal decoding
GB201620317D0 (en) * 2016-11-30 2017-01-11 Microsoft Technology Licensing Llc Audio signal processing
US10734001B2 (en) * 2017-10-05 2020-08-04 Qualcomm Incorporated Encoding or decoding of audio signals
US10733318B2 (en) * 2017-11-21 2020-08-04 International Business Machines Corporation Processing analytical queries over encrypted data using dynamical decryption
KR102570480B1 (ko) * 2019-01-04 2023-08-25 삼성전자주식회사 오디오 신호 처리 방법 및 이를 지원하는 전자 장치
JP7092047B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 符号化復号方法、復号方法、これらの装置及びプログラム
CN111554312A (zh) * 2020-05-15 2020-08-18 西安万像电子科技有限公司 控制音频编码类型的方法、装置和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
WO2002041302A1 (en) 2000-11-15 2002-05-23 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
WO2003046891A1 (en) 2001-11-29 2003-06-05 Coding Technologies Ab Methods for improving high frequency reconstruction
WO2008031458A1 (en) 2006-09-13 2008-03-20 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for a speech/audio sender and receiver

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6618701B2 (en) 1999-04-19 2003-09-09 Motorola, Inc. Method and system for noise suppression using external voice activity detection
US6978236B1 (en) 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
US6901362B1 (en) * 2000-04-19 2005-05-31 Microsoft Corporation Audio segmentation and classification
SE0001926D0 (sv) * 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
CN1703736A (zh) * 2002-10-11 2005-11-30 诺基亚有限公司 用于源控制可变比特率宽带语音编码的方法和装置
JP4048956B2 (ja) * 2003-01-20 2008-02-20 ティアック株式会社 光ディスク装置
SE0301901L (sv) 2003-06-26 2004-12-27 Abb Research Ltd Metod för att diagnostisera utrustningsstatus
JP4767687B2 (ja) 2003-10-07 2011-09-07 パナソニック株式会社 スペクトル包絡線符号化のための時間境界及び周波数分解能の決定方法
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
CN100511308C (zh) 2004-06-28 2009-07-08 Abb研究有限公司 用于抑制冗余报警的系统和方法
US8036394B1 (en) * 2005-02-28 2011-10-11 Texas Instruments Incorporated Audio bandwidth expansion
KR100803205B1 (ko) * 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
CN101273404B (zh) * 2005-09-30 2012-07-04 松下电器产业株式会社 语音编码装置以及语音编码方法
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
US7546237B2 (en) * 2005-12-23 2009-06-09 Qnx Software Systems (Wavemakers), Inc. Bandwidth extension of narrowband speech
US8260620B2 (en) * 2006-02-14 2012-09-04 France Telecom Device for perceptual weighting in audio encoding/decoding
EP1852849A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
US8417532B2 (en) * 2006-10-18 2013-04-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
FR2912249A1 (fr) * 2007-02-02 2008-08-08 France Telecom Codage/decodage perfectionnes de signaux audionumeriques.
US20110022924A1 (en) * 2007-06-14 2011-01-27 Vladimir Malenovsky Device and Method for Frame Erasure Concealment in a PCM Codec Interoperable with the ITU-T Recommendation G. 711
US8566107B2 (en) * 2007-10-15 2013-10-22 Lg Electronics Inc. Multi-mode method and an apparatus for processing a signal
KR101373004B1 (ko) 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
WO2009081315A1 (en) * 2007-12-18 2009-07-02 Koninklijke Philips Electronics N.V. Encoding and decoding audio or speech
DE602008005250D1 (de) * 2008-01-04 2011-04-14 Dolby Sweden Ab Audiokodierer und -dekodierer
RU2455709C2 (ru) * 2008-03-03 2012-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для обработки аудиосигнала
CN102007534B (zh) * 2008-03-04 2012-11-21 Lg电子株式会社 用于处理音频信号的方法和装置
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
WO2002041302A1 (en) 2000-11-15 2002-05-23 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
WO2003046891A1 (en) 2001-11-29 2003-06-05 Coding Technologies Ab Methods for improving high frequency reconstruction
WO2008031458A1 (en) 2006-09-13 2008-03-20 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for a speech/audio sender and receiver

Also Published As

Publication number Publication date
JP5325293B2 (ja) 2013-10-23
ES2396927T3 (es) 2013-03-01
BRPI0910511B1 (pt) 2021-06-01
US8275626B2 (en) 2012-09-25
RU2483366C2 (ru) 2013-05-27
IL210414A0 (en) 2011-03-31
AR072481A1 (es) 2010-09-01
HK1156433A1 (en) 2012-06-08
CO6341674A2 (es) 2011-11-21
MX2011000370A (es) 2011-03-15
ZA201100087B (en) 2011-10-26
PL2352147T3 (pl) 2014-02-28
CN102089814A (zh) 2011-06-08
US20110202353A1 (en) 2011-08-18
JP2011527449A (ja) 2011-10-27
IL210414A (en) 2014-04-30
RU2011104000A (ru) 2012-08-20
EP2304723A1 (en) 2011-04-06
EP2304723B1 (en) 2012-10-24
HK1154432A1 (en) 2012-04-20
ES2439549T3 (es) 2014-01-23
EP2352147A3 (en) 2012-05-30
CA2730232A1 (en) 2010-01-17
EP2352147B9 (en) 2014-04-23
PL2304723T3 (pl) 2013-03-29
AU2009267531B2 (en) 2013-01-10
BRPI0910511A2 (pt) 2020-08-18
EP2352147B1 (en) 2013-09-04
WO2010003545A1 (en) 2010-01-14
AU2009267531A1 (en) 2010-01-14
EP2352147A2 (en) 2011-08-03
CA2730232C (en) 2015-12-01
CN102089814B (zh) 2012-11-21
KR20110040828A (ko) 2011-04-20
TWI435316B (zh) 2014-04-21
TW201009808A (en) 2010-03-01

Similar Documents

Publication Publication Date Title
KR101224560B1 (ko) 인코드된 오디오 신호를 디코딩하는 장치 및 방법
US11676611B2 (en) Audio decoding device and method with decoding branches for decoding audio signal encoded in a plurality of domains
US8959017B2 (en) Audio encoding/decoding scheme having a switchable bypass
MX2011003824A (es) Esquema de codificacion/decodificacion de audio conmutado de resolucion multiple.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151230

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180109

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190108

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200107

Year of fee payment: 8