KR20000076273A - 오디오 코딩 방법 및 장치 - Google Patents

오디오 코딩 방법 및 장치 Download PDF

Info

Publication number
KR20000076273A
KR20000076273A KR1019997008369A KR19997008369A KR20000076273A KR 20000076273 A KR20000076273 A KR 20000076273A KR 1019997008369 A KR1019997008369 A KR 1019997008369A KR 19997008369 A KR19997008369 A KR 19997008369A KR 20000076273 A KR20000076273 A KR 20000076273A
Authority
KR
South Korea
Prior art keywords
audio signal
generating
quantized
signal
prediction
Prior art date
Application number
KR1019997008369A
Other languages
English (en)
Other versions
KR100469002B1 (ko
Inventor
인린
Original Assignee
다니엘 태그리아페리, 라이조 캐르키, 모링 헬레나
노키아 모빌 폰즈 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다니엘 태그리아페리, 라이조 캐르키, 모링 헬레나, 노키아 모빌 폰즈 리미티드 filed Critical 다니엘 태그리아페리, 라이조 캐르키, 모링 헬레나
Publication of KR20000076273A publication Critical patent/KR20000076273A/ko
Application granted granted Critical
Publication of KR100469002B1 publication Critical patent/KR100469002B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Abstract

오디오 신호 코딩 방법은, 코딩될 오디오 신호 x를 수신하는 단계 및 수신된 신호를 시간에서 주파수 도메인으로 변환하는 단계를 구비한다. 양자화된 오디오 신호는, 양자화된 오디오 신호의 한 개 이상의 이전 시간 프레임들로부터 직접, 수신된 오디오 신호의 현시간 프레임을 예측하는데 사용될 수 있는 장기간 예측 계수의 집합 A와 함께 상기 변환된 오디오 신호 x로부터 생성된다. 예측된 오디오 신호는 예측 계수들 A를 사용하여 생성된다. 예측된 오디오 신호는 그리고나서 시간에서 주파수 도메인으로 변환되고 그 결과의 주파수 도메인 신호는 수신된 오디오 신호 x의 주파수 도메인 신호와 비교되어 다수의 주파수 서브-밴드 각각에 대한 에러 신호 E(k)를 생성한다. 에러 신호 E(k)는 그리고나서 양자화되어, 코딩된 오디오 신호를 생성하기 위해 예측 계수 A와 결합되는 양자화된 에러 신호 집합

Description

오디오 코딩 방법 및 장치{Audio coding method and apparatus}
디지털 형태의 데이터 전송이 전송 채널을 따라 증가되는 신호대잡음비 및 증가되는 정보 용량을 위해 제공된다는 것은 잘 알려진 사실이다. 그러나 디지털 신호를 이미 상당한 정도로 압축함으로써 채널 용량을 더 증가시키고자 하는 지속적인 욕구가 있어왔다. 오디오 신호와 관련하여, 두 개의 기본적인 압축 원리가 통상적으로 적용된다. 이들 중 첫 번째는 소스 신호의 통계적 또는 결정론적 중복을 제거함을 수반하는 한편 두 번째는 인간의 지각에 관한 한 중복을 소스 신호 성분들로부터 억압 또는 제거함을 수반한다. 최근, 후자의 원리가 고품질 오디오 어플리케이션들에서 우위를 점하게 되었고 일반적으로 오디오 신호를 그 주파수 성분들(때로는 "서브-밴드들"로 칭함)로 분리함을 수반하며, 주파수 성분들 각각은 (청취자와의) 데이터 무관계성을 없애도록 정해진 양자화 정확도를 가지고 해석 및 양자화된다. ISO(국제 표준 기구;International Standard Organization) MPEG(이동 화상 전문가 그룹;Moving Pictures Expert Group) 오디오 코딩 표준 및 그외의 오디오 코딩 표준들이 이 원리를 채용 및 추가로 정의하고 있다. 그러나, MPEG( 및 그외의 표준들) 또한 "적응적 예측"으로 알려진 기술을 채용하여 데이터 레이트의 추가 감소를 제공한다.
신 MPEG-2AAC 표준에 따른 인코더의 동작이 국제 표준 문서 초안 ISO/IEC DIS13818-7에 상세히 설명되어 있다. 이 신 MPEG-2 표준은 1024개의 주파수 성분들 중 672개와 함께 후방향 선형 예측을 채용한다. 신 MPEG-4 표준이 이와 유사한 요구조건을 가질 것이라는 것이 예견된다. 그러나, 그러한 많은 수의 주파수 성분들은 예측 알고리즘의 복잡성으로 인한 커다란 계산적 부담이라는 결과를 초래하고 또한 산출된 계수 및 중개 계수들을 저장하기 위한 많은 양의 메모리 사용가능 용량을 필요로한다. 이러한 종류의 후방향 적응 예측기들이 주파수 도메인에 사용될 때, 계산의 부담과 메모리의 필요성을 더 감소시키는 것이 어렵다는 것은 잘 알려져 있다. 이것은 예측기들의 수가 주파수 도메인에서 매우 크기 때문에 간단한 적응 알고리즘 조차도 여전히 엄청난 계산의 복잡성 및 메모리의 필요성을 초래하기 때문이다. 인코더에서 갱신되고 디코더로 전송되는 전방 적응 예측기를 사용하여 이러한 문제를 피한다는 것이 알려져 있지만, 예측기들의 개수가 매우 많기 때문에 주파수 도메인의 전방 적응 예측기들의 사용은 불가피하게 많은 양의 "부(side)" 정보를 초래한다.
본 발명은 오디오 코딩을 위한 방법 및 장치, 그리고 오디오 디코딩을 위한 방법 및 장치에 관한 것이다.
도 1은 수신된 오디오 신호를 코딩하는 인코더를 개략적으로 도시한다.
도 2는 도 1의 인코더로 코딩된 오디오 신호를 디코딩하는 디코더를 개략적으로 도시한다.
도 3은 인코더의 예측기 도구를 포함하여 도 1의 인코더를 보다 상세히 도시한다.
도 4는 디코더의 예측기 도구를 포함하여 도 2의 디코더를 보다 상세히 도시한다.
도 5는 다른 예측 도구를 사용한, 도 1의 인코더의 변형을 상세히 도시한다.
본 발명의 목적은 종래의 예측 방법들의 단점을 극복하거나 최소한 완화시키도록 하는 것이다.
이것과 그 이외의 목적들은, 오디오 신호의 다수의 주파수 서브-밴드들 각각의 중복을 제거하기 위해 에러 신호를 사용하고 추가로 오디오 신호의 현재의 프레임이 한 개 이상의 이전 프레임들로부터 예측될 수 있게 하는 시간 도메인내 장기간 예측 계수들을 발생하여 오디오 신호를 코딩함으로써 성취된다.
본 발명의 첫 번째 양상에 따라 오디오 신호의 코딩 방법이 제공되며, 이 방법은,
코딩될 오디오 신호 x를 수신하는 단계;
수신된 오디오 신호 x로부터 양자화된 오디오 신호를 발생시키는 단계;
상기 양자화된 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접, 수신된 오디오 신호 x의 현재 시간 프레임을 예측하는데 사용될 수 있는 장기간 예측 계수들의 집합 A를 발생하는 단계;
예측 계수 A를 사용하여 예측된 오디오 신호를 발생시키는 단계;
수신된 오디오 신호 x를 예측된 오디오 신호와 비교하고 다수의 주파수 서브-밴드들 각각에 대해 에러 신호 E(k)를 발생하는 단계;
에러 신호 E(k)를 양자화하여 양자화된 에러 신호를 발생하는 단계; 및
양자화된 에러 신호와 예측 계수들 A를 결합하여 부호화된 오디오 신호를 발생시키는 단계를 구비한다.
본 발명은 시간 도메인의 전방 적응 예측기를 사용하는 오디오 신호의 압축을 위해 제공된다. 수신된 신호의 각 시간 프레임에 있어서, 디코더로의 전송을 위해 전방 적응 예측 계수들의 하나의 집합을 발생 및 전송하는 것만이 필요하게 된다. 이것은 각 시간 프레임의 각 주파수 서브-밴드에 대해 예측 계수들의 집합의 발생을 필요로 하는 종래의 전방 적응 예측 기술과는 반대이다. 본 발명에 의해 얻어지는 예측 이득과 비교하여, 장기간 예측기의 부정보는 무시할만하다.
본 발명의 어떤 실시예들은 계산의 복잡성 및 메모리 필요성의 감소를 가능하게 한다. 특히, 후방 적응 예측의 사용과 비교하여, 디코더의 예측 계수들을 재산출해야할 필요성이 없게된다. 본 발명의 어떤 실시예들은 또한 통상적인 후방 적응 예측기보다 더 빠르게 신호 변화에 응답할 수 있다.
본 발명의 일실시예에서, 수신된 오디오 신호 x는 프레임 xm에서 시간 도메인으로부터 주파수 도메인으로 변환하여 주파수 서브-밴드 신호의 집합 X(k)를 제공한다. 예측된 오디오 신호는 이와 유사하게 시간 도메인으로부터 주파수 도메인으로 변환하여 예측된 주파수 서브-밴드 신호들의 집합을 생성하며, 수신된 오디오 신호 x와 예측된 오디오 신호사이의 비교는, 주파수 서브-밴드 에러 신호들 E(k)를 생성하기 위해 각각의 서브-밴드 신호들을 서로에 대해 비교함으로써 주파수 도메인에서 수행된다. 양자화된 오디오 신호는 시간 도메인 또는 주파수 도메인에서, 예측된 신호와 양자화된 에러 신호를 더함으로써 생성된다.
본 발명의 다른 실시예에 있어서, 수신된 오디오 신호 x와 예측된 오디오 신호의 비교가 시간 도메인에서 수행되어 역시 시간 도메인의 에러 신호 e를 생성한다. 이 에러 신호 e는 그리고나서 시간에서 주파수 도메인으로 전환되어 상기 다수의 주파수 서브-밴드 에러 신호들 E(k)를 생성한다.
에러 신호들의 양자화는 심리-음향학적(psycho-acoustic) 모델에 따라 수행된다.
본 발명의 두 번째 양상에 의해 코딩된 오디오 신호의 디코딩 방법이 제공되며, 그 방법은:
오디오 신호의 다수의 주파수 서브-밴드들 각각에 있어서 양자화된 에러 신호들및, 오디오 신호의 각 시간 프레임에 있어서 재구성된 양자화 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호의 현재 시간 프레임 xm을 예측하는데 사용될 수 있는 예측 계수들의 집합 A를 구비하는 코딩된 오디오 신호를 수신하는 단계;
양자화된 에러 신호들로부터 상기 재구성된 양자화 오디오 신호를 생성하는 단계;
예측 계수들 A 및 양자화된 오디오 신호를 사용하여 예측된 오디오 신호를 생성하는 단계;
예측된 오디오 신호를 시간 도메인에서 주파수 도메인으로 변환하여, 재구성된 주파수 서브-밴드 신호들의 집합을 생성하기 위해 양자화된 에러 신호들와 결합하도록 예측된 주파수 서브-밴드 신호들의 집합를 생성하는 단계; 및
재구성된 주파수 서브-밴드 신호들에 대해 주파수에서 시간 도메인으로의 변환을 수행하여, 재구성된 양자화 오디오 신호를 생성하는 단계를 포함한다.
본 발명의 상기 두 번째 양상의 실시예들은 모든 가능한 양자화 에러 신호들의 부분 집합만이 수신되고 이때 몇몇 부분 집합은 오디오 서브-밴드 신호들 X(k)의 전송에 의해 직접적으로 전송되는 데에 특히 적용가능하다. 신호들와 X(k)는 주파수-시간 변환을 수행하기 앞서 적합하게 결합된다.
본 발명의 세 번째 양상에 따라 오디오 신호를 코딩하는 장치가 제공되며, 그 장치는:
코딩될 오디오 신호 x를 수신하기 위한 입력부;
수신된 오디오 신호 x로부터 양자화된 오디오 신호를 생성하기 위해 상기 입력부와 결합된 양자화 수단;
양자화된 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호 x의 현재 시간 프레임 xm을 예측하기 위한 장기간 예측 계수들의 집합 A를 발생하도록 상기 양자화 수단에 결합된 예측 수단;
예측 계수들 A를 사용하여 예측된 오디오 신호를 생성하고 수신된 오디오 신호 x를 예측된 오디오 신호와 비교하여 다수의 주파수 서브-밴드들 각각에 대해 에러 신호 E(k)를 생성하기 위한 생성 수단;
에러 신호들 E(k)를 양자화하여 양자화된 에러 신호들의 집합를 생성하는 양자화 수단; 및
양자화된 에러 신호들을 예측 계수들 A와 결합하여 부호화된 오디오 신호를 생성하는 결합 수단을 포함한다.
일실시예에서, 상기 생성 수단은 수신된 오디오 신호 x를 시간에서 주파수 도메인 변환하는 제1변환 수단, 예측된 오디오 신호를 시간에서 주파수 도메인으로 변환하는 제2변환 수단 및, 상기 결과의 주파수 도메인의 주파수 신호들을 비교하도록 정해진 비교 수단을 포함한다.
본 발명의 다른 실시예에서, 생성 수단은 시간 도메인의 수신된 오디오 신호 x와 예측된 오디오 신호를 비교하도록 정해진다.
본 발명의 네 번째 양상에 따라, 코딩된 오디오 신호 x를 디코딩하는 장치가 제공되고, 이때 코딩된 오디오 신호가 오디오 신호의 다수의 주파수 서브-밴드들 각각에 대해 양자화된 에러 신호및, 오디오 신호의 각 시간 프레임에 대한 예측 계수들의 집합 A를 포함하고, 상기 예측 계수 A는 재구성된 양자화 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호의 현 시간 프레임 xm을 예측하는데 사용될 수 있을 때, 상기 장치는:
코딩된 오디오 신호를 수신하기 위한 입력부;
양자화된 에러 신호들로부터 상기 재구성된 양자화 오디오 신호를 생성하기 위한 생성 수단; 및
예측 계수들 A와 상기 재구성된 오디오 신호로부터 예측된 오디오 신호를 생성하기 위한 신호 처리 수단을 구비하고,
이때 상기 생성 수단은, 예측된 오디오 신호를 시간 도메인에서 주파수 도메인으로 변환하여 예측된 주파수 서브-밴드 신호들의 집합을 생성하는 제1변환 수단, 상기 예측된 주파수 서브-밴드 신호들의 집합과 양자화된 에러 신호들을 결합하여 재구성된 주파수 서브-밴드 신호들의 집합를 생성시키는 결합 수단 및, 재구성된 주파수 서브-밴드 신호들에 대해 주파수-시간 도메인 변환을 수행하여 재구성된 양자화 오디오 신호를 생성하는 제2변환 수단을 포함한다.
본 발명의 보다 나은 이해를 위해, 그리고 본 발명이 어떻게 실시될 수 있는지를 보이기 위해, 예를 통해 첨부된 도면의 참조가 이제 이뤄질 것이다.
도 1에서 MPEG-2 AAC 표준의 일반적 용어로 정의된 코딩 동작을 수행하는 인코더의 블록 다이어그램이 도시된다. 인코더로의 입력은 샘플링된 단상의 신호 x이고, 이 신호의 샘플 포인트들은 2N 포인트들의 시간 프레임들 또는 블록들로 그룹지어지며, 이것은 수학식 1과 같이,
나타내지는데, 이때 m은 블록 인덱스이고 T는 역변환을 나타낸다. 샘플 포인트들
서브-밴드들은 MPEG 표준으로 규정된다.
전방 MDCT는 수학식 3과 같이,
, k=0,...,N-1
나타내지는데, 이때 f(i)는 해석-합성 윈도우이고, 이것은 그것의 추가되고-겹쳐진 효과가 신호의 단위 이득을 발생하도록 대칭적인 윈도우이다.
주파수 서브-밴드 신호들 X(k)는 서브-밴드 신호들 각각의 장기간 중복을 제거하려고 시도하는 (이하에서 보다 상세히 설명될) 예측도구(2)에 번갈아 적용된다. 그 결과는 다음의 수학식 4와 같이
E_m (k)= (E_m (0), E_m (1),...,E_m (N-1))^T
이들은 각각의 서브-밴드의 장기간 변화를 가리키는 주파수 서브-밴드 에러 신호들의 집합 및 각 프레임에 대한 전방 적응 예측 계수들의 집합 A이다.
서브-밴드 에러 신호들 E(k)는 심리음향학적 모델에 의해 결정된 다수의 비트로 각 신호를 양자화하는 양자화기(3)로 제공된다. 이 모델은 제어기(4)에 의해 제공된다. 논의한 바와 같이, 심리 음향학적 모델은 인간의 청각 시스템의 차폐 반응을 모델링하는데 사용된다. 양자화된 에러 신호들과 예측 계수들 A는 그리고나서 전송 채널(6)을 통한 전송을 위해 비트 스트림 멀티플렉서(5)에서 결합된다.
도 2는 도 1의 인코더로 코딩된 오디오 신호를 디코딩하기 위한 디코더의 일반적 구성을 도시하고 있다. 비트-스트림 디멀티플렉서(7)는 먼저 양자화 에러 신호로부터 예측 계수들 A를 분리하고 그 에러 신호들을 별개의 서브-밴드 신호들로 분리한다. 예측 계수들 A 및 양자화된 에러 서브-밴드 신호들는, 인코더에서 수행된 예측 과정을 역으로 하는 예측 도구(8)로 제공된다, 즉 예측 도구는 인코더에서 추출된 중복을 재삽입하여, 재구성된 양자화 서브-밴드 신호들를 생성한다. 필터 뱅크 도구(9)는 그리고나서 수신된 버전에 대해 역변환함으로써 시간 도메인 신호를 복원하며, 이는 다음의 수학식 5에 의해 나타내진다.
이때,의 역변환
이고, 이것은 원래의 오디오 신호 x에 근접한다.
도 3은 도 1의 인코더의 예측 방법을 보다 상세히 도시한 것이다. 양자화된 주파수 서브-밴드 에러 신호들 E(k)를 사용하여, 양자화된 주파수 서브-밴드 신호들의 집합가 신호 처리부(10)에 의해 생성된다. 신호들은, 역변형 이산 코사인 변환(inverse modification discrete cosine transform;IMDCT)을 그 신호들에 적용하는 필터 뱅크(11)로 번갈아 제공되어 양자화된 시간 도메인 신호를 생성한다. 신호는 그리고나서 오디오 입력 신호 x를 수신하기도 하는 장기간 예측기 수단(12)으로 제공된다. 예측기 수단(12)은 장기간(long term;LT) 예측기를 사용하여, 이전에 양자화된 데이터를 기반으로, 현 프레임 m+1에 존재하는 오디오 신호의 중복을 제거한다. 이 예측기의 전송 함수 P는 다음의 수학식 6과 같이,
로 나타내며, 이때 alpha는 1 내지 1024 샘플들의 범위내 긴 딜레이를 나타내고 bk는 예측 계수들을 나타낸다. m1= m2= 0일 때 예측기는 한 개의 탭인 한편 m1= m2= 1일 때 예측기는 세 개의 탭이다.
패러미터 alpha와 bk는 2N 샘플들의 기간에 대해 LT 예측한 후 평균 제곱된 에러를 최소화시킴으로써 결정된다. 한 개의 탭 예측기에 있어서, LT 예측 오차 r(i)는 수학식 7과 같이 주어진다.
여기서 x는 시간 도메인 오디오 신호이고는 시간 도메인 양자화 신호이다. 평균 제곱된 오차 R은 다음의 수학식 8과 같이 주어진다.
이라고 할 때, 수학식 9가 도출된다.
b를 수학식 8에 대입하면, 다음의 수학식 10이 주어진다.
R을 최소화하는 것은 수학식 10의 우변의 두 번째 항을 최대화시킨다는 것을 의미한다. 이 항은 그것의 명시된 범위를 통해 모든 가능한 alpha의 값들에 대해 계산되어지고, 이 항을 최대화시키는 alpha의 값이 선택된다. OMEGA 로서 식별되는, 수학식 10의 분모의 에너지는, 다음의 수학식 11을 사용하여 에너지를 새로 재산출하는 대신 딜레이 (alpha-1)에서 alpha까지 쉽게 갱신될 수 있다.
하나의 탭 LT 예측기가 사용되면, 수학식 9는 예측 계수 bj를 산출하는데 사용된다. j개의 탭 예측기에 있어서, LT 예측 딜레이 alpha는 수학식 10의 두 번째 항을 최대화시킴으로써 먼저 정해지고, 그리고나서 jxj 수식들의 집합이 j 예측 계수들을 산출하기 위해 해법된다.
LT 예측 패러미터들 A는 딜레이 alpha와 예측 계수 bj이다. 딜레이는 사용된 범위에 따라 9 내지 11 비트로 양자화된다. 1 내지 1024 범위에 있는 1024개의 가능한 값들에 가장 일반적으로 10 비트가 활용된다. 비트 수를 감소시키기 위해, LT 예측 딜레이들은 5비트의 프레임에서 조차 델타 코딩될 수 있다. 실험에는 3 내지 6 비트를 갖는 이득을 양자화하는 것이 충분하다는 것을 보인다. 균일하지 않은 이득의 분포로 인해, 비균일한 양자화가 사용되어져야 한다.
상술한 방법에서, LT 합성 필터 1/P(z)의 안정성이 항상 보장되는 것은 아니다. 1-탭 예측기에 있어서, 안정성 조건은이다. 따라서, 안정화는일 때마다=1로 정함으로써 쉽게 달성될 수 있다. 3-탭 예측기에 대해서, 1987년 7월 IEEE Trans. ASSP, 35권, 7번에 수록된 알 피 라마샨드란과 피 케이발의 "음성 코더의 피치 필터의 안정성 및 성능 분석"에 설명된 바와 같은 다른 안정화 과정이 사용될 수 있다. 그러나, LT 합성 필터의 불안정성은 재구성된 신호의 품질에 그렇게 해롭지는 않다. 불안정한 필터는 (에너지를 증가시키는) 많은 프레임들을 고수할 것이지만, 결국 출력이 시간과 함께 계속 증가하지 않도록 하기 위해 안정성의 기간과 만나게 된다.
LT 예측기 계수들이 정해진 후, (m+1)번째 프레임에 대해 예측된 신호가 수학식 12와 같이 결정될 수 있다.
예측된 시간 도메인 신호는 그리고나서 신호에 MDCT를 저????하는 필터 뱅크(13)로 제공되어 (m+1)번째 프레임에 대한 예측된 스펙트럼의 계수를 생성한다. 예측된 스펙트럼의 계수들인는 그리고나서 감산기(14)에서 스펙트럼의 계수들인 X(k)로부터 감산된다.
예측이 단지 코딩 이득을 초래했을 때에만 사용된다는 것을 보장하기 위해, 적합한 예측기 제어가 필요되며 적은 양의 예측기 제어 정보가 디코더로 전송되어야 한다. 이 동작은 감산기(14)에서 수행된다. 예측기 제어 구조는 MPEG-2 진보된 오디오 코딩(Advanced Audio Coding;AAC)에 사용되고 있는 후방 적응 예측기 제어 구조와 동일하다. 부정보로서 전송되는 각 프레임에 대한 예측기 제어 정보는 두 단계로 결정된다. 먼저, 각 눈금계수 밴드에 대해 예측이 코딩 이득을 낼 것인지 아닌지를 결정하고 코딩 이득을 낸다면, 그 눈금계수 밴드에 대해 사용된_예측기(predictor_used) 비트는 1로 정해진다. 모든 눈금계수 밴드들에 대해 상기 동작이 완료된 후, 이 프레임의 예측기에 의해 전체 코딩 이득이 예측 부정보에 대해 최소한 추가 비트 필요성을 보상하는지의 여부를 결정한다. 만약 보상한다면, 현재_예측기_데이터(predictor_data_present) 비트는 1로 정해지고 그 예측기 리셋을 위해 필요로되는 것을 포함하는 완전한 부정보가 전송되어 예측 에러 값이 양자화기로 주어진다. 그렇지 않으면, 현재_예측기_데이터(predictor_data_present) 비트는 0으로 정해지고 사용된_예측기(predictor_used) 비트들은 모두 0으로 리셋되며 전송되지 않는다. 이런 경우, 스펙트럼의 성분 값이 양자화기(3)로 주어진다. 상술한 바와 같이, 예측기 제어는 먼저 한 눈금계수 밴드의 모든 예측기들에 대해 동작하고 그리고나서 모든 눈금 계수 밴드들에 대해 제2단계를 따른다.
LT 예측의 목표가 가장 큰 전체 예측 게인을 얻는 것이라는 것이 명백할 것이다. Gi가 l번째 주파수 서브-밴드의 예측 이득을 나타내도록 하자. 주어진 프레임의 전체 예측 이득은 다음의 수학식 13과 같이 산출될 수 있다.
만약 이득이 예측기 부정보에 대한 추가의 비트 필요성을 보상한다면, 즉 G〉T (dB)이면, 완전한 부정보가 전송되고 양의 이득을 발생하는 예측기들이 스위치 온된다. 그렇지 않으면, 예측기들은 사용되지 않는다.
상술한 방법에 의해 획득된 LP 패러미터들은 이득을 최대화하는 것과 직접적으로 관련되지 않는다. 그러나, 각 블록 및 선택된 범위(이 예에서 1 내지 1024)내의 각 딜레이에 대한 이득을 산출하고, 가장큰 전체 예측 이득을 발생하는 딜레이를 선택함으로써, 예측 과정이 최적화된다. 선택된 딜레이 alpha 및 상응하는 계수들 b가 양자화된 에러 서브-밴드 신호들과 함께 부정보로서 전송된다. 인코더에서 계산의 복잡성이 증가하는 한편, 디코더에서는 복잡성의 증가가 전혀 초래되지 않는다.
도 4는 도 2의 디코더를 보다 상세히 도시한다. 부호화된 오디오 신호가 상술한 바와 같은 비트 스트림 디멀티플렉서(7)에 의해 전송 채널(6)로부터 수신된다. 비트스트림 디멀티플렉서(7)는 예측 계수들 A와 양자화된 에러 신호들를 분리하고 이들을 예측 수단(8)으로 공급한다. 이 수단은 주파수 도메인의 양자화된 에러 신호들과 예측된 오디오 신호를 결합하여 역시 주파수 도메인의 재구성된 오디오 신호를 생성하는 결합기(24)를 구비한다. 필터 뱅크(9)는 재구성된 신호를 주파수 도메인에서 타임 도메인으로 변환하여 재구성된 시간 도메인 오디오 신호를 생성한다. 이 신호는 예측 계수들 A도 또한 수신하는 장기간 예측 수단(26)으로 번갈아 피드백 된다. 장기간 예측 수단(26)은 현재 프레임에 대한 예측 계수들을 사용하여 이전의 재구성된 시간 프레임들로부터 예측된 현 시간 프레임을 생성시킨다. 필터 뱅크(25)는 예측된 신호를 변환한다.
인코더로부터 전송된 예측기 제어 정보는 디코더에서 사용되어 디코딩 동작을 제어할 수 있다는 것을 이해할 수 있을 것이다. 특히, 사용된_예측기(predictor_use) 비트는 결합기(24)에서 사용되어 예측이 어떤 주어진 주파수 대역에서 채용되었는지 아닌지를 정할 수 있다.
도 5에서는 도 1의 오디오 신호 인코더에 대한 다른 구성이 도시되어 있으며, 여기서 코딩될 오디오 신호 x는 비교기(15)에 의해 시간 도메인의 예측된 신호와 비교되어 주파수 서브-밴드 에러 신호들의 집합 E(k)를 생성한다. 이들 신호들은 양자화기(17)에 의해 양자화되어 양자화된 에러 신호들의 집합를 생성한다.
그러면 제2필터 뱅크(18)는 양자화된 에러 신호들을 신호의 결과를 낳는 시간 도메인으로 전환하는데 사용된다. 이 시간 도메인의 양자화된 에러 신호는 그리고나서 신호 처리부(19)에서 예측된 시간 도메인 오디오 신호와 결합되어 양자화된 오디오 신호를 생성한다. 예측 수단(20)은 도 3의 인코더에서의 수단(120과 동일한 동작을 수행하여, 예측된 오디오 신호와 예측 계수들 A를 생성한다. 예측 계수들 및 양자화된 에러 신호들은 전송 채널(22)을 통한 전송을 위해 비트 스트림 멀티플렉서(21)에서 결합된다. 상술한 바와 같이, 에러 신호들은 제어부(23)에 의한 심리 음향학적 모델에 따라 양자화된다.
상술한 오디오 코딩 알고리즘은 낮은 비트 레이트에서 오디오 신호 압축을 허용한다. 그 기술은 장기간(LT) 예측을 기반으로 한다. 종래의 후방 적응 예측 기술과 비교하여, 여기서 설명된 기술은 단일 악기 음악 신호 및 스피치 신호에 대해 보다 높은 예측 이득을 가져다주는 한편 단지 낮은 계산적 복잡성을 필요로 한다.

Claims (8)

  1. 코딩될 오디오 신호 x를 수신하는 단계;
    수신된 오디오 신호 x로부터 양자화된 오디오 신호를 생성하는 단계;
    상기 양자화된 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호의 현재 시간 프레임을 예측하는데 사용될 수 있는 장기간(long-term) 예측 계수들의 집합 A를 생성하는 단계;
    상기 예측 계수들 A를 이용하여, 예측된 오디오 신호를 생성하는 단계;
    상기 수신된 오디오 신호 x와 상기 예측 오디오 신호를 비교하여 다수의 주파수 서브-밴드들 각각에 대한 에러 신호 E(k)를 생성하는 단계;
    에러 신호들 E(k)를 양자화하여 양자화 에러 신호를 생성하는 단계; 및
    양자화 에러 신호들과 예측 계수들 A를 결합하여 코딩된 오디오 신호를 생성하는 단계를 구비함을 특징으로 하는 오디오 신호를 코딩하는 방법.
  2. 제 1항에 있어서,
    프레임들 xm의 상기 수신된 오디오 신호 x를 시간 도메인에서 주파수 도메인으로 변환하여 주파수 서브-밴드(sub-band) 신호들의 집합 X(k)을 제공하는 단계와, 예측 오디오 신호를 시간 도메인에서 주파수 도메인으로 변환하여 예측 주파수 서브-밴드 신호들의 집합을 생성하는 단계, 여기서 수신된 오디오 신호 x와 예측 오디오 신호사이의 비교가 주파수 도메인에서 수행될 때, 해당 서브-밴드 신호들을 서로에 대해 비교함으로써 주파수 서브-밴드 에러 신호들 E(k)을 생성하는 단계를 구비함을 특징으로 하는 오디오 신호를 코딩하는 방법.
  3. 제 1항에 있어서,
    시간 도메인의, 수신된 오디오 신호 x와 예측 오디오 신호사이의 비교를 수행하여 역시 시간 도메인의 에러 신호 e를 생성하는 단계 및 상기 에러 신호 e를 시간 도메인에서 주파수 도메인으로 전환하여 상기 다수의 주파수 서브-밴드 에러 신호들 E(k)을 생성하는 단계를 구비함을 특징으로 하는 오디오 신호를 코딩하는 방법.
  4. 오디오 신호의 다수의 주파수 서브-밴드들 각각에 대해 양자화된 에러 신호및 재구성된 양자화 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호의 현 시간 프레임 xm을 예측하는데 사용될 수 있는 예측 계수들의 집합 A를 구비한, 코딩된 오디오 신호를 수신하는 단계;
    상기 재구성된 양자화 오디오 신호를 양자화된 에러 신호들로부터 생성하는 단계;
    예측 계수들 A와 양자화 오디오 신호를 사용하여 예측 오디오 신호를 생성하는 단계;
    예측 오디오 신호를 시간 도메인에서 주파수 도메인으로 변환하여, 재구성된 주파수 서브-밴드 신호들의 집합을 생성하도록 양자화 에러 신호들과 결합하기 위한, 예측 주파수 서브-밴드 신호들의 집합을 생성하는 단계; 및
    상기 재구성된 주파수 서브-밴드 신호들에 대해 주파수에서 시간 도메인으로의 변환을 수행하여 재구성된 양자화 오디오 신호를 생성하는 단계를 포함함을 특징으로 하는 코딩된 오디오 신호를 디코딩하는 방법.
  5. 코딩될 오디오 신호 x를 수신하는 입력부;
    수신된 오디오 신호 x로부터 양자화 오디오 신호를 생성하기 위해 상기 입력부와 결합된 처리 수단(2, 3; 15 내지 19);
    양자화 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호 x 의 현재 시간 프레임 xm을 예측하기 위한 장기간 예측 계수들의 집합 A를 생성하도록 상기 처리 수단(3)에 결합된 예측 수단(12;19);
    예측 계수들 A를 사용하여 예측 오디오 신호를 생성하고, 수신된 오디오 신호 x를 예측 오디오 신호와 비교하여 다수의 주파수 서브-밴드들 각각에 대한 에러 신호 E(k)를 생성하는 생성 수단(10 내지 14; 20, 15);
    에러 신호들 E(k)을 양자화하여 양자화 에러 신호들의 집합을 생성하는 양자화 수단(3; 17); 및
    양자화된 에러 신호들을 예측 계수들 A과 결합하여 코딩된 오디오 신호를 생성하는 결합 수단(5; 21)을 포함함을 특징으로 하는 오디오 신호 코딩 장치.
  6. 제 5항에 있어서,
    상기 생성 수단은 수신된 오디오 신호 x를 시간에서 주파수 도메인으로 변환하는 제1변환수단(11)과 상기 예측 오디오 신호를 시간에서 주파수 도메인으로 변환하는 제2변환 수단(13) 및 상기 결과의 주파수 도메인 신호들을 주파수 도메인에서 비교하도록 정해진 비교 수단(14)을 구비함을 특징으로 하는 오디오 신호 코딩 장치.
  7. 제 6항에 있어서,
    상기 생성 수단은 시간 도메인의 수신된 오디오 신호 x와 예측 오디오 신호를 비교하도록 정해짐을 특징으로 하는 오디오 신호 코딩 장치.
  8. 코딩된 오디오 신호가 오디오 신호의 여러 주파수 서브-밴드들 각각에 대해 양자화된 에러 신호및 오디오 신호의 각 시간 프레임에 대한 예측 계수들의 집합 A를 구비하고, 이때 예측 계수들 A가, 재구성된 양자화 오디오 신호의 최소한 한 개의 이전 시간 프레임으로부터 직접적으로, 수신된 오디오 신호의 현시간 프레임 xm을 예측하는데 사용될 수 있을 때, 코딩된 오디오 신호를 디코딩하는 장치에 있어서,
    코딩된 오디오 신호를 수신하는 입력부;
    양자화된 에러 신호들로부터 상기 재구성된 양자화 오디오 신호를 생성하는 생성 수단(24, 25, 9); 및
    예측 계수들 A와 상기 재구성된 오디오 신호로부터 예측 오디오 신호를 생성하는 신호 처리 수단(26)을 구비하고,
    이때 상기 생성수단은 상기 예측 오디오 신호를 시간 도메인에서 주파수 도메인으로 변환하여 예측된 주파수 서브-밴드 신호들의 집합을 생성하는 제1변환수단(25), 상기 예측 주파수 서브-밴드 신호들의 집합을 양장화된 에러 신호들과 결합하여 재구성된 주파수 서브-밴드 신호들의 집합을 생성하는 결합 수단(24) 및 재구성된 주파수 서브-밴드 신호들에 대해 주파수에서 시간 도메인으로의 변환을 수행하여 재구성된 양자화 오디오 신호를 생성하는 제2변환수단을 포함함을 특징으로 하는 디코딩 장치.
KR10-1999-7008369A 1997-03-14 1998-02-18 오디오 코딩 방법 및 장치 KR100469002B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI971108 1997-03-14
FI971108A FI114248B (fi) 1997-03-14 1997-03-14 Menetelmä ja laite audiokoodaukseen ja audiodekoodaukseen
PCT/FI1998/000146 WO1998042083A1 (en) 1997-03-14 1998-02-18 Audio coding method and apparatus

Publications (2)

Publication Number Publication Date
KR20000076273A true KR20000076273A (ko) 2000-12-26
KR100469002B1 KR100469002B1 (ko) 2005-01-29

Family

ID=8548401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1999-7008369A KR100469002B1 (ko) 1997-03-14 1998-02-18 오디오 코딩 방법 및 장치

Country Status (13)

Country Link
US (2) US6721700B1 (ko)
EP (1) EP0966793B1 (ko)
JP (2) JP3391686B2 (ko)
KR (1) KR100469002B1 (ko)
CN (1) CN1135721C (ko)
AU (1) AU733156B2 (ko)
DE (1) DE19811039B4 (ko)
ES (1) ES2164414T3 (ko)
FI (1) FI114248B (ko)
FR (1) FR2761801B1 (ko)
GB (1) GB2323759B (ko)
SE (1) SE521129C2 (ko)
WO (1) WO1998042083A1 (ko)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2380640A (en) * 2001-08-21 2003-04-09 Micron Technology Inc Data compression method
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7240001B2 (en) * 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7016547B1 (en) 2002-06-28 2006-03-21 Microsoft Corporation Adaptive entropy encoding/decoding for screen capture content
JP4676140B2 (ja) * 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
US7433824B2 (en) * 2002-09-04 2008-10-07 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
ATE381090T1 (de) 2002-09-04 2007-12-15 Microsoft Corp Entropische kodierung mittels anpassung des kodierungsmodus zwischen niveau- und lauflängenniveau-modus
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
KR100524065B1 (ko) * 2002-12-23 2005-10-26 삼성전자주식회사 시간-주파수 상관성을 이용한 개선된 오디오 부호화및/또는 복호화 방법과 그 장치
TWI220753B (en) * 2003-01-20 2004-09-01 Mediatek Inc Method for determining quantization parameters
US7782954B2 (en) 2003-09-07 2010-08-24 Microsoft Corporation Scan patterns for progressive video content
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7688894B2 (en) 2003-09-07 2010-03-30 Microsoft Corporation Scan patterns for interlaced video content
CN1860787A (zh) * 2003-09-29 2006-11-08 手持娱乐公司 用于编码信息的方法和装置
TWI227866B (en) * 2003-11-07 2005-02-11 Mediatek Inc Subband analysis/synthesis filtering method
US7933767B2 (en) * 2004-12-27 2011-04-26 Nokia Corporation Systems and methods for determining pitch lag for a current frame of information
CN101091317B (zh) * 2005-01-12 2011-05-11 日本电信电话株式会社 用于长期预测编码和长期预测解码的方法和装置
US7684981B2 (en) 2005-07-15 2010-03-23 Microsoft Corporation Prediction of spectral coefficients in waveform coding and decoding
US7693709B2 (en) 2005-07-15 2010-04-06 Microsoft Corporation Reordering coefficients for waveform coding or decoding
US7599840B2 (en) * 2005-07-15 2009-10-06 Microsoft Corporation Selectively using multiple entropy models in adaptive coding and decoding
US7539612B2 (en) * 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
US8599925B2 (en) 2005-08-12 2013-12-03 Microsoft Corporation Efficient coding and decoding of transform blocks
US7933337B2 (en) 2005-08-12 2011-04-26 Microsoft Corporation Prediction of transform coefficients for image compression
US7565018B2 (en) * 2005-08-12 2009-07-21 Microsoft Corporation Adaptive coding and decoding of wide-range coefficients
GB2436192B (en) * 2006-03-14 2008-03-05 Motorola Inc Speech communication unit integrated circuit and method therefor
DE102006022346B4 (de) * 2006-05-12 2008-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalcodierung
RU2464650C2 (ru) * 2006-12-13 2012-10-20 Панасоник Корпорэйшн Устройство и способ кодирования, устройство и способ декодирования
US8184710B2 (en) 2007-02-21 2012-05-22 Microsoft Corporation Adaptive truncation of transform coefficient data in a transform-based digital media codec
US20100292986A1 (en) * 2007-03-16 2010-11-18 Nokia Corporation encoder
US7774205B2 (en) 2007-06-15 2010-08-10 Microsoft Corporation Coding of sparse digital media spectral data
CN101075436B (zh) * 2007-06-26 2011-07-13 北京中星微电子有限公司 带补偿的音频编、解码方法及装置
US20090048827A1 (en) * 2007-08-17 2009-02-19 Manoj Kumar Method and system for audio frame estimation
ATE500588T1 (de) * 2008-01-04 2011-03-15 Dolby Sweden Ab Audiokodierer und -dekodierer
WO2009132662A1 (en) * 2008-04-28 2009-11-05 Nokia Corporation Encoding/decoding for improved frequency response
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
KR20090122143A (ko) * 2008-05-23 2009-11-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
EP2339577B1 (en) * 2008-09-18 2018-03-21 Electronics and Telecommunications Research Institute Encoding apparatus and decoding apparatus for transforming between modified discrete cosine transform-based coder and hetero coder
WO2010091554A1 (zh) * 2009-02-13 2010-08-19 华为技术有限公司 一种基音周期检测方法和装置
DE102010006573B4 (de) * 2010-02-02 2012-03-15 Rohde & Schwarz Gmbh & Co. Kg IQ-Datenkompression für Breitbandanwendungen
AU2014204954B2 (en) 2013-01-08 2017-05-18 Dolby International Ab Model based prediction in a critically sampled filterbank
US10638227B2 (en) 2016-12-02 2020-04-28 Dirac Research Ab Processing of an audio input signal
CN112564713B (zh) * 2020-11-30 2023-09-19 福州大学 高效率低时延的动觉信号编解码器及编解码方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5921039B2 (ja) 1981-11-04 1984-05-17 日本電信電話株式会社 適応予測符号化方式
US4969192A (en) 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
GB8803390D0 (en) 1988-02-13 1988-03-16 Univ Belfast Method and apparatus for electrical signal coding
FR2628589B1 (fr) * 1988-03-14 1994-03-04 Etat Francais Codeur differentiel a filtre predicteur auto-adaptatif et decodeur utilisable en liaison avec un tel codeur
DE3853161T2 (de) * 1988-10-19 1995-08-17 Ibm Vektorquantisierungscodierer.
IT1232084B (it) * 1989-05-03 1992-01-23 Cselt Centro Studi Lab Telecom Sistema di codifica per segnali audio a banda allargata
FR2646978B1 (fr) 1989-05-11 1991-08-23 France Etat Procede et installation a codage de signaux sonores
US5115240A (en) * 1989-09-26 1992-05-19 Sony Corporation Method and apparatus for encoding voice signals divided into a plurality of frequency bands
CA2010830C (en) 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
JPH04119542A (ja) * 1990-09-07 1992-04-21 Nikon Corp 光磁気記録媒体カートリッジ
US5206884A (en) 1990-10-25 1993-04-27 Comsat Transform domain quantization technique for adaptive predictive coding
FI95085C (fi) 1992-05-11 1995-12-11 Nokia Mobile Phones Ltd Menetelmä puhesignaalin digitaaliseksi koodaamiseksi sekä puhekooderi menetelmän suorittamiseksi
FI91345C (fi) 1992-06-24 1994-06-10 Nokia Mobile Phones Ltd Menetelmä kanavanvaihdon tehostamiseksi
SG47025A1 (en) * 1993-03-26 1998-03-20 Motorola Inc Vector quantizer method and apparatus
IT1270438B (it) * 1993-06-10 1997-05-05 Sip Procedimento e dispositivo per la determinazione del periodo del tono fondamentale e la classificazione del segnale vocale in codificatori numerici della voce
FI98163C (fi) * 1994-02-08 1997-04-25 Nokia Mobile Phones Ltd Koodausjärjestelmä parametriseen puheenkoodaukseen
DE69429620D1 (de) * 1994-10-28 2002-02-14 Rai Radiotelevisione Italiana Teilbandkodierung mit auf Tonhöhen basierter Prädiktionskodierung in jedem einzelnen Teilband
AU704693B2 (en) * 1994-12-20 1999-04-29 Dolby Laboratories Licensing Corporation Method and apparatus for applying waveform prediction to subbands of a perceptual coding system
US5706395A (en) * 1995-04-19 1998-01-06 Texas Instruments Incorporated Adaptive weiner filtering using a dynamic suppression factor
TW321810B (ko) * 1995-10-26 1997-12-01 Sony Co Ltd
JP3481027B2 (ja) * 1995-12-18 2003-12-22 沖電気工業株式会社 音声符号化装置
US5778335A (en) * 1996-02-26 1998-07-07 The Regents Of The University Of California Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
FI964975A (fi) * 1996-12-12 1998-06-13 Nokia Mobile Phones Ltd Menetelmä ja laite puheen koodaamiseksi

Also Published As

Publication number Publication date
US7194407B2 (en) 2007-03-20
GB9805294D0 (en) 1998-05-06
JP2003140697A (ja) 2003-05-16
FR2761801A1 (fr) 1998-10-09
DE19811039B4 (de) 2005-07-21
FR2761801B1 (fr) 1999-12-31
CN1195930A (zh) 1998-10-14
EP0966793A1 (en) 1999-12-29
US6721700B1 (en) 2004-04-13
AU733156B2 (en) 2001-05-10
US20040093208A1 (en) 2004-05-13
WO1998042083A1 (en) 1998-09-24
AU6216498A (en) 1998-10-12
KR100469002B1 (ko) 2005-01-29
SE9800776D0 (sv) 1998-03-10
CN1135721C (zh) 2004-01-21
EP0966793B1 (en) 2001-09-19
GB2323759B (en) 2002-01-16
FI971108A0 (fi) 1997-03-14
SE521129C2 (sv) 2003-09-30
JP3391686B2 (ja) 2003-03-31
SE9800776L (sv) 1998-09-15
DE19811039A1 (de) 1998-09-17
JPH10282999A (ja) 1998-10-23
ES2164414T3 (es) 2002-02-16
FI114248B (fi) 2004-09-15
FI971108A (fi) 1998-09-15
GB2323759A (en) 1998-09-30

Similar Documents

Publication Publication Date Title
KR100469002B1 (ko) 오디오 코딩 방법 및 장치
KR101278805B1 (ko) 엔트로피 코딩 방법 및 엔트로피 디코딩 방법
EP0673014B1 (en) Acoustic signal transform coding method and decoding method
KR100331166B1 (ko) 오디오신호를 코딩하기 위한 방법 및 장치와 비트스트림을디코딩하기 위한 방법 및 장치
US5487086A (en) Transform vector quantization for adaptive predictive coding
JP5215994B2 (ja) 損失エンコ−ドされたデータ列および無損失拡張データ列を用いた、原信号の無損失エンコードのための方法および装置
WO2008072670A1 (ja) 符号化装置、復号装置、およびこれらの方法
JPH11143499A (ja) 切替え型予測量子化の改良された方法
KR20070070174A (ko) 스케일러블 부호화 장치, 스케일러블 복호 장치 및스케일러블 부호화 방법
KR960006301A (ko) 음향 신호 부호화/복호화 방법
KR20100113065A (ko) 정수 변환에 기초한 부호화 및 복호화에 대한 반올림 노이즈 셰이핑
EP1847022B1 (en) Encoder, decoder, method for encoding/decoding, computer readable media and computer program elements
JPH0341500A (ja) 低遅延低ビツトレート音声コーダ
US7426462B2 (en) Fast codebook selection method in audio encoding
US6012025A (en) Audio coding method and apparatus using backward adaptive prediction
KR19980080742A (ko) 신호 부호화방법 및 장치
Liebchen Mpeg-4 als-the standard for lossless audio coding
Muin et al. A review of lossless audio compression standards and algorithms
JP4721355B2 (ja) 符号化データの符号化則変換方法および装置
WO1998035447A2 (en) Audio coding method and apparatus
EP1639580B1 (en) Coding of multi-channel signals
JPS5917439B2 (ja) スペクトルパラメ−タの差分符号化方式
JPH08137494A (ja) 音響信号符号化装置、音響信号復号装置および音響信号処理装置
JPH0451300A (ja) 線形予測符号化器及び復号化器

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130107

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140103

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20151217

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20161220

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20171219

Year of fee payment: 14

EXPY Expiration of term