KR100416363B1 - 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더 - Google Patents

선형 예측 분석 대 합성 엔코딩 방법 및 엔코더 Download PDF

Info

Publication number
KR100416363B1
KR100416363B1 KR10-2001-7003364A KR20017003364A KR100416363B1 KR 100416363 B1 KR100416363 B1 KR 100416363B1 KR 20017003364 A KR20017003364 A KR 20017003364A KR 100416363 B1 KR100416363 B1 KR 100416363B1
Authority
KR
South Korea
Prior art keywords
vector
encoder
state
subframes
gain
Prior art date
Application number
KR10-2001-7003364A
Other languages
English (en)
Other versions
KR20010075134A (ko
Inventor
에쿠드덴에릭
하겐로아르
Original Assignee
텔레폰아크티에볼라게트 엘엠 에릭슨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=20412633&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR100416363(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 텔레폰아크티에볼라게트 엘엠 에릭슨 filed Critical 텔레폰아크티에볼라게트 엘엠 에릭슨
Publication of KR20010075134A publication Critical patent/KR20010075134A/ko
Application granted granted Critical
Publication of KR100416363B1 publication Critical patent/KR100416363B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

선형 예측 분석-대-합성 엔코더는 탐색 알고리즘 블록(50) 및 프레임의 다수의 서브프레임으로부터의 최적의 이득을 벡터 양자화하는 벡터 양자화기(58)를 구비한다. 내부 엔코더 상태는 벡터 양자화된 이득(50, 52, 54, 56)을 사용하여 갱신된다.

Description

선형 예측 분석 대 합성 엔코딩 방법 및 엔코더{LINEAR PREDICTIVE ANALYSIS-BY-SYNTHESIS ENCODING METHOD AND ENCODER}
셀룰러 응용에서 가장 많이 사용되는 코더 모델은 코드 여기된 선형 예측 (CELP: Code Excited Linear Prediction) 기술이다. 이 파형 정합 절차는 적어도 8kb/s 또는 그 이상의 비트율에서 잘 동작하는 것으로 공지되어 있다. 그러나, 비트율을 낮추면, 각 파라미터에 유용한 비트의 수가 감소하고 양자화 정확도가 저하됨에 따라, 코딩 효율이 감소한다.
[1] 및 [2]는 여러 서브프레임에 걸쳐서 이득 파라미터 관련 정보를 집합적으로 벡터 양자화하는 방법을 제안하고 있다. 그러나, 이들 방법은 엔코더 및 디코더의 내부 상태를 고려하고 있지 않다. 이 결과 디코더에서 디코딩된 신호가 엔코더에서 최적 합성된 신호와 상이하게 될것이다.
본 발명은 선형 예측 분석-대-합성(LPAS: linear predictive analysis-by-synthesis) 엔코딩 방법 및 엔코더에 관한 것이다.
도 1은 전형적인 종래 기술의 LPAS 엔코더를 도시한 블록도.
도 2는 본 발명을 따른 방법을 도시한 순서도.
도 3은 본 발명을 따른 LPAS 엔코더의 실시예를 도시한 블록도.
본 발명의 목적은 낮은 비트율, 전형적으로 8kbits/s 이하의 비트율에서 효율적이며 디코더의 내부 상태와 자신의 내부 상태를 동기화시키는 선형 예측 분석-대-합성(LPAS) CELP를 토대로한 엔코딩 방법 및 엔코더에 관한 것이다.
이 목적은 첨부된 청구범위에 따라서 해결된다.
요약하면, 본 발명은 여러 서브프레임의 최적의 이득 파라미터를 벡터 양자화함으로써 코딩 효율을 증가시킨다. 그리고나서, 내부 엔코더 상태는 벡터 양자화된 이득을 사용하여 갱신된다. 이것은 엔코더 및 디코더의 내부 상태간의 동기를 유지시키면서 프레임을 엔코딩하는데 필요한 비트의 수를 감소시킨다.
본 발명의 부가적인 목적 및 장점은 첨부한 도면을 참조하여 이하의 설명으로부터 충분히 이해할 수 있을 것이다.
본 발명을 보다 충분히 이해하기 위하여, 본 명세서는 전형적인 LPAS 엔코더의 간단한 설명으로 시작될 것이다.
도 1은 전형적인 종래 기술의 LPAS를 도시한 블록도이다. 이 엔코더는 분석 파트 및 합성 파트를 구비한다.
분석 파트에서, 선형 예측기(10)는 음성 프레임(s)(전형적으로 8000Hz에서 샘플링된 20ms 음성)을 수신하여, 양자화기(12)에서 양자화한 후 합성 필터(12)(전형적으로 10개 정도의 전극점 필터(all-pole filter) 제어를 위한 필터 계수를 결정한다. 양자화되지 않은 필터 계수는 또한 가중 필터(16)를 제어하는데 사용된다.
합성 파트에서, 적응형 코드북(18) 및 고정된 코드북(20)으로부터의 코드 벡터는 스케일링 소자(22 및 24) 각각에서 스케일링되고 스케일링된 벡터는 가산기(26)에서 가산되어 합성 필터(14)를 여기시키는 여기 벡터를 형성한다. 이것은 합성 음성 신호()를 발생시킨다. 피드백 라인(28)은 새로운 여기 벡터로 적응형 코드북(18)을 갱신한다.
가산기(30)는 실제 음성 신호(s)와 합성 음성 신호()간의 차(e)를 형성한다. 이 에러 신호는 가중 필터(16)에서 가중되고, 이 가중된 에러 신호(ew)는 탐색 알고리즘 블록(32)으로 전송된다. 탐색 알고리즘 블록(32)은, 프레임에 대하여 아래와 같이 거리 측정을 최소화함으로써, 제어선(34, 36, 38 및 40) 각각을 통한 코드북(18, 20)으로부터의 코드 벡터(ca, cf)와 스케일링 소자(22, 24)의 이득(ga, gf)과의 최적의 조합을 결정한다.
(1)
여기서, W는 가중 필터 매트릭스를 나타내고 H는 합성 필터 매트릭스를 나타낸다.
탐색 알고리즘은 다음과 같이 요약될 수 있다.
각각의 프레임에 대하여 :
1. 선형 예측에 의해 합성 필터(14)를 계산하여 필터 계수를 양자화한다.
2. 현재 프레임과 이전 프레임(어떤 도메인에서, 예컨대 선 스펙트럼 주파수에서) 사이의 선형 예측 계수를 보간하여 각각의 서브프레임(통상적으로 8000Hz에서 샘플링되는 5ms 음성, 즉 40 샘플)에 대한 선형 예측 계수를 얻는다. 가중 필터(16)는 선형 예측 필터 계수로부터 계산된다.
상기 프레임내의 각각의 서브프레임에 대하여 :
1. gf가 제로이고 ga가 최적의(양자화되지 않은) 값과 동일하다고 하면, 적응형 코드북(18)을 탐색함으로써 코드 벡터(ca)를 찾는다.
2. 고정된 코드북(20)을 탐색하고 이전 단계에서 발견된 코드 벡터(ca) 및 이득(ga)을 이용함으로써 코드 벡터(cf)를 찾는다. 이득(gf)은 (양자화되지 않은) 최적의 값과 동일하다고 가정한다.
3. 이득 팩터(ga 및 gf)를 양자화한다. 이 양자화 방법은 스케일러 또는 벡터 양자화중 어느 하나일 수 있다.
4. (ca 및 cf) 및 (ga 및 gf)의 양자화된 값으로부터 발생된 여기 신호로 적응형 코드북(18)을 갱신한다. 합성 및 가중 필터의 상태를 갱신한다.
상술된 구조에서, 각 서브프레임은 개별적으로 엔코딩된다. 이와 같이 함으로써, 엔코더 및 디코더의 동기화가 용이해지는데, 이것은 LPAS 코딩의 반드시 필요한 특징이다. 서브프레임의 개별적인 엔코딩으로 인해, 엔코더의 합성 파트에 대응하는 디코더의 내부 상태는 엔코더의 내부 상태가 엔코딩동안 갱신되는 것과 동일한 방식으로 디코딩동안 갱신된다. 이것은 엔코더 및 디코더의 내부 상태를 동기화한다. 그러나, 또한 가능한한 벡터 양자화의 이용을 증가시키는 것이 바람직한데, 그 이유는 이 방법이 저 비트율로 정확한 코딩을 제공하는 것으로 공지되어 있기 때문이다. 이하에 나타나있는 바와 같이, 본 발명을 따르면, 여러 서브프레임에서 이득을 동시에 벡터 양자화하여 엔코더 및 디코더간에 동기화를 여전히 유지시킬 수 있다.
본 발명은 지금부터 도 2 및 도 3을 참조하여 설명될 것이다.
도 2는 본 발명을 따른 방법을 도시한 순서도이다. 이하의 알고리즘은 2개의 연속적인 서브프레임을 엔코딩하는데 이용될 수 있다(선형 예측 분석, 양자화 및 보간이 이미 종래 기술에 따라서 수행되었다라고 가정함).
S1. 서브프레임 1의 가중된 에러를 최소화함으로써 서브프레임(1)에 대한 (서브프레임 길이의) 최적의 적응형 코드북 벡터(ca1)를 찾는다.
(2)
여기서, "1"은 식(2)에서 서브프레임 1을 나타낸다. 또한, ga1의 최적의 (양자화되지 않은) 값은 각각의 가능한 (ca1) 벡터를 평가할 때 사용된다라고 가정하자.
S2. 최적의 (gf1) 값이 각각의 가능한 (cf1) 벡터를 평가할 때 사용된다라고 가정하고, 가중된 에러를 최소화함으로써 서브프레임 1 에 대한 최적의 고정된 코드북 벡터(cf1)를 찾는다.
(3)
이 단계에서, 단계 S1에서 결정된 ca1 벡터 및 최적의 ga1 값이 사용된다.
S3. 현재 적응형 코드북 상태, 현재 합성 필터 상태 뿐만 아니라 현재 가중 필터 상태의 카피를 기억하자. 이 적응형 코드북은 FIFO(선입 선출) 소자이다. 이 소자의 상태는 FIFO의 현재 값으로 표시된다. 필터는 지연 소자, 스케일링 소자 및 가산기의 조합이다. 필터의 상태는 지연 소자로의 현재 입력 신호 및 스케일링 값 (필터 계수)으로 표시된다.
S4. 단계 S1 및 S2에서 찾아진 서브프레임 1의 임시 여기 벡터(temporary excitation vector),
를 이용하여 적응형 코드북 상태, 합성 필터 상태 뿐만아니라 가중 필터 상태를 갱신하자. 따라서, 이 벡터는 적응형 코드북으로 시프트된다(및 동일 길이의 벡터는 다른쪽 끝에서 적응형 코드북 밖으로 시프트된다). 이합성 필터 상태 및 가중 필터 상태는 자신의 보간된 값으로 각각의 필터 계수를 갱신하고, 합성 필터를 통해서 여기 벡터를 공급하고 가중 필터를 통해 최종 에러 벡터를 공급함으로써 갱신된다.
S5. 서브프레임 2의 가중된 에러를 최소화함으로써 서브프레임 2에 대한 최적의 코드북 벡터(ca2)를 찾는다.
(4)
여기서, "2"는 식(4) 전체를 통해서 서브프레임 2를 나타낸다. 또한, ga2의 (양자화되지 않은) 최적의 값은 각각의 가능한 ca2 벡터를 평가할때 사용된다라고 가정하자.
S6. 최적의 (gf2) 값이 각각의 가능한 cf2 벡터를 평가할때 사용된다라고 가정하고, 가중된 에러를 최소화함으로써 서브프레임 2 에 대한 최적의 고정된 코드북 벡터(cf2)를 찾는다.
(5)
이 단계에서, 단계 S5에서 결정된 ca2 벡터 및 최적의 ga2 값이 사용된다.
S7. 모두 4개의 이득(ga1, gf1, ga2 및 gf2)을 벡터 양자화한다. 이 대응하는 양자화된 벡터[ ]는 벡터 양자화기에 의해 이득 코드북으로부터 얻어진다. 이 코드북은 다음과 같이 표시된다.
(6)
여기서, ci(0), ci(1), ci(2) 및 ci(3)는 이득이 양자화될 수 있는 특정한 값이다. 따라서, 0에서 N-1까지 변화될 수 있는 첨자 i는 모두 4개의 이득을 표시하도록 선택되고 벡터 양자화기의 임무는 이 첨자를 찾는 것이다. 이것은 다음 식을 최소화함으로써 성취된다.
(7)
여기서, α,β는 상수이고 제1 및 제2 서브프레임에 대한 이득 양자화 기준은 다음과 같이 주어진다.
(8)
(9)
그러므로,
(10) 및
(11)
S8. 단계(S3)에서 기억된 상태를 검색함으로써 적응형 코드북 상태, 합성 필터 상태 및 가중 필터 상태를 복원한다.
S9. 이때의 양자화된 이득 , 즉으로 제1 서브프레임에 대한 최종 여기를 사용하여 적응형 코드북, 합성 필터 및 가중 필터를 갱신한다.
S10. 이때의 양자화된 이득, 즉으로 제2 서브프레임에 대한 최종 여기를 사용하여 적응형 코드북, 합성 필터 및 가중 필터를 갱신한다.
이제, 두 개의 서브프레임에 대한 엔코딩 프로세스가 완료되었다. 다음 단계는, 그 다음 2개의 서브프레임에 대하여 단계(S1-S10)를 반복하거나, 프레임의 끝이 도달되는 경우 다음 프레임의 선형 예측으로 새로운 엔코딩 사이클이 시작하는 것이다.
적응형 코드북, 합성 필터 및 가중 필터의 상태를 기억하여 복원하는 이유는 아직 양자화되지 않은(최적의) 이득이 단계(S4)에서 이들 요소들을 갱신하는데 사용되기 때문이다. 그러나, 이들 이득은 디코더에서는 사용될 수 없는데, 그 이유는 이들이 실제 음성 신호(s)로부터 계산되기 때문이다. 대신에, 양자화된 이득만 디코더에서 사용될 수 있는데, 이는 정확한 내부 상태가 이득 양자화후 엔코더에서 재생성되어야 한다는 것을 의미한다. 이와 같이 이루어지지 않으면, 엔코더 및 디코더는 동일한 내부 상태를 갖지 않게 되며, 이는 동일한 음성 파라미터에 대하여 엔코더 및 디코더에서 상이한 합성 음성 신호를 발생시키는 결과를 가져온다.
식(7) 및 (10)에서 가중 팩터α,β는 제1 및 제2 서브프레임의 상대적인 중요성을 고려하기 위해 포함된다. 이들은 에너지가 높은 서브프레임이 에너지가 낮은 서브프레임 보다 더 낮은 가중치를 얻도록 에너지 파라미터에 의해 결정되는 것이 유리하다. 이것은 온셋(워드의 시작) 및 오프셋(워드의 끝)에서의 성능을 개선시킨다. 예컨대, 비 온셋 또는 오프셋 세그먼트동안의 음성을 토대로한 다른 가중 함수가 또한 있을 수 있다. 이 가중 프로세스에 대한 적절한 알고리즘은 다음과 같이 요약될 수 있다.
서브프레임 2 의 에너지 〉서브프레임 1의 에너지의 2배 인 경우, α=2β
서브프레임 2의 에너지〈 서브프레임 1의 에너지의 0.25배 인 경우, α=0.5β
상기 이외의 경우, α=β
도 3은 본 발명에 따른 LPAS 엔코더의 일 실시예를 도시하는 블록도이다. 소자(10-40)는 도 1의 유사한 소자와 대응한다. 그러나, 탐색 알고리즘 블록(32)은 코드북 및 스케일링 소자 이외에도 제어선(60, 62, 64, 및 66) 각각을 통해 기억 블록(52, 54, 56) 및 벡터 양자화기(58)를 제어하는 탐색 알고리즘 블록(50)으로 대체된다. 기억 블록(52, 54 및 56)은 적응형 코드북(18), 합성 필터(14) 및 가중 필터(16) 각각의 상태를 기억하고 복원하는데 사용된다. 벡터 양자화기(58)는 이득 코드북(68)으로부터 최적의 이득 양자화 벡터를 찾는다.
알고리즘 탐색 블록(50) 및 벡터 양자화기(58)의 기능은 예를들어 하나 또는 여러개의 마이크로 프로세서 또는 마이크로/신호 프로세서 조합으로서 구현된다.
상기 설명에서는, 2개의 서브프레임의 이득이 벡터 양자화된다라고 가정되었다. 복잡도의 증가가 허용될 수 있다면, 상기 개념을 확장하고 음성 프레임의 모든 서브프레임의 이득을 벡터 양자화함으로써, 상기 이상의 성능 개선이 얻어질 수 있다. 이것은 이득의 벡터 양자화후 엔코더에서 정확한 최종 내부 상태를 얻기 위하여 여러 서브프레임을 백트랙킹(backtracking)하는 것을 필요로한다.
따라서, 서브프레임 경계를 넘은 이득의 벡터 양자화가 엔코더 및 디코더간의 동기를 희생시킴이 없이 가능하게 된다는 것을 알수 있다. 이것은 압축 성능을 매우 개선시키고 상당한 비트율 절감을 가져온다. 예컨대, 각 서브프레임의 이득의 2차원 벡터 양자화에 6비트가 사용되면, 품질 손실없이 두 개의 서브프레임의 이득의 4차원 벡터 양자화에 8비트가 사용된다는 것이 확인되었다. 따라서, 서브프레임당 2비트가 절약된다(1/2(2*6-8)). 이것은 저비트율에서 매우 크게 절약되는(예컨대, 8kbits/s 미만) 5ms 서브프레임에 대하여 0.4kbits/s에 상응한다.
프로세싱이 프레임 레벨에서가 아니라 서브프레임에서만 변경되기 때문에, 과다한 알고리즘 지연이 초래되지 않는다는 점에 유념해야만 된다. 게다가, 이 변경된 프로세싱은 복잡도가 매우 조금 증가한다.
서브프레임(α,β)간의 에러 가중을 포함하는 본 실시예는 음성 품질을 개선시킨다.
당업자는 첨부된 청구범위에 규정된 본 발명의 영역을 벗어남이 없이 각종 수정 및 변경을 행할 수 있다는 것을 알수 있을 것이다.
[참고 문헌]
[1] EP 0764939(ATT), 페이지 6, 구절 A- 페이지 7
[2] EP 0684705(Nippon Telegraph Telephone), 칼럼 39 라인 17-칼럼 40 라인 4

Claims (14)

  1. 선형 예측 분석-대-합성 코딩 방법에 있어서,
    다수의 서브프레임의 최적의 이득을 결정하는 단계와,
    상기 최적의 이득을 벡터 양자화하는 단계 및,
    상기 벡터 양자화된 이득을 사용하여 내부 엔코더 상태를 갱신하는 단계를 포함하는 것을 특징으로하는 선형 예측 분석-대-합성 코딩 방법.
  2. 제1항에 있어서, 최적의 이득으로 서브프레임을 엔코딩한 후 내부 엔코더 상태를 기억하는 단계와,
    여러 서브프레임으로부터 이득을 벡터 양자화후 상기 내부 엔코더 상태를 복원하는 단계 및,
    결정된 코드북 벡터 및 상기 벡터 양자화된 이득을 사용함으로써 상기 내부 엔코더 상태를 갱신하는 단계를 포함하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  3. 제2항에 있어서, 상기 내부 필터 상태는 적응형 코드북 상태, 합성 필터 상태 및 가중 필터 상태를 포함하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 2개의 서브프레임으로부터 이득을 벡터 양자화하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 프레임의 모든 서브프레임으로부터 모든 이득을 벡터 양자화하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  6. 제1항에 있어서, 가중 팩터에 의해 상이한 서브프레임으로부터의 에러 기여도를 가중하는 단계 및,
    상기 가중된 에러 기여도의 합을 최소화하는 단계를 포함하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  7. 제6항에 있어서, 각각의 가중 팩터는 대응하는 서브프레임의 에너지에 의존하는 것을 특징으로 하는 선형 예측 분석-대-합성 코딩 방법.
  8. 선형 예측 분석-대-합성 엔코더에 있어서,
    다수의 서브프레임의 최적의 이득을 결정하는 탐색 알고리즘 블록(50)과,
    상기 최적의 이득을 벡터 양자화하는 벡터 양자화기(58) 및,
    상기 벡터 양자화된 이득을 사용하여 내부 엔코더 상태를 갱신하는 수단(50, 52, 54, 56)을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
  9. 제8항에 있어서, 최적의 이득으로 서브프레임을 엔코딩한 후 내부 엔코더 상태를 기억하는 수단(52, 54, 56)과,
    여러 서브프레임으로부터 이득을 벡터 양자화한 후 상기 내부 엔코더 상태를 복원하는 수단(50) 및,
    결정된 코드북 벡터 및 상기 벡터 양자화된 이득을 사용함으로써 상기 내부 엔코더 상태를 갱신하는 수단(50)을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
  10. 제9항에 있어서, 내부 필터 상태를 기억하는 상기 수단은 적응형 코드북 상태 기억 수단(52), 합성 필터 상태 기억 수단(54) 및 가중 필터 상태 기억 수단(56)을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서, 두 개의 서브프레임으로부터 이득을 벡터 양자화하는 수단을 구비하는 것을 특징으로하는 선형 예측 분석-대-합성 엔코더.
  12. 제8항 내지 제10항 중 어느 한 항에 있어서, 음성 프레임의 모든 서브프레임으로부터 모든 이득을 벡터 양자화하는 수단을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
  13. 제8항에 있어서, 가중 팩터에 의해 상이한 서브프레임으로부터의 에러 기여도를 가중하여 상기 가중된 에러 기여도의 합을 최소화하는 수단(58)을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
  14. 제13항에 있어서, 대응하는 서브프레임의 에너지를 의존하는 가중 팩터를 결정하는 수단(58)을 구비하는 것을 특징으로 하는 선형 예측 분석-대-합성 엔코더.
KR10-2001-7003364A 1998-09-16 1999-08-24 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더 KR100416363B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE9803165-1 1998-09-16
SE9803165A SE519563C2 (sv) 1998-09-16 1998-09-16 Förfarande och kodare för linjär prediktiv analys-genom- synteskodning

Publications (2)

Publication Number Publication Date
KR20010075134A KR20010075134A (ko) 2001-08-09
KR100416363B1 true KR100416363B1 (ko) 2004-01-31

Family

ID=20412633

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-7003364A KR100416363B1 (ko) 1998-09-16 1999-08-24 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더

Country Status (15)

Country Link
US (1) US6732069B1 (ko)
EP (1) EP1114415B1 (ko)
JP (1) JP3893244B2 (ko)
KR (1) KR100416363B1 (ko)
CN (1) CN1132157C (ko)
AR (1) AR021221A1 (ko)
AU (1) AU756491B2 (ko)
BR (1) BR9913715B1 (ko)
CA (1) CA2344302C (ko)
DE (1) DE69922388T2 (ko)
MY (1) MY122181A (ko)
SE (1) SE519563C2 (ko)
TW (1) TW442776B (ko)
WO (1) WO2000016315A2 (ko)
ZA (1) ZA200101867B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8027242B2 (en) 2005-10-21 2011-09-27 Qualcomm Incorporated Signal coding and decoding based on spectral dynamics
US8392176B2 (en) 2006-04-10 2013-03-05 Qualcomm Incorporated Processing of excitation in audio coding and decoding
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
JP5326465B2 (ja) * 2008-09-26 2013-10-30 富士通株式会社 オーディオ復号方法、装置、及びプログラム
JP5309944B2 (ja) * 2008-12-11 2013-10-09 富士通株式会社 オーディオ復号装置、方法、及びプログラム
EP2593937B1 (en) 2010-07-16 2015-11-11 Telefonaktiebolaget LM Ericsson (publ) Audio encoder and decoder and methods for encoding and decoding an audio signal
CN104025191A (zh) * 2011-10-18 2014-09-03 爱立信(中国)通信有限公司 用于自适应多速率编解码器的改进方法和设备
US20230336594A1 (en) * 2022-04-15 2023-10-19 Google Llc Videoconferencing with Reduced Quality Interruptions Upon Participant Join

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0501420A2 (en) * 1991-02-26 1992-09-02 Nec Corporation Speech coding method and system
EP0577488A1 (en) * 1992-06-29 1994-01-05 Nippon Telegraph And Telephone Corporation Speech coding method and apparatus for the same
EP0600504A1 (en) * 1992-12-04 1994-06-08 SIP SOCIETA ITALIANA PER l'ESERCIZIO DELLE TELECOMUNICAZIONI P.A. Method of and device for speech-coding based on analysis-by-synthesis techniques
EP0684705A2 (en) * 1994-05-06 1995-11-29 Nippon Telegraph And Telephone Corporation Multichannel signal coding using weighted vector quantization
WO1996035208A1 (en) * 1995-05-03 1996-11-07 Telefonaktiebolaget Lm Ericsson (Publ) A gain quantization method in analysis-by-synthesis linear predictive speech coding
EP0764939A2 (en) * 1995-09-19 1997-03-26 AT&T Corp. Synthesis of speech signals in the absence of coded parameters
KR19990028181A (ko) * 1997-09-10 1999-04-15 윤종용 음성 압축기의 성능 향상 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990013112A1 (en) * 1989-04-25 1990-11-01 Kabushiki Kaisha Toshiba Voice encoder
SE469764B (sv) * 1992-01-27 1993-09-06 Ericsson Telefon Ab L M Saett att koda en samplad talsignalvektor
CA2118986C (en) * 1994-03-14 1998-09-22 Toshiki Miyano Speech coding system
WO1996037964A1 (en) * 1995-05-22 1996-11-28 Ntt Mobile Communications Network Inc. Sound decoding device
US6199037B1 (en) * 1997-12-04 2001-03-06 Digital Voice Systems, Inc. Joint quantization of speech subframe voicing metrics and fundamental frequencies
US6260010B1 (en) * 1998-08-24 2001-07-10 Conexant Systems, Inc. Speech encoder using gain normalization that combines open and closed loop gains
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0501420A2 (en) * 1991-02-26 1992-09-02 Nec Corporation Speech coding method and system
EP0577488A1 (en) * 1992-06-29 1994-01-05 Nippon Telegraph And Telephone Corporation Speech coding method and apparatus for the same
EP0600504A1 (en) * 1992-12-04 1994-06-08 SIP SOCIETA ITALIANA PER l'ESERCIZIO DELLE TELECOMUNICAZIONI P.A. Method of and device for speech-coding based on analysis-by-synthesis techniques
EP0684705A2 (en) * 1994-05-06 1995-11-29 Nippon Telegraph And Telephone Corporation Multichannel signal coding using weighted vector quantization
WO1996035208A1 (en) * 1995-05-03 1996-11-07 Telefonaktiebolaget Lm Ericsson (Publ) A gain quantization method in analysis-by-synthesis linear predictive speech coding
EP0764939A2 (en) * 1995-09-19 1997-03-26 AT&T Corp. Synthesis of speech signals in the absence of coded parameters
KR19990028181A (ko) * 1997-09-10 1999-04-15 윤종용 음성 압축기의 성능 향상 방법

Also Published As

Publication number Publication date
EP1114415B1 (en) 2004-12-01
CN1318190A (zh) 2001-10-17
US6732069B1 (en) 2004-05-04
DE69922388D1 (de) 2005-01-05
DE69922388T2 (de) 2005-12-22
EP1114415A2 (en) 2001-07-11
JP3893244B2 (ja) 2007-03-14
AR021221A1 (es) 2002-07-03
MY122181A (en) 2006-03-31
JP2002525897A (ja) 2002-08-13
CA2344302C (en) 2010-11-30
WO2000016315A2 (en) 2000-03-23
CA2344302A1 (en) 2000-03-23
SE519563C2 (sv) 2003-03-11
ZA200101867B (en) 2001-09-13
AU6375799A (en) 2000-04-03
TW442776B (en) 2001-06-23
SE9803165L (sv) 2000-03-17
CN1132157C (zh) 2003-12-24
AU756491B2 (en) 2003-01-16
WO2000016315A3 (en) 2000-05-25
BR9913715A (pt) 2001-05-29
SE9803165D0 (sv) 1998-09-16
BR9913715B1 (pt) 2013-07-30
KR20010075134A (ko) 2001-08-09

Similar Documents

Publication Publication Date Title
KR100304682B1 (ko) 음성 코더용 고속 여기 코딩
EP0409239B1 (en) Speech coding/decoding method
US6345248B1 (en) Low bit-rate speech coder using adaptive open-loop subframe pitch lag estimation and vector quantization
US5327520A (en) Method of use of voice message coder/decoder
FI113571B (fi) Puheenkoodaus
US5359696A (en) Digital speech coder having improved sub-sample resolution long-term predictor
WO1994023426A1 (en) Vector quantizer method and apparatus
JP2005515486A (ja) Celpによる音声符号間のトランスコーディング・スキーム
JP3396480B2 (ja) 多重モード音声コーダのためのエラー保護
US6768978B2 (en) Speech coding/decoding method and apparatus
US6330531B1 (en) Comb codebook structure
KR100416363B1 (ko) 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더
JPH0341500A (ja) 低遅延低ビツトレート音声コーダ
KR100465316B1 (ko) 음성 부호화기 및 이를 이용한 음성 부호화 방법
US6785646B2 (en) Method and system for performing a codebook search used in waveform coding
US5708756A (en) Low delay, middle bit rate speech coder
KR100341398B1 (ko) 씨이엘피형 보코더의 코드북 검색 방법
KR100389898B1 (ko) 음성부호화에 있어서 선스펙트럼쌍 계수의 양자화 방법
JP2808841B2 (ja) 音声符号化方式
JP3229784B2 (ja) 音声符号化復号化装置及び音声復号化装置
KR950001437B1 (ko) 음성부호화방법
Berouti et al. Reducing signal delay in multipulse coding at 16kb/s
JPH08202398A (ja) 音声符号化装置
JPH05165498A (ja) 音声符号化方法
MXPA01002655A (en) Linear predictive analysis-by-synthesis encoding method and encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121227

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20131226

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20141226

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20151228

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20181226

Year of fee payment: 16

EXPY Expiration of term