KR19990006262A - 디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법 - Google Patents

디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법 Download PDF

Info

Publication number
KR19990006262A
KR19990006262A KR1019970053812A KR19970053812A KR19990006262A KR 19990006262 A KR19990006262 A KR 19990006262A KR 1019970053812 A KR1019970053812 A KR 1019970053812A KR 19970053812 A KR19970053812 A KR 19970053812A KR 19990006262 A KR19990006262 A KR 19990006262A
Authority
KR
South Korea
Prior art keywords
codebook
filter
codevector
speech
gain
Prior art date
Application number
KR1019970053812A
Other languages
English (en)
Other versions
KR100264863B1 (ko
Inventor
권순영
Original Assignee
윤종용
삼성전자 주식회사
티모시 제이, 칼슨
텔로지 네트웍스, 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사, 티모시 제이, 칼슨, 텔로지 네트웍스, 인코퍼레이티드 filed Critical 윤종용
Publication of KR19990006262A publication Critical patent/KR19990006262A/ko
Application granted granted Critical
Publication of KR100264863B1 publication Critical patent/KR100264863B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 4내지 16Kbit/s의 데이터 속도의 시외-음질 음성을 생성하는 디지털 음성 압축 알고리즘(CELP)을 이용하여 음성을 부호하는 방법을 제공한다. 본 발명은 음성의 특징을 나타내기 위해 이득 벡터와 관련이 있는 펄스 및 랜덤 코드북으로 구성되는 일련의 베이스라인 코드북, 암시 코드북 및 적응 코드북을 이용한다. 또한, 상기 코드북에 기초하여 실시간 동작을 달성하도록, 개선된 양자화 및 서치기술이 제공된다.

Description

디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법
본 발명은 음성 부호화에 관한 것으로, 보다 구체적으로는 음성 신호의 디지털 음성 압축 알고리즘(CELP : Code-Excited Linear Predictive) 부호화의 기술 개선에 관한 것이다.
최근에, 종래의 아날로그 음성 처리 시스템은 디지털 신호 처리 시스템으로 대체되고 있는 실정이다. 이러한 디지털 음성 처리 시스템에 있어서, 아날로그 음성 신호가 샘플링된 다음, 그 샘플들은 원하는 신호 음질에 따라 다수의 비트에 의해 부호화된다. 별도의 처리과정이 없는 시외 음질의 음성 통신의 경우, 음성 신호를 나타내는 비트의 수는 다소 낮은 속도의 음성 통신 시스템의 경우에 한해 너무 높을 수도 있는 64Kbit/s이다.
음성을 부호화하고 시스템의 수신측에서 고음질의 디코딩된 음성을 얻는데 필요한 데이터 속도를 줄이기 위한 일련의 많은 노력이 행해져 왔다. 1985년 M . R . Schroder와 B.S.Atal이 작성하여 Proc . ICASSP-85의 937-940쪽에 실린 Code Excited Linear Prediction : High-Quality Speech at Very Low Rate 이라는 제목의 논문에서 소개된 디지털 음성 압축 알고리즘(CELP) 부호화 기술은 4Kbit/s내지 16Kbit/s의 데이터 속도를 위한 가장 효과적인 음성 부호화 알고리즘인 것으로 판명 되었다.
상기 CELP 부호화는 샘플링된 입력 음성 신호를 프레임라 불리우는 샘플블록속에 저장하고, 이 데이터 프레임을 고정 코드북 및 적응 코드북의 파라미터를 추출하기 위한 분석-합성 서치 과정 및 선형 예측 부호화(LPC : Linear Predictive Coding)에 기초하여 처리하는 프레임 기반 알고리즘이다.
CELP 합성기는 고정 코드북 및 적응 코드북의 엑사이테이션 소스를 LPC포르만트 필터에 공급함으로써 합성된 음성을 발생시킨다. 상기 포르만트 필터의 파라미터는 (프레임의 한정된 간격의)어떤 음성 샘플을 이전의 공지된 음성 샘플의 선형 조합으로서 어림잡을 수 있다는 개념을 갖는 선형 예측 분석을 통해 계산될 수 있다. 따라서, 입력 음성의 특정 세트의 예측자 계수(LPC 예측 계수)는 입력 음성 샘플과 선형 예측 음성 샘플간의 제곱차의 합을 최소함으로써 결정될 수 있다. 상기 고정 코드북 및 적응 코드북의 파라미터(코드북 인덱스 및 코드북 이득)은 상기 입력 음성 샘플과 합성된 LPC 필터 출력 샘플간의 가중 평균 제곱 오차를 지각할 수 있을 정도로 최소화함으로써 선택된다.
일단, 고정 코드북, 적응 코드북 및 LPC 필터의 음성 파라미터가 계산되고 나면, 이들 파라미터는 양자화되고, 수신기에 전송하기 위해 인코더에 의해 부호화된다. 상기 수신기의 디코더는 CELP 합성기가 합성된 음성을 생성하기 위한 음성 파라미터를 발생시킨다.
CELP 알고리즘에 입각한 최초의 음성 부호화 표준은 4.8Kbit/s의 속도로 운용되는 미연방 표준 FS1016이다. 1992년에 CCITT(국제전신전화 자문위원회)(현재는 ITU-T)에서는 G728로 알려져 있는 저 지연 CELP(LD-CELP)알고리즘을 채택하였다. CELP 코더의 음성의 음질은 많은 연구자들에 의해 지난 몇년 동안 향상되어 왔다. 특히, 엑사이테이션 코드북은 광범위하게 연구되어 졌고, CELP 코더용으로 개발되어져 왔다.
벡터합 가동선형 예측(VSELP : Vector Sum Excited Linear Prediction)라 불리우는 특수 CELP 알고리즘은 IS-54로 알려진 북미 TDMA 디지털 셀룰러 표준용으로 개발되어, 1990년 I . R . Gerson과 M . Jansiuk이 작성하여 Proc . ICASSP-90의 461-464쪽에 실린 Vector Sum Excited Linear Prediction(VSELP) Speech Coding(벡터합 가동선형 예측 음성 부호화) 이라는 제목의 논문에 설명되어 있다. VSELP용의 익사이테이션 코드벡터는 LPC 잔류신호의 특성을 분류하기 위해 두개의 랜덤 코드북으로부터 유도 된다. 최근, 대수 코드북으로부터 발생된 익사이테이션 코드벡터는 1995년 ITU-T의 COM 15-152의 Draft Recommendation G729 : Coding of Speech at 8Kbit/s using Conjugate Structure Algebric-Code-Excited Linear Prediction(CS-ACELP)(CS-ACELP를 이용한 8Kbit/s의 음성 부호화)라는 제목의 논문에 소개된 ITU-T 8Kbit/s 음성 부호화 표준으로 사용된다. 1995년 1월 Meno 등에 의해 작성되어 IEEE J. Sel . Area Commun의 제 13 권 31-41쪽에 실린 Design of a pitch synchronous innovation CELP coder for mobile communication(이동통신용의 피치 동기혁신 celp 코더의 설계)이라는 제목의 논문에서 설명된 피치 동기혁신(PSI)의 추가로 지각할 수 있는 정도로 음질이 향상되었다. 그러나, 4Kbit/s 내지 16Kbit/s에서 작동하는 CELP 코더의 음질은 맑지도 않고 시외 음질도 아니다.
혼합 엑사이테이션은 1990년 Taniguchi 등이 작성하여 Proc . ICASSP-90의 241-244쪽에 실린 Principal Axis Extracting Vector Excitation Coding : High Quality Speech at 8Kbit/s(주축 추출 벡터가동 부호화 : 8Kbit/s의 고음질의 음성이라는 제목의 논문에 소개된 CELP 음성 코더에 적용되어 왔다. 코덱 성능을 향상시키기 위해 선택 베이스라인 코드벡터에 따른 암시 펄스 코드벡터가 도입되었다. 주관적인 측정 및 객관적인 측면에서의 개선점이 보고되었다. 합성된 음성의 피치 조파 구조(Pich Harmonic Structure)를 향상시킴으로써 CELP 코더의 성능을 개선시키고자하는 시도가 전술한 모델들을 통해 이루어 졌다. 이들 모델은 잔류신호가 순수하게 흰색인, 일부 여자 음성에는 적합하지 않을 수도 있는 선택 베이스라인 코드벡터에 좌우된다. 최근, 베이스라인 코드북 및 암시 코드북으로부터의 혼합 익사이테이션은 1997년 Kwon 등이 작성하여 Proc . ICASSP-97의 759-762쪽에 실린 A High Quality BI-CELP Speech Coder at 8Kbit/s and Below(8Bit/s 및 그 이하의 고음질 BI-CELP 음성 코더라는 제목의 논문에 소개된 피치조파 구조를 개선하기 위해 CELP 모델에 적용되었고, BI-CELP 모델에 효과적인 것으로 판명되었다.
고음질의 합성 음성을 생성하기 위해서, 음성 그 자체 및 CELP 음성 부호화 모델의 특성 문에 불규칙 잡음 소스 및 에너지 집중 펄스 소스의 LPC잔류 스팩트럼 및 불규칙 잡음 소스와 펄스 소스의 혼합의 성을 나타내는 데는 CELP 코더용의 코드북이 필요하다.
상기 인용한 기술 이외에도, 다양한 미국 특허에서 CELP 기술이 언급되고 있다. Marmelstein에게 특허 허여된 미국 특허 제 5,526,464 호는 CELP용의 코드북 서치의 복잡성을 줄이는 기술에 관해 개시하고 있다. 이것은 주파수 감소에 따라 코드북 크기가 증가하는 대응 코드북을 갖는 다중 대역통과 잔류신호를 사용하여 달성된다.
Moulsley에게 특허 허여된 미국 특허 제 5,140,638 호는 종래의 2차원 코드북에 비해 1차원 코드북을 이용한 시스템에 관해 개시하고 있다. 이 기술은 CELP내에서 계산상의 복잡성을 줄이는 데 사용된다.
Yip 등에게 특허 허여된 미국 특허 제 5,265,190 호는 CELP용의 계산의 복잡성을 줄이는 방법을 개시하고 있다. 특히, 적응 코드북 벡터를 적응 코드북으로부터 최적의 엑사이테이션 벡터를 선택하기 위한 재귀적 계산 루프에서 폴링하는 데 사용되는 상승(相乘 ; convulution)동작과 상관 동작은 특수한 방법으로 분리된다.
Nakamura에게 특허 허여된 미국 특허 제 5,519,806 호는 최소 두 개의 기본 벡터의 선형 결합을 통해 엑사이테이션 소스가 합성되는 코드북의 서치용 시스템에 관해 개시하고 있다. 이 기술은 교차한 상관치를 계산하기 위해 계산산의 복잡성을 줄이는 방법에 관해 개시하고 있다. Miyano 등에게 특허 허여된 미국 특허 제 5,485,581 호는 적응 코드북의 코드벡터 및 선형 예측 파라미터로부터 합성된 합성신호의 자기상관과, 상기 적응 코드북의 코드벡터의 합성 신호와 엑사이테이션 코드북의 코드벡터의 합성 신호간의 교차상관을 이용하여, 상기 익사이테이션 코드북의 코드벡터 및 상기 선형 예측 파라미터로부터 합성된 합성 신호의 자기상관을 정정함으로써 계산상의 복잡성을 줄이는 방법에 관해 개시하고 있다. 이 방법은 후속하여 상기 적응 코드북의 코드벡터의 합성 신호를 입력 음성 신호에서 감산하여 얻어진 신호와 상기 엑사이테이션 코드북의 코드벡터의 합성 신호간의 교차상관 및, 상기 정정된 자기상관을 이용하여 이득 코드북을 서치하도록 구성된다.
Kao 등에게 특허 허여된 미국 특허 제 5,371,853 호는 나머지 음성 잔류신호를 발생시키기 위해 다중 차원 구(球)상에 규일하게 분포된 소정수의 벡터를 포함하는 중복되지 않게 조직된 대수 코드북으로 CELP 음성을 부호화하는 방법에 관해 개시하고 있다. 단기 음성 정보, 장기 음성 정보 및 나머지 음성 잔류신호가 결합되어 입력 음성의 재생을 형성한다.
Adoul 등에게 특허 허여된 미국 특허 제 5,444,816 호는 CELP의 서치 절차 및 엑사이테이션 코드북을 개선하기 위한 방법에 관해 개시하고 있다. 이것은 적시에 변하는 전달 함수를 갖는 필터에 연결된 공간대수 코드발생기를 사용하여 달성된다.
그러나, 상기 종래기술들은 계산의 복잡성이 줄어든 느린 데이터 속도의 디지털 부호화 기술을 이용하여 만족스런 시외-음질의 음성을 유지하지 못하는 문제점 있었다.
따라서, 본 발명의 목적은 16Kbit/s이하의 느린 데이터 속도의 고음질 합성음성을 생성하기 위한 CELP 코더용의 개선된 코드북을 제공하는 데 있다.
본 발명의 또다른 방법은 실시간 실행을 위한 코드북 인덱스의 서치 기술을 제공하는데 있다.
본 발명의 또다른 방법은 고음질의 음성을 생성하기 위한 코드북 이득용의 벡터 양자화 테이블을 발생시키는 방법을 제공하는 데 있다.
본 발명의 또다른 방법은 실시간 실행을 위한 코드북 이득의 효율적인 서치 기술을 제공하는데 있다.
도 1은 3 가지 기본분석 동작즉, LPC 분석, 피치 분석 및 암시 코드벡터 분석을 포함하는 코드북 엑사이테이션(Codebook excitation) 분석을 설명하기 위한 BI-CELP 인코더의 구성을 나타낸 블록도.
도 2는 4 가지 기본 동작즉, 암시 코드벡터 발생을 포함하는 엑사이테이션 함수의 발생, 피치 필터링, LPC 필터링 및 포스트 필터링을 설명하기 위한 BI-CELP 디코더의 구성을 나타낸 블록도.
도 3은 음성 샘플의 프레임에 근거한 LPC의 상세 분석도.
도 4는 BI-CELP 분석기의 프레임 구조 및 윈도우를 나타낸 도면.
도 5는 이동 평균 예측 방법을 이용하여 LSP 잔류치를 양자화시키는 방법을 나타낸 상세 절차도.
도 6은 수신된 LSP 전송 코드로부터 LSP 파라미터를 디코딩하는 방법을 나타낸 상세 절차도.
도 7은 피치 필터를 위한 파라미터를 추출하는 방법을 나타낸 상세 절차도.
도 8은 엑사이테이션 함수의 발생을 위한 코드북 파라미터를 추출하는 방법을 나타낸 상세 절차도.
도 9는 BI-CELP 음성 코덱을 위한 프레임 및 서브 프레임 구조를 나타낸 도면.
도 10은 코드북 구조 및 베이스라인 코드북과 암시 코드북간의 관계를 나타낸 도면.
도 11은 송신측의 디코더의 구성을 나타낸 블록도.
도 12는 수신측의 디코더의 구성을 나타낸 블록도.
도 13은 포스트 필터의 구성을 나타낸 블록도.
* 도면의 주요 부분에 대한 부호의 설명
101,1301 : 하이패스 필터, 201 : 베이스라인 코드북 인덱스, 202 : 수신 데이터 스트림, 211 : 암시 코드북 인덱스, 213,701,819,831,1113 : LPC 포르만트 필터, 506 : 이동평균 예측자, 507 : 퀀타이저, 603 : 디퀀타이저, 707,807 : 가중 필터, 727,827 : 인코더, 801 : 피치 필터, 815 : 암시코드, 816 : 베이스라인 코드, 1309 : 틸트 보상필터.
상기한 목적을 달성하기 위해, 본원 발명에 따라, 디지털 음성압축 알고리즘(CELP)모델에 입각한 음성 부호화 방법이 제공되고, 상기 음성 부호화 방법은(a) 송신국에서 음성을 이산 음성샘플로 분할하는 단계와; (b) 상기 이산 음성샘플을 디지털화하는 단계와; (c) 다수의 코드벡터를 각각 갖는 두개의 고정 코드북으로부터 두개의 코드벡터의 조합을 선택하고, 다수의 코드북 이득벡터로부터 두개의 코드북 이득벡터의 조합을 선택하여 혼합 엑사이테이션 함수를 형성하는 단계와; (d) 적응 코드북으로부터 적응 코드벡터를 선택하고, 디지털화된 음성을 표현하도록 상기 혼합 엑사이테이션 함수와 조합하여 피치이득을 선택하는 단계와; (e) 상기 선택된 코드벡터 중 하나와, 상기 선택된 코드북 이득벡터, 상기 적응 코드벡터와 상기 피치이득 중 두개를 디지털 데이터 스트림으로서 부호화하는 단계와; (f) 송신 수단을 이용하여 상기 디지털 데이터 스트림을 송신국에서 수신국으로 전송하는 단계와; (g) 상기 선택된 코드벡터, 상기 두개의 코드북 이득벡터, 상기 적응코드벡터, 상기 피치이득 및 LPC 필터 파라미터를 재생하도록 상기 수신국에서 상기 디지털 데이터 스트림을 디코딩하는 단계와; (h) 상기 선택된 코드벡터, 상기 두개의 코드북 이득벡터, 상기 적응 코드벡터, 상기 피치이득 및 상기 LPC 필터 파라미터를 이용하여 상기 수신국에서 디지털화된 음성샘플을 재생하는 단계와; (i) 상기 디지털화된 음성 샘플을 상기 수신국에서 아날로그 음성샘플로 변환하는 단계와; (j) 부호화 음성을 재생하도록 일련의 아날로그 음성샘플들을 결합하는 단계를 포함하는 것을 특징으로 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하며, 본 발명의 상세한 설명, 도면 및 특허 청구의 범위에 걸쳐 이하 언급되는 용어들은 다음과 같이 정의된다.
디코더(Decoder) : 디지털 형식의 유한수를 아날로그 형식의 유한수로 변환하는 장치.
인코더(Encoder) : 아날로그 형식의 유한수를 디지털 형식의 유한수로 변환하는 장치.
코덱(Codec) : 인코더와 디코더가 직렬 조합된 장치(인코더/디코더).
코드벡터(Codevector) : 전형적인 음성 세그먼트의 익사이테이션 함수를 설명하고 그 특징을 나타내는 벡터 또는 일련의 계수.
랜덤 코드벡터(Random Codevector) : 코드벡터의 요소들이 일련의 랜덤 시퀀스로 부터 선택되거나 용량이 큰 데이터 베이스의 실제 음성 샘플로부터 선택될수도 있는 불규칙 변수인 코드벡터.
펄스 코드벡터(Pulse Codevector) : 코드벡터의 시퀀스가 펄스 함수의 형태와 유사한 코드벡터.
코드북(Codebook) : 하나의 특수 코드벡터가 선택되는 음성 코덱에 의해 사용되고 상기 음성 코덱의 필터를 가동시키는 데 사용되는 일련의 코드벡터.
고정 코드북(Fixed Codebook) : 코드북의 값 또는 코드벡터 요소가 주어진 음성 코덱용으로 고정되는 확률적 코드북 또는 랜덤 코드북으로도 불리우는 코드북.
적응 코드북(Adaptive Codebook) : 코드북 또는 코드벡터 요소의 값은 변하고, 고정 코드북의 변수 및 피치 필터의 변수에 따라 적응가능하게 갱신되는 코드북.
코드북 인덱스(Codebook Index) : 코드북내의 특수 코드벡터를 지정하는데 사용되는 포인터.
베이스라인 코드북(Baseline Codebook) : 상기 코드북 인덱스가 송신기 및 수신기의 동일 코드벡터를 확인하기 위해 수신기에 송신될 코드북.
암시 코드북(Implied Codebook) : 코드북 인덱스가 송신기 및 수신기의 동일 코드벡터를 확인하기 위해 수신기에 송신될 필요가 없는 코드북으로서, 송신기 및 수신기에서 동일한 방법에 의해 계산되는 코드벡터 인덱스를 갖는 코드북.
표적 신호(Target Signal) : CELP 합성기에 의해 근사치화될 지각처리 가중 필터(perceptual weighting filter)의 출력.
포르만트(Formant) : 음성의 단기 스펙트럼에 현저한 피크를 야기시키는 사람 음성 시스템의 공명 주파수.
보간(Interpolation) : 상호 세트간의 평가된 파라미터의 전이를 완화시키는 수단.
양자화(Quantizatin) : 비트수 또는 밴드폭을 감소시키기 위해 하나 이상의 (스칼라) 요소(벡터)가 저 해상도로 표시되도록 하는 과정.
LSP(라인 스펙트럼 쌍 ; Line Spectrum Pair) : 양호한 양자화 및 보간 특성을 갖는 의사 주파수 도메인에서의 LPC 필터 계수의 표시.
본 발명의 원하는 목적을 달성하기 위해 다수의 상이한 기술들이 본 명세서에 개시된다.
본 발명의 일면에 따르면, CELP 코더의 혼합 엑사이테이션 함수는 베이스라인 코드북 및 암시 코드북으로된 두 개의 코드북으로부터 발생된다.
본 발명의 또다른 일면에 따르면, 하나는 랜덤 코드북으로부터 유도되고 나머지 다른 하나는 펄스 코드북으로부터 유도되는 두 개의 암시 코드벡터는 대응 암시 코드북으로 부터의 엑사이테이션 함수로 인한 표적 신호와 가중 합성출력 신호간의 최소 평균 제곱오차(MMSE)에 입각하여 선택된다. 암시 코드베터용의 표적신호는 피치 기간만큼 지연된 LPC 필터 출력이다, 따라서, 암시 코드벡터에 의해 상기 암시 코드벡터의 이득에 따라 합성 신호의 피치조파 구조가 제어된다.
이러한 이득은 선택된 베이스라인 코드벡터와 무관하게 합성음성의 피치조파 구조를 제어하기 위한 새로운 메카니즘이다. 피치 지연된 합성음성을 이용한 암시 코드벡터의 선택으로 다른 CELP 코더의 경우 보다 합성음성에서의 더 향상된 피치조파를 유지하기 쉽다. 피치조파를 향상시키기 위한 이전의 모델들은 잔류 스펙트럼 순수하게 흰색인 일부 여자 음성에 한해 적합하지 않을 수도 있는 베이스라인 코드벡터에 좌우된다.
본 발명의 또다른 일면에 따르면, 베이스라인 코드벡터는 가중 MMSE 기준에 기초하여 후보 암시 코드벡터와 함께 선택된다. 펄스 코드북으로부터 유도된 암시 코드벡터의 경우, 베이스라인 코드벡터는 랜덤 코드북으로부터 선택되고, 랜덤 코드북으로부터 유도된 암시 코드벡터의 경우, 베이스라인 코드벡터는 펄스 코드북으로부터 선택된다. 이러한 방식으로, BI-CELP 코더용의 엑사이테이션 함수는 항상 펄스 및 랜덤 코드벡터로 구성된다.
본 발명의 또다른 일면에 따르면, 선택된 코드벡터의 이득은 부호화의 효율성을 향상시키는 한편 BI-CELP 코더의 우수한 성능을 유지시키기 위해 벡터 양자화된다. 코드북 이득용의 벡터 양자화 테이블을 생성하는 방법이 이하에 설명된다.
본 발명의 또다른 일면에 따르면, 이득 벡터 및 코드북 인덱스는 모든 가능한 베이스라인 인덱스 및 이득 벡터로부터 지각 가중 최소평균 제곱오차 기준(perceptually weighted minimum mean squared error criterion)에 의해 선택된다.
본 발명의 또다른 일면에 따르면, 코드북 파라미터들은 BI-CELP 코더의 성능을 향상시키기 위해 두 개의 연속적인 절반 서브 프레임용으로 함께 선택된다. 이러한 방식으로 연계과정(look-ahead procedure)없이 프레임 경계 문제점이 크게 줄어든다.
본 발명의 또다른 일면에 따르면, 심각한 성능 저하없이 근사한 최적 코드북 파라미터를 선택하도록 실시간 실행을 위한 코드북 파라미터의 효율적인 서치 방법이 전개된다.
도 1은 BI-CELP 인코더의 단순 블록도를 도시한 것이다. 불필요한 저 주파수 성분을 제거하기 위해 입력 음성샘플은 필터(101)에 의해 고주파수 대역으로 필터링된다. 이렇게 고주파수 대역에서 필터링된 신호들 s(n)(102)은 음성 샘플 예컨대, 프레임당 80,160,320개의 샘플의 프레임으로 분할된다. 음성 샘플의 프레임에 기초하여, 상기 BI-CELP 인코더는 3가지 기본 분석, 즉 LPC 필터 파라미터 분석(103), 피치 필터 파라미터 분석(105) 및 암시 코드벡터 분석을 포함하는 코드북 파라미터 분석(107)을 수행한다. 또한, 각 음성 프레임은 편의상 서브 프레임으로 분할된다. 상기 LPC 파라미터 분석(103)은 프레임에 기초하여 수행되는 반면, 상기 피치 필터 파라미터 분석(105)및 코드북 파라미터 분석(107)은 서브 프레임에 기초하여 수행된다.
도 2는 본 발명에 따른 BI-CELP 디코더의 단순 블록도를 도시한 것이다. 수신 디코더 데이터 스트림(202)은 베이스라인 코드북 인덱스I(201), 베이스라인 코드벡터의 이득 Gp(203), 암시 코드벡터의 이득 Gr(205), 피치 지연(Pitch Lag)L(207), 피치 이득 β(209) 및 부호화 형식의 LPC 포르만트 필터(213)용 LSP 전송 코드를 포함한다. 특정 서브 프레임에 대응하는 베이스라인 코드벡터 Pl(n)(204)는 베이스라인 코드북 인덱스 I(201)로 부터 결정되는 반면, 암시 코드벡터 rJ(n)(206)는 암시 코드북 인덱스 J(211)로 부터 결정된다. 상기 암시 코드북 인덱스 J(211)는 LPC 포르만트 필터 1/A(z)(213) 및 암시 코드북 인덱스 서치(216)의 합성음성 출력으로 부터 추출된다. 베이스라인 코드벡터 이득GP(203)와 코드벡터 Pl(n)을 곱한 값이 암시 코드벡터의 이득 Gr(205)와 암시 코드벡터 rJ(n)를 곱한 값에 가산하여 엑사이테이션 소스 ex(n)(212)가 형성된다. 적응 코드벡터 eL(n)(208)는 상기 피치 지연 L(207)로 부터 결정되고, 상기 피치 이득 β(209)과 곱해진 결과가 상기 엑사이테이션 소스 ex(n)(212)에 가산됨으로써 피치 필터 출력 p(n) 214가 형성된다. 상기 피치 필터(215)의 출력 p(n) 214는 적응 코드북(207)의 상태에 영향을 미치고, LPC 포르만트 필터(213)에 공급되고 그 출력은 포스트 필터(219)에 의해 필터링되어 합성된 음성 출력의 지각처리 음질이 개선될 수 있다.
도 3은 적용에 따라 프레임 길이가 10ms-40ms가 될 수도 있는 음성 샘플s(n)의 프레임에 입각하여 수행되는, 도 1에서 블록 103으로 도시된 LPC 파라미터의 분석과정을 나타낸 상세도이다. 10번째의 LPC 필터용으로서 전형적으로 11개의 자기상관 함수인 자기상관 함수(301)는 적용에 따라 윈도우 함수가 대칭 또는 비대칭이 될 수도 있는 윈도윙된 음성 샘플로 부터 계산된다.
LPC 예측 계수(303)는 음성 부호화 분야에서 잘 알려진 Durbin의 재귀 알고리즘(recursion algorithm)에 의해 자기상관 함수로 부터 계산된다. 최종적인 LPC 예측 계수는 대역폭 확대(305)를 위해 스케일링된 다음에, LSP 주파구(307)로 변환된다. 인접 프레임의 LSP 파라미터들은 크게 상관되기 때문에, LSP 파라미터의 높은 부호화 효율성은 도 5에 도시된 이동평균 예측에 의해 얻어진다. LSP 잔류 주파수들은 적용에 따라 분리 벡터를 형성할 수도 있다. SVQ(분리 벡터 양자화)(309)로 부터 유도된 LSP 인덱스(311)는 디코더에 전송되어 디코딩된 LSP가 생성된다. 마지막으로, 상기 LSP는 보간되고, LSC 예측 계수{ai}로 변환되고(313), 이것은 LPC 포르만트 필터링과 피치 파라미터 및 코드북 파라미터 분석을 위해 사용된다.
도 4는 BI-CELP 인코더용의 윈도우 및 프레임 구조를 도시한 것이다. LL 음성 샘플의 분석 윈도우는 40개의 음성 샘플로 이루어진 제 1 서브 프레임(401)과 40개의 음성 샘플로 이루어진 제 2 서브 프레임(402)로 구성된다. 피치 필터 및 코드북의 파라미터는 각 서브 프레임 401 및 402에 대해서 계산된다. LSP 파라미터들은 LT 음성 샘플의 음성 세그먼트(403)의 LSP 윈도우, 서브 프레임 401 및 402 및 LA 음성 샘플의 음성 세그먼트(404)로 부터 계산된다. 윈도우 크기 LA 및 LT는 적용에 따라 선택될 수 있다. 음성 세그먼트 403 및 404용의 윈도우 크기는 BI-CELP 인코더에서 40개의 음성 샘플로 설정된다. 개방 루프 피치는 LP 음성 샘플의 음성 세그먼트(405)의 개방 루프 피치분석 윈도우 및 LSP 윈도우로 부터 계산된다. 파라미터 LP는 BI-CELP 인코더용의 80개의 음성 샘플로 설정된다.
도 5는 LSP 파라미터를 양자화시키고 LSP 송신코드 LSPTC(501)를 얻기 위한 절차를 도시한 것이다. 상기 절차는 다음과 같이 수행된다:
* 10개의 LSPs wi(n)(502)는 4개의 로우 LSPs와 하이 LSPs, 즉 (w1,w2,w3,w4)및 (w5,w6,...,w10)으로 분리된다.
* 평균값 Biasi(503)는 제거되어 제로 평균 변수 fi(n)(504), 즉, fi(n)=wi(n)-Biasi, i=1,...,10.
* LSP 잔류 δi(n)(505)는 MA(이동 평균) 예측자(506)및 퀀타이저(507)로 부터 다음과 같이 계산된다.
* 평균값 및 예측자 계수는 트레이닝 음성 샘플의 큰용량의 데이터 베이스로 부터 적용에 따라 이미 공지된 벡터 양자화 기술에 의해 얻어질 수 있다.
* LSP 잔류 벡터 δi(n)(505)는 다음과 같은 두개의 벡터로 분리된다.
* 가중 평균 제곱 오차(WMSE)왜곡 기준은 최소 WMSE를 갖는 코드벡터인 최소 코드벡터 X의 선택을 위해 사용된다. 입력과 양자화 벡터간의 WMSE는 다음과 같이 정의된다.
여기서, W는 x에 좌우되는 대각선 가중 매트릭스이다. i-번째 LSP 파라미터에 대한 대각선 무게는 다음식에 의해 주어진다.
여기서, xi는 xo=0.0 및 x11=0.5를 갖는 i번째 LSP 파라미터임.
* δl및 δh에 대한 양자화 벡터 테이블은 트레이닝 음성 샘플의 큰용량의 데이터 베이스로 부터 적용에 따라 이미 공지된 벡터 양자화 기술에 의해 얻어질수 있다.
* 대응 벡터 양자화 테이블의 최적 코드벡터의 인덱스는 LSP 입력 코드벡터에 대한 송신 코드 LSPTC(501)로서 선택된다. LSP 파라미터의 양자화를 위해 두개의 입력 코드벡터가 존재하고, LSP 파라미터의 디코딩을 위해 두개의 송신 코드가 생성된다.
* 퀀타이저 출력는 송신측의 도 6에 도시된 LSP 주파수(601)를 발생시키는데 사용된다.
도 6은 채널네에 비트 에러가 유입되지 않는 경우, 상기 LSPTC(501)과 동일하게될 수신 LSP 송신 코드 LSPTC(602)로 부터 LSP 파라미터를 디코딩하는데 사용되는 과정을 도시한 것으로서, 그 일련의 과정은 다음과 수행된다:
* 두개의 LSPTCs(하나는 로우 LSP 잔류용이고, 다른 하나는 하이 LSP 잔류용임)는 디퀀타이저(Dequantizer)(603)에 의해 소양자화(消量子化)되어 SLP 잔류치가 생성된다.
* 제로 평균 LSP은 상기 소양자화된 LSP 잔류치및 예측자(605)로 부터 다음과 같이 계산된다:
* 마지막으로, LSP 주파수는 제로 평균 LSP및 Biasi(607)로 부터 다음과 같이 얻어진다:
* 디코딩된 LSP 주파수은 LPC 예측 계수로 변환되기전에 안정성을 보장하기 위해 체크된다. 이러한 안정성은 LSP 주파수가 적절히 배열될 경우, 즉 LSP 주파수가 인덱스의 증가와 함께 증가하는 경우에 보장된다. 만약, 상기 디코딩된 LSP 주파수가 순서가 엉망인 경우, 안정성을 보장하기 위해 정렬(Sorting)작업이 수행된다. 또한, LSP 주파수는 LPC 포르만트 분석 필터에서 큰 규모의 피크를 방지하도록 최소 8㎐ 이격되게 한다.
* 디코딩된 LSP 주파수은 보간처리되어 피치 파라미터 및 코드북 파라미터 분석과 LPC 포르만트 필터링에 사용될 LPC 예측 계수 {ai}로 변화된다.
도 7은 피치 필터의 파라미터를 구하는 방법을 나타낸 상세 절차도이다. 이 방법에서, 피치 필터 파라미터는 개방-루프 분석에 의해 추출된다. LPC 포르만트필터 1/A(z)(701)의 제로 입력 응답은 입력 음성 s(n)(102)에서 감산되어 지각처리가중 필터 W(z)(707)용의 입력 신호 e(n)(705)를 형성한다. 상기 지각처리 가중 필터 W(z)는 두개의 필터, 즉 LPC 역 필터 A(z)과 가중 LPC 필터(여기서,는 가중 필터 상수이고 전형적인의 값은 0.8임)로 구성된다. 상기 지각처리 가중 필터의 출력은 피치 필터 파라미터용의 표적 신호로 지칭되는 x(n)(709)로 표시된다.
적응 코드북 출력 PL(n)(711)은 적응 코드북으로 지칭되는 피치 필터의 장기 필터 상태(715)로 부터 피치 지연 L(713)에 따라 발생된다. β(717)에 의해 조절되는 이득을 갖는 적응 코드북 출력신호는 가중 LPC필터(719)로 공급되어 βyL(n)(721)를 발생시킨다. 표적 신호x(n)과 가중 LPC필터 βyL(n)간의 평균 제곱 오차(723)는 모든 가능한 L및 β값에 대해 계산된다. 최소평균 제곱오차를 산출한 피치 필터 파라미터가 선택된다. 선택된 피치 필터 파라미터(피치 지연 L및 피치 이득β)는 인코더(727)에 의해 부호화되고, 디코더로 전송되어 디코딩된 피치 필터 파라미터를 생성한다.
부분적인 피치 기간을 포함하는 모든 피치 지연에 대한 피치 파라미터의 서치루틴은 실질적인 계산을 포함한다. 최적의 장기 지연은 통상적으로 실제 피치 기간정도로 변화한다. 피치 필터 파라미터의 서치를 위한 계산을 줄이기 위해, 개방-루프 피치 기간(정수 피치기간)은 도 4에 도시된 윈도윙 신호를 이용하여 서치된다. 피치 파라미터에 대한 실질적인 서치는 개방 루프 피치기간 정도로 제한된다.
개방-루프 피치기간은 입력 음성신호 s(n)(102)로 부터 직접 추출되고, LPC예측 오차신호(A(z)의 출력)로 부터 추출될 수 있다. 상기 LPC 예측 오차신호로 부터의 피치 추출은 피치 엑사이테이션 소스가 사람음성 재생시스템의 프로세스에서 음성 트랙에 의해 형성되기 때문에, 음성 신호로 부터 피치 추출에 비해 유리하다. 사실상, 피치 기간은 주로 가장 말로 잘 표현된 음성을 위한 최초 두개의 포르만트에 의해 분포된다(여기서, 상기 포맷은 LPC 예측 오차신호에서 제거됨).
도 8은 엑사이테이션 함수의 생성을 위한 코드북 파라미터를 추출하는데 사용되는 일련의 과정을 나타낸 블록도이다. BI-CELP 코더는 하나는 베이스라인 코드북으로 부터 유도되고, 다른 하나는 암시 코드북으로 부터 유도되는 두개의 엑사이테이션 코드벡터를 이용한다. 만약, 상기 베이스라인 코드벡터가 펄스 코드북으로 부터 선택되면, 암시 코드벡터는 랜덤 코드북으로 부터 선택되어야 한다. 이와는 달리, 만약, 상기 베이스라인 코드벡터가 랜덤 코드북으로 부터 선택되면, 상기 암시 코드벡터는 펄스 코드북으로 부터 선택되어야 한다. 이러한 양자택일적인 선택 과정은 도 10에 도시되고 설명된다. 이러한 방식으로, 엑사이테이션 함수는 항상 펄스 및 랜덤 코드벡터로 구성된다.
상기 코드벡터 및 이득을 선택하는 방법은 피치 필터 파라미터의 서치 과정에 사용되는 방법과 유사한 분석-합성 기술이다.
피치 필터 1/P(z)(801)의 제로 입력 응답은 LPC 필터(831)에 공급되고, 상기 필터(831)의 출력은 입력 음성 s(n)(102)으로 부터 감산되어 지각처리 가중 필터 W(z)(807)용의 입력 신호 e(n)(805)를 형성한다. 이러한 지각처리 가중 필터 W(z)는 두개의 필터, 즉 LPC 역 필터 A(z) 및 가중 LPC 필터(여기서,는 가중 필터 상수이고, 전형적인의 값은 0.8임)로 구성된다. 지각처리 가중 필터의 출력은 코드북 파라미터용의 표적 신호로 지치되는 x(n)(809)으로 표시된다.
암시 코드북 출력 rJ(n)(811)은 암시 코드북(815)으로 부터 유도된 코드북 인덱스 J(813)에 따라 발생된다. 이와 마찬가지로, 베이스라인 코드북 출력 pl(n)(812)는 베이스라인 코드북(816)으로 부터 유도된 코드북 인덱스 I(814)에 따라 발생된다. 각각 Gr및 GP에 의해 조절되는 이득을 갖는 이들 코드북 출력 rJ(n) 및 pl(n)는 합산되어 엑사이테이션 함수 ex(n)(829)를 생성하여 가중 LPC 포르만트 필터(819)에 공급되어 필터 출력 y(n)(821)을 생성한다. 표적 신호 x(n)(809)와 가중 LPC 필터 출력 y(n)(821)간의 평균제곱 오차(825)를 산출하는 이들 선택된 파라미터(I,GP및 Gr)는 인코더(827)에 의해 송신용으로 부호화된 다음, 일 프레임의 지연을 필요로 할 수도 있는 합성기용으로 프레임당 한번 디코딩된다.
도 9를 참조하면, 전형적인 BI-CELP 구성을 위한 10ms의 프레임(905)에는 두개의 코드북 서브 프레임 901및 902이 형성된다. 상기 코드북 서브 프레임 901은 2.5ms의 두개의 절반 서브 프레임 907 및 909으로 구성되고, 상기 코드북 서브 프레임 903은 역시 2,5ms의 두개의 절반 서브 프레임 911 및 913으로 구성된다.
도 10을 참조하면, 각 절반-서브 프레임동안에, 두개의 코드벡터, 즉 베이스 라인 코드북으로 부터 유도된 코드벡터와 암시 코드북으로 부터 유도된 코드벡터가 발생된다. 또한, 상기 베이스라인 코드북 및 암시 코드북은 펄스 코드북과 랜덤 코드북으로 구성된다. 각각의 펄스 코드북과 랜덤 코드북은 일련의 코드벡터를 포함한다. 만약, 베이스라인 코드벡터가 펄스 코드북(1001)으로 부터 선택되면, 암시 코드벡터는 랜덤 코드북(1003)으로 부터 선택된다. 이와는 달리, 만약, 상기 베이스라인 코드벡터가 랜덤 코드북(1005)으로 부터 선택되면, 상기 암시 코드벡터는 펄스 코드북(1007)으로 부터 선택된다.
도 11은 송신기측의 음성 디코더(합성기)의 구성을 나타낸 블록도이고, 도 12는 수신기측의 음성 디코더(합성기)의 구성을 나타낸 블록도이다. 음성 디코더는 송신기측과 수신기측에서 사용된다. 송신기의 디코딩 과정은 만약 데이터 전송중에 유입되는 채널 오류가 없는 경우에는 수신기의 디코딩 과정과 동일하다. 또한, 송신기측의 음성 디코더는 채널을 통한 관련 전송이 없기 때문에, 수신기측의 음성 디코더보다 구성이 더 간단해 질 수 있다.
도 11 및 12를 참조하면, 상기 디코더용의 파라미터들(LPC 파라미터, 피치필터 파라미터, 코드북 파라미터)은 도 2에 도시된 것과 동일한 방식으로 디코딩된다. 정해진 코드북 벡터 ex(n)(1101)은 두개의 정해진 코드벡터, 즉 베이스라인 코드북으로 부터 유도된 코드벡터이며 이득 GP에 정해진 pl(n)(1103)와 암시 코드북으로 부터 유도된 코드벡터이며 이득 Gr에 정해진 rJ(n)(1107)으로 부터 발생된다. 코드북 서브 프레임당 두개의 절반 서브 프레임이 존재하기 때문에, 두개의 정해진 코드벡터, 즉 하나는 전반부 서브 프레임용으로, 다른 하나는 후반부 서브 프레임용으로 발생된다. 코드북 이득은 표적 신호와 평가 신호간의 평균제곱 오차를 최적화하기 위해 전개되는 벡터 양자화 테이블로 부터 양자화된 벡터이다.
송신기 및 수신기의 음성 코덱은 동일하게 피치 필터(1110)의 출력을 발생시킨다. 상기 피치필터의 출력 pd(n)은 LPC 포르만트 필터(1113)에 공급되어 LPC 합성 음성 yd(n)(1115)을 생성한다.
상기 LPC 포르만트 필터(1113)의 출력 yd(n)(1115)은 동일하게 보간된 LPC 예측 계수를 이용하여 송신 및 수신측 음성 코덱에서 발생된다. 이들 LPC 예측 계수는 각 코드북 서브 프레임에 대해 보간된 LSP 주파수로부터 변환된다. 송신 음성 코덱 및 수신 음성 코덱의 LPC 필터 출력은 각각 도 11및 도 12에 도시된 피치 필터 출력으로부터 발생된다. 최종 필터 상태는 송신기에서 피치 및 코드북 파라미터의 서치시에 사용하기 위해 저장된다. 가중 필터(1117)의 필터 상태는 입력 음성 신호 s(n) 및 LPC 필터 출력 yd(n)으로부터 계산되고, 다음번 프레임의 적용에 따라 제로로 저장되거나 초기화될 수도 있다. 가중 필터의 출력은 송신기측에서 사용되지 않기 때문에, 상기 가중 필터의 출력은 도11에 도시되지 않는다. 수신기측의 포스트 필터(1201)는 LPC 포르만트 필터 출력 yd(n)의 지각처리 음질을 향상시키는데 사용될 수도 있다.
도 13을 참조하면, 도 12의 포스트 필터(1201)는 출력 음성의 지각처리 음질을 향상시키기 위한 BI-CELP 음성 코덱에서의 선택으로서 사용될 수도 있다. 포스트 필터 계수는 매 프레임마다 갱신된다. 도 13에 도시된 바와 같이, 포스트 필터는 두개의 필터, 즉 적응 포스트 필터 및 하이패스 필터(1303)로 구성된댜. 이러한 방법에서, 적응 필터는 직렬연결된 3개의 필터, 즉 단기 포스트필터 Hs(Z)(1305), 피치 포스트 필터 Hpit(Z)(1307)및 틸트 보상 필터(tilt compensation filter) Ht(Z)(1309)(적응 이득 제어기(1311)에 연결됨)로 구성된다.
적응 포스트 필터의 입력 yd(n)(1115)는 제로 필터 A(z/p)(1313)에 의해 역필터링되어 잔류 신호 r(n)(1315)를 생성한다. 이들 잔류신호는 피치 포스트 필터용의 피치지연 및 이득을 계산하는데 사용된다. 이때, 상기 잔류신호 r(n)는 피치 포스트 필터 Hpit(Z)(1307) 및 전체-극 필터(all-pole filter) 1/A(z/s)(1317)를 통해 필터링된다. 상기 전체-극 필터 1/A(z/s)(1317)의 출력은 상기 틸트 보상 필터 Ht(Z)(1309)공급되어 포스트 필터링 음성 st(n)(1319)를 생성한다. 상기 틸트 필터의 출력 st(n)은 상기 적응 포스트 필터의 입력 yd(n)의 에너지와 일치하도록 상기 이득 제어기(1311)에 의해 제어된 이득이다. 이득 조절 신호 sc(n)(1312)는 상기 하이패스 필터(1303)에 의해 고주파수 대역에서 필터링되어 지각할 정도로 향상된 음성 sd(n)(1321)을 생성한다.
도 8을 참조하면, 가중 LPC 포르만트 필터(819)의 엑사이테이션 소스 ex(n)는 두개의 코드벡터, 즉 베이스라인 코드북으로부터 유도된 Gp,Pl(n) 818 및 812과, 각 절반 서브 프레임용의 암시 코드북으로부터 유도된 Gr, rJ(n) 817 및 811로 구성된다. 따라서, 도 9를 참조하면, 5ms의 코드북 서브 프레임(901 또는 903)에 대한 엑사이테이션 함수는 다음과 같이 표현될 수 있다;
ex(n)=Gp1P11(n)+Gr1rj1(n), 0≤n≤(Nn-1)인 경우, ......(8)
Gp2P12(n)+Gr2rj2(n), 20≤n≤39인 경우,
여기서, Nn는 20이고, Pi1(n) 및 rj1(n)은 각각 전반부 서브 프레임경우의 i1-번째 베이스라인 코드벡터 및 j1-번째 암시 코드벡터이고, Pi2(n) 및 rj2(n)은 각각 후반부 서브 프레임경우의 i2-번째 베이스라인 코드벡터 및 j2-번째 암시 코드벡터이다. 이득 Gp1및 Gr1은 각각 베이스라인 코드벡터 Pi1(n)및 암시 코드벡터 rj1(n)를 위한 것이다. 이득 Gpt및 Gr2은 각각 베이스라인 코드벡터 Pi2(n)및 암시 코드벡터 rj2(n)를 위한 것이다. 인덱스 i1및 i2는 6비트를 이용하여 특정화될 수 있는 1내지 64범위에 존재하는 베이스라인 코드벡터용이다. 인덱스 j1및 j2는 암시 코드벡터용이다. 도 10을 참조하면, j1 및 j2 값은 선택된 암시코드북에 따라 변할 수 있다. 즉, 상기 j1 및 j2 값은 만약 암시 펄스 코드북(1007)으로부터 선택되면 1내지 20범위내에 있고, 암시 랜덤 코드북(1003)으로부터 선택되면 1내지 44범위내에 있게 된다. 상기 펄스 코드북은 표 1에 도시된 바와 같이 20펄스 코드벡터로 구성되고, 상기 랜덤 코드북은 가우스 수 발생기로부터 발생된 44 코드벡터로 구성된다.
인덱스 i1 및 j2는 코드북 서브 프레임당 12비트를 각각 필요로 하는 6비트를 이용하여 양자화되는 반면, 4개의 코드북 이득은 10비트를 이용하여 벡터 양자화된다.
표 1.
펄스 코드북의 펄스 위치 및 진폭
도 8을 참조하면, 지각 가중 필터(807)의 전이 함수는 피치 파라미터의 서치과정에 사용되는 것과 동일하다. 즉,
여기서, A(z)는 LPC 예측 필터이고,는 0.8이다. 상기 지각 가중필터에서 사용되는 LPC 예측 계수는 현재 코드북 서브 프레임에 대한 계수이다. 음성 인코더에서 사용되는 합성 필터는 다음과 같은 진이 함수를 갖는 가중 분석 필터(819)로 지칭된다;
가중 합성 음성은 피치 필터 및 가중 LPC 포르만트 필터에 의해 필터링된 코드북의 출력이다. 가중 합성 필터 및 피치 필터는 각 서브 프레임의 시작부에서 상기 필터들과 연관된 필터 상태를 갖는다. 서브 프레임 파라미터 결정으로부터 상기 피치필터 및 가중 분석 필터의 초기상태의 영향을 제거하기 위해, 상기 LPC 포르만트 필터(831)에 의해 필터링된 상기 피치필터(801)의 제로 입력 응답이 계산되어 입력 음성 신호 s(n)(102)로부터 감산되고, 가중 필터 W(z)(807)에 의해 필터링된다. 상기 가중 필터 W(z)의 출력은 도 8에 도시된 표적 신호 x(n)(809)이다.
코드북 파라미터는 방적식 (8)에서 규정된 엑사이테이션 소스로 인한 표적신호(809)와 가중 합성필터의 출력(821)간의 평균제곱 오차를 최소화하기 위해 선택된다. 비록, 상기 표적신호의 통계가 입력 음성신호 및 코더 구조의 통계에 좌우된다 하더라도, 이러한 표적신호 x(n)는 다음과 같이 rms 평가에 의해 정규화된다;
여기서, 정규화 상수σx는 합성 음성의 이전의 rms값으로부터 평가된다.
상기 이전의 코드북 서브 프레임에서의 합성음성의 rms값은 다음과 같이 표현될 수 있다;
여기서, 도 11 및 도 12에 도시된 {Pd(n)}은 이전의 코드북 서브 프레임의 피치필터의 출력이고, m은 서브 프레임 번호이다.
이들 rms값을 dB 스케일로 변환하면, 다음과 같은 식을 얻을 수 있다;
dB 스케일에서의 서브 프레임 m의 정규화 상수 σx(m)는 다음과 같이 평가된다;
여기서,
이렇게 평가된 정규화 상수는 다음과 같이 수정된다;
인 경우,
rd(m)의 값은 송신기 및 수신기의 프로세서간의 동기화를 위해 가장 근사한 소수점 둘째자리까지 반올림된다. 따라서, 서브 프레임 m의 정규화 상수는 다음과 같이 표현된다;
방정식 (8)의 코드북 이득 역시 σx(m)에 의해 정규화되기 때문에, 실제 엑사이테이션 소스에 σx(m)를 곱한다. 이러한 방식으로, 코드북 이득의 동적 범위가 감소함으로써, 상기 코드북 이득을 위한 벡터 퀀타이저의 부호화 이득이 증가한다.
방정식(8)의 코드북 파라미터는 다음과 같은 3가지 단계로 서치되고 선택된다;
(1) 암시 코드벡터는 전반부 코드북 서브 프레임 및 후반부 코드북 서브 프레임을 위해 확인된다.
(2) 코드북 인덱스(베이스라인 코드북 인덱스 및 암시 코드북 인덱스)의 K 세트는 상기 전반부 코드북 서브 프레임에 대해 서치되고, 코드북 인덱스의 L세트는 상기 후반부 코드북 서브 프레임에 대해 서치된다.
(3) 한 세트의 코드북 파라미터는 상기 단계(2)의 K× L 후보로 선택된다.
전형적인 BI-CELP 수행이 예로서, 변수 K 및 L은 각각 양호한 음질을 갖는 3 및 2가 되도록 선택된다.
단계 1 : 암시 코드북 인덱스의 계산과정.
암시 코드벡터의 선택은 베이스라인 코드벡터의 선택에 좌우된다. 즉, 암시 코드벡터는 만약, 베이스라인 코드벡터가 랜덤 코드북으로부터 선택되는 경우 펄스 코드북으로부터 선택되어야 하고, 암시 랜덤 코드벡터는 만약, 베이스라인 코드벡터가 펄스 코드북으로부터 선택되는 경우 랜덤 코드북으로부터 선택되어야 한다. 상기 베이스라인 코드벡터는 이러한 단계에서는 선택되지 않기 때문에, 암시 코드벡터의 두개의 가능한 후보가 모든 절반 코드북 서브 프레임, 즉 하나는 펄스 코드북으로부터 다른 하나는 랜덤 코드북으로부터의 서브프레임에 대해 서치된다.
도 1,2,11 및 12를 참조하면, 피치기간지연을 갖는 합성 음성과 LPC 포르만트 필터출력사이에서 암시 코드벡터로부터의 엑사이테이션으로 인한 평균 제곱오차를 치소화하는 암시 코드벡터가 선택된다. 따라서, 피치 지연신호(피치기간 지연을 갖는 합성음성) pd(n)은 현재 코드북 서브 프레임에 대해 다음과 같이 계산된다;
여기서, τ는 피치지연이고, yd(n)(1115)은 상기 LPC 포르만트 필터(1113)의 출력이다. 만약, 피치지연 τ이 아주 작은 수이면, 상기 피치지연 신호 pd(n)은 보간에 의해 얻어진다. 이러한 표적 신호는 상기 LPC 포르만트 필터에 의해 필터링된 피치필터의 제로입력 응답을 감산하여 수정된다. 즉,
여기서, pdzir(n)은 LPC 포르만트 필터 1/A(z)(1113)및 피치필터 1/P(z)(1110)의 제로입력 응답이다.
상기 전반부 서브 프레임용의 LPC 포르만트 필터의 제로상태 응답은 다음과 같이 계산된다.
여기서, xj(n)은 암시 코드북의 j-번째 코드벡터이고, hL(i)은 LPC 포르만트 필터 1/A(z)(1113)의 임펄스 응답이다. 제로상태 출력은 방정식(19)에 의해 근사치화될 수 있거나 모든 극필터에 의해 계산될 수도 있다.
두개의 암시 코드벡터 후보는 다음과 같은 평균제곱 오차를 최소화하는 상기 전반부 코드북 서브 프레임용으로 선택된다;
여기서, Gj는 j-번째 코드벡터, 즉 하나는 펄스 코드북으로부터의 암시 코드벡터(코드북 인덱스 jlp)이고, 다른 하나는 랜덤 코드북으로부터의 암시코드벡터(코드북 인덱스 jlr)의 이득이다.
이와 마찬가지로, 하나는 펄스 코드북으로부터의 암시 코드벡터(코드벡터 인덱스 j2p)이고, 다른 하나는 랜덤 코드북으로부터의 암시코드벡터(코드북 인덱스 jlr)의 이득이다.
이와 마찬가지로, 하나는 펄스 코드북으로부터의 암시 코드벡터(코드벡터 인덱스 j2p)이고, 다른 하나는 랜덤 코드북으로부터의 암시 코드벡터(코드북 인덱스 j2r)인 두개의 다른 암시 코드벡터가 다음과 같은 평균제곱 오차를 최소화하는 후반부 코드북 서브 프레임용으로 선택된다;
이러한 방식으로, 코드북 서브 프레임용의 4개의 암시 코드벡터가 코드북 파라미터의 서치용으로 마련된다.
단계 2 : 코드북 인덱스 세트의 계산과정.
베이스라인 코드북 인덱스 il로 인한 가중 LPC필터의 출력인 hpi(n) 및 암시 코드북 인덱스 jl로 인한 가중 LPC 합성 필터의 출력인 hrj(n)은 다음과 같이 정의된다.
여기서, {h(i)}, i=1,...,20은 방정식(10)의 가중 LPC 필터 H(z)의 임펄스 응답이다.
전체 최소제곱 오차 Emin은 다음과 같이 표현될 수 있다:
여기서,
이러한 최소평균 제곱오차 Emin는 주어진 코드북 인덱스 il 및 암시 코드북 인덱스 jl용으로 계산된다. 대응 최적 이득 Gpl및 Grl은 다음과 같이 표현될 수 있다:
암시 코드북 인덱스 j1p는 펄스 베이스라인 코드북 인덱스(il=1-20)용으로 사용되고, 암시 코드북 인덱스 j1r는 랜덤 베이스라인 코드북 인덱스(il:21-64)용으로 사용된다. K베이스라인 인덱스 {ilk} (k=l,k)는 방정식(24)의 최초 K의 가장 작은 평균제곱 오차를 제공하는 대응 암시 코드북 인덱스를 따라 선택된다.
후반부 코드북 서브 프레임용의 코드북 인덱스 선택은 전반부 코드북 서브 프레임용의 코드벡터 선택에 좌우된다. 즉, 상기 전반부 서브 프레임의 코드벡터로 인한 가중 LPC 필터의 제로 입력응답은 후반부 코드북 서브 프레임의 최적화를 위한 표적신호로부터 다음과 같이 감산되어야 한다:
여기서, Gpl및 Grl은 각각 방정식 30 및 방정식 31의 코드북 이득이고, hpl(n) 및 hrl(n)은 각각 방정식 22및 방정식 23의 제로 입력응답이다. 따라서, 새로운 표적 신호는 상기 전반부 코드북 서브 프레임용으로 선택된 코드벡터에 따라 상기 후반부 코드북 서브 프레임용으로 정의된다.
상기 전반부 코드북 서브 프레임에 대한 과정과 유사하게, 선택된 인덱스 ilk의 경우, L 베이스라인 인덱스 {i2l} (l=l,K)는 가장 작은 평균제곱 오차를 제공는 대응 암시 코드북 인덱스 j2(j2p 또는 j2r)를 따라 선택된다.
이 단계에서, 오직 코드북 인덱스의 K×L 후보 세트만이 확인되고, 인덱스 세트 및 코드북 이득의 최종 선택은 다음과 같은 단계에서 결정된다:
단계 3 : 코드북 파라미터의 선택과정.
최종 코드북 인덱스 및 코드북 이득은 (인덱스 K×L의 세트 및 모든 가능한 코드북 이득 세트중에서) 표적신호(전반부 서브 프레임의 코드벡터로 인한 제로입력 응답에 의해 수정되지 않는 표적신호)와 모든 가능한 엑사이테이션 소스로 인한 가중 LPC 포르만트 필터의 출력간의 가장 작은 평균제곱 오차에 따라 선택된다.
엑사이테이션 코드벡터로 인한 가중LPC 포르만트 필터의 출력은 다음과 같이 정의된다:
여기서, n∈[0,19] 이고, 코드벡터 pil(n), rjl(n)은 n20의 원도우외부의 제로인 것으로 가정한다. 또한, 후반부 서브 프레임용의 엑사이테이션 코드벡터로 인한 가중 합성 필터의 출력은 전반부 코드북 서브 프레임동안에 제로인 것으로 가정한다.
이들 방정식에서, 필터출력 hpl(n), hrl(n),hp2(n),hr2(n)은 유닛 이득을 갖는 엑사이테이션 코드벡터로 인한 가중 합성필터 출력이다.
코드북 서브 프레임용의 평균제곱 오차는 다음과 같이 표현될 수 있다:
필터응답 hp1(n), hr1(n), hp2(n), hr2(n)는 특정 세트의 코드북 인덱스용으로 공지되어 있기 때문에, 최소 평균 제곱오차는 이용가능한 코드북 이득 세트 {Gp1, Gr1, Gp2, Gr2}중에서 서치될 수 있다. 코드북 이득의 특성은 펄스 코드벡터 및 랜덤 코드벡터의 경우에 차이가 있기 때문에, 코드북 이득용의 벡터 양자화의 4개의 테이블은 베이스라인 코드벡터에 따라 평균제곱 오차의 계산을 위해 마련된다. 만약, 전반부 코드북 서브 프레임의 베이스라인 코드벡터가 펄스 코드북으로부터 유도되고, 후반부 코드북 서브 프레임의 베이스라인 코드벡터가 펄스 코드북으로부터 유도되는 경우, VQT-PP의 VQ 테이블은 방정식(37)이 평균 제곱 오차의 계산을 위해 사용된다. 이와 마찬가지로, 베이스라인 코드벡터의 시퀀스가 각각 (펄스, 랜덤), (랜덤, 펄스),(랜덤, 랜덤)인 경우에, VQT-PR, VQT-RP, VQT-RR의 VQ 테이블이 사용된다.
이들 코드북 이득 세트{Gp1, Gr1, Gp2, Gr2}는 방정식(37)의 평균제곱 오차를 최소화하기 위해 용량이 큰 데이터 베이스로부터 트레이닝된다. 상기 테이블의 메모리 크기 및 CPU 요건을 줄이기 위해, 코드북 이득의 정(+)의 세트만이 마련된다.
이러한 방식으로, VQ 테이블의 메모리 크기는 1/16로 줄어든다. 양자화된 이득의 부호비트는 CPU로드를 줄이기 위해 양자화되지 않는 이득 {Gp1, Gr1, Gp2, Gr2}로부터 복사된다.
보이싱 결정은 디코딩된 LSP 및 송신기 및 수신기에서의 5ms의 매 서브 프레임용의 피치이득으로부터 다음과 같이 이루어진다:
1. 로우 벡터의 평균 LSP는 프레임마다 다음과 같이 계산된다:
2. 보이싱(nv=1:음성화, nv=0:비음성화)결정은 평균 LSP및 피치이득으로 부터 이루어진다. 즉,
또는
만약, 상기 보이싱 결정이 비음성화, 즉 nv=0인 경우, 암시 코드북용의 표적 신호는 다음과 같은 식으로 대체된다:
pd(n)=h(n)-1.0, n=1,...,19인 경우,
pd(n)=h(n-20)2-1.0, n=20,21,...,39인 경우, .....(41)
보이싱 결정으로 B1-CELP에 대해 두가지 장점이 제공된다. 즉, 그 첫번째는 암시 코드북의 존재가 피치관련 고조파를 재생하는데 더 이상 필요하지 않기 때문에, 침묵 또는 비음성화된 음성 세그먼트중에 지각될 정도의 변조된 배경 잡음 레벨을 감소시킬 수 있는 장점이 있고, 두번째로는, 채널 오류 또는 프레임 삭제하에서 BI-CELP 성능의 감도를 감소시킬 수 있는 장점이 있다. 이러한 장점들은 암시 코드북의 피드백 루프는 비음성화 세그먼트중에 제거되기 때문에, 송신기 프로그램 및 수신기 프로그램의 필터 상태가 동기화될 것이라는 사실에 근거한다.
단일 톤은 송신기 및 수신기의 디코딩된 LSPs로부터 검출될 수 있다. 시스템의 안정성을 체크하는 과정중에, 단일 톤은 만약, LSP분포가 두번 인접하게 수정되는 경우에 검출된다. 이 경우, 암시 코드벡터용의 표적신호는 비음성화 세그먼트의 경우에 설명된 신호로 대체된다.
도 13에 도시된 포스트 필터를 참조하면, 단기 포스트 필터(1305)의 전이 함수는 다음과 같이 정의된다.
여기서, A(z)는 예측 필터이고, p=0.55, s=0.80이다. 이 단기 필터는 두개의 필터, 즉 제로 필터 A(z/p)(1313)과 극 필터 1/A(z/s)(1317)로 분리된다. 상기 제로필터 A(z/p)의 출력은 처음에는 상기 극 필터 1/A(z/s)의 전단에 위치한 피치 포스트 필터(1307)에 공급된다.
상기 피치 포스트 필터(1307)은 다음과 같이 제 1 순서 제로 필터로서 모델링된다:
여기서, Tc는 현재 서브 프레임에 대한 피치 지연이고, gpit는 피치 이득이다. 상수 인자 γp는 피치 고조파의 양을 제어한다. 이러한 피치 포스트 필터는 지속적인 피치기간의 서브 프레임(즉, 정지 서브 프레임)을 위해 활성화된다. 만약, 포스트 피치 기간의 변화율이 10%이상이면, 상기 피치 포스트 필터는 제거된다.
즉,
여기서, pv는 피치 변화 인덱스이고, Tp는 이전 서브 프레임의 피치 기간이다. 만약, 이 피치 기간의 변화율이 10%이내이면, 상기 피치이득 제어 파라미터 γp는 다음과 같이 계산된다:
여기서, 이 파라미터의 범위는 0.25내지 0.6이다. 피치 지연 및 피치 이득은 상기 제로 필터 A(z/p)(1313)를 통해 yd(n)(1115)를 필터링하여 얻어진 잔류신호 r(n)으로부터 계산된다. 즉,
피치 지연은 두가지의 패스 과정을 통해 계산된다. 그 첫번째는, 최상의 정수 피치기간 To는 범위(여기서, T1은 송신기로부터 수신된 피치지연이고,는 x보다 작거나 x와 같은 최대 정수를 제공하는 플로어 함수(floor funtion)임에서 선택된다. 최상의 정수 지연은 상관 관계를 최대화하는 지연이다. 즉,
두번째 패스 과정에서는 약 To의 1/4 해상도를 갖는 최상의 부분 피치지연 TC선택된다. 이것은 다음과 같은 최고의 의사-정규와 상관관계를 갖는 지연을 구함으로써 수행된다:
여기서, γk(n)은 지연 k의 잔류신호 r(n)이다. 일단, 최적 지연 Tc가 구해지면, 대응 상관관게 Rl(T)는 r(n)의 rms값으로 정규화된다. 이 정규화 상관관계의 제곱은 상기 피치 포스트 필터가 동작불능이 되어야 하는지의 여부를 판단하는데 이용되고, 이것은 다음과 조건에서 gpit=0으로 설정함으로써 수행된다:
만약, 그렇지 않으면, gpit의 값은 다음과 같은 식으로부터 계산된다:
피치 이득의 범위한계는 1이고, 피치 예측 이득이 0.5이하인 경우 0으로 설정된다. 부분 지연신호 rk(n)은 길이 8의 해밍 보간 윈도우(hamming interpolation window)를 사용하여 계산된다.
제 1 순서 제로필터 Hl(z)(1309)는 단기 포스터 필터 Hs(z)의 틸트를 보상하고, 다음식으로 주어진다:
여기서, γtkl 1는 틸트 인자이고, 다음과 같은 값으로 고정된다:
적응 이득제어는 LPC 포르만트 필터의 출력 yd(n)(1301) 및 틸트 필터의 출력 st(n)(1319)간의 이득 차를 보상하는데 이용된다. 우선, 입력 파워는 다음과 같은 식으로 측정된다:
그리고, 틸트 필터출력 파워는 다음과 같은 식으로 측정된다:
여기서, a의 값은 적용에 따라 변할 수도 있고, BI-CELP 코덱에서 0.01로 설정된다. 초기 파워값은 0으로 설정된다.
이득 인자는 다음과 같은 식으로서 정의된다:
따라서, 이득 제어기(1311)의 출력 sc(n)(1312)는 다음과 같이 표현될 수 있다:
방정식(55)의 이득은 제곱근의 CPU 집중계산을 필요로 하기 때문에, 이러한 이득 계산은 다음과 같이 대체된다.
else
여기서, δ(n)은 현재 샘플에 대한 작은 이득 조절이다. 실제 이득은 다음과 같이 계산된다:
여기서, g(0)는 1로 초기화되고, g(n)의 범위는 [0.8, 1.2]이다.
상기 이득 제어기의 출력 sc(n)은 100Hz의 차단 주파수로 상기 필터(1303)에 의해 고주파수 대역에서 필터링된다. 상기 필터의 전이함수는 다음식으로 주어진다:
하이패스 필터(1303)의 출력 sd(n)(1321)은 D/A 변환기로 공급되어 수신 아날로그 음성신호를 생성한다.
전술한 바와 같이, 본 발명에 의하면, 느린 데이터 속도의 고음질 합성음성을 생성하기 위한 CELP 코더용의 개선된 코드북이 제공되고, 실시간 실행을 위한 코드북 인덱스 및 코드북 이득의 보다 효율적인 서치 기술이 제공됨은 물론, 고음질의 음성을 생성하기 위한 코드북 이득용의 벡터 양자화 테이블을 발생시키는 방법이 제공된다.
지금까지, 특정 실시예와 관련하여 본 발명이 설명되었지만, 상기 본 발명에 대한 개시는 단지 본 발명의 적용예에 불과한 것이고, 본 발명을 수행하기 위한 최상 모드로서 본 명세서에 개시된 특정 실시예에 국한되는 것은 아니다.
또한, 하기 특허청구의 범위에 의해 마련되는 본 발명의 정신이나 분야를 일탈하지 않는 범위내에서 본 발명이 다양하게 개조 및 변경될 수 있다는 것을 당업계에서 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다.

Claims (15)

  1. 디지탈 음성압축 알고리즘(CELP)모델에 입각한 음성 부호화 방법에 있어서,
    (a) 송신국에서 음성을 이산 음성샘플로 분할하는 단계와;
    (b) 상기 이산 음성샘플을 디지털화하는 단계와;
    (c) 다수의 코드벡터를 각각 갖는 두개의 고정 코드북으로 부터 두개의 코드벡터의 조합을 선택하고, 다수의 코드북 이득벡터로 부터 두개의 코드북 이득벡터의 조합을 선택하여 혼합 엑사이테이션 함수를 형성하는 단계와;
    (d) 적응 코드북으로 부터 적응 코드벡터를 선택하고, 디지털화된 음성을 표현하도록 상기 혼합 엑사이테이션 함수와 조합하여 피치이득을 선택하는 단계와;
    (e) 상기 선택된 코드벡터중 하나와, 상기 선택된 코드북 이득벡터, 상기 적응 코드벡터와 상기 피치이득 중 두개를 디지털 데이터 스트림으로서 부호화하는 단계와;
    (f) 송신 수단을 이용하여 상기 디지털 데이터 스트림을 송신국에서 수신국으로 전송하는 단계와;
    (g) 상기 선택된 코드벡터, 상기 두개의 코드북 이득벡터, 상기 적응 코드벡터, 상기 피치이득 및 LPC 필터 파라미터를 재생하도록 상기 수신국에서 상기 디지털 데이터 스트림을 디코딩하는 단계와;
    (h) 상기 선택된 코드벡터, 상기 두개의 코드북 이득벡터, 상기 적응 코드벡터, 상기 피치이득 및 상기 LPC 필터 파라미터를 이용하여 상기 수신국에서 디지털화된 음성샘플을 재생하는 단계와;
    (i) 상기 디지털화된 음성 샘플을 상기 수신국에서 아날로그 음성샘플로 변환하는 단계와;
    (j) 부호화 음성을 재생하도록 일련의 아날로그 음성샘플들을 결합하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제 1항에 있어서, 상기 단계 (c)에서 두개의 고정 코드북으로부터 두개의 코드벡터의 조합을 선택하는 과정은 (a)상기 두개의 코드벡터의 조합중 첫번째 것을 다수의 펄스 코드벡터를 갖는 펄스 코드북으로 부터 선택하는 단계와; (b) 상기 두개의 코드벡터의 조합중 두번째 것을 다수의 랜덤 코드벡터를 갖는 랜덤 코드북으로부터 선택하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  3. 제 1 항에 있어서, 상기 단계 (c)에서 두개의 고정 코드북으로 부터 두개의 코드벡터의 조합을 선택하는 과정은 (a) 상기 두개의 코드벡터의 조합중 첫번째 것을 다수의 베이스라인 코드벡터를 갖는 베이스라인 코드북으로 부터 선택하는 단계와; (b) 상기 두개의 코드벡터의 조합중 두번째 것을 다수의 암시 코드벡터를 갖는 암시 코드북으로 부터 선택하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  4. 제 3 항에 있어서, 상기 방법은
    (a) 상기 베이스라인 코드벡터가 상기 펄스 코드북으로 부터 선택되는 경우, 상기 베이스라인 코드북과 상기 암시 코드북내에 존재하는 랜덤 코드북으로 부터 상기 암시 코드벡터를 선택하는 단계와;
    (b) 상기 베이스라인 코드벡터가 상기 랜덤 코드북으로 부터 선택되는 경우, 상기 베이스라인 코드북과 상기 암시 코드북내에 존재하는 펄스 코드북으로 부터 상기 암시 코드벡터를 선택하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  5. 제 1 항에 있어서, 상기 방법은
    (a) 상기 다수의 코드벡터를 코드북 인덱스로 표현하는 단계와;
    (b) 상기 적응 코드벡터를 적응 코드북 인덱스로 표현하는 단계를 추가로 포함하고, 상기 인덱스 및 코드북 이득벡터는 상기 디지털 데이터 스트림으로서 부호화되는 것을 특징으로 하는 방법.
  6. 제 1 항에 있어서, 상기 방법은
    (a) 상기 고정 코드북중 적어도 하나에 대해 암시 코드북을 제공하는 단계를 추가로 포함하고, 상기 암시 코드북을 제공하는 단계는 (b)인코더 수단을 제공하는 단계와; (c) 디코더 수단을 제공하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  7. 제 6 항에 있어서, 상기 인코더 수단을 제공하는 단계는
    (a) 상기 음성을 고주파수 대역에서 필터링하는 단계와;
    (b) 상기 음성을 음성 프레임으로 분할하는 단계와;
    (c) 상기 음성 프레임의 자기상관 계산을 제공하는 단계와;
    (d) 선형 예측 부호화 분석을 이용하여 상기 음성 샘플로 부터 예측 계수를 발생시키는 단계와;
    (e) 상기 예측 계수의 대역폭을 확대하는 단계와;
    (f) 상기 대역폭이 확대된 예측 계수를 라인 스펙트럼쌍 주파수로 변환하는 단계와;
    (g) 상기 라인 스펙트럼쌍 주파수를 라인 스펙트럼쌍 잔류벡터로 변환하는 단계와;
    (h) 상기 라인 스펙트럼쌍 잔류벡터를 분할벡터 양자화하는 단계와;
    (i) 상기 라인 스펙트럼쌍 주파수를 디코딩하는 단계와;
    (j) 상기 라인 스펙트럼쌍 주파수를 보간하는 단계와;
    (k) 상기 라인 스펙트럼쌍 주파수를 라인 부호화 예측 계수로 변환하는 단계와;
    (l) 피치필터 파라미터를 상기 음성 프레임으로부터 추출하는 단계와;
    (m) 상기 피치필터 파라미터를 부호화하는 단계와;
    (n) 혼합된 엑사이테이션 함수 파라미터를 상기 베이스라인 코드벡터 및 암시 코드북으로 부터 추출하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  8. 제 7 항에 있어서, 상기 라인 스펙트럼쌍 잔류벡터를 분할벡터 양자화하는 단계는
    (a) 상기 라인 스펙트럼쌍 잔류벡터를 로우 그룹과 하이 그룹으로 분리하는 단계와;
    (b) 상기 라인 스펙트럼쌍 잔류벡터로 부터 바이어스를 제거하는 단계와;
    (c) 상기 각 라인 스펙트럼쌍 잔류벡터를 이동 평균 예측자 및 퀀타이저로 계산하는 단계와;
    (d) 라인 스펙트럼쌍 송신 코드를 상기 퀀타이저의 출력으로서 발생시키는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  9. 제 7 항에 있어서, 상기 라인 스펙트럼쌍 주파수를 디코딩하는 단계는
    (a) 상기 라인 스펙트럼쌍 잔류벡터를 소양자화(dequantizing)하는 단계와;
    (b) 제로평균 라인 스펙트럼쌍을 상기 소양자화된 라인 스펙트럼쌍 잔류벡터로 부터 계산하는 단계와;
    (c) 상기 라인 스펙트럼쌍 주파수를 형성하도록 상기 제로평균 라인 스펙트럼쌍에 바이어스를 가산하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  10. 제 7 항에 있어서, 상기 피치필터 파라미터를 상기 음성 프레임으로부터 추출하는 단계는
    (a) 제로입력 응답을 제공하는 단계와;
    (b) 지각처리 가중필터를 제공하는 단계와;
    (c) 상기 지각처리 가중필터에 입력을 형성하도록 상기 제로입력 응답을 상기 음성으로부터 감산하는 단계외;
    (d) 상기 지각처리 가중필터로 부터 출력을 추가로 포함하는 표적신호를 제공하는 단계와;
    (e) 가중 LPC 필터를 제공하는 단계와;
    (f) 상기 가중 LPC 필터에 입력을 형성하도록 상기 적응 이득에 의해 상기 적응 코드벡터를 조절하는 단계와;
    (g) 상기 가중 LPC 필터의 출력과 상기 표적신호간의 차이를 결정하는 단계와;
    (h) 적응 코드벡터와 적응 이득의 모든 가능한 조합에 대해 평균제곱 오차를 구하는 단계와;
    (i) 상기 피치필터 파리미터로서 최소 평균제곱 오차와 상관하는 상기 적응 코드벡터 및 적응 이득을 선택하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  11. 제 7 항에 있어서, 상기 혼합된 엑사이테이션 함수 파라미터를 추출하는 단계는
    (a) 지각처리 가중필터에 입력을 형성하도록 상기 음성으로 부터 피치필터의 제로입력 응답을 감산하는 단계와;
    (b) 상기 지각처리 가중필터의 출력을 포함하는 표적신호를 발생시키는 단계와;
    (c) 상기 혼합 엑사이테이션 함수를 형성하도록 상기 베이스라인 코드벡터를 상기 베이스라인 이득으로 조절하고, 상기 암시 코드벡터를 상기 암시 이득으로 조절하는 단계와;
    (d) 상기 혼합 엑사이테이션 함수를 가중 LPC 필터의 입력으로서 사용하는 단계와;
    (e) 상기 가중 LPC 필터의 출력과 상기 표적신호간의 차이를 결정하는 단계와;
    (f) 베이스라인 코드벡터, 베이스라인 이득, 암시 코드벡터 및 암시 이득의 모든 가능한 조합에 대해 평균제곱 오차를 구하는 단계와;
    (g) 상기 혼합 엑사이테이션 파라미터로서의 상기 최소평균 제곱오차에 기초하여 상기 베이스라인 코드벡터, 베이스라인 이득, 암시 코드벡터 및 암시 이득을 선택하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  12. 제 6 항에 있어서, 상기 디코더 수단을 제공하는 단계는
    (a) 상기 선택된 베이스라인 코드벡터 및 암시 코드벡터를 이용하여 상기 베이스라인 코드북 및 암시 코드북로부터 상기 혼합 엑사이테이션 함수를 발생시키는 단계와;
    (b) 상기 선택된 적응 코드벡터를 이용하여 상기 혼합 엑사이테이션 함수 및 적응 코드북으로 부터 선형예측 부호화 분석 필터에 입력을 발생시키는 단계와;
    (c) 상기 선형예측 부호화 분석 필터의 출력으로부터 암시 코드벡터를 계산하는 단계와;
    (d) 상기 계산된 피치필터 출력의 피드백을 상기 적응 코드북에 제공하는 단계와;
    (e) 상기 출력을 상기 선형예측 부호화 분석 필터로부터 포스트 필터링하는 단계와;
    (f) 상기 포스트 필터링된 출력으로부터 지각가능한 가중 음성을 발생시키는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  13. 제 1 항에 있어서, 상기 선택된 코드벡터중 하나와, 상기 선택된 코드북 이득벡터, 상기 적응 코드벡터와 상기 피치이득중 두개를 디지털 데이터 스트림으로서 부호화하는 단계는
    (a) 혼합 엑사이테이션 함수를 형성하도록 상기 베이스라인 코드벡터를 상기 베이스라인 이득에 의해 조절하고, 상기 암시 코드벡터를 상기 암시 이득에 의해 조절하는 단계와;
    (b) 상기 혼합 엑사이테이션 함수를 피치필터의 입력으로서 사용하는 단계와;
    (c) 상기 피치필터의 출력을 선형예측 부호화 분석필터의 입력으로서 사용하는 단계와;
    (d) 가중 필터에 입력을 형성하도록 상기 선형예측 부호화 분석필터의 출력을 상기 음성으로 부터 감산하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  14. 제 3 항에 있어서, 상기 선택된 코드벡터, 상기 두개의 코드북 이득벡터, 상기 적응 코드벡터, 상기 피치이득 및 상기 LPC 필터 파라미터를 이용하여 상기 수신국에서 디지털화된 음성샘플을 재생하는 단계는
    (a) 상기 혼합 엑사이테이션 함수를 형성하도록 상기 베이스라인 코드벡터를 상기 베이스라인 이득에 의해 조절하고, 상기 암시 코드벡터를 상기 암시 이득에 의해 조절하는 단계와;
    (b) 상기 혼합 엑사이테이션 함수를 피치필터의 입력으로서 사용하는 단계와;
    (c) 상기 피치필터의 출력을 LPC 필터의 입력으로서 사용하는 단계와;
    (d) 상기 LPC 필터의 출력을 포스트 필터링하는 단계와;
    (e) 상기 LPC 필터의 출력으로 부터 디지털화된 음성 샘플을 발생시키는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  15. 제 14 항에 있어서, 상기 LPC 필터의 출력을 포스트 필터링하는 단계는
    (a) 잔류신호를 생성하도록 상기 LPC 필터의 출력을 제로필터로 역 필터링하는 단계와;
    (b) 피치 포스트 필터로 상기 제로필터의 잔류 신호출력에 작용하는 단계와
    (c) 모든 극 필터로 상기 피치 포스트 필터의 출력에 작용하는 단계와;
    (d) 포스트 필터링된 음성을 발생하도록 틸트 보상 필터로 상기 모든 극 필터의 출력에 작용하는 단계와;
    (e) 상기 포스트필터의 에너지와 일치하도록 이득 제어기로 상기 틸트 보상 필터의 출력에 작용하는 단계와;
    (f) 지각가능할 정도로 개선된 음성을 발생하도록 하이패스 필터로 상기 이득 제어기의 출력에 작용하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
KR1019970053812A 1997-06-24 1997-10-20 디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법 KR100264863B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US8/883,019 1997-06-24
US08/883,019 US6073092A (en) 1997-06-26 1997-06-26 Method for speech coding based on a code excited linear prediction (CELP) model

Publications (2)

Publication Number Publication Date
KR19990006262A true KR19990006262A (ko) 1999-01-25
KR100264863B1 KR100264863B1 (ko) 2000-09-01

Family

ID=25381822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970053812A KR100264863B1 (ko) 1997-06-24 1997-10-20 디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법

Country Status (2)

Country Link
US (1) US6073092A (ko)
KR (1) KR100264863B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012044066A1 (ko) * 2010-09-28 2012-04-05 한국전자통신연구원 쉐이핑 함수를 이용한 오디오 신호 디코딩 방법 및 장치

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1085504B1 (en) * 1996-11-07 2002-05-29 Matsushita Electric Industrial Co., Ltd. CELP-Codec
US7392180B1 (en) * 1998-01-09 2008-06-24 At&T Corp. System and method of coding sound signals using sound enhancement
US6182033B1 (en) * 1998-01-09 2001-01-30 At&T Corp. Modular approach to speech enhancement with an application to speech coding
JP3252782B2 (ja) * 1998-01-13 2002-02-04 日本電気株式会社 モデム信号対応音声符号化復号化装置
US6470309B1 (en) * 1998-05-08 2002-10-22 Texas Instruments Incorporated Subframe-based correlation
TW376611B (en) * 1998-05-26 1999-12-11 Koninkl Philips Electronics Nv Transmission system with improved speech encoder
JP3998330B2 (ja) * 1998-06-08 2007-10-24 沖電気工業株式会社 符号化装置
US6249758B1 (en) * 1998-06-30 2001-06-19 Nortel Networks Limited Apparatus and method for coding speech signals by making use of voice/unvoiced characteristics of the speech signals
US6199040B1 (en) * 1998-07-27 2001-03-06 Motorola, Inc. System and method for communicating a perceptually encoded speech spectrum signal
US6449590B1 (en) 1998-08-24 2002-09-10 Conexant Systems, Inc. Speech encoder using warping in long term preprocessing
US6330533B2 (en) 1998-08-24 2001-12-11 Conexant Systems, Inc. Speech encoder adaptively applying pitch preprocessing with warping of target signal
US6385573B1 (en) * 1998-08-24 2002-05-07 Conexant Systems, Inc. Adaptive tilt compensation for synthesized speech residual
US6240386B1 (en) * 1998-08-24 2001-05-29 Conexant Systems, Inc. Speech codec employing noise classification for noise compensation
US6507814B1 (en) 1998-08-24 2003-01-14 Conexant Systems, Inc. Pitch determination using speech classification and prior pitch estimation
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6353808B1 (en) * 1998-10-22 2002-03-05 Sony Corporation Apparatus and method for encoding a signal as well as apparatus and method for decoding a signal
JP3180786B2 (ja) * 1998-11-27 2001-06-25 日本電気株式会社 音声符号化方法及び音声符号化装置
SE9903223L (sv) * 1999-09-09 2001-05-08 Ericsson Telefon Ab L M Förfarande och anordning i telekommunikationssystem
JP4005359B2 (ja) * 1999-09-14 2007-11-07 富士通株式会社 音声符号化及び音声復号化装置
US6738733B1 (en) * 1999-09-30 2004-05-18 Stmicroelectronics Asia Pacific Pte Ltd. G.723.1 audio encoder
US6704703B2 (en) * 2000-02-04 2004-03-09 Scansoft, Inc. Recursively excited linear prediction speech coder
AU2001253752A1 (en) * 2000-04-24 2001-11-07 Qualcomm Incorporated Method and apparatus for predictively quantizing voiced speech
US6842733B1 (en) 2000-09-15 2005-01-11 Mindspeed Technologies, Inc. Signal processing system for filtering spectral content of a signal for speech coding
US6850884B2 (en) * 2000-09-15 2005-02-01 Mindspeed Technologies, Inc. Selection of coding parameters based on spectral content of a speech signal
JP3636094B2 (ja) * 2001-05-07 2005-04-06 ソニー株式会社 信号符号化装置及び方法、並びに信号復号装置及び方法
US6785646B2 (en) * 2001-05-14 2004-08-31 Renesas Technology Corporation Method and system for performing a codebook search used in waveform coding
US6941263B2 (en) * 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US7110942B2 (en) * 2001-08-14 2006-09-19 Broadcom Corporation Efficient excitation quantization in a noise feedback coding system using correlation techniques
US7353168B2 (en) * 2001-10-03 2008-04-01 Broadcom Corporation Method and apparatus to eliminate discontinuities in adaptively filtered signals
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7206740B2 (en) * 2002-01-04 2007-04-17 Broadcom Corporation Efficient excitation quantization in noise feedback coding with general noise shaping
US6751587B2 (en) * 2002-01-04 2004-06-15 Broadcom Corporation Efficient excitation quantization in noise feedback coding with general noise shaping
US7529661B2 (en) * 2002-02-06 2009-05-05 Broadcom Corporation Pitch extraction methods and systems for speech coding using quadratically-interpolated and filtered peaks for multiple time lag extraction
US7236927B2 (en) * 2002-02-06 2007-06-26 Broadcom Corporation Pitch extraction methods and systems for speech coding using interpolation techniques
US7752037B2 (en) * 2002-02-06 2010-07-06 Broadcom Corporation Pitch extraction methods and systems for speech coding using sub-multiple time lag extraction
EP1383113A1 (fr) * 2002-07-17 2004-01-21 STMicroelectronics N.V. Procédé et dispositif d'encodage de la parole à bande élargie capable de contrôler indépendamment les distorsions à court terme et à long terme
US7337110B2 (en) * 2002-08-26 2008-02-26 Motorola, Inc. Structured VSELP codebook for low complexity search
JP4219898B2 (ja) * 2002-10-31 2009-02-04 富士通株式会社 音声強調装置
US7054807B2 (en) * 2002-11-08 2006-05-30 Motorola, Inc. Optimizing encoder for efficiently determining analysis-by-synthesis codebook-related parameters
US7047188B2 (en) * 2002-11-08 2006-05-16 Motorola, Inc. Method and apparatus for improvement coding of the subframe gain in a speech coding system
US7698132B2 (en) * 2002-12-17 2010-04-13 Qualcomm Incorporated Sub-sampled excitation waveform codebooks
CN101867522A (zh) 2004-08-30 2010-10-20 高通股份有限公司 用于语音ip传输的自适应去抖动缓冲器
US7860710B2 (en) * 2004-09-22 2010-12-28 Texas Instruments Incorporated Methods, devices and systems for improved codebook search for voice codecs
US8085678B2 (en) * 2004-10-13 2011-12-27 Qualcomm Incorporated Media (voice) playback (de-jitter) buffer adjustments based on air interface
DE102005000828A1 (de) * 2005-01-05 2006-07-13 Siemens Ag Verfahren zum Codieren eines analogen Signals
US8355907B2 (en) * 2005-03-11 2013-01-15 Qualcomm Incorporated Method and apparatus for phase matching frames in vocoders
US8155965B2 (en) * 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US7562021B2 (en) * 2005-07-15 2009-07-14 Microsoft Corporation Modification of codewords in dictionary used for efficient coding of digital media spectral data
US7571094B2 (en) * 2005-09-21 2009-08-04 Texas Instruments Incorporated Circuits, processes, devices and systems for codebook search reduction in speech coders
WO2009033288A1 (en) * 2007-09-11 2009-03-19 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
EP2192578A1 (en) * 2007-09-21 2010-06-02 Panasonic Corporation Communication terminal device, communication system, and communication method
JP5229234B2 (ja) * 2007-12-18 2013-07-03 富士通株式会社 非音声区間検出方法及び非音声区間検出装置
US20090319261A1 (en) * 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
US20090319263A1 (en) * 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
US8768690B2 (en) * 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
RU2445719C2 (ru) * 2010-04-21 2012-03-20 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Способ улучшения восприятия синтезированной речи при реализации процедуры анализа через синтез в вокодерах с линейным предсказанием
EP3079153B1 (en) * 2010-07-02 2018-08-01 Dolby International AB Audio decoding with selective post filtering
AU2016202478B2 (en) * 2010-07-02 2016-06-16 Dolby International Ab Pitch filter for audio signals and method for filtering an audio signal with a pitch filter
RU2445718C1 (ru) * 2010-08-31 2012-03-20 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Способ выделения сегментов обработки речи на основе анализа корреляционных зависимостей в речевом сигнале
US9082416B2 (en) * 2010-09-16 2015-07-14 Qualcomm Incorporated Estimating a pitch lag
CN102623012B (zh) * 2011-01-26 2014-08-20 华为技术有限公司 矢量联合编解码方法及编解码器
EP2737479B1 (en) * 2011-07-29 2017-01-18 Dts Llc Adaptive voice intelligibility enhancement
US9123328B2 (en) * 2012-09-26 2015-09-01 Google Technology Holdings LLC Apparatus and method for audio frame loss recovery
US9325544B2 (en) * 2012-10-31 2016-04-26 Csr Technology Inc. Packet-loss concealment for a degraded frame using replacement data from a non-degraded frame

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0751496B1 (en) * 1992-06-29 2000-04-19 Nippon Telegraph And Telephone Corporation Speech coding method and apparatus for the same
US5717824A (en) * 1992-08-07 1998-02-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear predictor with multiple codebook searches
US5664055A (en) * 1995-06-07 1997-09-02 Lucent Technologies Inc. CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012044066A1 (ko) * 2010-09-28 2012-04-05 한국전자통신연구원 쉐이핑 함수를 이용한 오디오 신호 디코딩 방법 및 장치

Also Published As

Publication number Publication date
KR100264863B1 (ko) 2000-09-01
US6073092A (en) 2000-06-06

Similar Documents

Publication Publication Date Title
KR100264863B1 (ko) 디지털 음성 압축 알고리즘에 입각한 음성 부호화 방법
US6260009B1 (en) CELP-based to CELP-based vocoder packet translation
CA1333425C (en) Communication system capable of improving a speech quality by classifying speech signals
US5293449A (en) Analysis-by-synthesis 2,4 kbps linear predictive speech codec
US5307441A (en) Wear-toll quality 4.8 kbps speech codec
US5138661A (en) Linear predictive codeword excited speech synthesizer
US6871176B2 (en) Phase excited linear prediction encoder
US6917914B2 (en) Voice over bandwidth constrained lines with mixed excitation linear prediction transcoding
Paksoy et al. A variable rate multimodal speech coder with gain-matched analysis-by-synthesis
JP3582589B2 (ja) 音声符号化装置及び音声復号化装置
WO2004090864A2 (en) Method and apparatus for the encoding and decoding of speech
US5692101A (en) Speech coding method and apparatus using mean squared error modifier for selected speech coder parameters using VSELP techniques
Özaydın et al. Matrix quantization and mixed excitation based linear predictive speech coding at very low bit rates
JPH05265496A (ja) 複数のコードブックを有する音声符号化方法
JPH07225599A (ja) 音声の符号化方法
JP3232701B2 (ja) 音声符号化方法
Ozawa et al. Low bit rate multi-pulse speech coder with natural speech quality
KR0155798B1 (ko) 음성신호 부호화 및 복호화 방법
JP3319396B2 (ja) 音声符号化装置ならびに音声符号化復号化装置
JP3232728B2 (ja) 音声符号化方法
Spanias Speech coding standards
Laurent et al. A robust 2400 bps subband LPC vocoder
Tseng An analysis-by-synthesis linear predictive model for narrowband speech coding
Tanaka et al. A multi-mode variable rate speech coder for CDMA cellular systems
Yeldener et al. Low bit rate speech coding at 1.2 and 2.4 kb/s

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130530

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140529

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee