KR100275054B1 - 음성코딩 장치 및 음성엔코딩방법 - Google Patents

음성코딩 장치 및 음성엔코딩방법 Download PDF

Info

Publication number
KR100275054B1
KR100275054B1 KR1019900012501A KR900012501A KR100275054B1 KR 100275054 B1 KR100275054 B1 KR 100275054B1 KR 1019900012501 A KR1019900012501 A KR 1019900012501A KR 900012501 A KR900012501 A KR 900012501A KR 100275054 B1 KR100275054 B1 KR 100275054B1
Authority
KR
South Korea
Prior art keywords
codebook
speech
entries
entry
signal
Prior art date
Application number
KR1019900012501A
Other languages
English (en)
Other versions
KR910005589A (ko
Inventor
제임스 물즈리 티모시
윌리암 엘리오트 페트릭
Original Assignee
요트.게.아. 롤페즈
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 요트.게.아. 롤페즈, 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 요트.게.아. 롤페즈
Publication of KR910005589A publication Critical patent/KR910005589A/ko
Application granted granted Critical
Publication of KR100275054B1 publication Critical patent/KR100275054B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms
    • G10L2019/0014Selection criteria for distances

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

코드 여기화된 선형 예측(CELP)의 음성 코딩 시스템은 지각적으로 가중화된 음성 샘플들을 형성하기 위해 디지털화된 음성 샘플들을 필터링하기 위한 수단을 구비한다. 프레임 길이 시퀸스를 구비하는 1차원 코드북(110)의 엔트리들은 1차원 필터링된 코드북을 형성하도록 지각적 가중화 합성 필터(28)에서 필터링된다. 필터링된 코드북 엔트리들은 지각적으로 가중화된 음성 샘플들과 비교되어, 음성이 재합성될 때 최소의 지각적 가중화 에러를 제공하는 코드북 인덱스를 얻게 한다. 1차원 코드북(110)의 사용은 2차원 코드북을 사용하는데 있어서 요구되는 계산량을 감소시킨다.

Description

음성 코딩 장치 및 음성 인코딩 방법
제1도 및 제2도는 종래 CELP 시스템에 대한 블록선도.
제3도는 본 발명의 실시예에 대한 블록선도.
제4도는 수신기에 대한 블록선도.
* 도면의 주요부분에 대한 부호의 설명
20 : 음성 소스 26,26',28,28' : 지각적 가중화 합성 필터
37,37' : 필터링 코드북 38 : 합산 스테이지
50 : 역가중화 분석 필터 52,52' : 역합성 필터
110,110' : 1차원 코드북
본 발명은 음성 코딩 장치(speech coding apparatus) 및 음성 인코딩 방법(amethod of encoding speech)에 관한 것으로서, 보다 구체적으로는 디지털화된 음성 전송 시스템에서 응용가능한 코드 여기화된 음성 코더(code excited speech coder)에 관한 것이다.
디지탈 음성을 전송할 때 발생하는 문제는 대역폭이 제한된 통신 채널 상에서 양질의 음성을 얻는 방법에 있다. 최근 몇 년 동안의 상기 문제를 해결하기 위한 시도 중에는 CELP(코드 여기화된 선형 예측 ; Code-Excited Linear Prediction) 이 있는데, 상기 CELP는 낮은 비트율(low bit rate)로 양질의 합성 음성(synthetic speech)을 발생시킬 수 있게 한다. 첨부된 도면중 제1도는 CELP 를 실현하기 위해 제안된 블록선도로서, 예컨데, J-P Adoul, P. Mabilleau, M. Delprat 및 S. Morissette가 쓴 논문으로 International Conference on Acoustics Speech and Signal Processing(ICASSP) 1987에 발표되었고, ICASSP87이 페이지 1957 내지 1960에 수록된 'Fast CELP Coding Based on Algebraic Codes"에 게재되어 있다. 요약하면, CELP는 음성 코딩 기술로서, 이 기술은 주관적인 에러 기준(subjective error criteria)과 관계하는 코드북(code-book)의 최적의 일시적 파형으로 잔류 신호를 나타내는 방식으로 되어 있다. 보다 구체적으로는, 코드북 시퀀스 CK가 선택되는데, 이는 예컨대 상기 시퀀스를 선택하도록 MSE(Mean Square Error) 기준을 이용함으로써 지각적으로 가중화된 신호(perceptually weighted signal) y(n)의 에너지를 최소화 시킨다. 제1도에서, 랜덤 벡터(random vectors)CK(n)을 저장하는 2차원 코드북(10)은 이득 스테이지(12)에 결합된다. 이득 스테이지(12)로부터의 신호 출력
Figure kpo00001
^(n)은, 장기 예측기(long-term predictor)로 구성되어 있으며 특성 1/B(z)를 갖는 제1인버스 필터(14)에 인가 되는데, 이러한 인버스 필터(14)는 피치(pitch)를 합성하는데 이용된다. 단기 예측기로 구성되어 있으며 특성 1/A(z)를 갖는 제2인버스 필터(16)는 제1필터(14)의 출력 e^(n)을 수신하도록 접속되어 있다. 제2인버스 필터(16)는 스펙트럼 포락선(spectral envelope)을 합성하며, 합성 스테이지(18)의 반전 입력에 공급되는 출력 s^(n)을 제공한다. 원래의 음성 소스(20)는 합산 스테이지(18)의 비반전 입력에 연결된다. 합산 스테이지의 출력x(n)은, 지각적 가중화 필터(perceptual weighting filter)(22)에 인가되는데, 이 가중화 필터(22)는 특성 w(z)을 가지며, 출력 y(n)을 제공한다.
동작시, 단기 및 장기 예측(short-term and long-term prediction)을 이용하는 분석 및 합성 절차를 통해 낮은 비트율을 갖는 비교적 양질의 음성이 얻어진다. 이러한 절차는 주관적인 에러 기준에 대하여 최적이 되는 코드북에서의 최상의 시퀀스를 찾아내는 것으로 이루어진다. 각각의 코드 워드 또는 시퀀스 ck는 최적의 이득 인자 Gk로 스케일링되고(scaled), 제1 및 제2 인버스 필터(14,16)를 통해서 처리된다. 원래의 신호 및 합성 신호, 즉 s(n)과 s^(n)과의 차이 x(n)는 지각적 가중화 필터(22)를 통해 처리되고, 최상의 시퀀스가 선택되어 지각적 에러 신호 y(n)의 에너지를 최소화한다. 제1도에 도시된 제안에 대한 두 가지의 알려진 단점은, 최상의 시퀀스를 찾는데 대한 조사 절차에서 발생하는 계산과 이러한 장기 및 단기 예측기를 통하여 모든 시퀀스를 필터링에 요구되는 계산이 방대하다는데 있다.
ICASSP 87의 페이지 1957 내지 1960에 수록된 상기 기술된 논문에는 계산량을 줄이기 위한 여러가지 방안들이 제시되어 있다.
이러한 방안들 중의 하나에 대한 블럭 실시예가 첨부된 제2도에 도시되어 있으며, 여기에서 제1도와 대응하는 부분들은 동일 부호로 표시했다. 이 실시예는 지각적 가중화 필터(22)(제1도)를,
W(z)=A(z)/A(z/
Figure kpo00002
)
로 표현함으로써 유도되는데, 여기서
Figure kpo00003
는 지각적 가중화 계수(0.8 정도로 선택됨)이며, A(z)는 선형 예측 필터로서,
A(z)=
Figure kpo00004
iaiz-i
로 표시된다.
제1도와 비교하면, 지각적 가중화 필터 W(z)는 합산 스테이지(18)의 입력신호 경로로 이동될 수 있다. 따라서, 소스(20)로부터의 원래의 음성은 분석 필터(24)를 통해 처리되며, 상기 분석 필터는 특성A(z)를 가지며, 피치 파라미터가 유도되는 잔류 신호 e(n)을 발생시킨다. 잔류 신호e(n)은 특성 1/A(z/
Figure kpo00005
)를 가지는 인버스 필터(26)를 통해 처리되고, 합산 스테이지(18)의 비반전 입력에 인가되는 신호 s'(n)을 발생시킨다.
다른 신호 경로에 있어서는, 제 2 인버스 필터(16)로 구성된 단기 예측기(제1도)가 특성 1/A(z/
Figure kpo00006
)을 가지며 출력 s^'(n)을 발생시키는 인버스 필터(28)로 대체된다.
장기 예측기, 즉 필터(14)는 단일 탭 예측기가 되도록 선택될 수 있다 :
B(z)=1-bz -T...............(1)
여기서 b는 이득이고, T는 피치 주기가 된다. 피치 예측기 1/B(z)의 출력 신호 e^(n)의 식은 상기 식(1)로부터 유도될 수 있다 :
e^(n)=r(n^)+be^(n-T) .............(2)
여기서, r(n)=Gkck(n)이고, 또한 n=0, N-1 이며 N은 코드워드이 블록 크기 또는 길이이고, k는 코드북 인덱스이며, Gk는 이득 인자이다.
조사 절차 과정에서, 만일 T가 N 보다 항상 크게되는 경우, 신호 e^(n-T)는 알 수 있게 되며, 현재 테스팅되는 코드워드에 영향을 받지 않게 된다. 따라서, 만일 신호 be^(n-T)가 음성 소스(20)로부터의 경로에서 잔류 신호로부터 감산되는 경우, 피치 예측기 1/B(z)는 2차원 코드북(10)으로부터의 신호 경로로부터 제거될 수 있게 된다. 식(2)를 사용하면, 피치 예측기 1/B(z)를 통해 지연된 신호 r^(n-T)를 처리함으로써 신호 e^(n-T)가 얻어지며, 피치 주기 T가 블록 크기 N보다 큰 값으로 제한되는 경우, 이전의 블록에 대해 선택된 이미 알려진 코드워드로부터 r^n-T가 계산된다. 피치 예측기의 연산은 또한 동적 적응형 코드북(dynamic adaptive codebook)의 표현으로 고려될 수 있다.
또한 이 논문은 단기 예측기 1/A(z/
Figure kpo00007
)의 메모리와 장기 예측기 1/B(z)를 코드북(10)으로부터의 신호 경로로부터 제거할 수 있는 방안을 공개하고 있다. 이러한 결과로, 계산상의 부담을 상당히 줄임과 함께 각 코드워드 상에서의 두개의 필터링 동작을 각 코드워드에 대한 단일의 메모리 없는 필터링 동작으로 축소시키는 것이 가능해진다.
EURASIP 1988의 페이지 871 내지 864에 수록된 F. Bottau, C. Baland, m. Rosso 및 J. Menez 가 쓴 논문 "On Different Vector Predictive Coding Schemes and Their Application to Low Bit Rates Speech Coding"에는 CELP 코딩 접근방법이 공개되어 있는데, 이 방법에 따르면 메모리 크기를 증대시키지 않고도 주어진 계산상의 복잡한 과정으로 음성의 품질을 소정 레벨로 유지할 수 있게 한다. 하지만, 이러한 논문 ICASSP 87 에 수록된 상기한 논문에 비하여 본 발명을 이해하는데 있어서 관련이 없으므로, 이에 대한 상세한 설명은 생략하기로 한다.
비록 상기 두 논문들이 CELP 기술을 실시하는데 있어서의 개선 방법을 제시 하고 있지만, 이들 방법에는 개선의 여지가 여전히 존재한다.
본 발명의 제1 특징에 따라, 지각적으로 가중화된 음성 샘플(perceptually weighted speech sample)들을 형성하기 위해 디지털화된 음성 샘플들을 필터링하는 수단과, 1차원 코드북과, 상기 1차원 코드북으로부터 판독된 엔트리들을 필터링하여, 상기 판독된 모든 엔트리들로 구성된 필터링된 코드북을 제공하기 위한 필터링 수단과, 음성이 재합성될 때 최소의 지각적 가중화 에러를 제공하는 코드북 인덱스를 얻도록 하기 위하여 상기 필터링된 코드북의 엔트리들을 상기 지각적으로 가중화된 음성 샘플들과 비교하기 위한 수단을 구비하는 음성 코딩 장치가 제공되어 있다.
본 발명의 제2 특징에 따르면, 음성 인코딩 방법이 제공되며, 여기에서 디지탈화된 음성 샘플들은 지각적으로 가중화된 음성 샘플들을 발생하도록 필터링되고, 1차원 코드북으로부터 엔트리들이 선택되어 필터링된 코드북을 형성하도록 필터링 되며, 지각적으로 가중화된 음성 샘플들은 필터링된 코드북으로부터의 엔트리들과 비교되어 음성이 재합성될 때 최소의 지각적 가중화 에러를 제공하는 코드북 인덱스를 얻게 된다.
1차원 코드북을 사용함으로써, CELP 코더의 계산적인 부담에 있어서 상당한 감소가 이루어지는데, 이는 이러한 처리과정이 디지털화된 음성 샘플의 선형 예측 분석에 의해 발생된 각각의 필터 계수들의 세트에 대해 지각적으로 가중화된 필터를 한번씩 사용하여 상기 코드북을 전체적으로 필터링하는 방식으로 이루어지기 때문이다. 필터 계수의 갱신은 디지털화된 음성 샘플의 4개의 프레임 마다 한 번씩 이루어지는데, 상기 프레임 각각은 예컨대 5mS의 지속기간을 갖는다. 다음에, 지각적으로 가중화된 입력 음성과 선택된 시퀀스 사이에서의 에러를 최소화하는 최적의 프레임 길이 시퀀스(frame length sequence)를 찾기 위해서 필터링된 코드북이 조사된다.
필요하다면, 필터링된 코드북의 매 p번째 엔트리가 조사될 수 있으며, 여기에서 P는 1 보다 크다. 필터링된 코드북에서의 인접하는 엔트리들은 상호 관련되어 있으므로, 각각의 엔트리를 조사하지 않음으로써, 음성의 품질에 악영향을 미치지 않고서 계산적 부담이 줄어들 수 있게 되거나 또는 동일한 계산적 부담으로 보다 긴 코드북이 조사될 수 있어 보다 양질의 음성을 제공할 수 있게 된다.
본 발명의 실시예에 있어서, 비교는 다음의 식을 사용하여 벡터곱(cross products)의 합을 계산함으로서 이루어지게 된다 :
Figure kpo00008
여기서, Ek는 전체 에러항, N은 프레임에서의 디지털화된 샘플의 수 n은 샘플번호, x는 코드북과 일치되는 신호, gk은 스케일링되지 않은 필터링된 코드북 시퀀스이며, k는 코드북 인덱스이다.
이러한 것은 다음 식의 최대값에 대한 코드북 인덱스 k를 조사하는 것과 동등하게 된다.
Figure kpo00009
이러한 벡터곱의 매 m번째 항을 평가하여 최대화함으로써(음성 품질에 악영향을 거의 미치지 않고서) 계산이 줄어들 수 있게 된다.
Figure kpo00010
단, m은 낮은 값을 갖는 정수이다.
음성 코딩 시스템은 또한 동적 적응형 코드북(dynamic adaptive codebook)으로부터의 엔트리와 함께 필터링된 코드북으로부터 선택된 스케일된 엔트리를 구비하는 동작 적응형 코드북을 사용하여 장기 예측기를 형성하는 수단과, 동적 적응형 코드북으로부터의 엔트리를 지각적으로 가중화된 음성 샘플들과 비교하는 수단과, 동적 적응형 코드북 엔트리와 지각적으로 가중화된 음성 샘플들 사이의 최소 차이를 제공하는 인덱스를 결정하는 수단과, 결정된 엔트리를 지각적으로 가중화된 음성 샘플로부터 감산하는 수단, 및 상기 감산으로부터 얻어진 차이 신호를 필터링된 코드북으로부터의 엔트리와 비교하여 최상의 일치를 제공하는 필터링된 코드북 인덱스를 얻도록 하는 비교 수단을 더 구비한다.
상기 최상의 일치를 제공하는 필터링된 코드북 엔트리를 대응하는 동적 적응형 코드북 엔트리와 결합시켜 지각적으로 가중화된 음성 샘플들을 형성하고, 코드화된 지각적으로 가중화된 음성 샘플들을 필터링하여 합성 음성을 제공하는 수단이 제공될 수 있다.
동적 적응형 코드북은 소정의 용량을 갖는 선입선출 (FIFO)형 기억 장치를 구비할 수 있으며, 이때 상기 기억 장치에 대한 입력 신호는 코드화된 지각적으로 가중화된 음성 샘플들을 구비하게 된다.
코드화된 지각적으로 가중화된 샘플들을 필터링하는 필터링 수단은, 지각적으로 가중화된 음성 샘플들을 발생시키는데 이용되는 전달 함수에 대한 역전달 함수를 발생시키는 수단을 구비한다.
본 발명의 제3 특징에 따르면, 계수가 입력 신호에 규정되는 필터를 사용하는 1차원 코드북을 필터링함으로써 필터링된 코드북을 형성하는 단계와, 입력 신호에서의 코드북 인덱스에 의해 규정된 소정의 시퀀스를 선택하는 단계와, 입력 신호에 포함된 이득 신호에 응답하여 선택된 소정 시퀀스의 진폭을 조절하는 단계와, 입력 신호에 포함된 피치 예측기 인덱스 및 이득 신호에 응답하여 선택된 소정 시퀀스의 피치를 복원하는 단계 및 음성 신호를 발생하도록 피치 복원 시퀀스를 역가중화(deweighting) 및 역합성 필터에 인가하는 단계를 포함하는 음성 유도 방법이 제공된다.
이제, 첨부한 도면을 참고하여 본 발명을 상세히 설명하기로 한다. 도면에서, 동일 부호는 동일 부분을 표시한다.
제3도를 참고하면, 음성 소스(20)는 음성을 양자회하여 이를 5mS의 지속기간을 갖는 프레임으로 분할하는 스테이지(30)에 결합된다. 분활된 음성 s(n)은, 전달 함수 A(z)를 갖는 분석 필터(24)와 필터 계수 ai를 계산하는 선형 예측 코더(LPC)(32)에 공급된다. 필터(24)로부터의 잔류 신호 r(n)은 전달 함수 1/A(z/
Figure kpo00011
)을 갖는 지각적으로 가중화된 합성 필터(26)에서 처리된다. 지각적으로 가중화된 잔류 신호 sw(n)은 감산 스테이지(34)의 비반전 입력에 인가된다(감산 스테이지는 반전 및 비반전 입력을 갖는 합산 스테이지로서 실행된다). 합산 스테이지(34)의 출력은 또 다른 감산 스테이지(36)의 비반전 입력에 공급된다.
화이트 가우시안 난수열(White Gaussian random number sequences)을 포함하는 1차원(1-D) 코드북(110)은 지각적으로 가중화된 합성 필터(28)에 접속되며, 이러한 합성 필터는 코드북 엔트리를 필터링하여 그 결과를 일시적인 마스터 코드북을 구성하는 1-D필터링 코드북(37)에 공급한다. 코드북 시퀀스는 다시 이득 G를 갖는 이득 스테이지(12)에 공급된다. 이득 스테이지(12)로부터의 스케일된 코드화 시퀀스는 감산 스테이지(36)의 반전 입력 및 합산 스테이지(38)의 입력에 인가된다. 스테이지(38)의 출력은 사전 선택된 지연 T를 유도하는 피치 지연 스테이지(40) 및 음성을 디코딩하기 위한 스테이지(42)에 인가되는 피치 예측 신호를 구비한다. 피치 지연 스테이지(40)는 선입선출(FIFO)형 기억 장치를 구비한다. 지연된 피치 예측 신호는 이득 b를 갖는 이득 스테이지(44)에 인가된다. 스케일링된 피치 예측 신호는 합산 스테이지(38)의 입력 및 감산 스테이지(34)의 반전 입력에 인가된다.
또한, 제1의 평균 제곱 에러 스테이지(mean square error stage)(46)는 감산 스테이지(34)의 출력에 접속되고, 피지 예측에 대한 변이를 최소화하는데 사용되는 에러 신호 EA를 제공한다. 제2의 평균 제곱 에러 스테이지(48)는 감산 스테이지(36)의 출격에 접속되고, 필터링된 코드북(37)에 대한 변이를 최소화하는데 사용되는 지각적 에러 신호 EB를 발생시킨다.
도시된 실시예에서, 소스(20)로부터의 음성은 40 샘플로 이루어진 프레임들로 분할되며, 상기 프레임 각각은 5mS의 지속기간을 갖는다. 상기 각각의 프레임은 분석 및 가중 필터(24,26)를 통과하며, 이들 필터에 대한 계수 ai는 디지털화된 음성 샘플들의 선형 예측 분석에 의해서 유도된다. 일반적인 응용에 있어서, 10개의 예측 계수가 필요하며, 이들은 매 20mS(블록율)마다 갱신된다. 가중 필터는 얼마간의 주관적 가중화를 코드화 처리에 도입된다.
Figure kpo00012
=0.65의 값이 양호한 결과를 제공하는 것으로 밝혀졌다. 감산 스테이지(34)에서는, 스케일링된 (장기) 피치 예측((long term) pitch prediction)이 필터(26)로부터의 지각적으로 가중화된 잔류 신호 sw(n)으로부터 감산된다. 스케일링된 피치 예측이 단지 이전에 처리된 음성으로부터의 정보만을 이용하는 한, MSE 스테이지(46)의 출력에서 에러를 최소화하기 위해 최적의 피치 지연 T 및 이득 (b(스테이지 44)가 계산될 수 있다.
1-D 코드북(110)은 1024개의 요소를 구비하며, 이들 요소 모두는 지각적 가중화 필터(28)에 의해 20mS 블록 당 한 번 필터링 되며, 이들의 계수는 필터(26)의 계수에 대응한다. 코드북에 대한 조사는 필터링된 코드북(37)으로부터 40개의 인접하는 요소들로 이루어진 백터를 검토함으로써 실행된다. 조사하는 동안, 벡터의 시작 위치는 각각의 코드북 엔트리에 대해 하나 또는 그 이상씩 증분되며, MSE(48)의 출력에서 최소의 에러 EB를 제공하도록 이득 G(스테이지 12)의 값이 계산된다. 따라서, 코드북 인덱스 및 최소의 지각적 에러에 대한 이득 G가 확정된다. 이러한 정보는, 예컨대 역가중화 분석 필터(50), 역합성 필터(52), 출력 변환기(54) 및 선택에 따라서는 글로우벌 포스트 필터(global post filter)를 구비하는 스테이지(42)를 사용하여 출력 음성을 합성시키는데 이용된다. 필터(50, 52)의 계수는 LPC(32)로부터 유도된다. 실제적인 상황에 있어서, 전송된 정보는 LPC 계수, 코드북 인덱스, 코드북 이득, 피치 예측기 인덱스 및 피치 예측기 이득을 구비한다. 통신 링크이 종단에서, 필터링 되지 않은 1-D 코드북의 복사를 갖는 수신기는 수신된 필터 계수로부터 각각의 음성 블록에 대한 필터링된 코드북을 재발생할 수 있으며, 원래 음성을 합성시킬 수 있다.
LPC 계수를 나타내는데 필요한 비트 수를 감소하기 위해서, 이들 계수는 역시 양자화 왜곡에 대한 민감성을 최소화한 로그-영역 비율(L.A.R'. S)로 양자화된다. 대안적으로, 이들 계수들은 라인 스펙트럼 쌍(LSP)을 이용하거나 또는 역사인 계수(inberse sine coefficients)를 이용함으로서 양자화 될 수 있다. 본 실시예에서, LARS로 양자화 된 10 LPC 계수를 블록은 20mS 당 40 비트로 표시될 수 있다. 40비트의 값은, 각각 6비트를 이용하는 제1 및 제2 LPC 계수, 각각 5 비트를 이용하는 제3 및 제4 LPC계수, 각각 4비트를 이용하는 제5 및 제6 LPC 기계, 각각 3비트를 이용하는 제7및 제8 LPC 계수 및 각각 2 비트를 이용하는 제9 및 제10 LPC 계수를 양자화함으로써 이루어진다. 따라서, 초당 비트수는 2000 이 된다. 부가적으로, 매 5mS 마다 한 번씩 갱신되는 프레임 레이트는 코드북 인덱스 10 비트, 대수적으로 양자화되는 코드북 이득 5 비트 + 1 부호 비트(sign bit), 피치 예측기 인덱스 7 비트 및 피치 예측기 이득 4 비트를 갖는다. 이것은 초당 5400비트에 대응하는 총 27 비트가 된다. 따라서 총 비트율(2000+5400)은 초당 7400 비트가 된다.
제1도 및 제2도에 기술된 2차원 코드북은, c(i, j)=d(i,j)로 표시될 수 있으며, 여기서 c(i,j)는 i번째 코드북 엔트리의 j번째 요소이며, d는 난수의 2차원 배열이다. 대조적으로, 제3도에 이용되는 코드북은, c(imj)=d(i+j)로 표시될 수 있으며, 여기서 d는 난수의 1차원 배열이다. 일반적으로, i는 1〈i〈1024, j는 1〈j〈40 범위이다.
CELP 에서 계산의 대부분은 코드북을 조사하는데 있게 되며, 이중 대부분의 계산량은 코드북을 필터링하는데 관련된다. 제3도를 참조하여 기술된 바와 같은 1차원 코드북을 이용하면 음성 세그먼트의 길이와 동등한 인자에 의해 코드북 필터링을 줄일 수가 있다.
필터링된 코드북 시퀀스와 감산 스테이지(34)의 출력상에 있는 피치없는 지각적으로 가중화된 잔류 신호와의 비교는 다음의 식을 이용하여 벡터곱의 합을 계산함으로써 실행된다 :
Figure kpo00013
여기서, E는 전체 에러항, N은 프레임에 있는 디지털화된 샘플의 수, n은 샘플번호, x는 코드북과 일치되는 신호, gk는 스케일링되지 않은 필터링된 코드북 시퀀스이며, k는 코드북 인덱스이다.
이러한 식은 상기한 1988년 EURASIP의 페이지 872에 주어진 식을 토대로 하여 유도된다.
제4도에서는 수신기를 예시한다. 수신기은 제3도의 실시예에서 도시된 요소들을 구비하므로, 대응하는 요소들은 제3도의 도면 부호에 프라임(')을 붙여 표시 했다. 수신기에 의해 수신된 데이타는 단자(60)에 인가되는 LPC 계수와, 단자(62,64)에 각각 인가되는 코드북 인덱스 및 이득과, 단자(66,68)에 각각 인가되는 피치 예측기 인덱스 및 이득을 구비한다. 1차원 코드북(110')은 지각적으로 가중화된 합성 필터(28')에서 필터링되고, 그 출력은 필터링된 코드북(37')을 형성하는데 이용된다. 필터링된 코드북(37')으로부터의 적절한 시퀀스는 코드북 인덱스 신호에 응답하여 선택되고, 수신 신호에서 규정되는 이득을 갖는 이득 스테이지에 인가된다. 이득 조절된 시퀀스는 피치 예측기(40')에 인가되며, 이 예측기의 지연은 피치 예측기 인덱스에 의해 조절되고, 그 출력은 피치 예측기 이득 신호에 의해 규정된 이득을 갖는 이득 스테이지(44')에 인가된다. 복원된 피치 예측을 갖는 시퀀스는 특성A(z/
Figure kpo00014
)을 갖는 역가중화 분석 필터(50')에 인가된다. 필터(50')로부터의 출력 rdw(n)은 특성 1/A(z)를 갖는 역합성 필터(52')에 인가된다. 필터(50', 52')에 대한 계수는 수신 신호에서 규정되며, 매 블록(또는 4 프레임)마다 갱신된다. 필터(52')의 출력은 출력 변환기(54')에 직접적으로 인가될 수 있거나, 또는 글로우벌 포스트 필터(56')를 통해 간접적으로 인가될 수 있으며, 상기 글로우벌 포스트 필터는 약간의 음성 왜곡으로 잡음 억제를 증대시킴으로써 음질을 향상시킨다.
제3도의 실시예는 그 구성을 간단히 하고, 계산량을 줄이거나 또는 계산량을 증가시키지 않고도 음질을 향상시키기 위해 변형될 수 있다.
예컨대, 분석 필터와 가중화 필터는 결합될 수도 있다.
1차원 코드북의 크기는 축소될 수도 있다.
지각적 에러 추정은 지각적 에러 신호에 대한 서브 샘플링화를 통해 실행될 수도 있다. 이렇게 함으로써 장기 예측기의 경우에 있어서 또한 코드북 조사에 요구되는 계산을 줄일 수가 있다.
필터링된 코드북에 대한 전체적인 조사는 필요하게 되지 않는데, 그 이유는 인접하는 엔트리들이 상호 관련되기 때문이다. 대안적으로, 더욱 양호한 음질을 제공하기 위해 보다 긴 코드북이 조사될 수도 있다. 어느 경우에서든, 매 p번째 엔트리가 조사되는데, 여기서 p는 1보다 크다.
만일 두개의 1/2 길이 코드북이 이용되는 경우, 필터링 계산이 감소될 수 있다. 상기 코드북 중의 하나는 현재 프레임으로부터의 가중화 필터로 필터링될 수 있고, 다른 하나는 이전의 프레임으로부터 유지될 수 있다. 마찬가지로, 이들 1/2길이 코드북 중의 하나는 이전에 선택된 코드북 엔트리로부터 유되될 수 있다.
필요하다면, 코드북을 필터링하는데 있어서 고정된 가중화 필터가 사용될 수 있다.
제3도에 도시된 본 발명의 실시예는 지각적 가중화 합성 필터(26,28)의 전달 하수가 동일한 것으로 간주한다. 그러나, 이들 필터가 서로 다른 전달 함수를 갖는 경우에서도 음질 개선이 가능한 것으로 밝혀졌다. 보다 구체적으로 필터(26)와 필터(50)의
Figure kpo00015
값은 동일하지만, 필터(28)의
Figure kpo00016
값과는 다르다.
제3도 실시예의 동작에 대한 설명에서 주어진 수치 값들은 예시를 위한 것이며, 특허청구 범위에 청구된 바와 같은 본 발명의 범주를 벗어나지 않는 범위에서 다른 수치들이 이용될 수도 있다.
본 기술분야에 전문지식을 가진자라면 본 발명에 대한 여러 가지 변형이 가능함을 알 수 있을 것이다. 그러한 변형은, CELP 시스템 및 그 성분 부품의 설계, 제조 및 사용에 있어서 이미 공지되어 있으며, 본원에 이미 기술된 특징에 부가하여 또는 이를 대신하여 사용될 수 있는 다른 특징들을 포함할 수도 있다. 본 출원의 청구범위는 특징의 특정 조합으로 작성되었지만, 본 출원의 범위는, 그것이 현재 임의의 청구항에서 청구된 것과 동일 발명에 관계하든 않든, 본 발명에서 달성하고자 하는 것과 동일한 기술적 문제점들의 일부 또는 전부를 완화시키든 않든, 본원에서 명백하거나 함축적인 또는 그 종합적으로 개시된 임의의 새로운 특징 또는 임의의 새로운 특징의 조합을 포함한다는 것을 이해해야 한다. 이에 따라서, 본 출원 또는 이로부터 파생된 다른 임의의 출원의 절차 중에 상기 특징 및/또는 그러한 특징의 조합으로 새로운 청구항이 작성될 수도 있다는 것을 유념해야 한다.

Claims (19)

  1. 각각의 엔트리에 하나의 코드북 인덱스(codebook index)가 부여된 복수개의 엔트리로 형성된 제1차원 코드북(a first one-dimensional codebook)(110)과, 디지털화된 음성 샘플을 생성하기 위한 수단(means for generating digitised speech samples)과, 지각적으로 가중화된 음성 샘플(perceptually weighted speech samples)을 생성하기 위해 상기 디지털화된 음성 샘플을 필터링하기 위한 수단(24,26)과, 음성이 재합성될 때 최소 지각적 가중화 에러를 제공하는 코드북 인덱스를 결정하기 위한 수단을 포함하는 음성 코딩 장치에 있어서,
    상기 제1 차원 코드북으로부터 판독된 엔트리들을 동일 영역에서 필터링 하기 위해 상기 제1 차원 코드북의 출력에 결합된 제1 지각적 가중화 필터(28)와, 상기 필터링된 엔트리들을 저장하기 위해 제공되고, 일시적 마스터 코드북(temporal master codebook)을 형성하는 제2 1차원 코드북을 더 포함하며, 상기 코드북 인덱스를 결정하기 위한 수단은 상기 지각적으로 가중화된 음성 샘플을 상기 제2코드북의 판독된 엔트리들과 비교하기 위한 수단(34)을 구비하는 것을 특징으로 하는 음성 코딩 장치.
  2. 제1항에 있어서, 상기 디지털화된 음성 샘플들을 필터링하는 수단은, 전달 함수A(z)를 가지는 단기 예측기(short term predictor)(24)와,
    Figure kpo00017
    는 지각적 가중화 계수인 전달 함수 1/A(z/
    Figure kpo00018
    )를 가지는 제2 지각적으로 가중화된 필터(26)를 포함하며, 상기 디지털화된 음성 샘플들의 선형 예측 분석에 의해 상기 단기 예측기 및 상기 제1 및 제2 지각적 가중화 필터에 대한 계수들을 얻기 위한 수단(32)이 제공되는 것을 특징으로 하는 음성 코딩 장치.
  3. 제2항에 있어서, 상기 제1 지각적 가중화 필터(28)의 전달 함수는 상기 제2지각적 필터(26)의 전달 함수와 다른 것을 특징으로 하는 음성 코딩 장치.
  4. 제1항에 있어서, 상기 제2코드북으로부터 판독된 엔트리들을 상기 지각적으로 가중화된 음성 샘플들과 비교하기 위한 수단(34,36,48)은 매 p 번째 엔트리마다 조사하도록 되어 있고, 이때 p는 1보다 큰 것을 특징으로 하는 음성 코딩 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 비교 수단(34,36,48)은 다음의 식,
    Figure kpo00019
    을 이용하여 벡터곱(cross product)들의 합을 계산함으로써 비교 동작을 실행하도록 되어 있으며, 이때 N은 프레임내의 디지털화된 샘플의 수이고, n은 샘플번호이며, x는 상기 코드북과 일치되는 신호이고, m은 낮은 값을 갖는 정수이며, gk는 스케일되지 않은 필터링된 코드북 시퀀스이며, k는 코드북 인덱스인 것을 특징으로 하는 음성 코딩 장치.
  6. 제1항 내지 제4항중 어느 한 항에 있어서, 상기 제2 코드북으로부터 선택된 엔트리들을 스케일링(scaling)하기 위한 수단과, 상기 스케일리된 엔트리들로부터 스케일링된 피치 예측 신호(scaled pitch prediction signals)를 얻기 위한 수단(38,40,44)과, 상기 지각적으로 가중화된 스피치 샘플들로부터 상기 스케일링된 피치 예측 신호를 감산하기 위한 수단(34)과, 지각적 에러 신호(perceptual error signal)를 얻기 위하여 상기 감산 수단으로부터 얻어진 상기 차이 신호(difference signal)를 상기 제2코드북으로부터의 상기 스케일링된 엔트리와 비교하는 수단(36)을 더 포함하는 것을 특징으로 하는 음성 코딩 장치.
  7. 제6항에 있어서, 상기 비교 수단(36)의 출력에 접속된 평균 제곱 에러 스테이지(mean square error stage)(48)를 더 포함하며, 상기 평균 제곱 에러 스테이지는 상기 제2코드북으로부터 판독된 엔트리에 대한 편차를 최소화하기 위해 사용되는 상기 지각적 에러 신호를 생성하는 것을 특징으로 하는 음성 코딩 장치.
  8. 제1항에 있어서, 상기 제1 1차원 코드북과 마찬가지로 각각의 엔트리에 하나의 코드북 인덱스가 부여된 동일한 복수개의 엔트리로 형성된 제3 1차원 코드북(110')과, 상기 제3 1차원 코드북의 출력에 결합되어 상기 제3 코드북으로부터 판독된 엔트리를 동일 영역에서 필터링하기 위한 제3 지각적 가중화 필터(28')와, 상기 필터링된 엔트리를 저장하기 위한 제4 1차원 코드북과, 상기 제4 코드북으로 부터의 엔트리를 선택하기 위한 수단(62)과, 합성된 음성을 제공하기 위해 상기 선택된 엔트리를 필터링하기 위한 수단(50,52)을 포함하는 음성 재합성 수지(means for resynthesising speech)을 더 포함하는 것을 특징으로 하는 음성 코딩 장치.
  9. 제8항에 있어서, 상기 선택된 엔트리를 필터링하기 위한 수단은 상기 지각적으로 가중화된 음성 샘플을 제공하는데 사용된 전달 함수에 대비되는 역전달 함수(inverse transfer function)를 제공하기 위한 수단(50,52)을 포함하는 음성 코딩 장치.
  10. 각각의 엔트리에 하나의 코드북 인덱스가 부여된 복수개의 엔트리로 형성된 제1 1차원 코드북(110)을 제공하는 단계와, 디지털화된 음성 샘플을 생성하는 단계와, 상기 디지털화된 음성 샘플을 필터링하여 지각적으로 가중화된 음성 샘플을 생성하는 단계, 상기 음성이 재합성될 때 최소 지각적 가중화 에러를 제공하는 코드북 인덱스를 결정하는 단계를 포함하는 음성 인코딩 방법(method of encoding speech)에 있어서,
    상기 제1 코드북으로부터 판독된 엔트리를 동일 영역에서 제1 지각적 가중화 필터를 사용하여 필터링하는 단계와,
    상기 필터링된 엔트리를 제2 1차원 코드북에 저장하여 일시적 마스터 코드북을 형성하는 단계와,
    상기 지각적으로 가중화된 음성 샘플을 상기 제2코드북의 판독된 엔트리와 비교하여 상기 최소 코드북 인덱스를 결정하는 단계를 포함하는 것을 특징으로 하는 음성 인코딩 방법.
  11. 제10항에 있어서, 상기 디지털화된 음성 샘플들은 전달 함수A(z)를 갖는 단기 예측기(24)와
    Figure kpo00020
    는 지각적 가중화 계수인 전달 함수1/A(z/
    Figure kpo00021
    )를 갖는 제2 지각적 가중화 필터(26)에서 필터링되고, 상기 단기 예측기 및 상기 제1 및 제2 지각적 가중화 필터에 대한 필터 계수들은 상기 디지털화된 음성 샘플들의 선형 예측 분석에 의해 얻어지는 것을 특징으로 하는 음성 인코딩 방법.
  12. 제11항에 있어서, 상기 제1 지각적 가중화 필터(28)의 전달 함수를 상기 제2 지각적 가중화 필터(26)의 전달함수와 다르게 한 것을 특징으로 하는 음성 인코딩 방법.
  13. 제10항에 있어서, 상기 제2코드북의 매 p 번째 엔트리가 상기 지각적으로 가중화된 음성 샘플과 비교되며, 여기서 p는 1보다 큰 음성 인코딩 방법.
  14. 제10항 내지 제13항 중 어느 한 항에 있어서, 상기 지각적으로 가중화된 음성 샘플과 상기 제2 코드북으로부터의 엔트리의 비교는 다음식,
    Figure kpo00022
    을 사용하여 벡터곱들의 합을 계산함으로써 이루어지며, 여기에서 N은 프레임내의 디지털화된 샘플의 수이며, n은 샘플번호이고, x는 상기 코드북과 일치하는 신호이며, m은 낮은 값을 가지는 정수이고, gk는 스케일링되지 않은 필터링된 코드북 시퀀스이며, k는 코드북 인덱스인 것을 특징으로 하는 음성 인코딩 방법.
  15. 제10항 내지 제13항 중 어느 한 항에 있어서, 상기 제2코드북으로부터 선택된 엔트리를 스케일링하는 단계와, 상기 스케일링된 엔트리로부터 스케일링된 피치 예측 신호를 얻는 단계와, 상기 지각적으로 가중화된 음성 샘플로부터 상기 스케일링된 피치 예측 신호를 감산하는 단계와, 상기 감산 수단으로부터 얻어진 차이 신호를 상기 제2 코드북으로부터 스케일링된 엔트리와 비교하여 지각적 에러 신호를 구하는 단계를 더 포함하는 것을 특징으로 하는 음성 인코딩 방법.
  16. 제15항에 있어서, 상기 지각적 에러 신호는 상기 차이 신호를 상기 코드북으로부터의 상기 스케일링된 엔트리와의 비교의 평균 제곱 에러를 얻음으로부터 얻어지고, 상기 지각적 에러 신호는 상기 제2코드북으로부터 판독된 엔트리에 대한 편차를 최소화하기 위해 사용되는 것을 특징으로 하는 음성 인코딩 방법.
  17. 제10항에 있어서, 상기 제1 1차원 코드북에서와 마찬가지로 각각의 엔트리에 하나의 코드북 인덱스가 부여된 동일한 복수개의 엔트리로 형성된 제3 1차원 코드북(110')을 동일 영역에서 필터링하는 단계와, 상기 필터링된 엔트리를 저장하기 위한 제4 1차원 코드북을 형성하기 위해 상기 제3 코드북으로부터 판독된 엔트리를 동일 영역에서 지각적으로 가중화된 필터링을 행하는 단계와, 상기 제4 코드북으로 부터 엔트리를 선택하기 위해 상기 코드북 인덱스를 사용하는 단계와, 합성된 음성을 생성하기 위해 상기 선택된 엔트리를 필터링하는 단계를 포함하며, 최소 지각적으로 가중화된 에러를 제공하는 상기 코드북 인덱스를 사용하는 음성 재합성 단계를 특징으로 하는 음성 인코딩 방법.
  18. 제17항에 있어서, 상기 지각적으로 가중화된 음성 샘플을 제공하기 위해 사용된 전달 함수의 역인 전달 함수를 사용하여 상기 선택된 엔트리가 필터링되는 것을 특징으로 하는 방법.
  19. 음성 유도 방법에 있어서,
    필터 계수들이 입력 신호에 규정된 지각적으로 가중화된 합성 필터(perceptually weighted synthesis fillter)(28')를 사용하여 동일영역에서 1차원 코드북(110')을 필터링함으로써 필터링된 코드북(37')을 형성하는 단계와,
    상기 필터링된 코드북(37')으로부터 상기 입력 신호에서 코드북 인덱스에 의해 규정된 선정된 시퀀스를 선택하는 단계와,
    상기 입력 신호에 포함된 이득 신호에 응답하여 상기 선택된 선정된 시퀀스의 진폭(12')을 조정하는 단계와,
    상기 입력 신호에 포함된 피치 예측기 인덱스(66) 및 이득(68) 신호에 응답하여 상기 선택된 선정된 시퀀스의 피치를 복원하는 단계와
    상기 피치 복원 시퀀스를 역가중화(deweightinh)(50') 및 역합성(inverse)(52')필터에 인가하여 음성 신호를 발생시키는 단계를 포함하는 음성 유도 방법.
KR1019900012501A 1989-08-16 1990-08-14 음성코딩 장치 및 음성엔코딩방법 KR100275054B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB8918677A GB2235354A (en) 1989-08-16 1989-08-16 Speech coding/encoding using celp
GB8918677.9 1989-08-16
GB89186779 1989-08-16

Publications (2)

Publication Number Publication Date
KR910005589A KR910005589A (ko) 1991-03-30
KR100275054B1 true KR100275054B1 (ko) 2000-12-15

Family

ID=10661702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019900012501A KR100275054B1 (ko) 1989-08-16 1990-08-14 음성코딩 장치 및 음성엔코딩방법

Country Status (11)

Country Link
US (1) US5140638B1 (ko)
EP (1) EP0413391B1 (ko)
JP (1) JP3392412B2 (ko)
KR (1) KR100275054B1 (ko)
AU (1) AU648479B2 (ko)
BR (1) BR9003987A (ko)
CA (1) CA2023167C (ko)
DE (1) DE69029232T2 (ko)
FI (1) FI903990A0 (ko)
GB (1) GB2235354A (ko)
HU (1) HUT58157A (ko)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992006470A1 (en) * 1990-09-28 1992-04-16 N.V. Philips' Gloeilampenfabrieken A method of, and system for, coding analogue signals
CA2568984C (en) * 1991-06-11 2007-07-10 Qualcomm Incorporated Variable rate vocoder
US5694519A (en) * 1992-02-18 1997-12-02 Lucent Technologies, Inc. Tunable post-filter for tandem coders
CA2105269C (en) * 1992-10-09 1998-08-25 Yair Shoham Time-frequency interpolation with application to low rate speech coding
JP2953238B2 (ja) * 1993-02-09 1999-09-27 日本電気株式会社 音質主観評価予測方式
FR2702590B1 (fr) * 1993-03-12 1995-04-28 Dominique Massaloux Dispositif de codage et de décodage numériques de la parole, procédé d'exploration d'un dictionnaire pseudo-logarithmique de délais LTP, et procédé d'analyse LTP.
JP3224955B2 (ja) * 1994-05-27 2001-11-05 株式会社東芝 ベクトル量子化装置およびベクトル量子化方法
TW271524B (ko) 1994-08-05 1996-03-01 Qualcomm Inc
US5742734A (en) * 1994-08-10 1998-04-21 Qualcomm Incorporated Encoding rate selection in a variable rate vocoder
US6263307B1 (en) 1995-04-19 2001-07-17 Texas Instruments Incorporated Adaptive weiner filtering using line spectral frequencies
JP3616432B2 (ja) * 1995-07-27 2005-02-02 日本電気株式会社 音声符号化装置
FR2742568B1 (fr) * 1995-12-15 1998-02-13 Catherine Quinquis Procede d'analyse par prediction lineaire d'un signal audiofrequence, et procedes de codage et de decodage d'un signal audiofrequence en comportant application
US5819213A (en) * 1996-01-31 1998-10-06 Kabushiki Kaisha Toshiba Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks
TW317051B (ko) * 1996-02-15 1997-10-01 Philips Electronics Nv
KR100455970B1 (ko) * 1996-02-15 2004-12-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 복잡성이감소된신호전송시스템,전송기및전송방법,인코더및코딩방법
US5751901A (en) * 1996-07-31 1998-05-12 Qualcomm Incorporated Method for searching an excitation codebook in a code excited linear prediction (CELP) coder
US6516299B1 (en) 1996-12-20 2003-02-04 Qwest Communication International, Inc. Method, system and product for modifying the dynamic range of encoded audio signals
US6477496B1 (en) 1996-12-20 2002-11-05 Eliot M. Case Signal synthesis by decoding subband scale factors from one audio signal and subband samples from different one
US5845251A (en) * 1996-12-20 1998-12-01 U S West, Inc. Method, system and product for modifying the bandwidth of subband encoded audio data
US6463405B1 (en) 1996-12-20 2002-10-08 Eliot M. Case Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband
US5864813A (en) * 1996-12-20 1999-01-26 U S West, Inc. Method, system and product for harmonic enhancement of encoded audio signals
US5864820A (en) * 1996-12-20 1999-01-26 U S West, Inc. Method, system and product for mixing of encoded audio signals
US6782365B1 (en) 1996-12-20 2004-08-24 Qwest Communications International Inc. Graphic interface system and product for editing encoded audio data
FI113571B (fi) * 1998-03-09 2004-05-14 Nokia Corp Puheenkoodaus
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
KR100341398B1 (ko) * 2000-01-27 2002-06-22 오길록 씨이엘피형 보코더의 코드북 검색 방법
US6879955B2 (en) * 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
JP2010034794A (ja) * 2008-07-28 2010-02-12 Fujitsu Ltd オーディオ符号化装置、オーディオ符号化プログラム及びオーディオ符号化方法
ATE449400T1 (de) * 2008-09-03 2009-12-15 Svox Ag Sprachsynthese mit dynamischen einschränkungen
EP2737479B1 (en) * 2011-07-29 2017-01-18 Dts Llc Adaptive voice intelligibility enhancement

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3335358A1 (de) * 1983-09-29 1985-04-11 Siemens AG, 1000 Berlin und 8000 München Verfahren zur bestimmung von sprachspektren fuer die automatische spracherkennung und sprachcodierung
DE3779351D1 (ko) * 1986-03-28 1992-07-02 American Telephone And Telegraph Co., New York, N.Y., Us
IT1195350B (it) * 1986-10-21 1988-10-12 Cselt Centro Studi Lab Telecom Procedimento e dispositivo per la codifica e decodifica del segnale vocale mediante estrazione di para metri e tecniche di quantizzazione vettoriale
GB8630820D0 (en) * 1986-12-23 1987-02-04 British Telecomm Stochastic coder

Also Published As

Publication number Publication date
AU6100090A (en) 1991-02-21
US5140638B1 (en) 1999-07-20
AU648479B2 (en) 1994-04-21
JP3392412B2 (ja) 2003-03-31
HU904991D0 (en) 1991-01-28
FI903990A0 (fi) 1990-08-13
JPH0395600A (ja) 1991-04-19
US5140638A (en) 1992-08-18
GB2235354A (en) 1991-02-27
KR910005589A (ko) 1991-03-30
EP0413391A3 (en) 1991-07-24
CA2023167A1 (en) 1991-02-17
BR9003987A (pt) 1991-09-03
DE69029232T2 (de) 1997-04-30
DE69029232D1 (de) 1997-01-09
EP0413391B1 (en) 1996-11-27
HUT58157A (en) 1992-01-28
EP0413391A2 (en) 1991-02-20
CA2023167C (en) 2002-01-29
GB8918677D0 (en) 1989-09-27

Similar Documents

Publication Publication Date Title
KR100275054B1 (ko) 음성코딩 장치 및 음성엔코딩방법
US5012518A (en) Low-bit-rate speech coder using LPC data reduction processing
US8364473B2 (en) Method and apparatus for receiving an encoded speech signal based on codebooks
EP0409239B1 (en) Speech coding/decoding method
US5729655A (en) Method and apparatus for speech compression using multi-mode code excited linear predictive coding
US4975956A (en) Low-bit-rate speech coder using LPC data reduction processing
US6594626B2 (en) Voice encoding and voice decoding using an adaptive codebook and an algebraic codebook
EP0957472B1 (en) Speech coding apparatus and speech decoding apparatus
EP0802524B1 (en) Speech coder
EP0501421B1 (en) Speech coding system
US5526464A (en) Reducing search complexity for code-excited linear prediction (CELP) coding
US7680669B2 (en) Sound encoding apparatus and method, and sound decoding apparatus and method
US5873060A (en) Signal coder for wide-band signals
CA2090205C (en) Speech coding system
US5797119A (en) Comb filter speech coding with preselected excitation code vectors
EP1093230A1 (en) Voice coder
JP3192051B2 (ja) 音声符号化装置
JP3092654B2 (ja) 信号符号化装置
EP0662682A2 (en) Speech signal coding
JPH04301900A (ja) 音声符号化装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 19990525

Effective date: 20000531

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120913

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20130917

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140917

Year of fee payment: 15

EXPY Expiration of term