KR100444635B1 - 개량형 음성 코딩 방법 - Google Patents

개량형 음성 코딩 방법 Download PDF

Info

Publication number
KR100444635B1
KR100444635B1 KR1019960040757A KR19960040757A KR100444635B1 KR 100444635 B1 KR100444635 B1 KR 100444635B1 KR 1019960040757 A KR1019960040757 A KR 1019960040757A KR 19960040757 A KR19960040757 A KR 19960040757A KR 100444635 B1 KR100444635 B1 KR 100444635B1
Authority
KR
South Korea
Prior art keywords
residual signal
subframe
speech
time
frame
Prior art date
Application number
KR1019960040757A
Other languages
English (en)
Other versions
KR970017170A (ko
Inventor
베스티안 클레인 윌럼
네이엄미 드로르
Original Assignee
에이티 앤드 티 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이티 앤드 티 코포레이션 filed Critical 에이티 앤드 티 코포레이션
Publication of KR970017170A publication Critical patent/KR970017170A/ko
Application granted granted Critical
Publication of KR100444635B1 publication Critical patent/KR100444635B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

음성이 복수의 시간적으로 정의된 프레임들로 디지털화되고, 각 프레임은 복수의 서브프레임들을 포함하고, 그 디지털화된 음성은 주기 성분들과 잔류 신호로 분할되는, 음성 코딩 방법들과 함께 사용하기 위한 개량형 음성 코딩 방법이다. 상기 잔류 신호의 복수의 서브프레임들 각각에 대해, 상기 개량형 음성 코딩 방법은, (a) 상기 잔류 신호의 현재 서브프레임, 및 (b) 앞서 발생하는 프레임으로부터의 지연된 잔류 신호에, 정합 기준을 적용함으로써, 시간 시프트 T를 선택하여 상기 서브프레임에 적용한다.
상기 정합 기준은,

Description

개량형 음성 코딩 방법{An improved RCELP coder}
본 발명은 일반적으로 음성(speech) 코딩에 관한 것으로, 특히, 이완 코드여기 선형 예측 기술들(relaxation code-excited linear predictive techniques)을 이용하는 코더들에 관한 것이다.
주기성(periodicity)이라 부르는 음성의 주파수 성분들은 시간의 함수 및 주파수의 함수로서 변화한다. 중요한 음성의 속성인 주기성은 음성 코딩에서 유리하게 이용될 수 있는 음성 신호 용장도(speech signal redundancy)의 한 형태이다. 흔히, 음성의 주파수 성분들은 주어진 시간 주기에 대해 실질적으로 유사하게 유지되며, 상기 시간 주기는 음성 파형을 표시하는데 필요한 비트들의 수를 감소시키는 가능성(potential)을 제공한다. 고품질(high-quality)로 재구성된 음성을 제공하기 위해, 원래의 음성 샘플에서 존재하는 주기성의 정도는 재구성된 음성에서 정확하게 정합되어야 한다. 이상적으로, 그 정확한 정합은 음성 코더의 동작 환경에서 통상적으로 존재하며, 코딩된 음성 신호의 하나 또는 그 이상의 비트들의 손실을 빈번히 초래하는, 통신 채널에 의한 품질 저하들(channel degradations)에 영향을 쉽게 받지 않아야 한다.
현재의 음성 코딩 기술중 하나는 코드 여기 선형 예측(CELP; code-excited linear predictive) 코딩이다. CELP 코딩은 복수의 음성 파라미터들의 형태로 음성 신호를 표시함으로써 음성 처리 기술들의 효율을 증가시킨다. 예를 들어, 하나 또는 그 이상의 음성 파라미터들이 음성 신호의 주기성을 나타내기 위해 이용될 수 있다. 음성 파라미터들의 이용은 CELP 코딩된 신호에 의해 점유된 대역폭이 원래의 음성 신호에 의해 점유된 대역폭보다 현저히 작다는 점에 있어서 유리하다.
CELP 코딩 기술은 음성 파라미터들을 일련의 시간 프레임 구간들의 시퀀스로분할하는데, 각 프레임이 5 내지 20 밀리초 범위의 지속 기간을 갖는 것을 특징으로 한다. 각 프레임은 복수의 서브프레임으로 분할될 수 있는데, 각 서브프레임은 음성 파라미터의 주어진 세트 또는 주어진 음성 파라미터에 할당되는 것을 특징으로 한다. 이들 프레임들의 각각은 주어진 프레임에서의 미리 정의된 기준점으로부터 바로 앞의 프레임에서의 미리 정의된 점까지의 피치값의 변화를 지정하는 피치 지연 파라미터를 포함한다. 음성 파라미터들은 원래의 음성 신호의 레플리카 (replica)를 재구성하는 합성 선형 예측 필터(synthesis linear predictive filter)에 적용된다. 선형 예측 필터들을 예시하는 시스템들은 B. S. Atal에게 허여된 미국 특허 제 3,624,302 호 및 제 4,701,954 호에 개시되어 있다.
현재의 코드 여기 선형 예측(CELP) 코더들은 피치 예측기(pitch predictor)또는 적응 코드북(adaptive codebook)의 사용을 통해 주기성을 이용한다. 그들 구조들 사이에는 실질적인 유사성들이 있기 때문에, 다음의 설명은 적응 코드북의 이용을 가정한다. 각 서브프레임에 있어서, 합성 선형 예측 필터에 적용된 음성 파라미터들은 적응 코드북 엔트리(adaptive codebook entry) 및 고정된 코드북 엔트리의 합계를 나타낸다. 적응 코드북 내의 엔트리들은 복수의 이전에 재구성된 음성 여기들로부터 도출된 음성 세그먼트들의 시험 추정치들(trial estimates)의 세트(set)를 나타낸다. 그들 엔트리들 각각은 각 파형 표현이 모든 나머지 파형 표현들로부터 시간적으로 오프셋되는 것을 제외하고는, 동일한 신호 파형의 실질적으로 동일한 표현들을 각각 포함한다. 따라서, 각 엔트리는 현재 서브프레임에 관한 시간적 지연의 형태로 표현될 수 있고, 그래서, 각 엔트리는 적응 코드북 지연으로부를 수 있다.
현재의 합성에 의한 분석 기술들(analysis-by-synthesis techniques)은 각 서브프레임에 대한 적당한 적응 코드북 지연을 선택하기 위해 이용된다. 전송을 위해(즉, 선형 예측 필터에 보내기 위해) 선택된 적응 코드북 지연은 재구성된 음성 신호와 원래의 음성 신호 사이의 차이들을 최소화하는 적응 코드북 지연이다. 통상적으로, 적응 코드북 지연은 음성 신호의 실제 피치 주기(주된 주파수 성분)에 가깝다. 예측 잔류 여기(predictive residual excitation) 신호는 주어진 프레임을 발생시키기 위해 이용된 원래의 음성 신호와, 그 프레임에 저장된 음성 파라미터들에 응답하여 생성된 재구성된 음성 신호 사이의 차이를 나타내기 위해 이용된다.
양호하게 재구성된 음성의 품질은, 전송된 적응 코드북 지연이 약 2 내지 20 ms의 범위 내에서 선택되는 경우에 얻어진다. 그러나, 재구성된 음성의 해상도는 적응 코드북 지연이 증가함에 따라 감소한다. 일반적으로, 음성의 피치 주기(주된 주파수 성분)는 시간의 함수로서 연속적으로(평탄하게) 변화한다. 따라서, 양호한 성능은, 수용 가능한 적응 코드북 지연들의 범위가 프레임당 단지 한 번 결정되는 피치 주기 추정치의 근처로 제한되는 경우에 얻어질 수 있다. 수용 가능한 적응 코드북 지연들의 범위의 제한은 보다 더 작은 적응 코드북들을 초래하고, 따라서 보다 더 낮은 비트 레이트 및 감소된 계산 복잡도를 얻을 수 있다. 그러한 접근 방법은 예를 들어, 제안된 ITU 8kb/s 표준에 이용된다.
적응 코드북의 코딩 효율의 다른 개선은 이완 코드 여기 선형 예측(RCELP)코딩의 환경에서 일반화된 합성에 의한 분석 기술들의 응용을 통해 가능하다. 예를들어, 적응 코드북 지연 궤적(adaptive codebook delay trajectory)의 개념은 유리하게 이용될 수 있다. 이러한 적응 코드북 지연 궤적은 복수의 피치 주기 추정치들의 선형 보간(linear interpolation)에 의해 얻어진 피치 주기 궤적(예를 들어, 음성의 주된 주파수 성분에서의 변화)과 같게 설정된다. 상기에 정의된 잔류 신호는 다른 부분들에 대해서 잔류 신호의 몇몇 부분들을 선택적으로 시간 진행 또는 시간 지연시켜 시간 영역에서 왜곡(예를 들어, 시간 왜곡(time-warped))되고, 잔류 신호를 시간 왜곡하는데 이용되는 수학 함수는, 구분적인 선형 함수(piecewise-linear function)로서 수학적으로 표현되는 상술한 적응 코드북 지연 궤적에 기초한다. 통상적으로, 선택적으로 지연된 신호의 일부들은 펄스들을 포함하지만, 지연되지 않은 신호의 일부분들은 펄스들을 포함하지 않는다. 따라서, 적응 코드북 지연은 프레임(20ms)당 오직 한 번 전송되어, 비트 레이트를 낮춘다. 또한, 이러한 낮은 비트 레이트는 채널 에러들에 대한 견고성(robustness)을 용이하게 하는데, 적응 코드북 지연은 채널 에러들에 민감하다. 비록, 현재의 RCELP 코딩 기술들이 프레임 소거에 대한 약간의 면역성을 제공하지만, 필요한 것은 프레임 소거가 일반적으로 행해질 수 있는 환경들에서 강화된 견고성을 제공하는 개량형 RCELP 코딩 방식이다.
RCELP에 있어서, 피치 주기는 프레임당 한 번 추정되고, 샘플 단위(sample-by-sample basis)로 선형 보간되며, 적응 코드북 지연으로서 이용된다. 그 잔류 신호는 시간 주기에 걸친 보간된 적응 코드북 지연의 정확도를 최대화하기 위해 시간 왜곡에 의해 수정된다. 시간 왜곡은 일반적으로, 선형 예측 필터에 적용되는 코딩된 신호에 적응 코드북 기여를 정합하기 위해 시간 영역에서 선형 예측 필터로부터의 잔류 신호의 시간 시프팅 세그먼트를 선형 변환(예를 들어, 시간 시프팅)하여 불연속 방법(discrete manner)으로 행해진다. 세그먼트 경계들은 잔류 신호의 저전력 세그먼트들(low-power segments)에 해당하도록 제한된다. 다시 말해, 펄스를 포함하는 신호의 전체 세그먼트는 시간적으로 시프트되고, 펄스를 포함하는 세그먼트의 경계들은 펄스 근처 또는 그 펄스에 해당하지 않도록 선택된다. 각 세그먼트에 대한 정확한 시프트는 폐루프(closed-loop) 검색 절차에 의해 결정된다. RCELP 코더들에 의해 실행되는 나머지 동작들은 종래의 CELP 코더들에 의해 실행되는 동작들과 실질적으로 유사한데, 한가지 주요한 차이는, RCELP에서는, 수정된 원래의 음성(수정된 선형 예측 잔류 신호로부터 얻어짐)이 이용되는 반면에, CELP에서는 원래의 음성 신호가 이용된다는 점이다.
더 빠른 비트 레이트들에서는, 일반화된 합성에 의한 분석 방법은 수정된 원래의 음성이 원래의 음성과 같은 품질(quality)일 때에만 효율적이다. RCELP를 실행한 경우의 최근의 시험 결과들은 몇몇 음성 세그먼트들에 대한 수정된 음성들의 품질에서의 저하를 나타낸다. 수정된 음성의 품질의 이러한 감소는 특히, 중간 레이트의 음성 코더들(6 내지 8kb/s)에 대해서, 재구성된 음성의 저하를 발생시킨다. RCELP 코딩의 전술한 설명은 미국 특허 제 07/990309 호 및 제 08/234504 호에 특히 설명되어 있으며, 그 내용은 본 명세서에 참고 문헌으로 포함되어 있다.
상기 기술한 것처럼, RCELP 코딩에 있어서, 잔류 신호는 보간된 적응 코드북 지연 윤곽(interpolated adaptive codebook delay contour)의 정확도를 최대화하도록 "시간 왜곡(time warping)"에 의해 수정된다. 이러한 환경에서, 당업자 (artisans)는 시간을 나타내는 축을 따른 잔류 신호의 일부의 선형 변환을 언급하기 위해 용어 "시간 왜곡"을 자주 사용한다. 주어진 보간된 적응 코드북 윤곽의 정확도를 결정하기 위하여, 수학적 측정 기준이 이용될 수 있다. 현재의 RCELP 코딩에 이용되는 기준은, ( i ) T가 시간 시프트이고, n이 양의 정수이며, r이 잔류 신호의 순간 진폭인, 시간 시프트된 잔류 신호 r(m-T) 와, (ⅱ) e가 (n-D(n))의 함수를 나타내고, 여기서, D(n)이 적응 코드북 지연 함수이고, n이 양의 정수이며, e가 적응 코드북 여기의 순간 진폭을 나타내는, 여기(excitation)에의 적응 코드북 기여 e(n-D(n)) 사이의 상관 관계를 최대화(즉, 평균 제곱 오차(mean-squared error)를 최소화)하는 것이다. 그 정합 절차는 다음식(1),
로 정의된 평균 제곱 오차를 최소화하는 시간 시프트 T에 대해 검색한다.
상기 기준은 선형 적응 코드북 지연 윤곽에 의해 가장 잘 서술되도록 잔류 음성 신호의 폐루프 수정을 발생시킨다. 시간 시프트 T에 대한 정보가 전송되지 않기 때문에, 이러한 시간 시프트 T는 계산 또는 추정되어야 한다. 그러므로, 시간 시프트 T의 최대 해상도는 현재의 시스템 하드웨어의 계산 제한들에 의해서만 제한된다. 상기 인용된 폐루프 기준의 이용은, 적응 코드북 신호가 잔류 음성 신호와 낮은 상관 관계를 갖는 음성 세그먼트들(예를 들어, 비주기적 음성 세그먼트들)에 있어서, 정합 기준으로부터 유도된 시간 시프트 T가 종종 수정된 잔류 음성 신호에서 아티팩트들(바람직하지 못한 특징들)을 발생시키기 때문에, 불리하다.
현재의 RCELP 코더들은 피치 펄스 주위에 집중된 에너지가 신호의 평균 에너지보다 훨씬 크다는 가정을 기초로 한다. 픽셀 펄스들만이 시프트 처리된다. 최근의 테스트들은 이러한 가정이 몇몇 소스 재료에는 유효하지 않음을 보여주었다. 그러므로, 시간 시프팅이 주어진 서브프레임 내에 적용되어야 하는 지의 여부를 결정하기 위해 새로운 피크 대 평균(peak-to-average) 비의 기준을 개발해야 할 필요성이 있다.
음성이 복수의 시간적으로 정의된 프레임들로 디지털화되고, 각 프레임은 복수의 서브프레임을 포함하고, 각 프레임은 바로 앞의 프레임에 대하여 피치에서의 변화를 지정하는 피치 지연 값을 나타내고, 각 서브프레임은 복수의 샘플들을 포함하며, 디지털화된 음성은 주기 성분들과 잔류 신호로 분할되는, 음성 코딩 방법들과 함께 사용하기 위한 개량형 음성 코딩 방법이다. 잔류 신호의 복수의 서브프레임 각각에 대해, 개량형 음성 코딩 방법은, (a) 잔류 신호의 현재 서브프레임과, (b) 현재 서브프레임에서의 n개의 샘플들 각각에 대한 샘플간의 피치 지연값들에, 정합(matching) 기준을 적용함으로써 서브프레임에 시간 시프트 T를 선택 및 적용하며, 이들 피치 지연 값들은 선행하는 프레임들의 프레임간의 경계들에서 또는 그 근처에서 발생하는 알려진 피치 지연들에 선형 보간을 적용하여 결정되는 것을 특징으로 한다. 정합 기준은 음성 코딩 시스템의 인지 성능(perceived performance)을 개선한다. 정합 기준은 다음 식 (2)와 같다.
상기 식에 있어서, 표현 r(n-T)는 시간 T만큼 시프트된 현재 프레임의 잔류 신호의 순간 진폭을 나타내고, 표현 r(n-D(n))은 앞서 발생하는 프레임으로부터의 지연된 잔류 신호의 순간 진폭을 나타내며, 여기서, n은 양의 정수이고, D(n)은 프레임간의 경계들에서 또는 근처에서 발생되는 알려진 피지 지연값들에 선형 보간을 적용하여 n개의 샘플들 각각에 대해 결정된 샘플간의 피치 지연 값들을 나타내고, 각 서브프레임은 복수의 샘플을 포함하며, 동일한 신호의 시간 시프트된 버전에 대한 잔류 신호의 상관 관계를 나타내는 것으로서 개념화될 수 있다.
상기 방법에 있어서, 현재 서브프레임에서의 잔류 신호의 피치 지연은 개루프(open-loop) 방법에서 선행하는 서브프레임들로부터 얻어진 잔류 신호의 보간된 피치 지연을 정합하기 위해 수정된다. 다시 말해, 시간 시프트는 적응 코드북 여기로부터 얻어진 "피드백"을 이용하여 결정되지 않는다. 식 (1)에서 설명된 종래기술의 기준은 이러한 적응 코드북 여기를 나타내기 위해 항 e(n-D(n))을 이용하지만, 본 명세서에 기재된 노드 기준은 적응 코드북 여기에 대한 항을 포함하지 않음을 유의한다. 개루프 접근 방법의 이용은 샘플간의 피치 지연과 잔류 신호 사이의 상관 관계에 대한 시간 시프트의 의존을 제거한다. 이러한 기준은 적응 코드북 여기 e(n-D(n))와 잔류 신호 r(n) 사이의 시간적 비정렬들(temporal misalignments)을 보상한다.
다른 실시예에서는 시간 시프트된 잔류 신호에서의 부가적인 아티팩트들(바람직하지 않은 특성들 및/또는 에러 정보)을 제거하기 위한 개선된 시간 시프팅 제한들을 설명한다. 실제적인 문제로서, 잔류 신호를 시간 시프트하는 것의 한가지 효과는 시간에 걸친 피치 주기의 변화가 원래의 음성 신호의 피치 내용에 대해 보다 더 균일하게 되는 것이다. 상기 효과는 일반적으로 발음된 음성을 인지되게 변화시키지 않지만, 때때로, 발음되지 않은 음성 동안 주기성에서의 가청가능한 증가를 발생시킨다. 상기 정의된 정합 기준[식(2)]을 이용하면, 특정 시간 시프트 T best 는 ε을 최소화 또는 실질적으로 감소시키기 위해 선택된다. 상기 기술한 것처럼, ε은 동일한 신호의 시간 시프트된 버전에 대한 잔류 신호의 상관 관계를 나타낸다. 정규화된 상관 관계 측정은 다음 식(3)으로 정의된다.
비록 잔류 신호를 시간 시프팅하는 것이 비주기적인 음성 세그먼트들로의 주기성의 바람직하지 않은 도입을 일으킬 수 있더라도, 이러한 효과는 G opt 가 지정된 문턱값보다 작을 때 주어진 서브프레임 내의 잔류 신호를 시간 시프팅하지 않음으로써 실질적으로 감소될 수 있다. 다음의 식으로 정의된 피크 대 평균 비의 기준은,
피크 대 평균=(잔류 신호에서의 펄스의 에너지)/(잔류 신호의 평균 에너지)으로 되고, 주어진 서브프레임 내에서 잔류 신호에 시간 시프팅이 적용되어야 하는지의 여부를 결정하기 위해 이용된다. 만일, 피크 대 평균(peak-to-average)이 지정된 문턱값보다 더 크다면, 시간 시프팅은 주어진 서브프레임 내에 적용되지 않으며, 다른 말로 하면 시간 시프팅은 잔류 신호에 적용된다.
도 1은 본 발명의 예시적인 실시예를 설명하는 하드웨어 블록도.
도 2는 도 1의 하드웨어를 이용하여 실행될 수 있는 동작 시퀀스를 설명하는 위한 소프트웨어 흐름도.
도 3A 및 도 3B는 도 1의 시스템에 의해 처리된 여러 예시적인 파형들을 도시한 파형도.
* 도면의 주요 부분에 대한 부호의 설명*
101. . .디지털 음성 신호 103. . .선형 예측 코딩(LPC) 필터
105. . .피치 추출기 107. . .시간 왜곡 장치 및 지연 라인
109. . .잔류 신호 r(n) 111. . .피치 보간기
115. . .신호 정합 장치 117. . .적응 코드북
119. . .적응 코드북 벡터 e(n) 123. . .합산기
127. . .시간 시프트된 잔류 신호 r'(n) 128. . .이득 양자화기
도 1을 참조하면, 본 발명의 예시적인 실시예를 설명하는 하드웨어 블록도이다. 디지털화된 음성 신호(101)는 피치 추출기(105)에 입력된다. 디지털화된 음성 신호(101)는 복수의 시간적으로 정의된 프레임들로 구성되고, 각 프레임은 현재의 음성 코딩 기술들에 따라, 복수의 시간적으로 정의된 서브프레임들로 구성된다. 이들 프레임들 각각은 주어진 프레임의 미리 정의된 기준점으로부터 바로 선행하는 프레임의 미리 정의된 점까지의 피치 값의 변화를 지정하는 피치 지연 파라미터를 포함한다. 이들 미리 정의된 기준점들은 프레임의 시작에 관련된 지정된 위치에서 유지되고, 프레임간의 경계에서 또는, 그 근처에 통상적으로 위치하게 된다. 피치 추출기(105)는 음성 신호(101)로부터 이러한 피치 지연 파라미터를 추출한다. 피치 추출기(105)에 연결된 피치 보간기(111)는 음성 신호(101)의 각 서브프레임에 대한 보간된 피치 지연값들을 계산하기 위해 피치 추출기(105)에 의해 얻어진 피치 지연 파라미터에 선형 보간 기술들을 적용시킨다. 상기 방법에 있어서, 피치 지연 값들은 프레임간의 경계 또는 근처에 있지 않은 음성 신호(101)의 부분들에 대해 보간된다. 각 서브프레임은 음성 신호(101)의 주어진 디지털 샘플을 나타내는 것으로 개념화될 수 있는데, 이 경우에, D(n)으로 표기된 피치 보간기(111)의 출력은 선형으로 보간된 샘플간의 피치 지연을 나타낸다. 그 다음에, 선형으로 보간된 샘플간의 피치 지연 D(n)은 적응 코드북(117)에 입력되고, 하기에서 더 상세히 서술될 시간 왜곡 장치 및 지연 라인(107)에도 입력된다.
음성 신호(101)는 선형 예측 코딩(LPC) 필터(103)에 입력된다. LPC 필터 (103)를 위한 적당한 필터 설계의 선택은 이 기술 분야에 숙련된 사람들의 지식 내의 문제이며, 사실상, 임의의 현재의 LPC 필터 설계가 LPC 필터(103)를 위해 이용될 수 있다. LPC 필터(103)의 출력은 잔류 신호 r(n)(109)이다. 잔류 신호 r(n)(109)는 시간 왜곡 장치 및 지연 라인(107)에 공급된다. 잔류 신호 r(n)(109)와 선형으로 보간된 샘플간의 피치 지연 D(n)에 기초하여, 시간 왜곡 장치 및 지연 라인(107)은 잔류 신호 r(n)(109)에 시간적 왜곡을 적용한다. 용어 "시간적 왜곡"은 잔류 신호 r(n)의 일부분이 시간을 나타내는 축을 따라 지정된 양만큼 선형으로 변환됨을 의미한다. 다시 말해, 시간 왜곡 장치 및 지연 라인(107)은 선택된 양의 시간 시프트 T를 잔류 신호 r(n)(109)의 일부분에 적용한다. 시간 왜곡 장치 및 지연 라인(107)은 시간 시프트 T의 복수의 알려진 값들 각각을 잔류 신호 r(n)의 일부분에 적용하도록 적응되고, 그에 의해, 복수의 시간적으로 왜곡된 잔류 신호들 r(n)을 발생시킨다. 이러한 복수의 시간적으로 왜곡된 잔류 신호들 r(n)은 시간 시프트 T에 대한 최적 또는 최량의 값을 결정하기 위해 발생된다.
시간 시프트 T에 대한 최적 또는 최량의 값을 결정하기 위해, 신호 정합 장치(115)가 이용된다. 잔류 신호 r(n)의 복수의 시간적으로 왜곡된 버전을 나타내는 시간 왜곡 장치 및 지연 라인(107)의 출력은 신호 정합 장치(115)에 입력된다. 신호 정합 장치(115)는 지연된 잔류 신호 r(n-D(n))와 잔류 신호 r(n-T)의 일시적으로 왜곡된 버전들 각각을 비교하고, 다음의 식 (2)
로 표기된 정합 기준에 따라 잔류 신호 r(n-T)의 최상의 일시적으로 왜곡된 버전을 선택한다.
상기 식에 있어서, 표현 r(n-T)는 시간 T만큼 시프트된 현재 프레임의 잔류 음성 신호를 나타내고, 표현 r(n-D(n))은 앞서 발생하는 프레임으로부터 지연된 잔류 신호를 나타내며, 여기서, n은 양의 정수이고, r은 잔류 신호의 순간 진폭이며, D(n)은 적응 코드북 지연 함수를 나타낸다. r'(n)(127)으로 표기된, 신호 정합 장치(115)의 출력은 잔류 신호 r(n)(109)의 시간 시프트된 버전을 나타내는데, 여기서, r(n)은 T best 만큼 시간적으로 시프트(선형으로 트랜스레이팅)되었다.
D(n)으로 표기된, 피치 보간기(111)의 출력은 적응 코드북(117)에 입력된다. 적응 코드북(117)은 종래의 설계로 구성될 수 있지만, 그럴 필요성은 없다. 적응 코드북(117)을 수행하는데 적당한 장치의 선택은 이 기술 분야에 숙련된 사람들의 지식 내의 문제이다. 일반적으로, 적응 코드북(117)은 적응 코드북 벡터 e(n)(119)로 언급되는, 대응하는 벡터에 D(n)을 맵핑하여, D(n)과 같은 입력 신호에 응답한다.
적응 코드북 벡터 e(n)(119) 및 시간 시프트된 잔류 신호 r'(n)(127)는 이득 양자화기(128)에 입력된다. 이득 양자화기(128)는g*e(n)으로 표기된 출력 신호를 발생하기 위해 이득 g에 의해 적응 코드북 벡터 e(n)(119)의 진폭을 조정한다. 이득 g은g*e(n)의 진폭이 r'(n)(127)의 진폭과 동일한 정도의 크기가 되도록 선택된다. r'(n)(127)은 합산기(summer)(123)의 제 1 비반전 입력에 공급되고,g*e(n)은 합산기(123)의 제 2 반전 입력에 공급된다. 합산기(123)의 출력은 고정 코드북 검색을 위한 목표 벡터(125)를 나타낸다.
도 2는 도 1의 하드웨어를 이용하여 실행될 수 있는 동작 시퀀스를 나타내는 소프트웨어 흐름도이다. 블록(201)에서는, 음성 신호(101)(도 1)의 각 서브프레임에 대해 프로그램이 새로이 시작된다. 다음으로, 블록(203)에서는, 샘플 단위로 선형으로 보간된 피치 지연 D(n)이 각 샘플에 대해 계산된다. 상기 계산은 각 프레임간 경계에서 또는 그 근처에 지정된 피치 지연 값들에 선형 보간을 적용하여 실행된다. r(n-D(n))으로 표기된 지연된 잔류 신호는 블록(205)에서 계산된다. T best 의 값은 다음의 식,
의 엡실론 ε의 값을 최소화하기 위해 블록(207)에서 선택된다.
블록(209)에서는, G opt 의 값은 다음의 식을 이용하여 계산된다.
그 다음에, 블록(211)에서는 G opt 가 제 1 지정된 문턱값보다 큰지 여부를 확인하기 위해 테스트가 수행된다. 만일, 크지 않으면, 프로그램은 블록(201)으로 귀환한다. 만일, 크다면, 프로그램은 블록(213)으로 진행하여, 잔류 신호 r(n)의 피크 대 평균 비는 r(n)의 평균 에너지에 대한 r(n)의 피치 펄스의 에너지 비로서 계산된다. 블록(215)에서는, 피크 대 평균 비가 제 2 지정된 문턱값보다 큰지 여부를 확인하기 위해 테스트가 실행된다. 만일, 크지 않다면, 프로그램은 블록(201)로 복귀한다. 만일, 크다면, 프로그램은 T best 만큼 시간적으로 r(n)을 시프팅(블럭 217)하여 잔류 신호 r(n)을 수정하고, 프로그램은 블록(201)으로 귀환한다.
도 3A 및 도 3B는 도 1의 시스템에 의해 처리되는 다양한 예시적인 파형들을 도시하는 파형도들이다. 도 3A는 예시적인 잔류 신호 r(n)(301)를 도시하고, 도 3B는 예시적인 적응 코드북 여기 신호 D'(n)(307)를 도시한다. 이러한 적응 코드북 여기 신호 D'(n)(307)는 또한 적응 코드북 여기 e(n-D(n))(예를 들어, 식(1))로서 언급될 수 있다. 그러므로, D'(n)은 e(n-D(n))의 속기 표기(shorthand notation)이다. 잔류 신호 r(n)(301) 및 적응 코드북 여기 신호 D'(n)(307)는 수평 방향으로 도 3A 및 도 3B를 횡단하는 것으로 개념화될 수 있는 동일한 시간 스케일을 따라 그려진다. 제 1 서브프레임 경계(303) 및 제 2 서브프레임 경계(305)는 잔류 신호 r(n)(301) 및 적응 코드북 여기 신호 D'(n)(307)에 대한 서브프레임들을 정의한다. 실제적으로, D(n)을 포함하는, 적응 코드북 여기 신호 D'(n)(307)는 적응 코드북 (117)(도 1)으로부터 적응 코드북 벡터 e(n)(119)를 검색하기 위해 이용된다.
잔류 신호 r(n)(301)의 파형은 40,373454와 같은 실수로서 지정될 수 있는 특정 피치 주기를 갖는다는 점을 유의해야 한다. 그러나, 종래의 RCELP 기술들을이용하면, 정수값들은 적응 코드북 여기 D'(n)(307)의 피치 주기를 지정하기 위해 일반적으로 이용되고, 어떤 부가 비트들도 소수들(decimal fractions)을 표시하기 위해 이용되지 않는다. 만일, 부가 비트들이 실수 값들을 저장하는데 이용된다면, 그 결과적인 부가 비용 및 복잡도는 그러한 시스템이 비실용적이거나 및/또는 값비싸게 한다. 40.373454에 가장 가까운 정수는 40이기 때문에, 적응 코드북 여기 D'(n)(307)의 피치 주기는 40으로서 지정된다.
적응 코드북 여기 D'(n)(307)의 피치 주기가 잔류 신호 r(n)의 피치 주기에 동일하게 매칭되도록 항상 선택될 수 없기 때문에, 잔류 신호 r(n)(301)의 펄스와 적응 코드북 여기 D'(n)(307)의 대응하는 펄스 사이에 시간적인 비정렬(309)이 있게 된다. 현재의 RCELP 기술들은 적응 코드북 여기 D'(n)(307) 신호를 시간 시프팅하여 상기 시간적인 비정렬(309)을 보상하지만, 본 명세서에 개시된 기술들은 잔류 신호 r(n)(301)를 선택적으로 시간 시프팅하여 상기 시간적인 비정렬(309)을 보상한다.
본 명세서에 개시된 개량형 RCELP 기술들은 새로운 북미 CDMA 표준에 대한 Lucent Technologies 기술인 가변 레이트 코더(variable-rate coder)에서 구현되었다. 그 코더는 표준을 위한 코어 코더(core coder)로서 선택되었다. 표 1은 8.5kb/s의 피크 레이트와 약 4kb/s의 통상적인 평균 비트 레이트(최저 레이트는 800b/s)로 동작하는 코더의 MOS(mean opinion score, 평균 오피니언 스코어) 결과들을 나타낸다. 평균 오피니언 스코어들은 청취자들이 주어진 오디오 샘플에 적용하는 품질 등급(quality rating)을 나타낸다. 개개의 청취자들은 샘플이 열악한 품질이라면, 주어진 오디오 샘플에 1의 스코어를 할당하도록 요청받는다. 2의 스코어는 불량함(bad)에 해당하고, 3은 적당함(fair)에 해당하며, 4는 양호함(good)을 나타내며, 5는 훌륭함을 나타낸다. 평균 오피니언 스코어들 사이의 최소의 통계상 중요한 차이는 0.1이다.
평균 오피니언 스코어들(MOS)
<표 1>
상기 표로부터, 적응 코드북 지연에 대해 단지 350 b/s 만을 이용하여, 장거리 통화 품질(toll-quality)(MOS=4) 음성을, 개선된 일반화된 합성에 의한 분석 메카니즘이 허용하는 것을 알 수 있다. 용장 적응 코드북 지연 정보에 대한 부가적인 250 b/s는 코더가 3% 프레임 삭제하에 3.5의 MOS를 유지하는 것을 허용한다.
본 발명의 개량형 음성 코딩 방법에 의하면, 이완 코드 여기 선형 예측 기술을 사용하는 음성 코드화용 코더의 인식 성능이 개선된다.

Claims (5)

  1. 음성이 복수의 시간적으로 정의된 프레임들로 디지털화되고, 각 프레임은 지정된 시간 구간 동안 존재하는 현재 서브프레임을 포함하는 복수의 서브프레임들을 갖고, 각 프레임은 바로 앞의 프레임에 대하여 피치에서의 변화를 지정하는 피치 지연 값을 가지며, 각 서브프레임은 복수의 샘플들을 포함하고, 상기 디지털화된 음성은 주기 성분들과 잔류 신호로 분할되는, 음성 코딩 방법들과 함께 사용하기 위한 개량형 음성 코딩 방법에 있어서,
    (a) 상기 잔류 신호의 복수의 서브프레임들 각각에 대해, (i) 상기 잔류 신호의 현재 서브프레임, 및 (ⅱ) 앞서 발생하는 프레임으로부터의 지연된 잔류 신호에 기초하여, 시간 시프트 T를 결정하는 단계와,
    (b) 단계 (a)에서 결정된 상기 시간 시프트 T를 상기 잔류 신호의 상기 현재 서브프레임에 적용하는 단계를 포함하는, 개량형 음성 코딩 방법.
  2. 제 1 항에 있어서,
    상기 시간 시프트 T는로 정의되는 정합 기준을 사용하여 결정되고,
    r(n-T)는 시간 T만큼 시프트된 상기 현재 프레임의 잔류 신호이고, r(n-D(n))은 앞서 발생하는 프레임으로부터의 지연된 잔류 신호이며, n은 양의 정수이고, r은 상기 잔류 신호의 순간 진폭이며, D(n)은 프레임간 경계들에서 또는 프레임간 경계들 근처에서 발생하는 알려진 피치 지연값들에 선형 보간을 적용함으로써 결정된 샘플간의 피치 지연을 나타내는 것을 특징으로 하는, 개량형 음성 코딩 방법.
  3. 제 2 항에 있어서,
    상기 시간 시프트 T는 상기 정합 기준 ε을 최소화하도록 결정되고,
    ε은 상기 잔류 신호의 서브프레임 및 그 잔류 신호의 시간 시프트된 버전사이의 상관 관계를 나타내는 것을 특징으로 하는, 개량형 음성 코딩 방법.
  4. 제 3 항에 있어서,
    정규화된 상관 관계 측정치 G opt 이 지정된 문턱값보다 크거나 같을 경우에만, 상기 잔류 신호의 서브프레임이 시간 시프트 T만큼 시간 시프트되고,
    상기 G opt 는,
    로서 정의되는 것을 특징으로 하는, 개량형 음성 코딩 방법.
  5. 제 4 항에 있어서,
    상기 잔류 신호의 서브프레임이, (a) G opt 가 지정된 제 1 문턱값보다 크거나 같은 경우, 및 (b) 피크 대 평균 비가 지정된 제 2 문턱값보다 크거나 같은 경우에만, 시간 시프트 T만큼 시간 시프트되고,
    상기 피크 대 평균 비는 서브프레임에서의 상기 잔류 신호의 평균 에너지에 대한 상기 잔류 신호의 그 서브프레임에서의 펄스의 에너지의 비로서 정의되고, 이에 의해 비주기적인 음성 세그먼트들로의 바람직하지 않은 주기성의 도입을 제거하거나 감소시키는 것을 특징으로 하는, 개량형 음성 코딩 방법.
KR1019960040757A 1995-09-19 1996-09-19 개량형 음성 코딩 방법 KR100444635B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/530,040 US5704003A (en) 1995-09-19 1995-09-19 RCELP coder
US530,040 1995-09-19

Publications (2)

Publication Number Publication Date
KR970017170A KR970017170A (ko) 1997-04-30
KR100444635B1 true KR100444635B1 (ko) 2005-02-02

Family

ID=24112207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960040757A KR100444635B1 (ko) 1995-09-19 1996-09-19 개량형 음성 코딩 방법

Country Status (6)

Country Link
US (1) US5704003A (ko)
EP (1) EP0764940B1 (ko)
JP (1) JP3359506B2 (ko)
KR (1) KR100444635B1 (ko)
CA (1) CA2183283C (ko)
DE (1) DE69615119T2 (ko)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1553564A3 (en) * 1996-08-02 2005-10-19 Matsushita Electric Industrial Co., Ltd. Voice encoding device, voice decoding device, recording medium for recording program for realizing voice encoding /decoding and mobile communication device
KR100437900B1 (ko) * 1996-12-24 2004-09-04 엘지전자 주식회사 음성코덱의음성데이터복원방법
US6131084A (en) * 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
US6161089A (en) * 1997-03-14 2000-12-12 Digital Voice Systems, Inc. Multi-subframe quantization of spectral parameters
WO1999010719A1 (en) 1997-08-29 1999-03-04 The Regents Of The University Of California Method and apparatus for hybrid coding of speech at 4kbps
JP3252782B2 (ja) 1998-01-13 2002-02-04 日本電気株式会社 モデム信号対応音声符号化復号化装置
JP3180762B2 (ja) * 1998-05-11 2001-06-25 日本電気株式会社 音声符号化装置及び音声復号化装置
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6240386B1 (en) * 1998-08-24 2001-05-29 Conexant Systems, Inc. Speech codec employing noise classification for noise compensation
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6113653A (en) * 1998-09-11 2000-09-05 Motorola, Inc. Method and apparatus for coding an information signal using delay contour adjustment
US6311154B1 (en) 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
US6223151B1 (en) * 1999-02-10 2001-04-24 Telefon Aktie Bolaget Lm Ericsson Method and apparatus for pre-processing speech signals prior to coding by transform-based speech coders
US6523002B1 (en) * 1999-09-30 2003-02-18 Conexant Systems, Inc. Speech coding having continuous long term preprocessing without any delay
CA2390200A1 (en) * 1999-11-03 2001-05-10 Charles W. K. Gritton Integrated voice processing system for packet networks
US7068644B1 (en) * 2000-02-28 2006-06-27 Sprint Spectrum L.P. Wireless access gateway to packet switched network
US6581030B1 (en) * 2000-04-13 2003-06-17 Conexant Systems, Inc. Target signal reference shifting employed in code-excited linear prediction speech coding
US6728669B1 (en) * 2000-08-07 2004-04-27 Lucent Technologies Inc. Relative pulse position in celp vocoding
US6879955B2 (en) * 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
JP4108317B2 (ja) * 2001-11-13 2008-06-25 日本電気株式会社 符号変換方法及び装置とプログラム並びに記憶媒体
CA2365203A1 (en) * 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
US20040098255A1 (en) * 2002-11-14 2004-05-20 France Telecom Generalized analysis-by-synthesis speech coding method, and coder implementing such method
US7394833B2 (en) * 2003-02-11 2008-07-01 Nokia Corporation Method and apparatus for reducing synchronization delay in packet switched voice terminals using speech decoder modification
GB2400003B (en) * 2003-03-22 2005-03-09 Motorola Inc Pitch estimation within a speech signal
US7808940B2 (en) * 2004-05-10 2010-10-05 Alcatel-Lucent Usa Inc. Peak-to-average power ratio control
US8265929B2 (en) * 2004-12-08 2012-09-11 Electronics And Telecommunications Research Institute Embedded code-excited linear prediction speech coding and decoding apparatus and method
AU2006232360B2 (en) 2005-04-01 2010-04-29 Qualcomm Incorporated Method and apparatus for split-band encoding of speech signals
EP1875463B1 (en) * 2005-04-22 2018-10-17 Qualcomm Incorporated Systems, methods, and apparatus for gain factor smoothing
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
US8260609B2 (en) 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
US7987089B2 (en) * 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US8725499B2 (en) * 2006-07-31 2014-05-13 Qualcomm Incorporated Systems, methods, and apparatus for signal change detection
US8532984B2 (en) * 2006-07-31 2013-09-10 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of active frames
JP5596341B2 (ja) * 2007-03-02 2014-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声符号化装置および音声符号化方法
US8521519B2 (en) * 2007-03-02 2013-08-27 Panasonic Corporation Adaptive audio signal source vector quantization device and adaptive audio signal source vector quantization method that search for pitch period based on variable resolution
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
US20090319263A1 (en) * 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
US20090319261A1 (en) * 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
US8768690B2 (en) * 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
CA2836871C (en) 2008-07-11 2017-07-18 Stefan Bayer Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
US8504378B2 (en) * 2009-01-22 2013-08-06 Panasonic Corporation Stereo acoustic signal encoding apparatus, stereo acoustic signal decoding apparatus, and methods for the same
US20130283231A1 (en) * 2010-11-24 2013-10-24 Van Megchelen & Tilanus B.V. Method and System for Compiling a Unique Sample Code for an Existing Digital Sample
US9640185B2 (en) 2013-12-12 2017-05-02 Motorola Solutions, Inc. Method and apparatus for enhancing the modulation index of speech sounds passed through a digital vocoder
CN105788601B (zh) * 2014-12-25 2019-08-30 联芯科技有限公司 VoLTE的抖动隐藏方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0418958A2 (en) * 1989-09-20 1991-03-27 Koninklijke KPN N.V. Method and device for converting an analog input signal into control codes and for synthesizing a corresponding output signal under the control of those control codes
EP0500961A1 (en) * 1990-09-14 1992-09-02 Fujitsu Limited Voice coding system
JPH04277800A (ja) * 1991-03-06 1992-10-02 Fujitsu Ltd 音声符号化方式
EP0539103A2 (en) * 1991-10-25 1993-04-28 AT&T Corp. Generalized analysis-by-synthesis speech coding method and apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement
EP0392126B1 (en) * 1989-04-11 1994-07-20 International Business Machines Corporation Fast pitch tracking process for LTP-based speech coders
JP3254687B2 (ja) * 1991-02-26 2002-02-12 日本電気株式会社 音声符号化方式
US5339384A (en) * 1992-02-18 1994-08-16 At&T Bell Laboratories Code-excited linear predictive coding with low delay for speech or audio signals
CA2102080C (en) * 1992-12-14 1998-07-28 Willem Bastiaan Kleijn Time shifting for generalized analysis-by-synthesis coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0418958A2 (en) * 1989-09-20 1991-03-27 Koninklijke KPN N.V. Method and device for converting an analog input signal into control codes and for synthesizing a corresponding output signal under the control of those control codes
EP0500961A1 (en) * 1990-09-14 1992-09-02 Fujitsu Limited Voice coding system
JPH04277800A (ja) * 1991-03-06 1992-10-02 Fujitsu Ltd 音声符号化方式
EP0539103A2 (en) * 1991-10-25 1993-04-28 AT&T Corp. Generalized analysis-by-synthesis speech coding method and apparatus

Also Published As

Publication number Publication date
JP3359506B2 (ja) 2002-12-24
JPH09185398A (ja) 1997-07-15
DE69615119T2 (de) 2002-04-25
US5704003A (en) 1997-12-30
EP0764940A2 (en) 1997-03-26
EP0764940B1 (en) 2001-09-12
CA2183283C (en) 2001-02-20
EP0764940A3 (en) 1998-05-13
DE69615119D1 (de) 2001-10-18
KR970017170A (ko) 1997-04-30
CA2183283A1 (en) 1997-03-20

Similar Documents

Publication Publication Date Title
KR100444635B1 (ko) 개량형 음성 코딩 방법
EP2017829B1 (en) Forward error correction in speech coding
EP1454315B1 (en) Signal modification method for efficient coding of speech signals
EP1235203B1 (en) Method for concealing erased speech frames and decoder therefor
KR100426514B1 (ko) 복잡성이감소된신호전송시스템
EP1420391B1 (en) Generalized analysis-by-synthesis speech coding method, and coder implementing such method
US6169970B1 (en) Generalized analysis-by-synthesis speech coding method and apparatus
Kleijn et al. Generalized analysis-by-synthesis coding and its application to pitch prediction
JP3770925B2 (ja) 信号符号化方法とその装置
US6113653A (en) Method and apparatus for coding an information signal using delay contour adjustment
JP3168238B2 (ja) 再構成音声信号の周期性を増大させる方法および装置
JPH0782360B2 (ja) 音声分析合成方法
Chibani et al. Fast recovery for a CELP-like speech codec after a frame erasure
JP3662597B2 (ja) 一般化された合成による分析音声符号化方法と装置
JPH05224698A (ja) ピッチサイクル波形を平滑化する方法及び装置
JPH08202398A (ja) 音声符号化装置
Yang et al. Voiced speech coding at very low bit rates based on forward-backward waveform prediction (FBWP)
JPH05165498A (ja) 音声符号化方法
EP1212750A1 (en) Multimode vselp speech coder
JPH05289696A (ja) 音声の符号化方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130726

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140725

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20150724

Year of fee payment: 12

EXPY Expiration of term