KR100310811B1 - 정보 신호 코드화 방법 및 장치 - Google Patents

정보 신호 코드화 방법 및 장치 Download PDF

Info

Publication number
KR100310811B1
KR100310811B1 KR1019990019337A KR19990019337A KR100310811B1 KR 100310811 B1 KR100310811 B1 KR 100310811B1 KR 1019990019337 A KR1019990019337 A KR 1019990019337A KR 19990019337 A KR19990019337 A KR 19990019337A KR 100310811 B1 KR100310811 B1 KR 100310811B1
Authority
KR
South Korea
Prior art keywords
codebook
configuration
information signal
speech
signal
Prior art date
Application number
KR1019990019337A
Other languages
English (en)
Other versions
KR19990088610A (ko
Inventor
펭웨이민
애슐리제임스패트릭
Original Assignee
비센트 비.인그라시아, 알크 엠 아헨
모토로라 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비센트 비.인그라시아, 알크 엠 아헨, 모토로라 인코포레이티드 filed Critical 비센트 비.인그라시아, 알크 엠 아헨
Publication of KR19990088610A publication Critical patent/KR19990088610A/ko
Application granted granted Critical
Publication of KR100310811B1 publication Critical patent/KR100310811B1/ko

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

정보 신호를 코드화시켜 정보 신호 본래의 파라미터들에 기초하는 코드북 컨피겨레이션(codebook configuration)을 변화시키는 음성 코더(400)를 제공한다. 상기 음성 코더(400)에는 서브프레임 레졸루션(subframe resolution)을 가능하게 하면서 모드 파라미터의 전송을 행하기 위한 어떤 추가의 오버헤드 필요없다. 상기 컨피겨레이션은 서로 다른 생리학적 특성(physiological traits)이 서로 다른 코드북 컨피겨레이션을 만들어내기 때문에 음성 레벨에서 뿐아니라 피치 주기에 대해서도 변화된다. 음성 코더(400) 내의 분산 매트릭스(406)는 벡터적으로 수행되는 코드북 탐색을 원활히하여 그 길이가 서브프레임 길이보다 작아질 수 있게 한다. 또한, 분산 매트릭스(dispersion matrix:406)의 사용에 의하여 충분한 익사이테이션(excitation)을 생성하지만 연산적 오버헤드(computational overhead)가 거의 발생하지 않는 매우 미소한 음성에 대해서도 추가의 랜덤 이벤트가 가능하다.

Description

정보 신호 코드화 방법 및 장치{METHOD AND APPARATUS FOR CODING AN INFORMATION SIGNAL}
본 발명은 통신 시스템에 관한 것으로, 더 상세히는 이러한 통신 시스템에서의 정보 신호를 코드화시키는 것에 관한 것이다.
코드 분할 다중 액세스(Code-Division Multiple Access: CDMA) 통신 시스템은 공지되어 있다. CDMA 통신 시스템의 일예로서 통신 산업 협정(Telecommunications Industry Association; TIA)에 의해 북미에서 사용하도록 정의된 소위 IS-95가 있다. IS-95에 대해 좀더 상세한 정보로서, 1997년 1월 워싱턴 D.C. 20006, 아이 스트리트 2001의 전자 산업 협정(EIA)에 의해 공개된 이중 모드 광대역 확산 스펙트럼 셀룰라 시스템에 대한 이동국-기지국 호환 표준안(Mobile Station-Base-Station Compatibility Standard for Dual Mode Wideband Spread Spectrum Celluar System)인 ITIA/EIA/IS-95를 참조하기 바란다. 1996년 9월, 가변 레이트 음성 코덱, 더 상세히는 IS-95와 호환성을 갖는 통신 시스템에서 사용되는 코드 익사이테이션된 선형 예측(Code Excited Linear Prediction(CELP)) 코덱으로 IS-127로서 알려져 있는 도큐먼트에서 정의되고, 명칭이 'Enhanced VariableRate Codec, Speech Service Option 3 for Wideband Spread Digital Systems'이다. 또한 IS-127은 워싱턴 D.D. 20006, N.W. 아이 스트리트 2001의 전자 산업 협정(EIA)에 의해 공개되었다.
현재의 CELP 디코더에서는, 낮은 비트 레이트로 높은 품질의 음성 재생을 유지하는 데 문제가 있다. 이러한 문제는 CELP 합성기에 대한 자극(stimulus)'으로서 사용되는 'excitation' 시퀀스 또는 'codevector' 를 적당히 모델링하여 사용가능한 비트는 거의 없다는데서 발생한다. 따라서, 이러한 종래 기술의 문제점을 극복하기 위해 개선된 방법 및 장치가 필요하다.
일반적으로, 정보 신호를 코드화시키는 음성 코더는 정보 신호 본래의 파라미터에 기초한 코드북 컨피겨레이션(codebook configuration)을 변화시킨다. 음성 코더는 서브프레임 레졸루션(subframe resolution)을 가능케하는 모드 파라미터(mode parameter)의 전송을 위해 어떤 추가되는 오버헤드도 필요치 않다. 이러한 컨피겨레이션은 상이한 생리학적 특성이 서로 다른 코드북 컨피겨레이션을 산출하기 때문에 음성 레벨 뿐아니라 피치 주기 동안에도 변화된다. 음성 코더 내의 분산 매트릭스(dispersion matrix)는 벡터적으로 수행되는 코드북 탐색을 활성화시켜 그 길이가 서브프레임 길이보다 적어질 수 있게 한다. 또한, 분산 매트릭스의 사용에 의하면 충분한 익사이테이션(excitation)을 생성하지만 연산적 오버 헤드는 거의 발생하지 않는 매우 미소한 음성에 대해서는 추가의 랜덤 이벤트가 가능하다.
상세히 설명하자면, 정보 신호를 코드화시키는 방법은 정보 신호에 관련되어 미리 결정된 파라미터에 기초한 복수개 컨피겨레이션 중 하나를 선택하는 단계로서, 상기 복수개 컨피겨레이션 각각은 코드북을 갖고 선택된 컨피겨레이션에 대응하는 코드북으로부터 코드북 인덱스를 결정한다. 이 방법은 또한 미리 결정된 파라미터와 코드북 인덱스를 목적지에 제공하는 단계를 포함한다. 바람직한 실시에에서, 정보 신호는 음성 신호, 비디오 신호 또는 오디오 신호와, 다양히 분류된 정보 신호에 기초한 컨피겨레이션을 포함한다. 이러한 사상에 대응하는 장치는 창의적인 방법을 실행한다.
도 1은 종래에 알려진 바와 같은 CELP 디코더를 도시하는 도면.
도 2는 종래에 알려진 바와 같은 코드 유발 선형 예측(CELP) 인코더를 도시하는 도면.
도 3은 종래에 알려진 바와 같은 피치 증강(pitch enhancement)에 의한 CELP-계 고정 코드북(FCB) 폐쇄 루프 인코더를 도시하는 도면.
도 4는 본 발명에 따른 가변 컨피겨레이션을 갖는 CELP-계 FCB 폐쇄 루프 인코더를 도시하는 도면.
도 5는 본 발명에 따른 도 4의 컨피겨레이션 제어 블럭 내에서 발생하는 프로세스를 설명하는 흐름도.
도 6은 본 발명에 따른 컨피겨레이션 제어를 수행하는 CELP 디코더를 도시하는 도면.
〈도면의 주요 부분에 대한 부호의 설명〉
402: 고정 코드북
404: 컨피겨레이션 제어
406: 분산 매트릭스 Λm
408: 제로 상태 가중 합성 필터
412: 에러 최소화 프로세스
도 1은 공지된 기술로서 통상의 코드 유발 선형 예측(Code Excited Linear Prediction; CELP) 디코더(100)를 도시한다. 현재의 CELP 디코더에서, 낮은 비트 레이트로 높은 물질의 음성 재생을 유지하는 데는 문제가 있다. 이러한 문제는 CELP 디코더(100)에 대한 자극으로서 사용되는 'excitation' 시퀀스 또는 'codevector' ck을 적합히 모델링하여 이용할 수 있는 비트가 거의 없기 때문에 발생한다.
도 1에 도시된 바와 같이, 익사이테이션 시퀀스 또는 '코드벡터' ck는 적당한 코드북 인덱스 k를 사용하여 고정 코드북(102: FCB)으로부터 발생된다. 이러한 신호는 FCB 이득 계수 γ를 사용하여 스케일링되어 적응형 코드북(adaptive codebook: 104)(ACB)으로부터의 출력 신호 E(n)과 결합되고 계수 β에 의해 스케일링되어, (주기 τ의) 음성 신호의 긴기간(주기) 성분을 모델링하기 위해 사용된다. 전체 익사이테이션을 나타내는 신호 Ei(n)는 LPC 합성 필터(106)에 대한 입력으로서 사용되어 'formants'으로서 공통적으로 언급되는 성긴 단기간 스펙트럼 형상(coarse short term spectral shape)을 모델링한다. 그런다음, 합성 필터(106)의 출력은 지각적 후치 필터(perceptual postfilter:108)에 의해 지각적으로 후치 필터링되어, 코딩 왜곡(coding distortion)은 높은 음성 에너지를 포함하는 주파수에서 신호 스펙트럼을 증폭시킴으로써 효율적으로 '마스크(masked)'되고, 좀더 낮은 음성 에너지를 포함하는 신호 스펙트럼 주파수를 감쇠시킨다. 또한, 전체 익사이테이션 신호 Ei(n)은 다음의 합성 음성 블럭에 대한 적응형 코드북으로서 사용된다.
도 2는 일반적인 CELP 인코더(200)를 도시한 것이다. CELP 인코더(200) 내에서, 지각적으로 가중된 타겟 신호(perceptually weighted target signal) xw(n)를 코드화시키는 데 그 목적이 있으며, 이는 일반적으로 z-변환식으로 표시될 수 있다..
여기서, W(z)는 지각적 가중 필터(208)의 변환 함수이고, 다음과 같다.
여기서, H(z)는 지각적 가중 합성 필터(206 및 210)의 변환 함수이고, 다음과 같다.
여기서, A(z)는 비양자화된 직접 형식 LPC 계수이고, Aq(z)는 양자화된 직접 형식 LPC 계수이고, λ1및 λ2는 지각적 가중 계수이다. 또한, Hzs(z)는 필터(206)로부터 H(z)의 '제로 상태' 응답이고, HzIR(z)은 필터(210)로부터의 H(z)의 '제로 입력 응답'으로, H(z)의 이전 상태는 입력되는 익사이테이션없이 전개될 수 있다. HZIR을 생성하기 위해 사용되는 초기 상태는 이전의 서브프레임으로부터의 전체 익사이테이션 상태 Ei(n)로부터 도출된다.
xw(n)을 생성하기 위해 필요한 파라미터에 대한 해결책으로서, 본 발명에 따른 고정 코드북(FCB) 폐쇄 루프 해석을 설명한다. 여기서, 코드북 인덱스 k는 지각적 가중 타겟 신호 xw(n)와 지각적 가중 익사이테이션 신호 ^Ck(n) 간의 평방근 오차(mean squared error)를 최소화시키도록 선택된다. 이는 시간 영역(time domain)에서 다음과 같은 형식으로 나타내질 수 있다.
여기서, Ck(n)은 FCB 코드북 인덱스 k에 대응하는 코드벡터이고, γk는 코드벡터 Ck(n)과 연관된 최적의 FCB 이득이고, h(n)은 지각적 가중된 합성 필터 H(z)의 임펄스 응답이고, M은 코드북 크기이고, L은 서브프레임 길이이며, *은 컨볼루션 프로세스(convolution process)이고, ^Cw(n) = γkCk(n)*h(n)이다. 바람직한 실시예에서, 음성은 20 밀리초(ms) 마다 코드화되고 각 프레임은 길이 L인 3개의 서브프레임을 포함한다.
수학식 4는 벡터 매트릭스 형식으로서 다음과 같이 나타내질 수 있다.
여기서, ck및 xw는 길이 L 컬럼 벡터이고, H는 L x L 제로 상태 컨볼루션 매트릭스이며;
τ는 적당한 벡터 또는 매트리스 변환을 나타낸다. 수학식 5는 다음과 같이 전개될 수 있다.
코드 벡터 ck에 대한 최적의 코드북 이득 γk는 상기 수학식의 (γk에 대한) 도함수를 0으로 설정함으로써 유도될 수 있다.
그리고 γk에 대해 풀면, 다음과 같이 산출된다.
이 논리량을 수학식 7에 대입하면 다음과 같다.
수학식 10에서의 제1항이 k에 대한 상수이기 때문에, 다음과 같이 기록될 수있다.
수학식 11로부터, 탐색과 관련된 연산적 부하가 가중하게 된 것은 수학식 11에서의 k에 의존하지 않는 1항을, dT= xT wH 및 Θ =HTH로 설정하여 미리 연산함으로써 피할 수 있다. 이를 행하면, 수학식 11은 다음과 같이 축소되며 이는 IS-127의 수학식 4.5.7.2-1과 등가이다. 이들 항을 미리 연산하는 프로세스는 '역방향 필터링(backward filtering)'로서 알려져 있다.
IS-127 하프 레이트의 경우(4.0 kbps)에서, FCB는 익사이테이션 벡터 ck가 3개의 제로가 아닌 값을 포함하는 경우에만 다중 펄스 컨피겨레이션(multipulse configuration)을 사용한다. ck내에 비-제로(non-zero) 성분이 거의 없기 때문에, 수학식 12와 관련된 계산은 비교적 덜 복잡해진다. 3개의 'pulse'로서, 단지 10개의 비트가 펄스 위치에 할당되고 3개의 서브프레임(길이 L= 53, 53, 54의) 각각에 대해 관련 부호를 부여한다. 이러한 컨피겨레이션에서, 관련 'track'은 ck의 3개펄스 각각에 대해 허용 가능한 위치(펄스 당 3 비트에 1 비트 합성 부호 +, -, +, 또는 -, +, -를 더함)를 정의한다. IS-127의 표 4, 5, 7, 4-1에 도시된 바와 같이, 펄스 1은 위치 0, 7, 14, …, 49를 점유할 수 있고, 펄스 2는 위치 4, 11, 18, …, 53을 점유할 수 있고, 펄스 3은 위치 4, 11, 18, …, 53을 점유할 수 있다. 이는 '간격을 둔 펄스 순열(interleaved pulse permutation)'으로서 알려져 있다. 3개 펄스의 위치는 수학식 12에서 83= 512회 수행되도록 최적화된다. 다음, 부호 비트는 이득항인 Υk의 부호에 따라 설정된다.
상술한 바와 같이, 익사이테이션 코드벡터 ck는 서로 다른 면을 갖는 음성 입력을 모델링할 만큼 충분히 로버스트(robust)하지는 않다. 이에 대한 주요 이유는 벡터 스페이스를 강제로 축소시키는 펄스는 거의 없기 때문이다. 음성에 좀더 잘 대처하기 위해 사용되는 일방법이 '피치 샤프닝(pitch sharpening)' 또는 '피치 증강(pitch enhancement)'이다. 도 3은 피치 증강에 의한 일반적인 CELP계 고정 코드북(FCB) 폐쇄 루프 인코더를 도시한다. 이 방법은 IS-127에서 사용되고, 적응형 코드북(adaptive codebook)이 피치 성분을 완전히 제거하지 않음을 가정하면, 고정 코드북의 출력에서 0- 상태 피치 필터 p(z)를 유도해낸다고 가정한다. 고정 코드북 출력에서의 0- 상태 피치 필터 P(z)를 추가하면 익사이테이션 신호 ck내로 좀더 주기적인 에너지를 유도해낸다. 본 발명의 이해를 돕기 위해, 이하에서 IS-127로 주어진 피치 증강 탐색 절차를 설명하기로 한다.
IS-127에 주어진 피치 샤프닝 필터 P(z)의 변환 함수는 다음과 같이 주어진다.
여기서, β는 적응형 코드북 이득이고 τ는 적응형 코드북 피치 주기이다. 수정된 컨피겨레이션에 대한 최소의 평방근 오차(Minimum Mean Squared Error: MMSE) 판정 조건(criteria)은 다음의 벡터 매트릭스로 나타내질 수 있다,
여기서 c' K는 피치 필터 입력이고, P는 L x L 매트릭스로 다음과 같이 주어진다.
본 예의 P, 피치 주기 τ는 서브프레임 길이 L보다 더 작지만, L/2 보다는 크다. τ < L/2(또는 L/3 등)이라면, β의 높은 차순 누승(예를 들어, β2, β3등)은 P의 왼쪽 하부에 대각선으로 나타날 것이며, τ 행/컬럼은 간격을 두고 떨어질 것이다. 유사하게, τ≥L이라면, P는 단위 매트릭스 I에 대한 디폴드일 것이다. 분명하게는, L/2≤τ<L로 가정된다.
평균 오차 에러 최소화 절차를 사용하면, 최적의 코드북 인덱스 k는 최대인 것으로 판정된다.
이제, H' = HP, H'로 설정함으로써, 다음과 같이 계산될 수 있다.
알 수 있는 바와 같이, 매트릭스 H의 요소들은 제로 상태 피치 증강 필터(zero-state pitch enhancement filter) P(z)를 통해 임펄스 응답 h를 단순히 필터링함으로써 다음과 같이 생성될 수 있다.
이는 IS-127에서의 수학식 4,5,7, 1-4와 등가이다. d'T= xT wH'= = xT wHP 및 Θ'=H'TH'= PTHTHP로 설정하고 이러한 수량을 미리 결정하고, MMSE 탐색 기준은 필터링된 익사이테이션 cK에 의하지는 않으며 고유의 3개 펄스 익사이테이션 c' K에만 의존한다.
이점은 종래 기술과 본 발명 둘다를 이해하는 데 결정적인 것이다.
최적의 코드북 인덱스 k를 판정한 다음, 피치 필터링된 익사이테이션 벡터 cK는 다음과 같이 생성됨으로써 IS-127에서의 수학식 4. 5. 7. 1-3과 등가이다.
피치 필터링이 짧은 피치 기간 τ< L 인 동안의 성능을 향상시키는 한편, 긴주기 L≤τ≤τmax, 예를 들면 τmax= 120 동안에는 아무런 영향을 미치지 않는다. 폐쇄된 루프 피치 이득 β가 적을 때, 특히 피치 천이(pitch transition) 동안 전체 타겟 신호 주기성과는 직접적으로 상관 관계가 없을때는 (서브프레임에서 서브프레임으로 변화하는 동안 , 불량한 ACB 예측 이득을 가져온다) 비교적 영향을 끼치지 않는다. 매우 미소한 크기의 음성인 경우에는 비효율적으로, 노이즈 사운드가 타겟 신호와의 불량한 상관 관계에 의해 낮은 진폭을 갖고 기준 이하로 익사이테이션(undermodeled excitation)되는 것에 의해 'gritty'될 수 있다.
도 4는 본 발명에 따른 일반적인 가변 컨피겨레이션 FCB 폐쇄 루프 인코더(400)의 블럭도를 도시하는 것이다. 도 4에 도시된 바와 같이, 컨피겨레이션 제어 블럭(404)과 분산 메트릭스 블럭(406)이 종래 기술에서 피치 필터링 블럭(304)을 대신한다. 또한, 고정 코드북 블럭(402)은 컨피겨레이션 수 m에 의해 다변화될 수 있다.
본 발명에 따르면, 미리 결정된 양자화된 음성 파라미터 세트 τ, β 및 Aq(z)가 주어질 때, 익사이테이션 모델은 미리 결정된 파라미터를 가장 나타내기 쉽도록 특정 모드의 음성 생성을 이용하도록 변화된다. 예로서, 종래 기술은 4개 레벨 음성 판정이 특정한 코드 프로세스를 결정하도록 하는 다중 모델 코딩 구조(multi-model coding structure)를 사용한다. 3개 레벨(매우 큰 음성, 중간 음성, 및 적은 음성)은 간단히 고정 코드북을 번갈하 사용하면서, 4번째 방법(매우 작은 음성)은 두개의 고정 코드북을 조합시켜 사용하고, 적응형 코드북은 제거한다. 도 4로 부터 명백한 바와 같이, 미리 결정된 양자화된 음성 파라미터 τ, β 및 Aq(z)와 코드북 인덱스 k는 본 발명에 따른 디코딩 프로세스에서 사용될 목적지로 전송되는 데, 이러한 디코딩 프로세스는 도 6을 참조로 하여 이하에서 기술된다.
본 발명에 따른 가변 컨피겨레이션 다중 펄스 CELP 음성 코더 및 디코더와 이의 대응 방법은 종래 기술과는 다음의 방식에 의해 다르다.
1) 컨피겨레이션 모드 결정은 서브프레임 기준(통상 프레임 당 2 내지 4 서브프레임)으로 이루어지며; 종래 기술에서는 20 ms 프레임 기준으로 결정이 이루어진다.
2) 모든 컨피겨레이션 모드에 공통인 양자화된/전송된 파라미터를 사용하여 절대적인 결정이 이루어지므로써, 오버헤드가 없게된다. 종래 기술은 음성 모드 판정을 위해 적어도 1 비트를 전송된 비트스트림 내에 포함한다.
3) 고정 코드북 컨피겨레이션은 음성 레벨에서뿐 아니라 피치 주기 동안에도 변화된다. 즉, 중간 및/또는 짧은 피치 주기보다 긴 피치 주기 동안에는 서로 다른 컨피겨레이션이 사용된다. 종래 기술은 피치 동시성(pitch synchronicity)에 대해 몇가지 조항을 마련하는 한편, 본 발명에 따른 음성 생성 모델은 다양한 음성 소스를 모방하도록 변경된다.
4) 코드북 탐색 스페이스는 서브프레임 길이보다 작을 수 있다. 종래 기술에서와 같이, '역방향 필터링(backward filtering)' 프로세스는 코드북을 신호 c[m] k에서 계산할 수 있게 한다. 본 발명의 고유의 요소인 분산 매트릭스 Λm는, 피치 주기 τ인 어떤 함수에 따라 c[m] k의 크기를 L보다 적게할 수 있다. 그 다음 ck의 크기는 Λm로 곱함으로써 L로 복원된다.
5) 매우 미소한 음성 동안, 분산 매트릭스는 하나의 베이스 벡터를 선형 조합하기 위해 사용된다. 그러나, 탐색은 신호 c[m] k에서 동일한 펄스 컨피겨레이션을 디폴트 음성 모드 컨피겨레이션으로서 사용하여 계산되므로 탐색 동안 계산량이 추가되지는 않는다.
6) 전송된 미리 결정된 양자화 음성 파라미터 τ, β 및 Aq(z)와 코드북 인덱스 k는 본 발명에 따라 기술된 컨피겨레이션 제어용으로 사용된다.
종래 기술에서와 동일한 분석 기술을 사용하여, MMSE 기준을 다음과 같이 나타낼 수 있다.
상기 수학식 21은 가변 분산 매트릭스 Λm에 의해 대체되는 피치 샤프닝 매트릭스 P를 제외하고는 상기 수학식 14와 등가이다. 수학식 16에서와 같이, 평방근 오차는 다음식을 최소화시키는 k의 값을 구함으로써 최소화된다.
앞서, 항 xw, H, 및 Λm은 코드북 인덱스 k에는 의존하지 않는다. d'T= xT wm및 Θ'= Λm TΘΛm로 설정하므로써 이러한 소자는 탐색 프로세스에 의해 앞서 연산될 수 있다. 이는 탐색식을 다음과 같이 간소화시켜,
이러한 코드북 출력 신호 c[m] k에 대한 탐색을 한정한다. 이는 코드북 출력 신호 c[m] k가 제로가 아닌 요소를 매우 적게 가지고 있기 때문에 탐색 절차를 상당히 간소화시킬 수 있다. 그러나, 분산 매트릭스 Λm은 이하에서 설명되는 바와 같이 본 발명에 따른 광범위한 다양한 익사이테이션 신호 ck를 생성할 수 있다.
도 5는 본 발명에 따른 도 4 및 도 6의 컨피겨레이션 제어 블럭(404) 내에 발생하는 프로세스를 도시하는 흐름도이다. 일단, 양자화된 다이렉트 폼 LPC 계수 Aq(z)는 단계 504에서 반사 계수 벡터 rc로 변환되며; 이러한 프로세스는 공지되어있다. 다음, 단계 506에서 음성 판정이 이루어진다, 만약 제1 반사 계수 rc(1)가 임의의 임계치 rth보다 크고, 양자화된 ACB 이득 β가 임의의 임계치 βth보다 작으면, 타겟 신호 xw는 매우 미소한 음성으로 나타내고, FCB 컨피겨레이션이 m =6인 경우 단계 508에서 도시된 바와 같이 사용된다. 그렇지않으면, 피치 주기 τ, 양자화된 ACB 이득 β, 및 서브프레임 길이 L이 다양한 음성 특성에 대한 흐름도 마다 테스트되어, 결과적으로 이하에서 각각 논의되는 상이한 코드북 및/또는 분산 매트릭스를 갖게 된다.
단계 518에서 컨피겨레이션 1은 디폴트 컨피겨레이션(default configuration)이다. 여기서, 분산 매트릭스 Λ1은 L x L 단위 매트릭스 I로서 한정하고, 코드북 구조는 IS-127 하프 레이트 경우와 유사한 3개 펄스 컨피겨레이션으로 한정된다. 이러한 컨피겨레이션은 총계가 서브프레임당 10 비트에 이르는 것으로, 펄스 당 8개의 위치마다 3 비트를 포함하고, 1 글로벌 부호 비트는 각 펄스에 대해 [+, -, +] 또는 [-,+,-]에 대응한다. IS-127에서의 한가지 예외는 본 발명이, 실제로 펄스를 사용가능한 서브프레임 크기 L의 외측에 위치시킬 수 있는 최적이 아닌 IS-127 코드북에 대향되도록 균일하게 분산된 간격을 둔 펄스 위치 코드북을 균일하게 분산시켜 사용한다는 점이다. 본 발명은 컨피겨레이션 1에 대해 다음과 같이 허용 가능한 펄스 위치를 한정한다.
여기서, N=3인 펄스 수이고, L= 53(또는 54)는 서브프레임 길이이고, P=8은 펄스당 허용가능한 위치의 수를 나타내고, 는 x를 x 이하의 최대 정수로 절단한 최저 함수(floor function)이다. 예로서, 서브프레임 길이를 53으로 하면, 펄스 p3∈〔4, 11, 18, 24, 31, 38, 44, 51〕로 IS-127의 표 4.5.7.4-1로 주어진 것과는 약간 다르다. IS-127 컨피겨레이션에 걸쳐 단지 미소한 효능만을 제공하는 한편, 이러한 표기법의 중요도는 이어지는 컨피겨레이션에서 명백해질 것이다.
단계 514에서의 컨피겨레이션 2는 피치 기간 τ가 서브프레임 길이 L보다 적은 강한 음성 입력을 나타낸다. 이러한 컨피겨레이션에서, 코브북 출력 신호 c[2] k는 실제로 서브프레임 길이 L보다 적다. 여기서, c[2] k는 피치 주기 f(τ)의 함수이다. MMSE 수학시 21에서 이를 보상하기 위해서는, c[2] k가 크기 f(t)의 컬럼 벡터라면, Λ2는 크기 L x f(τ)이어야 한다. c[2] k에서의 허용가능한 펄스 위치를 다음과 같이 정의한다.
여기서, c[2] k는 f(τ) 소자 컬럼 벡터이고, N=3, 및 P=8이다. 바람직한 실시예에서, f(τ)는 f(τ)= max{τ, τmin}이고, τmin= NP=24이다. 이는 피치 주기가 이용가능한 펄스 위치 전체 수보다 적을 때 펄스 위치가 중첩되는 것을 방지한다.
L x f(τ)를 분산 매트릭스 Λ2로서 다음과 같이 정의한다.
여기서, Λ2는 앞선 복수개의 1로된 대각선과, L번째 행까지 다운되는 매 τ요소마다 복수개의 1로 된 대각선으로 구성되므로써,FCB를 ck= Λ2c[2] k로서 형성할 수 있게 된다. 이러한 컨피겨레이션은 펄스를, β=1일때, 코드북 벡터 길이 f(τ)를 탐색하는 것만을 제외하고는 피치 샤프닝 매트릭스 P(수학식 15)에 유사하게 펄스를 τ 간격으로 필수적으로 복사한다. 이 방법은 종래 기술에 비해 우수한 레졸루션와 정확도를 제공한다. 상기 펄스 부호는 컨피겨레이션 1에서와 동일하다.
단계 522에서 컨피겨레이션 3은 피치 주기 τ가 매우 큰 (단계 520에서 도시된 바와 같이 τ≥110) 강한 음성을 취급하여, 초저주파 성분을 나타낸다. 이 경우, 타겟 신호 xw에 대응하여 유사 익사이테이션에 좀더 근접하게 적응시키는 것이 유리하다. 피치 주기가 서브프레임 길이를 2배한 것보다 더 크고, 현재의 서브프레임은 피치 주기의 1/2 이상이다. 이 경우, 동일한 부호를 갖는 두개의 높은 레졸루션 펄스는, 부호를 변경하는 3개의 낮은 레졸루션 펄스보다, 낮은 주파수의 에너지를 좀더 정확하게 나타낼 수 있다. 두개의 펄스 위치는 일반적으로 다음과 같이 나타낼 수 있다.
여기서, N=2, P1= 23, 및 P2= 22이다. 이는 p1∈〔0,2,5,7,9,12,…, 49,52〕이고 p2∈〔1,4,6,8,11,13,…,48,51〕이다. 두개 펄스의 부호/위치는 k=512*s + 22*k1+ k2의 관계식을 이용하여 10 비트 코드를 사용하여 효율적으로 코드화시킬 수 있다(여기서, k는 10 비트 코드워드이고, k1및 k2는 p1 및 p2 어레이 내로의 각각의 최적의 인덱스들이고 s는 p1 및 p2 둘다의 부호를 나타낸다).
또한, 분산 매트릭스는 저주파 성문 익사이테이션(low frequency glottal excitation) 형상을 좀더 적당히 모델링하여 구조된다. Λ3을 L x L 매트릭스로서 한정한다.
그러므로써 수개의 샘플에 걸쳐 펄스 에너지를 'spread' 시켜 크기를 축소(decaying)시킨다. 여기서, g= 1/(λTλ)1/2는 이득 정상화 항(gain normalization term)으로서, λ는 Λ3의 제1 컬럼 벡터이고, d는 피치 주기에 관련된 데케이 계수(decay factor)로서, 다음과 같이 주어진다.
여기서, τmax=120이다. 또한, 코드북에서 두개 펄스의 스페이스가 오버랩된다면, 복합 코드북 익사이테이션 cK에서 좀더 포괄적인 형상이 형성될 수 있다. 이러한 매트릭스는 다른 분산 매트릭스와 함께 코드북 탐색에 앞서 H 매트릭스에 의해 효율적으로 결합될 수 있으므로써 Λ3선택에 의해서는 탐색에 추가되는 계산은 없다.
단계 526에서 컨피겨레이션 4는 95와 109 간의 강한 음성 피치 주기 동안에 대해 컨피겨레이션 3이라는 개념과 유사하다. 여기서, 동일한 펄스 위치와 부호집(sign convention)이 사용되어, Λ3에 의한 성음 익사이테이션 모델(glottal excitation model)은 더 이상 유효하지 않다. 컨피겨레이션 4로서, 매트릭스 Λ4는 L x L 단위 매트릭스 I로서 간단히 정의한다.
65와 94 사이의 피치 주기를 갖는 강한 음성 스치치를 모델링하는 단계 528에서의 컨피겨레이션 5는 컨피겨레이션 3과 유사하다. 또한, Λ5는 L x L 단위 매트릭스 I로서 한정하고, 펄스 부호는 번갈아 바뀐다. 이는 피치 주기가 현재 접근하는 서브프레임 길이이기 때문이며, 완전한 피치 주기는 DC 성분을 포함해야 한다.
단계 508에서의 컨피겨레이션 6은 매우 미소한 음성 음성를 모델링하기 위해 사용되며, 다양한 애플리케이션이 가능하다. 매우 미소한 음성 또는 노이즈와 같은 사운드가 갖는 기본적인 문제는 양질의 전체 사운드에 필요할만큼 충분한 펄스가 드물다는것이다. 또한, 다중 펄스 코드북 신호와 노이즈 타겟 신호간의 정상화된 교차 상호관계(수학식 22에서 최대인 것으로 시도하고 있는)는 지극히 낮아 결과적으로 FCB 이득이 낮아지게 되고 따라서, 합성 음성은 원래의 음성에서보다 상당히 낮은 에너지를 갖게 된다. 컨피겨레이션 6은 이러한 문제를 다음과 같이 해결한다:
컨피겨레이션 1에서와 같은 3개의 펄스 컨피겨레이션 디폴트를 사용함으로써, Λ6를 L x L 매트릭스로서 정의한다.
여기서, v=v(0),v(1),…, v(L-1)〕는 길이 L 벡터로 바람직하게는 제로가 아닌 값으로 Np=4이고 크기가 1/√NP이며 부호를 변경한다. 제로가 아닌 값을 갖는 v 내의 위치는 간격 [0,L-1]에 걸쳐 상호 배타적으로 균일한 랜덤한 번호 발생기에 의해 생성된다. 이러한 시퀀스는 인코더 및 디코더와는 관계없이 생성되는 것으로, 증분 서브프레임 수와 같은 공통 값 또는 LPC 인덱스와 같은 전송된 파라미터를 갖는 랜덤한 수 발생기(random number generator)를 시딩(seeding)함으로써 동기화될 수 있다. Λ6를 이러한 방식으로 한정함으로써, 코드벡터 c[6] k내의 각 펄스는 베이스 벡터 v의 순환 위상(circular phase)과는 상관없이 생성될 수 있다. 또한, 다중 펄스를 고려할 때, v를 다양한 위상으로 선형 조합함으로써 생성된다. 이는 컨피겨레이션 1에서와 같은 통상의 3개 펄스를 탐색하는 동안 복잡한 FCB 응답 ck에서의 전체 펄스, 결국은 NNp= 12 펄스에 이르게 된다. 다시, 수학식 23에서 분모를 미리 연산하는 것에 의해 오버헤드를 최소화시키게 되지만, 탐색은 Λ6와는 상관없이 수행된다. 또한 공지된 자기 상관관계법(autocorrelation method)은 효능상에 측정될만한 열화없이 컨피겨레이션 6을 간략화시킴으로써 구체화될 수 있다.
도 6은 본 발명에 따른 컨피겨레이션 제어를 수행하는 CELP 디코더(600)를 도시한 것이다. 도 6에 도시된 수개의 블럭은 도 1에 도시된 블럭들과 공통이므로써, 이러한 공통 블럭은 여기서 기술되지 않는다. 도 6에 도시된 바와 같이, 컨피겨레이션 제어 블럭(404)와 분산 매트릭스(406)은 디코더(600)에 포함된다. (인코더(400)에 의해 전송된) 미리 결정된 양자화된 음성 파라미터 τ, β 및 Aq(z)는 디코더(600)에 의해 수신되고, 컨피겨레이션 제어 블럭(404)은 3개 파라미터를 사용하여 특정한 샘플의 코드 음성에 대한 컨피겨레이션 m을 결정하게 된다. 고정 코드북(102)은 입력으로서 (인코더(400)에 의해 전송된) 코드북 인덱스 k를 사용하여 분산 매트릭스(406) 내로의 입력인 출력 c[m] k을 발생시킨다. 분산 매트릭스(406)는 익사이테이션 시퀀스 ck을 출력하여 적응형 코드북(104)의 스케일링된 출력과 결합한 다음 합성 필터(106)와 지각적 후치 필터(108)를 통과시켜 본 발명에 따른 출력 음성 신호를 생성시킨다.
상술한 바와 같이 본 발명은 정보 신호를 코드화시키는 음성 코더에서 정보 신호 본래의 파라미터에 기초하여 코드북 컨피겨레이션을 변화시키며, 서브프레임 레졸루션을 가능케하는 모드 파라미터의 전송을 위해 어떤 추가되는 오버헤드도 필요치 않다.
본 발명은 특정한 실시예를 참조하여 기술된 것으로, 당업자는 본 발명의 사상과 범주를 벗어나지 않는 범위에서 다양한 변화가 이루어질 수 있다. 이하의 청구항에서 각각의 구조, 재료, 및 모든 등가의 수단 또는 단계는 특정하게 청구된 다른 청구 요소와 결합하여 그 기능을 수행하게 된다.

Claims (6)

  1. 정보 신호 코드화 방법에 있어서,
    상기 정보 신호에 관련된 미리 결정된 파라미터에 기초하여 복수개의 컨피겨레이션(configurations)- 상기 복수개의 컨피겨레이션 각각은 코드북을 가짐- 중 하나를 선택하는 단계,
    상기 선택된 컨피겨레이션에 대응하는 상기 코드북으로부터 코드북 인덱스(codebook index)를 결정하는 단계, 및
    상기 미리 결정된 파라미터와 상기 코드북 인덱스를 목적지(destination)로 전송하는 단계
    를 포함하는 것을 특징으로 하는 정보 신호 코드화 방법.
  2. 제1항에 있어서, 상기 정보 신호는 음성 신호, 비디오 신호 또는 오디오 신호 중 어느 하나에 의해 더욱 특징지어지는 것을 특징으로 하는 정보 신호 코드화 방법.
  3. 제1항에 있어서, 상기 컨피겨레이션은 상기 정보 신호의 다양한 분류(classification)에 기초하는 것을 특징으로 하는 정보 신호 코드화 방법.
  4. 정보 신호 코드화 장치에 있어서,
    상기 정보 신호에 관련된 미리 결정된 파라미터에 기초하여 복수개의 컨피겨레이션- 상기 복수개의 컨피겨레이션 각각은 코드북을 가짐- 중 하나를 선택하기 위한 수단,
    상기 선택된 컨피겨레이션에 대응하는 상기 코드북으로부터 코드북 인덱스를 결정하기 위한 수단, 및
    상기 미리 결정된 파라미터와 상기 코드북 인덱스를 목적지에 전송하기 위한 수단
    을 포함하는 것을 특징으로 하는 정보 신호 코딩 장치.
  5. 제4항에 있어서, 상기 정보 신호는 음성 신호, 비디오 신호 또는 오디오 신호 중 어느 하나에 의해 더욱 특징지어지는 것을 특징으로 하는 정보 신호 코딩 장치.
  6. 제4항에 있어서, 상기 컨피겨레이션은 상기 정보 신호의 다양한 분류에 기초하는 것을 특징으로 하는 정보 신호 코딩 장치.
KR1019990019337A 1998-05-28 1999-05-28 정보 신호 코드화 방법 및 장치 KR100310811B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/086,149 US6141638A (en) 1998-05-28 1998-05-28 Method and apparatus for coding an information signal
US09/086,149 1998-05-28
US9/086,149 1998-05-28

Publications (2)

Publication Number Publication Date
KR19990088610A KR19990088610A (ko) 1999-12-27
KR100310811B1 true KR100310811B1 (ko) 2001-10-17

Family

ID=22196597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990019337A KR100310811B1 (ko) 1998-05-28 1999-05-28 정보 신호 코드화 방법 및 장치

Country Status (3)

Country Link
US (1) US6141638A (ko)
KR (1) KR100310811B1 (ko)
BR (1) BR9904633A (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714907B2 (en) * 1998-08-24 2004-03-30 Mindspeed Technologies, Inc. Codebook structure and search for speech coding
US6743302B2 (en) * 2000-01-28 2004-06-01 Henkel Corporation Dry-in-place zinc phosphating compositions including adhesion-promoting polymers
US6564182B1 (en) 2000-05-12 2003-05-13 Conexant Systems, Inc. Look-ahead pitch determination
JP3582589B2 (ja) * 2001-03-07 2004-10-27 日本電気株式会社 音声符号化装置及び音声復号化装置
US6766289B2 (en) * 2001-06-04 2004-07-20 Qualcomm Incorporated Fast code-vector searching
US7130788B2 (en) * 2001-10-30 2006-10-31 Mentor Graphics Corporation Emulation components and system including distributed event monitoring, and testing of an IC design under emulation
US6662154B2 (en) 2001-12-12 2003-12-09 Motorola, Inc. Method and system for information signal coding using combinatorial and huffman codes
US7047188B2 (en) * 2002-11-08 2006-05-16 Motorola, Inc. Method and apparatus for improvement coding of the subframe gain in a speech coding system
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
JP4414705B2 (ja) * 2003-09-17 2010-02-10 パナソニック株式会社 音源信号符号化装置、及び音源信号符号化方法
FR2867649A1 (fr) 2003-12-10 2005-09-16 France Telecom Procede de codage multiple optimise
EP1709743A1 (fr) * 2004-01-30 2006-10-11 France Telecom S.A. Quantification vectorielle en dimension et resolution variables
US8712766B2 (en) * 2006-05-16 2014-04-29 Motorola Mobility Llc Method and system for coding an information signal using closed loop adaptive bit allocation
US7230550B1 (en) 2006-05-16 2007-06-12 Motorola, Inc. Low-complexity bit-robust method and system for combining codewords to form a single codeword
JP5596341B2 (ja) * 2007-03-02 2014-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声符号化装置および音声符号化方法
US7898763B2 (en) * 2009-01-13 2011-03-01 International Business Machines Corporation Servo pattern architecture to uncouple position error determination from linear position information
US8280729B2 (en) * 2010-01-22 2012-10-02 Research In Motion Limited System and method for encoding and decoding pulse indices
US9626982B2 (en) 2011-02-15 2017-04-18 Voiceage Corporation Device and method for quantizing the gains of the adaptive and fixed contributions of the excitation in a CELP codec
AU2012218778B2 (en) * 2011-02-15 2016-10-20 Voiceage Evs Llc Device and method for quantizing the gains of the adaptive and fixed contributions of the excitation in a celp codec
US9728200B2 (en) 2013-01-29 2017-08-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding
US9620134B2 (en) 2013-10-10 2017-04-11 Qualcomm Incorporated Gain shape estimation for improved tracking of high-band temporal characteristics
US10614816B2 (en) 2013-10-11 2020-04-07 Qualcomm Incorporated Systems and methods of communicating redundant frame information
US10083708B2 (en) 2013-10-11 2018-09-25 Qualcomm Incorporated Estimation of mixing factors to generate high-band excitation signal
US9384746B2 (en) 2013-10-14 2016-07-05 Qualcomm Incorporated Systems and methods of energy-scaled signal processing
US10163447B2 (en) 2013-12-16 2018-12-25 Qualcomm Incorporated High-band signal modeling
JP6962269B2 (ja) * 2018-05-10 2021-11-05 日本電信電話株式会社 ピッチ強調装置、その方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0398318A (ja) * 1989-09-11 1991-04-23 Fujitsu Ltd 音声符号化方式
US5657418A (en) * 1991-09-05 1997-08-12 Motorola, Inc. Provision of speech coder gain information using multiple coding modes
EP0556354B1 (en) * 1991-09-05 2001-10-31 Motorola, Inc. Error protection for multimode speech coders
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
KR960009530B1 (en) * 1993-12-20 1996-07-20 Korea Electronics Telecomm Method for shortening processing time in pitch checking method for vocoder
US5784532A (en) * 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
EP0788091A3 (en) * 1996-01-31 1999-02-24 Kabushiki Kaisha Toshiba Speech encoding and decoding method and apparatus therefor

Also Published As

Publication number Publication date
US6141638A (en) 2000-10-31
KR19990088610A (ko) 1999-12-27
BR9904633A (pt) 2000-09-26

Similar Documents

Publication Publication Date Title
KR100310811B1 (ko) 정보 신호 코드화 방법 및 장치
US5991717A (en) Analysis-by-synthesis linear predictive speech coder with restricted-position multipulse and transformed binary pulse excitation
JP4064236B2 (ja) 広帯域信号コーディング用の代数コードブック中のパルス位置と符号の索引付け方法
US7778827B2 (en) Method and device for gain quantization in variable bit rate wideband speech coding
CA2177421C (en) Pitch delay modification during frame erasures
EP0749110A2 (en) Adaptive codebook-based speech compression system
EP0747883A2 (en) Voiced/unvoiced classification of speech for use in speech decoding during frame erasures
US5359696A (en) Digital speech coder having improved sub-sample resolution long-term predictor
US6678651B2 (en) Short-term enhancement in CELP speech coding
AU669788B2 (en) Method for generating a spectral noise weighting filter for use in a speech coder
JP3089769B2 (ja) 音声符号化装置
JP3064947B2 (ja) 音声・楽音符号化及び復号化装置
US6415252B1 (en) Method and apparatus for coding and decoding speech
KR20040043278A (ko) 음성 부호화기 및 이를 이용한 음성 부호화 방법
Atal et al. Beyond multipulse and CELP towards high quality speech at 4 kb/s
US6041298A (en) Method for synthesizing a frame of a speech signal with a computed stochastic excitation part
KR100409167B1 (ko) 정보 신호를 부호화하는 방법 및 장치
JP3490325B2 (ja) 音声信号符号化方法、復号方法およびその符号化器、復号器
JP3103108B2 (ja) 音声符号化装置
JP3114799B2 (ja) コード駆動線形予測音声符号化/復号化方式
JPH041800A (ja) 音声帯域信号符号化方法
JPH10105200A (ja) 音声符号化/復号化方法
US20030163318A1 (en) Compression/decompression technique for speech synthesis
MXPA94001375A (en) Method for the generation of a spectral filter of noise weighting for use in a codifier of

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120830

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20130830

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20150904

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20160908

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 17

FPAY Annual fee payment

Payment date: 20180905

Year of fee payment: 18

EXPY Expiration of term