KR950013372B1 - 음성 부호화 장치와 그 방법 - Google Patents

음성 부호화 장치와 그 방법 Download PDF

Info

Publication number
KR950013372B1
KR950013372B1 KR1019860007063A KR860007063A KR950013372B1 KR 950013372 B1 KR950013372 B1 KR 950013372B1 KR 1019860007063 A KR1019860007063 A KR 1019860007063A KR 860007063 A KR860007063 A KR 860007063A KR 950013372 B1 KR950013372 B1 KR 950013372B1
Authority
KR
South Korea
Prior art keywords
signal
generating
speech
signals
time frame
Prior art date
Application number
KR1019860007063A
Other languages
English (en)
Other versions
KR870006508A (ko
Inventor
샤루프 아탈 비스누
마리아 마틴스 트란코소 이사벨
Original Assignee
아메리칸 텔리폰 앤드 텔레그라프 캄파니
모리스 제이. 코헨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아메리칸 텔리폰 앤드 텔레그라프 캄파니, 모리스 제이. 코헨 filed Critical 아메리칸 텔리폰 앤드 텔레그라프 캄파니
Publication of KR870006508A publication Critical patent/KR870006508A/ko
Priority to KR1019950025265A priority Critical patent/KR950013373B1/ko
Priority to KR1019950025266A priority patent/KR950013374B1/ko
Application granted granted Critical
Publication of KR950013372B1 publication Critical patent/KR950013372B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms
    • G10L2019/0014Selection criteria for distances
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

내용 없음.

Description

음성 부호화 장치와 그 방법
제 1 도는 선행 기술에 의한 통계적 부호화 장치를 사용하는 음성 부호화 장치를 나타내는 도면.
제 2 도 및 제 3 도는 본 발명의 임의 부호 및 변환 영역 처리를 사용한 디지털 음성 부호화 장치의 블럭선도.
제 4 도는 제 2 도 및 제 3 도에 도시된 회로의 기능을 수행하는 디지털 음성 보호화 신호처리 장치의 상세 블럭선도.
제 5 도는 제 3 도의 장치내에 사용되는 에러 및 스케일 인자 발생기 회로의 블럭선도.
제 6 도 내지 11 도는 제 4 도의 회로 동작을 나타내는 흐름도.
제 12 도는 본 발명에 의한 난수부호의 스트링이 통계적 부호의 중복 시퀀스를 형성하는 본 발명의 음성 복호기 회로의 블럭선도.
* 도면의 주요부분에 대한 부호의 설명
110 : A/D 컨버터 115 : 피치 예측 분석기
125 : 스케일러 155 : 인지 가중 필터
203 : 필터 및 샘플러 회로 209 : LPC 분석기
211 : 예측 잔류 신호 발생기 250 : DFT 발생기
501 : 음성 패턴 상호 상관기
[산업상 이용분야]
본 발명은 음성 처리에 관한 것이며, 특히 디지털 음성 부호화 장치 및 그 방법에 관한 것이다.
[발명의 배경]
음성 기억 장치 및 음성 응답 설비를 포함하는 디지털 음성 통신 시스템은 기억 및/또는 전송에 필요한 비트율을 감소시키기 위해 신호 압축을 사용한다. 당해 기술에 주지된 바와 같이, 음성 패턴은 외관의 품질에 중요하지 않은 중복성(redundancies)을 포함한다. 음성 패턴에서 중복 성분을 제거함으로써 음성 복제를 구성하는데 필요한 디지털 부호를 크게 감소시킬 수 있다. 다만, 음성 복제의 주관적 품질은 압축 및 부호화 기술에 의존한다.
미국 특허 제 3,624,302호에 기술되어 있는 공지된 디지털 음성 부호화 시스템은 입력 음성 신호의 선형 예측분석을 포함한다. 음성 신호가 5 내기 20밀리초 간격의 연속적인 구간으로 분할되어, 이 구간의 음성을 나타내는 한세트의 파라미터가 생성된다. 상기 파라미터 세트는 그 구간내의 음성의 스펙트럼 포락선을 나타내는 선형 예측 계수 신호, 및 그 음성의 여기에 대응하는 피치 및 발성신호를 포함한다. 이들 파라미터신호는 음성 신호의 파형 자체보다도 꽤 낮은 비트율로써 부호화할 수 있다. 입력 음성 신호의 복제는 합성에 의해 이 파라미터 신호의 부호로부터 생성된다. 합성기 장치는 통상 성대의 모델을 포함하지만, 이중에서 각 연속 구간의 여기 펄스는 모든 극 예측 필터내에서 이 구간의 스펙트럼 포락선을 나타내는 예측 계수에 의해 수정된다.
상술한 피치 여기 선형 예측 부호화는 매우 효과적이며 이 부호화된 비트율을 64kb/s에서 2.4kb/s로 감소시킨다. 그러나, 생성된 음성 복제의 질이 나쁘고 이해하기 곤란하게 되는 경우도 있다. 일반적으로, 이러한 낮은 음성의 질은 음성 패턴과 사용된 선형 예측 모델 사이의 불일치에 기인하는 것이다. 피치 부호의 에러 또는 음성 구간이 발성되었는지 여부의 결정 에러는 음성 복제에 왜곡이나 부자연함을 초래한다. 음성의 포맷 부호화에 있어서도 똑같은 문제가 존재한다. 음성 여기가 예측후의 잔류 성분으로부터 얻어지는 별도의 부호화 장치, 예컨대 APC는 여기가 완전하지 않은 모델에는 의존하지 않기 때문에, 상당히 진보된 것이다. 그러나, 이들 시스템에서의 여기 비트율은 선형 예측 모델보다는 적어도 한 차수가 높다. 잔류 타입의 시스템에서의 여기 비트율을 감소시키는 것은 대개의 경우 질을 크게 낮추는 결과가 된다.
통신에 관한 국제회의 -ICC'84의 의사록(Proceedings of the International conference on communications-ICC'84), 1984년 5월, 페이지 1610-1613에 게재된 비쉬누 에스, 아탈(Bishnu S. Atal) 및 맨프레드 스쿠로더(Manfred Schroder)에 의한 논문 "매우 낮은 비트율에서의 음성 신호의 통계적 부호화(Stochastic Coding of Speech Signals at Very Low Bit Rates)는 음성 여기 신호를 생성하기 위한 통계적 모델을 개시한다. 이 방법에 있어서는 음성 파형이 천천히 변하는 파워 스펙트럼을 가진 제로 평균의 가우스 통계적 프로세스로서 나타난다. 최적 가우스 혁신 시퀀스가 전형적으로는 5ms구간의 음성 파형 세그먼트와 복수의 랜덤 가우스 혁시닛퀀스로부터 얻어지는 합성 음성의 파형과 비교된다. 인지 에러 기준을 최소로 하는 혁신 시퀸스가 그 세그먼트의 음성 파형을 나타내는 것으로서 선택된다. 상기 논문에서 설명되는 통계적 모델은 음성 파형 여기 신호의 낮은 비트율 부호화를 실현하지만, 적절한 선택에는 다수의 혁신 시퀀스가 필요하다. 가장 혁신적인 시퀀스를 선택하기 위해 요구되는 신호 처리는 이 혁신 신호를 부호화하기 위해 막대한 탐색 절차를 수반한다. 문제는 4.8kb/s의 부호 생성에 대응하는 부호 비트율에 대한 이와 같은 탐색은 대형의 고속 과학 컴퓨터로 처리한다해도 매우 시간이 많이 소모된다는 것이다.
[발명의 개요]
상기 문제점은 본 발명에 의해 음성 분석기의 혁신 시퀀스의 통계적 혹은 다른 임의 부호의 철저한 탐색 대신에 이통계적 부호를 변환 영역 부호 신호로 변환시키며 각각의 시간 프레임 구간에 대한 변환 부호로부터 한 세트의 변환 영역 패턴을 생성하는 장치를 사용함으로써 해결된다. 변환 영역의 부호 패턴이 입력 음성으로부터 얻어지는 시간 구간의 음성 패턴과 비교되어 가장 일치하는 통계적 부호가 선택되고, 이 가장 일치하는 통계적 부호에 대응하는 인덱스 신호가 그 시간 프레임 구간의 음성을 나타내는 것으로서 출력된다. 변환 영역에서의 처리는 부호 선택을 간편하게 하며 소요되는 시간을 줄인다.
인덱스 신호가 음성 신호 복호기에 인가되고, 복호기는 인덱스 신호를 사용하여 거기에 지정된 통계적 부호 하나를 선택한다. 예측 음성 합성기에 있어서, 통계적 부호는 시간 프레임 구간의 음성 패턴 여기 신호를 나타내고, 이로써 부호비트율은 시간 프레임의 인덱스 신호 및 예측 파라미터에 요구되는 비트율로 감소된다. 이 통계적 부호는 저장 요건을 감소하기 위한 통계적 수의 스트링의 소정 중복 세그먼트라도 좋다.
본 발명은 음성 메시지를 처리하기 위한 장치에 관한 것이다. 이 장치에서 세트의 임의의 값 부호 신호, 예컨대 난수 및 임의 값 부호 신호를 확인하는 인덱스 신호 및 임의 값 부호의 변환된 것을 나타내는 신호가 생성된다. 음성 메시지가 시간 프레임 구간의 음성 패턴으로 분할되고 각각의 연속시간 프레임 구간의 음성 패턴을 나타내는 제 1 신호가 이 분할된 음성에 응답하여 생성된다. 여기서, 변환 구역의 부호 신호로부터 생성된 시간 프레임 구간의 패턴을 나타내는 다수의 제 2 신호가 생성된다. 이 시간 프레임 구간의 제 1 신호 및 제 2 신호에 응답하여 각각의 시간 프레임 구간에 대해 상기 임의 부호 신호중의 하나가 선택되고, 이 선택된 변환 영역신호에 대응하는 인덱스 신호가 출력된다.
본 발명의 한 특징에 따르면, 제 1 신호의 생성에는 현재의 시간 프레임 구간의 음성 패턴에 대응하는 변환 영역 신호인 제 3 신호의 생성이 포함되며, 각각의 제 2 신호의 생성에는 상기 변환 영역의 부호 신호에 응답하여 하나의 시간 프레임 구간의 패턴에 대응하는 변환 영역 신호인 제 4 신호의 생성이 포함된다. 임의 부호의 선택에는 상기 제 3 신호와 제 4 신호 사이의 일치도를 나타내는 신호의 생성 및 최대의 일치도를 갖는 제 4 신호에 대응하는 인덱스 신호의 결정이 포함된다.
본 발명의 다른 특징에 따르면, 변환 영역 부호 신호는 임의 부호로부터 얻어지는 주파수 영역 변환 부호이다.
본 발명의 또다른 특징에 따르면, 변환 영역 부호 신호는 임의 부호의 푸리에 대한 변환 부호이다.
본 발명의 또다른 특징에 따르면, 음성 메시지가 출력된 인덱스 신호의 시퀀스를 수신함으로써 생성되지만, 이 인덱스 신호는 각각이 소정의 임의 부호를 확인한다. 각각의 인덱스 신호는 하나의 시간 프레임 구간의 음성 패턴에 대응한다. 이 임의 부호는 상기 수신된 인덱스 신호의 시퀀스에 응답하여 연결되고, 연결된 부호에 응답하여 음성 메시지가 생성된다.
본 발명의 또다른 특징에 의하면, 음성 메시지는 인덱스 신호에 의해 확인되는 소정의 세그먼트를 갖는 임의 값 부호 신호의 스트링을 사용하여 생성된다. 이 스트링의 소정 세그먼트를 확인하는 신호의 시퀀스가 수신된다. 이 시퀀스 각각의 신호는 연속 시간 프레임 구간의 음성 패턴에 대응한다. 상기 임의 값 부호 스트링의 소정 세그먼트는 수신된 확인 신호의 시퀀스에 응답하여 선택되며, 선택된 임의 부호가 연결되어 음성 메시지의 복제가 생성된다.
본 발명의 또다른 특징에 따르면 이 스트링의 임의 값 신호 시퀀스는 중복 시퀀스이다.
이하, 첨부된 도면으로 본 발명을 더욱 상세하게 설명하기로 한다.
제 1 도는 여기 신호용 통계적 부호를 사용하도록 구성된 종래 기술의 디지털 음성 부호기를 나타낸다. 제 1 도에 있어서, 마이크로폰(101)에 인가되는 음성 패턴은 당해 기술에 주지된 바와 같이 내부에서 음성 신호로 변환되고, 필터 및 샘플러(105)에서 대역통과 필터링 및 샘플링된다. 결과로 나타나는 샘플은 D/A 컨버터(110)에 의해 디지털 부호로 변환되어 디지털 부호화된 음성 신호 s(n)을 발생한다. 신호 s(n)은 LPC 및 피치 예측 분석기(115)에서 처리된다. 상기 처리에는 부호화 샘플을 연속 프레임 구간으로 분할하는 단계와, 각각의 연속 프레임내의 신호 s(n)에 대응하는 세트의 파라미터 신호를 생성하는 단계가 포함된다. 파라미터 신호 a(1), a(2), …a(p)는 단시간 지연상관, 즉, 이 구간의 음성 패턴의 스펙트럼과 관련된 특성을 나타내며, 파라미터 신호 β(1),β(2),β(3) 및 m은 장시간 지연상관, 즉 음성 패턴의 피치와 관련된 특성을 나타낸다. 상기 타입의 부호기내에서는 음성 신호는 프레임 또는 블록 예컨대 5msec의 구간 또는 40개 샘플로 분할된다. 상기 블록에 대해서 통계적 부호 스토어(120)는 각 시퀀스가 일련의 40개 난수로 구성되는 1024개의 랜덤 화이트 가우스 부호어 시퀀스를 포함한다. 각각의 부호어에는 필터링 전에, 스케일러(125)에서 5msec의 블록에 대해 일정한 인수γ가 곱해진다. 음성 적응이 지연 예측필터(135) 및 (145) 내에서 수행되지만, 이것은 반복적으로 이루어진다.
필터(135)는 장시간 축적(2 내지 15msec)의 예측자를 사용하여 합성 음성 신호내에 음성의 반복성을 도입하고, 필터(145)는 단시간 축적(2msec 이하)의 예측자를 사용하여 합성 음성 신호내에 스펙트럼 포락선을 도입한다. 상기 필터는 1982년 4월호 IEEE 트랜잭션즈 온 커뮤니케이션즈(IEEE Transactions on Communications) vol. COM-30, 1982년 4월 페이지 600내지 614, 비 에스 아탈(G. S. Atal)의 논문 "낮은 비트율에서 음성의 예측 부호화"에 기술되어 있다. 감산기(150)에 인가되는 본래의 음성 신호 s(n)와 필터(145)로부터 인가되는 합성 음성 신호 s(n) 사이의 차를 나타내는 에러는 인지 가중 필터(155)에 의해 다시 처리되어, 이 에러가 지각적으로 별로 중요하지 않은 주파수 성분이 감소되며, 이 에러가 지각적으로 더 중요한 주파수 성분이 증폭된다. 최소 평균 제곱 주관 에러 신호 E(k)를 생성하는 스토어(120)로 부터의 통계적 부호 시퀀스 및 대응하는 최적 스케일의 인자γ는 스토어(120)내의 1024 부호어 시퀀스 모두가 처리된 후에만 피크 적출기(170)에 의해 선택된다.
제 1 도 회로의 부호어 처리를 분석하기 위해, 필터(135), (145) 및 인지 가중 필터(155)는 하나의 선형 필터로 결합될 수 있다. 그 등가 필터의 임펄스 응답은 시퀀스 f(n)으로 나타낼 수 있다. 현재의 5msec 구간에서 상기 등가 필터 출력의 일부분만이 그 입력과 비교되는데, 왜냐하면, 당해 기술에 공지된 바와 같이, 필터 출력의 일부가 선행 프레임에서 유래한 신호와 대응하기 때문이다. 선행 프레임으로부터 필터 메모리는 현재 프레임에서 최적 혁신 시퀀스를 찾는데 별 도움이 되지 못한다. 따라서 선행 메모리가 현재 프레임의 필터 출력에 기여한 것은 통계적 부호 스토어(120)로 부터 최적 부호어를 결정하기 위해 음성 신호로부터 제거된다. 선행 프레임에서 유래하는 필터 메모리의 기여를 제거한 후에 잔류 값은 신호 x(n)으로 표현된다. 현재 프레임내의 스토어(120)로 부터의 k번째 부호어에 의해 기여된 필터 출력은 다음과 같이 표현된다.
Figure kpo00001
여기서 c(k)(i)는 k번째 부호어의 i번째 샘플이다. 식(1)은 행열식으로 다음과 같이 쓸 수 있다.
Figure kpo00002
여기서, F는 N×N 행열이고, n번째 행 및 i 번째 열내의 항은 f(n-i)로 주어진다. x(n) 및 x(k)(n) 사이의 차를 나타내는 제곱 에러의 총합 E(k)는 다음과 같이 주어진다.
Figure kpo00003
여기서, 벡터 x는 벡터 표기법에 의한 신호 x(n)을 나타내고, ∥ ∥2는 제곱된 벡터 성분의 총합을 나타낸다. 에러 E(k)를 최소화하는 최적 스케일 인자 γ(k)는 δE(k)/δγ(k)=0으로 세팅함으로써 간단히 결정할 수 있지만, 이로부터 다음식이 유도된다.
Figure kpo00004
Figure kpo00005
으로 나타낸다.
최적 부호어는 E(k)의 최소치를 찾는 것, 즉 식(5)의 우측 두번째 항의 최대값을 찾음으로써 얻어진다.
제 1 도와 관련되어 설명된 신호 처리는 비교적 단순하지만, 식(5)의 1024개 에러 신호 E(k)의 생성은 시간이 걸리는 동작이고, 현재 알려져 있는 고속 대규모 컴퓨터 내에서 실시간으로 달성하는 것은 불가능하다.
제 1 도의 탐색 처리의 복잡성은 에러 E(k)내의 행열 F 에 의해 표현되는 컨볼루션 연산(convolution operation)의 존재에 기인한다. 상기 복잡성은 행열 F를 대각선 행열(diagonal matrix)로 치환함으로써 실질적으로 감소된다. 이것은 G.W. 슈튜어트(G.W.Stewart)에 의한 참고서 "행열 계산의 입문(Introduction to Matrix Computations)", 아카데미 프레스, 1973년, 페이지 317-320에서 설명된 바와 같이 특이한 분해를 사용하여 행열 F를 직교 형식으로 나타냄으로써 나타낼 수 있다.
F = UDVt
로 가정한다. 여기서 U 및 V는 직교 행열이고, D는 정의 요소를 가진 직교 행열이고, V'는 V의 전치를 나타낸다. 그러면, U의 직교성 때문에, 식(3)은 다음과 같이 쓸 수 있다.
Figure kpo00006
여기서 F를 식(6)으로 표현되는 직교 형식으로 치환하면 이하가 얻어진다.
Figure kpo00007
또 식(8)에
Figure kpo00008
를 대입하면, 다음식이 얻어진다.
Figure kpo00009
상술한 바와 같이, E(k)를 최소화 하는 최적 γ(k)는 δE(k)/δγ(k)=0으로 세트함으로써 결정할 수 있고, 식(10)은 다음과 같이 간소화 할 수 있다.
Figure kpo00010
식(11)로 표현된 에러 신호는 식(5)의 수식 보다 훨씬 빠르게 처리된다. Fc(k)가 차수 P(통상 20)의 반복 필터내에서 처리되면, 식(11)에 따른 처리는 통계적 부호화에 요구되는 처리 시간 요건을 크게 감소시킨다.
별도의 방법으로서, 식(5)의 연산을 시간 영역에서 변환영역, 예컨대 주파수 영역으로 확장함으로써 처리시간을 단축할 수 있다. 장시간 지연 예측이 배제된 합성 필터와 인지 가중된 필터의 결합 임펄스 응답이 시퀀스 h(n)에 의해 표현되는 것으로 하면, 현재 프레임내에 k번째 부호어에 의해 기여되는 필터 출력은 입력 γ(k)c(k)(n)과 임펄스 응답 h(n)사이의 컨벌루션으로서 나타낼 수 있다. 필터의 출력은 다음과 같이 주어진다.
Figure kpo00011
이 필터 출력은 주파수 영역으로써 다음과 같이 표현할 수 있다.
Figure kpo00012
여기서,
Figure kpo00013
, H(i) 및 Ck(i)는 각각 x(k)(n), h(n) 및 cp(k)(n)의 이산 푸리에 변환(DFT)이다. 실제로는, 필터 출력의 구간은 10msec의 구간에 한정되고 그외는 0으로 간주할 수 있다. 따라서, 80포인트를 가진 DFT는 식(13)을 충분히 정확하게 나타낼 수 있다. 제곱된 에러의 총합 E(k)는 주파수 영역으로 다음과 같이 표현된다.
Figure kpo00014
여기서 X(i)는 x(n)의 DFT이다.
Figure kpo00015
이고,
Figure kpo00016
라 하면
식(14)는 다음과 같이 변환 할수 있다.
Figure kpo00017
다시, 스케일 인자γ(k)는 식(17)로부터 제거되며 에러 총합은 다음과 같이 표현된다.
Figure kpo00018
여기서,ξ(i)*는 ξ(i)의 복소 공액이다. 주파수 영역 조사는 행열 F의 특이 분해가 이산 고속 푸리에 변환에 의해 치환되고 전체적인 처리의 복잡성이 크게 감소된다는 장점을 가진다. 특이값 분해 또는 이산 푸리에 변환 처리중의 어느 하나를 사용하는 변환 영역에 있어서, 이 조사를 d(i) 또는 b(i)의 큰 값에 대응하는 주파수(또는 고유 벡터)의 서브 세트에 제한함으로써 계산 부하가 더 줄어들 수 있다. 본 발명에 따라, 처리가 크게 줄어들고 마이크로 프로세서 집적 회로에 의한 실시간 동작이 실현 가능하게 된다. 이것은 혁신부호에 응답하여 생성되는 합성 음성 신호와 제 1 도의 입력 음성 신호 사이의 에러 발생에 관여하는 시간 영역 처리를 상술한 변환 영역 처리와 치환함으로써 달성된다.
본 발명의 일례로서 여기 신호를 여기하기 위한 임의 부호를 사용한 변환 영역 디지털 음성 부호기는 제 2 도 및 제 3 도에 도시되어 있다. 이 임의 부호는 난수 시퀀스의 형식을 취할 수도 있고, 또는 예컨대 임의 순서의 +1과 -1로 변하는 시퀀스일 수도 있다. 시퀀스 전체의 평균이 작아지는 완만한 제약이 만족되면, 변화하는 시퀀스의 임의 배열을 사용할 수 있다. 제 2 도에 도시한 대로, 음성 패턴 예컨대 회화 메시지가 마이크로폰 변환기(201)에 의해 수신되고, 필터/샘플러(203)에서 대역 제한되고, 펄스 샘플의 시퀀스로 변환되며, A/D변환기(205)를 거쳐 선형 예측 계수(LPC)분석기(209)에 인가된다. 이 필터링은 당해 기술에서 주지된 대로 4.0kHz 이상의 음성 신호의 주파수 성분을 제거하도록 구성되고, 샘플링은 8.0kHz의 속도로 실행된다. 회로(203)로부터의 각 샘플은 A/D 변환기내의 진폭을 나타내는 디지털 부호로 변환된다. 이 디지털 부호 음성 샘플의 시퀀스는 LPC 분석기(209)에 인가되며, 상기 분석기(209)는 당해 기술에 공지된 바와 같이 작동하여 이 음성 신호를 5 내지 20ms의 시간 프레임 구간으로 분할하며, 각 프레임의 음성 샘플의 예측 단시간 스펙트럼을 나타내는 세트의 선형 예측 계수 신호a(k)를 발생한다. 여기서 k=1, 2, .....p이다. 상기 분석기는 또 아래의 식에 의해 인지 가중된 선형 예측 계수 신호를 생성한다.
Figure kpo00019
여기서 P는 예측 계수의 번호이다.
A/D 컨버터(205)로부터의 음성 샘플은 지연회로(207)내에서 음성 파라미터 신호 a(k)를 형성하기 위한 시간의 조절을 위해 지연된 후 예측 잔류 신호 발생기(211)의 입력에 제공된다. 당해 기술에 공지된 바와 같이, 예측 잔류 신호 발생기는, 지연된 음성 샘플 s(n) 및 예측 파라미터 a(k)에 응답하여 음성 샘플과 그 예측값들 사이의 차에 대응하는 신호 δ(n)을 생성한다. 예측 분석기(209)내에서 각 프레임에 대한 예측 파라미터 및 예측 잔류 신호의 생성은 미국 특허 제 3,740,476호에 개시된 장치 또는 당해 기술에 공지된 다른 장치에 의해 수행된다.
예측 잔류 신호 발생기(211)는 다음의 식에 따라 샘플 신호 s(n)으로부터 프레임 신호 예측부분을 감산함으로써 신호δ(n)를 생성한다.
Figure kpo00020
여기서, P는 예측 계수의 번호, 예컨대 12이고 N은 음성 프레임내의 샘플번호, 예컨대 40이고 a(k)는 프레임의 예측 계수이다. 예측 잔류 신호 δ(n)은 그 프레임의 음성 신호로부터 단시간 중복을 제거한 것에 상당한다. 4개의 음성 프레임 오더의 장시간 중복이 그 예측 잔류 신호내에 남아있고, 미국 특허 제4,354,057호에 예측 파라미터 β(1),β(2)β(3) 및 상기 장시간 중복에 대응하는 m이 예측 피치 분석기(220)내에서 생성된다. 여기서 m은 이하를 최대화하는 정수이며,
Figure kpo00021
β(1),β(2),β(3)는 이하를 최소화 하는 정수이다.
Figure kpo00022
공지된 바와 같이, 디지털 음성 부호기는 각 연속 프레임, 및 예측 프레임 잔류를 복호기로 전송하기 위해 또는 나중이 탐색을 위해 저장을 위해 부호함으로써 생성된다. 예측 파라미터를 부호화 하기 위한 비트 속도는 비교적 늦지만, 잔류 파라미터의 비중복 특성은 매우 높은 비트 속도를 요구한다. 본 발명에서, 최적의 임의 부호 ck*(n)가 프레임 여기를 나타내도록 선택되며, 선택된 임의 여기 부호의 지수를 나타내는 신호 K*가 송신된다. 이 방법에 있어서, 명료성에 악영향을 주지 않고 음성 부호 비트 속도가 최소화 된다. 임의 부호가 선택 프로세스를 경감시키고 마이크로 프로세서에 의해 실시간으로 수행할 수 있도록 변환 영역내에서 선택된다.
여기에 대한 의미의 부호의 선택은 프레임의 인지 가중된 선형 예측 파라미터를 예측 잔류와 결합시켜 신호 y(n)을 생성하게 된다. 인지 가중된 음성 신호에 대응하는 음성 패턴 신호 y(n)는 선행 프레임에 의한 성분 y(n)을 포함한다. 상기 선행 프레임 성분 y(n)은 선택 처리전에 제거되어 저장된 임의 부호가 현재의 프레임 여기에 대해서만 효과적으로 비교된다. 신호 y(n)은 예측 필터(217)내에서 프레임의 인지가중된 예측 파라미터 및 프레임의 예측 잔류 신호에 응답하여 이하의 식에 따라서 생성되고 y(n) 스토어(227)내에 축적된다.
Figure kpo00023
선행 프레임 음성 기여 신호 y(n)은 선행 프레임 기여 신호 발생기내에서 현재 프레임이 인지 가중된 예측 파라미터 신호 b(k), 피치 예측 파라미터 β(1),β(2),β(3) 및 스토어(230)와 선택된 다음식에서 얻어지는 으로부터 생성된다.
Figure kpo00024
Figure kpo00025
여기서, d(), ≤0 및 y(), ≤0은 과거의 프레임 성분을 나타낸다. 발생기(222)는 식(24)의 신호를 생성하기 위한 공지의 프로세서로 구성된다. 스토어(240)의 과거 프레임 음성 기여 신호 y(n)가 감산 회로(247)내에서 스토어(227)의 인지 가중된 신호로부터 강해져서, 과거 프레임 성분이 제거된 현재 프레임 음성 패턴 신호가 생성된다.
Figure kpo00026
감산기(247)로부터의 차신호 x(n)는 이산 푸리에 변환(DFT) 발생기(25)내에서 다음과 같이 주파수 영역 신호로 변환된다.
Figure kpo00027
여기서, Nf는 DFT포인트의 번호, 예컨대 80이다. DFT 변환 발생기는 미국 특허 제 3,588,460호에 기술된 바와 같이 작동하거나 또는 공지된 어떤 이산 푸리에 변환 회로로 구성할 수 있다.
현재의 음성 프레임에 대해 복수의 임의 여기 부호중의 하나를 선택하기 위해, 인지 가중된 LPC 필터가 여기 부호에 미치는 효과를 고려해야 한다. 이것은 필터와 임펄스 응답을 나타내는 신호를 다음의 식, 즉
Figure kpo00028
에 따라 생성하고, 이 임펄스 응답을 다음과 같이 이산 푸리에 변환에딸 주파수 영역 신호로 변환함으로써 실현된다.
Figure kpo00029
인지 가중된 임펄스 응답 신호 h(n)은 임펄스 응답 발생기(225)내에서 생성되며, 주파수 영역 신호 H(i)로의 변환은 DFT 발생기(245)내에서 생성된다.
이 주파수 영역 임펄스 응답 신호 H(i) 및 선행의 프레임 기여가 제거된 주파수 영역 인지가중 음성 신호 X(i)는 제 3 도의 변환 파라미터 신호 컨버터(301)에 인가되며, 여기서, 신호 d(i) 및 ξ(i)은 다음의 식에 따라 생성된다.
d(i) d"#H(i)"#
Figure kpo00030
d(i) 및 ξ(i)에 의해 나타나는 현재의 음성 프레임 여기 신호와 비교되는 임의 부호는 통계적 부호 스토어(330)에 저장된다. 각각의 부호는 N개, 예컨대 40개의 시퀀스 디지털 부호 신호 C(k)(1),C(k)(2)…C(k)(40)을 포함한다. 상기 신호는 총평균이 비교적 작다는 완만한 제약내에서 임의로 선택된 번호의 세트가 되거나 임의로 선택된 디지털 부호 신호일 수도 있다. 또 이 제약을 만족하면 당해 기술에 공지된 다른 부호의 형식을 취할 수도 있다. 이런 세트의 신호 C(k)(n)은 제 2 도 및 4 도의 부호기 장치에 악영향을 주지 않고 기억 요건을 최소화 하기위해 중복된 개별 부호로 구성할 수도 있다. 변환 영역 부호 스토어(305)는 스토어(330)에서 다음의 식에 의해 얻어지는 푸리에 변환 주파수 영역의 부호 형식을 갖는다.
Figure kpo00031
여기서 변환 부호 신호가 기억되는데, 기억된 임의 부호로부터 변화 신호를 발생하는 공지된 다른 장치를 사용할 수도 있다. 주파수 영역 부호가 실수 및 허수 성분 신호를 가지므로, 주파수 영역 부호 C(k)(i)에는 대응하는 시간 영역 부호 C(k)(n)의 2배 요소가 포함된다.
변환 영역 부호 스토어(305)의 각 부호 출력 C(k)(i)는 K개의 에러 및 스케일 인자 발생기(315-I) 내지 (315-K)중의 하나에 인가되며, 여기서 변환된 임의 부호는 파라미터 신호 컨버터(301)로 부터 얻어지는 시간 프레임에 대한 신호 d(i) 및 ξ(i)에 의해 나타나는 시간 프레임 음성 신호와 비교된다. 제 5 도는 에러 및 스케일 인자 발생기(315-K)에 대한 에러 및 스케일 인자 신호를 생성하는데 사용되는 장치를 선도로 도시한 것이다. 제 5 에서, 임의 부호 시퀀스 C(k)(1),C(k)(2)…C(k)(i)…C(k)(N)는 음성 패턴 상호 상관기(501) 및 음성 패턴 에너지 계수 발생기 즉 정규화기(505)에 인가된다. 변환 파라미터 신호 컨버터(301)로 부터의 신호 d(i)는 상호 상관기(501) 및 정규화기(505)에 인가되며, 반면에 컨버터(301)로 부터의 ξ(i)sms 상호 상관(501)에 제공된다. 상호 상관기(501)는 다음식에 의해 표현되는 신호를 생성한다.
Figure kpo00032
상기 식은 과거의 프레임 성분이 제거된 음성 프레임 신호와 변환된 임의 부호로부터 파생된 프레임 음성 신호 d(i)Ck(i)와의 상관을 나타낸다. 반면에 제곱 회로(510)는 다음의 식으로 나타나는 신호를 생성한다.
Figure kpo00033
부호 시퀀스 C(k)(n)을 사용하는 에러는 제산기 회로(515)내에서 상호 상관기(501) 및 정규화기(505)의 출력에 응답하여 다음의 식에 따라 현재의 음성 시간 프레임에 대해 생성된다.
Figure kpo00034
그리고 스케일 인자는 상호 상관기(501) 및 정규화기(505)의 출력에 응답하여 제산기(520)내에서 다음의 식에 따라 생성된다.
Figure kpo00035
제 5 도의 상호 상관기, 정규화기 및 제산기 회로는 공지된 논리 회로 요소로 구성되고, 후술하는 대로 디지털 신호 프로세서에 조립된다. 프레임 음성 패턴의 특성과 가장 합치하는 임의 부호는 제 3 도의 부호 선택기(320)내에서 선택되며, 선택된 부호 K*의 인덱스 및 그 부호에 대한 스케일 인자 γ(K*)가 멀티플랙서(325)에 제공된다. 이 멀티플랙서는 여기 부호 신호 K*및 γ(K*)를 현존 음성 시간 프레임 LPC 파라미터 신호 a(k) 및 피치 파라미터 신호 β(1),β(2),β(3) 및 m을 전송 또는 기억하기에 적합한 형식으로 결합한다. 인덱스 신호 K*도 선택기(325')에 인가되고, 그 인덱스에 대한 시간 영역 부호가 스토어 (330)로부터 선택된다. 이렇게 선택된 시간 영역 부호 Ck*(n)는 제 2 도의 선행 프레임 기여 발생기(222)에 공급되며, 이하의 식에 따라 다음의 음성 시간 프레임 처리를 위한 y(n)을 생성하는데 사용된다.
Figure kpo00036
제 4 도는 본 발명의 음성 부호기 장치를 도시한 것이며, 여기서 제 2 도 및 3 도와 관련되어 기술된 연산은 제어 프로세서(435)의 제어하에 일련의 디지털 신호 프로세서(405),(410),(415) 및 (420-1) 내지 (420-k)에서 수행된다. 프로세서(405)는 제 2 도의 LPC 분석기(209), LPC 신호 및 가중 LPC신호 스토어(213,215), 및 예측 필터(217) 및 피치 예측 분석기(220)와 관련된 예측 계수 신호 처리를 수행하는데 사용된다. 예측 잔류 신호 프로세서(410)는 예측 필터(217), 선행 프레임 기여 신호 발생기(222), 감산기(247) 및 임펄스 응답 발생기(225)에 대해 서술한 기능을 수행한다. 변환 신호 프로세서(415)는 제 2 도의 DFT발생기(240,250) 및 제 3 도의 변환 파라미터 신호 컨버터(301)의 연산을 수행한다. 프로세서(420-1 내지 420-K)는 제 3 도의 에러 및 스케일 인자 발생기(315-1 내지 315-K)로부터 얻어지는 에러 및 스케일 인자 신호를 생성한다.
각각의 디지털 신호 프로세서에는 IEEE 저널 오브 솔리드 스테이트 서킷(Journel of Solid State Circuits) 볼륨 SC 20, No, 5, 1985년 10월호 페이지 998, 피, 하이즈(P.Hays)의 논문 "32비트 VLSI 디지털 신호 프로세서(A32 Bit VLSI Digital Processor)에 기술되어 있는 WEO DSF32 디지털 신호 프로세서를 사용할수 있으며 제어 프로세서에서는 책자 "MC 68000 16비트 마이크로프로세서 사용자 매뉴얼", 제2판 , 모토로라사, 1980년 출판에 기술되어 있는 모토로라 타입 68000 마이크로프로세서 및 관련 회로를 사용할 수 있다. 각각의 디지털 신호 프로세서는 그것과 관련된 연산을 위해 데이터를 저장하기 위한 메모리, 예컨대 예측 계수 신호 프로세서(405)에 접속되어 있는 데이타 메모리(408)를 갖는다. 공통 데이타 메모리(450)는 다른 신호 프로세서의 작동에 필요한 한 디지털 신호 프로세서로부터의 신호를 기억한다, 공통 프로그램 스토어(430)는 제어 프로세서(435) 및 디지털 신호 프로세서에 의해 타이밍의 목적 및 제 4 도의 부호화 기능을 수행하기 위해 사용되는 일련의 영구적으로 기억되는 명령 신호를 갖는다. 통계적 부호신호 스토어(440)는 판독 전용 메모리(ROM)이고 제 3 도와 관련되어 기술되어 있는 바와 같은 난수 부호(nk)를 포함한다. 변환 부호 신호 스토어(445)는 다른 하나의 판독 전용 메모리이고, 스토어(440)내의 부호화 대응하는 푸리에 변환된 주파수 영역 부호 신호를 보유한다.
제 4 도의 부호기는 통신 시스템 의한 부분을 형성할 수 있으며, 여기서 마이크로폰(401)에 인가된 음성이 낮은 비트 속도 디지털 신호, 예컨대 4.8kb/s로 부호화되며 통신 링크를 거쳐 임의 부호 인덱싱 및 프레임 파라미터 신호를 복호하는 수신기에 송신된다. 또, 제 4 도의 부호기의 출력은 후에 복호하기 위해 저장 및 전송 시스템(astore and forward system)내에 저장되거나, 후술하는 타입의 음성 합성기내에 사용하기 위한 판독 전용 메모리에 저장된다. 제 6 도의 흐름도로 도시된 바와 같이 제어 프로세서(435)는 스위치 또는 다른장치 (도시안됨)로부터의 수조작 신호 ST에 의해 부호기의 동작을 기동시킨다. 제 4 도의 디지털 신호 프로세서가 하나의 시간 프레임 구간에 대한 예측 파라미터 신호 및 여기 부호 신호 K*및γ*를 생성하는 모든 동작은 그 시간 프레임 구간내에 일어난다. 온 스위치가 세트되면 (스텝 601), 신호 ST가 생성되어 예측 계수 프로세서(405)를 동작시키며, 공통 프로그램 스토어(430)내의 명령이 액세스되어 프로세서(405)의 동작을 제어하게 된다. 마이크로폰(401)에 인가되는 음성은 필터 및 샘플러(403)내에서 필터링 및 샘플링되며, A/D 컨버터(404)내에서 디지털 신호의 시퀀스로 변환된다. 프로세서(405)는 컨버터(404)로부터 디지털 부호화된 샘플 신호를 수신하며, 이 샘플을 수신되는 순서대로 시간 프레임 세그먼트로 분할하고, 이 일련의 프레임 샘플을 제 7 도의 스텝 705에서 지시한 바와 같이 데이타 메모리(408)내에 저장한다. 스텝 710에 도시한 대로, 현재의 시간 프레임에 대한 단시간 지연 계수신호 a(k) 및 인지 가중된 단시간 지연 기호 b(k)가 상술한 미국 특허 제 4,133,476호 및 식(19)에 따라 생성된다. 스텝 715로 나타낸 바와 같이 현존 프레임의 예측 잔류신호 δ(N)은 식(20)에 따라 현존 프레임 음성 샘플 s(n) 및 LPC 계수 신호 a(k)로부터 생성된다. 스텝 715의 동작이 완료되면, 제어 프로세서(435)에 단시간 지연 분석 종료(STELPC)신호가 보내진다.(스텝 720).
이 STELPC신호는 제 6 도의 스텝 615에 도시한 대로 프로세서(410)의 동작을 개시하는데 사용된다. 이어서 스텝 725에 도시한 대로 식(21) 및 (22)에 따라 장시간 지연 계수 신호 β(1),β(2),β(3) 및 m이 생성되며, 예측 계수 분석 종료 신호 STEPCA가 생성된다(스텝 730). 프로세서(405)는 상술한 미국 특허 제 4,133,967호에 기술된 바와 같이 예측 계수 신호를 생성하는데 사용된다. 현존 음성 프레임의 신호 a(k),b(k),δ(n),β(n) 및 m은 잔류 신호 처리에 사용하기 위해 공통 데이타 메모리(450)로 이송된다.
현존 프레임 LPC 계수 신호가 프로세서(405)내에서 생성되면, 제어 프로세서(435)는 STELPC 신호에 응답하여 제 8 도의 스텝 801에 도시한 대로 예측 잔류 신호 프로세서(410)를 기동시킨다. 프로세서(410)의 동작은 제 8 도의 흐름도로 도시한 바와 같이 공통 프로그램 스토어(430)의 제어하에서 수행된다. 제 8 도에서 , 현존 프레임의 인지 가중된 신호 y(n)이 스텝 805에서 식(23)에 따라 생성되고 저장된다. 스텝 810에서 식(24)에 따라 장시간 지연 예측 기여 신호 a(n)가 생성된다. 스텝 815에서 단시간 지연 예측 기여 신호 y(n)가 생성된다. 스텝 820에서 신호 y(n)에서 신호 y(n)을 감산함으로써 선행 프레임의 성분이 제거된 현재 프레임의 음성 패턴 신호 x(n)이 생성되며, 상술한 미국 특허 제 4,133,476(스텝 825)에 기술된 바와 같이 LPC 계수 신호 a(k)로부터 임펄스 응답 신호 h(n)이 생성된다. 신호 x(n) 및 h(n)은 변환 신호 프로세서(415)에 사용하기 위해 공통 데이타 메모리(450)에 이송되어 저장된다.
현존 시간 프레임에 대한 신호 x(n),h(n)의 생성이 완료하면, 제어 프로세서(435)는 프로세서(410)로부터 신호 STEPSP를 수신한다. 제어 프로세서(435)에 의해 신호 STEPSP 및 STEPCA의 양쪽이 수신되면 (제 6 도의 스텝 621), 변환 신호 프로세서(415)의 동작은 제 6 도의 스텝 625에 도시한 대로 신호 STEPSP를 프로세서(415)로 이송함으로써 개시된다. 프로세서(415)는 신호 x(n) 및 h(n)에 관해 이산 푸리에 변환 연산을 수행함으로써 주파수 영역 음성 프레임을 나타내는 신호 X(i) 및 H(i)를 생성한다. 제 9 도에서, 신호 STEPSP가 검출되면(스텝 901), x(n) 및 h(n)신호가 공통데이타 메모리(450)로부터 판독된다(스텝 905). 당분야에서 공지된 푸리에 변환에 의해 신호 X(i)는 신호 x(n)신호로부터 생성되고(스텝 910). 신호 H(i)가 신호 h(n)으로부터 생성된다(스텝 915). DFT는 상술한 미국 특허 제 3,588,460호에 기술된 원리에 따라 실현할수 있다. 다음에 스텝 920에서 식(29)에 따라 신호 X(i) 및 H(i)를 음성 프레임을 나타내는 신호 d(i) 및 ξ (i)로의 변환이 프로세서(415)에 의해 수행되고, 신호 d(i) 및 ξ(i)가 공통 데이타 메모리(450)에 기억된다. 현존 프레임의 변환 예측 처리가 종료하면, 신호 STETPS가 제어 프로세서(435)로 보내진다(스텝 925). 스텝 630에서 신호 STETPS에 응답하여, 제어 프로세서는 에러 및 스케일 인자 신호 프로세서(420-1) 내지 (420-R)를 동작하게 한다(스텝 635).
일단, 현존 프레임에 대한 변환 영역 시간 프레임 음성 표시 신호가 프로세서(415)내에서 생성되고, 공통 데이타 메모리(450)내에 기억되면, 현존 프레임의 음성 패턴과 가장 잘 일치하는 통계적 부호 Ck*(n)의 탐색 동작이 에러 및 스케일 인자 신호 프로세서 (420-1 내지 420-K)내에서 수행된다. 각각의 프로세서는 스토어(445)내의 하나 이상 (예컨대 100개)의 변환영역 부호에 대응하는 에러 및 스케일 인자 신호를 생성한다. 에러 및 스케일 인자 신호의 생성이 제 10 도의 흐름도에 도시되어 있다. 제 10 도에 있어서, 제어 신호 STETPS의 존재에 의해(스텝 1001) 처리되는 통계적 부호를 확인하는 파라미터 K, 현재 프레임에 대한 선택된 통계적 부호를 확인하는 파라미터 K*, 현존 프레임에 대해 선택된 부호의 상호 상관계수 신호를 확인하는 파라미터P(r)*, 현존 프레임에 대해 선택된 부호의 에너지 계수 신호를 확인하는 파라미터 Q(r)*가 세트된다(스텝 1005).
현재 대상이 되는 변환 영역 임의 부호 C(k)(i)가 변환 부호 신호 스토어 (445)로부터 판독되며(스텝 1010), 변환 영역 임의 부호 Ck(i)로부터 얻어지는 현존 프레임으 변환 영역 음성 패턴 신호는 신호 d(i) 및 Ck(i)로부터 생성된다(스텝 1015.) 신호 d(i) Ck(i)는 임의 부호 Ck(n)에 의해 생성된 프레임의 음성 패턴을 나타낸다. 실제 부호 신호 Ck(i)는 프레임 여기에 대응하며, 신호 d(i)는 사람의 음성 기관을 나타내는 예측 필터에 대응한다. 공통 데이타 스토어(450)에 기억되어 있는 신호 ξ(i)는 마이크로폰(401)으로부터 얻어지는 현존 프레임의 음성 패턴을 나타낸다.
변환 영역 음성 패턴을 나타내는 두 신호 d(i)Ck(i) 및 ξ(i)는 상호 관련되어 스텝 1020에서 신호 P(K)를 생성하며, 스텝 1022에서 정규화의 목적으로 에너지 계수 신호 Q(k)가 생성된다. 그 프레임의 실제 음성 패턴과 통계적 부호 프레임 음성 패턴과의 현재 편차가 스텝 1025에서 계산된다. 부호 패턴과 실제 패턴 사이의 에러가 선행 부호에 대해 계산된 가장 양호한 값보다 작은 경우, 인덱스 신호 K(r)*, 상호 상관 신호 P(r)*및 에너지 계수 신호 Q(r)*는 스텝 1030에서 K, P(r) 및 Q(k)로 세트된다. 다음에 스텝 1035에서 모든 부호가 비교되었는지를 조사한다. 종료하지 않은 경우, 신호 K(r)*, P(r)*및 Q(r)*는 변경되지 않은채 남아있으며 스텝 1025로부터 직접 스텝 1035로 간다. 스텝 1035에서 K〉Kmax가 될때까지, 부호 인덱스 신호 K는 증분되며(스텝 1040), 스텝 1010으로 재진입한다. K〉Kmax이면, 신호 K(r)*가 기억되며 스텝 1045에서 스케일 인자 계수 신호 r*가 생성된다. 에러 및 스케일 인자 신호 프로세서에서 처리된 부호에 대한 인덱스 신호 K(r)*및 스케일 인자 신호 γ(r)*는 공통 데이타 메모리(450)에 저장된다. 그후 스텝 1050이 시작되며 STEER 제어 신호가 제어 프로세서(435)에 보내져서, 에러 및 스케일 인자 신호 프로세서에서의 변환 부호의 선택이 완료되었음을 통지한다(제 6 도에서의 스텝 640). 그후, 제어 프로세서가 작동되어 스텝 645에 대한 것과 같이 최소 에러 및 멀티플렉서 프로세서(455)를 기동시킨다.
프로세서(420-1 내지 420-R)내에서의 비교 결과로서 얻어지는 신호 P(r)*, Q(r)*및 K(r)*는 공통 데이타 메모리(450)에 기억되어 최소 에러 및 멀티플렉서 프로세서(455)로 보내진다. 프로세서(455)는 제 11 도의 흐름도에 따라 동작하여 스토어(440)내의 인덱스 K*를 가진 최적 일치 통계적 부호를 선택한다. 상기 인덱스는 프로세서(420-1 내지 420-R)에 대한 신호 K*(1) 내지 K*(R)에 의해 표시되는 최적 임의 부호로부터 선택된다. 상기 인덱스 K*는 최소 에러 신호를 주는 통계적 부호에 대응한다. 제 11 도의 스텝 1101에 도시한 대로, 프로세서(420-1) 내 지 (420-R)이 STEER 신호를 이송하는 것을 지시하는 신호가 제어 프로세서(435)로부터 수신될 때 프로세서(455)가 기동된다. 신호 r, K*, P*및 Q*는 각각 초기 값 1에 세트되며, 신호 P(r)*, Q(r)*및 Υ(r)*는 공통 데이타 메모리(450)로부터 판독된다(스텝 1110). 스텝 1115에 의해서 현존 신호 P(r)*및 Q(r)*가 더 잘 일치하는 통계적 부호를 제공한다고 판단되면, 상기 값은 현존 프레임에 대한 K*, P*, Q*및 Υ*로 기억되며(스텝1120) 판정 스텝 1125가 개시된다. R번째 세트의 신호 K(R)*, P(R)*, Q(R)*가 처리될때까지, 증분 스텝 1130을 거쳐 스텝 1110이 반복하여 수행되어, 최적 통계적 부호라 생각되는 모든 가능한 후보가 평가된다. R번째 세트의 신호가 처리된 후, 현존 프레임에 대해 선택된 인덱스 신호 K*및 대응하는 스케일 인자 신호 Υ*가 공통 데이타 메모리(450)에 저장된다.
이 시점에서, 현존 시간 프레임 음성 부호를 형성하기 위한 모든 신호가 공통 데이타 메모리(450)에서 얻을 수 있다. 상술한 바와 같이 신호 x(n)을 형성하기 위한 현존 시간 프레임의 선행 프레임 성분을 제거하는데 사용할 현존 프레임 여기 부호 Ck*(n)의 기여를 다음의 시간 프레임 구간에 신호 프로세서에서 생성할 필요가 있다. 이것은 스텝 1135에서 수행되는데, 여기서 신호
Figure kpo00037
(n) 및
Figure kpo00038
(n)이 갱신된다.
현존 프레임에 대한 예측 파라미터 신호 및 신호 K*및 γ*가 다음에 메모리(450)로부터 판독되고(스텝 1140), 이들 신호가 당해 기술에 공지된 바와 같이 프레임 전송 부호 세트로 변환된다(스텝 1145). 다음에 현존 프레임 종료 전송 신호 FET가 생성되어 제어 프로세서(435)로 보내지고, 프로세서(435)에 다음 프레임 신호의 개시가 통지된다(제 6 도의 스텝 650).
통신 시스템내에 사용되는 경우, 이 시간 프레임의 부호와 음성 신호는 한 세트의 LPC 계수 a(k), 한 세트의 피치 예측 계수 β(1), β(2), β(3) 및 m, 및 통계적 부호 인덱스 신호 K*및 스케일 인자 신호 γ*된다. 당해 기술에 공지된 바와 같이, 예측 복호기 회로는 각 음성의 시간 프레임의 여기 신호를 인간의 음성기관의 모델인 하나 또는 복수의 필터로 보낸다. 본 발명의 한 양상에 따르면, 이 여기 신호는, 제 2 도 및 제 3 도 또는 제 4 도 회로의 음성 부호기와 관련하여 설명된 대로 저장된 임의 부호이다. 이 통계적 부호는 각각이 레지스터내에 저장된 1024개의 난수 g(1), g(2)…g(1063)으로부터 얻어지는 한 세트 40개의 난수를 포함하는 1024개의 부호 세트로 구성된다. 통계적 부호는 표 1에 도시된 바와 같이 중복하여 배열된 40개의 요소를 포함한다.
[표 1]
Figure kpo00039
표 1에 있어서, 각각의 부호는 40개의 난수의 시퀀스를 갖고, 이들 난수는 각각의 연속 부호가 선행 부호의 두번째 위치에서 시작하도록 중복된다. 표 1에서 제 1 항목은 인덱스 K=1이며 최초 40개의 난수 스트링, 즉 g(1), g(2),…g(40)를 포함한다. 인덱스 K=2인 제 2 부호는 난수 g(2), g(3),…g(41)의 세트에 대응한다. 따라서, 후속 39개의 위치의 부호는 중복하고, 이들 난수 특성에 영향을 주지 않고 요구되는 기억 용량을 최소화시킨다. 이러한 중복의 정도는 회로의 동작에 영향을 주지 않고 변경할 수 있다. 이 스트링의 신호 g(1) 내지 g(1063)의 전체 평균은 비교적 작아야 한다. 임의 부호는 반드시 난수일 필요는 없으며, 또 이들 부호는 반드시 중복하여 배열할 필요는 없다. 따라서, 한 세트의 독특한 부호를 정의한 +1, -1의 임의 시퀀스를 사용할 수도 있다.
제 12 도의 복호기 또는 합성기 회로에서, 디멀티플렉서(1201)내의 LPC 계수 신호 a(k), 피치 예측 계수 신호 β(1), β(2), β(3), 및 m, 통계적 부호 인덱스 신호 K*및 스케일 인자 신호 γ*가 분리된다. 피치 예측 파라미터 신호 β(k) 및 m은 피치 예측 필터(1220)에 인가되며, LPC 계수 신호는 LPC 예측 필터(1225)에 제공된다. 필터(1220) 및 (1225)는 당해 기술에 공지된 미국 특허 제 4,133,976호에 기술된 바와 같이 작동하여, 음성 기관의 특성에 따라 스케일러(1215)로 부터의 여기 신호를 수정한다. 인덱스 신호 K*는 통계적 스트링 레지스터(1210)를 어드레스 하는 선택기(1205)에 인가된다. 인덱스 신호 K*에 응답하여, 그 음성의 시간 프레임 여기를 가장 잘 나타내는 통계적 부호가 스케일러(1215)에 인가된다. 이 통계적 부호는 실제 음성 강도에 관계없이 시간 프레임 음성 패턴에 대응한다. 스케일러는 이 통계적 부호를 음성 프레임의 여기 강도에 따라 수정한다. 이 방법에 의한 여기 신호의 생성은 전송에 필요한 여기 비트 속도를 최소한으로 하며, 또 부호가 중복되어 저장되므로 복호기의 회로 요건이 경감되고, 광범위한 암호 기술을 사용할 수 있게 된다. 스케일러(1215)로부터 통계적 부호 신호가 예측 필터(1220) 및 (1225)내에서 수정된 결과로서 얻어지는 디지털 부호화 신호가 D/A 컨버터(1230)에 인가되고, 여기서 일련의 아날로그 샘플이 생성된다. 이들 샘플이 저역 필터(1235)내에서 필터되어, 제 2 도 및 제 3 도 또는 제 4 도 회로의 부호기에 인가되는 시간 프레임 음성 신호 s(n)의 복제가 생성된다.
본 발명은 음성 합성에도 사용할 수 있지만, 이 경우는 음성 패턴이 제 2 도 및 제 3 도 또는 제 4 도 회로에 도시된 바와 같은 통계적 부호화 방법을 사용하여 부호화 된다. 음성 합성기는 제 12 도의 회로를 포함한다. 여기서, 공지의 데이터 처리 장치로부터 인덱스 신호 K*가 예측 파라미터 신호와 함께 순차로, 생성되는 음성 패턴에 따라 통계적 스트링 레지스터(1210)에 인가된다. 중복하는 부호 배열 때문에 기억 요건이 최소한으로 되고, 따라서 광범위한 음성을 생성할 수 있고, 또 통계적 부호를 인덱스 신호로써 매우 효과적으로 액세스할 수 있다. 유사하게, 나중에 재생하기 위한 본 발명의 음성 메시지의 기억은 연속 프레임의 예측 파라미터 및 여기 인덱스 신호의 기억만이 필요하고, 재생된 메시지의 명료성을 감소시키지 않고 음성 압축을 향상시킬 수 있다.
비록, 본 발명은 특정 실시예로 기술되어 있지만, 본 발명의 분야에 숙련된 사람은 본 발명의 사상 및 범주를 벗어나지 않고 다양하게 변경 및 수정을 가할 수 있음은 물론이다.

Claims (12)

  1. 각각이 임의 부호를 나타내는 한 세트의 신호들과 각각이 그 임의 부호들중 하나를 확인하는 한 세트의 인덱스 신호들을 저장하는 수단(330) ; 음성을 연속 시간 프레임 구간 부분들로 분할하고 각각의 연속 시간 프레임 구간내의 음성부분을 나타내는 시간 영역 신호를 생성하는 수단(225 및 245를 제외한 203 내지 247) ; 상기 시간 영역 신호 각각으로부터 적어도 하나의 변환 영역 신호를 발생하는 수단(225, 245, 250) ; 상기 변환 영역 신호 발생 수단에서와 동일한 형식의 변환을 통하여, 각각의 임의 부호 신호에 응답하여 이 임의 부호 신호에 대응하는 변환영역 부호 신호를 발생하는 수단(305); 각각의 시간 프레임 구간에 대한 변환 영역 신호들을 상기 변환 영역 부호 신호를 각각에 상호 연관 시키어 최소의 오차 즉 최대의 상사성을 산출하는 상기 변환 영역 부호 신호들중 하나를 상기 시간 프레임 구간내의 음성 부분을 나타내는 신호로서 수단(315 및 320, 또는 501 내지 520 및 320) ; 및 상기 선택된 변환 영역 부호 신호에 대응하는 상기 임의 부호 신호에 대응하는 상기 인덱스 신호를 출력하는 수단(325)을 포함하는 음성 부호화 장치.
  2. 제 1 항에 있어서, 상기 시간 영역 신호 생성 수단은 상기 신호를 각 연속 시간 프레임 구간내 음성 부분의 예측 파라미터들을 나타내는 신호로서 생성하는 수단(209)을 포함하며, 상기 적어도 하나의 변환 영역 신호 발생 수단은 상기 예측 파라미터들을 나타내는 상기 시간 영역 신호로부터 예측 파라미터들을 나타내는 변환 영역 신호를 발생하고, 상기 음성 부분에 대한 예측 특성을 나타내는 변환 영역 신호를 발생하는 수단(225, 245)을 더 포함하며, 상기 상호 연관 수단은 상기 예측 특성 표시 신호에 응답하여, 각 시간 프레임 구간 동안 예측 파라미터를 나타내는 변환 영역 신호에 대하여 상기 변환 영역 부호 신호의 상대적 스케일링을 나타내는 신호(γ)를 생성하는 수단(315)을 포함하고, 상기 출력 수단은 상기 예측 파라미터 표시 신호와 상기 상대적 스케일링 신호를 합성하는 수단(325)을 포함하는 음성 부호화 장치.
  3. 제 2 항에 있어서, 각 연속 시간 프레임 구간내 음성부분을 나타내는 시간 영역 신호를 생성하는 상기 수단은, 각 연속 시간 프레임 구간내 음성부분의 예측 파라미터들을 나타내는 한 세트의 신호들을 발생하는 수단(209, 213, 215)과, 각 연속 시간 프레임 구간내 음성에 대한 예측 잔류를 나타내는 신호를 생성하는 수단(207, 211)과, 상기 예측 잔류 발생수단과 상기 예측 파라미터 신호 발생수단에 응답하여 선행 시간 프레임으로부터 음성에 기입한 기여를 제거하는 수단(217, 227, 222, 235, 240, 247)을 포함하는 음성 부호화 장치.
  4. 제 3 항에 있어서, 상기 분할 및 시간 영역 신호 생성 수단은 상기 예측 잔류 발생 수단에 응답하여, 선행 프레임들의 기여들을 포함하는 피치 예측 파라미터들을 생성하는 수단(220, 230)을 더 포함하고, 상기 출력 수단의 합성 수단은 상기 피치 예측 파라미터 생성 수단에 응답하는 음성 부호화 장치.
  5. 제 2 항 또는 제 3항에 있어서, 상기 상호 연관 수단은 상기 예측 파라미터를 나타내는 변환 영역 신호, 상기 음성부분에 대한 상대적 스케일링을 나타내는 변환 영역 신호, 및 상기 변환 영역 부호 신호 3개를 모두 상호 연관시키는 수단(501)과, 상기 상호 연관 수단의 출력에 그리고 상기 3개의 신호들중 하나 이상의 신호에 응답하여 상기 상대적 스케일링 신호(Υ)를 생성하고 상호 연관 에러 신호(E(4))를 생성하는 수단(505, 510, 515, 520)을 포함하는 음성 부호화 장치.
  6. 각각이 임의 부호를 나타내는 한 세트의 신호들과 각각이 상기 임의 부호들중 하나를 확인하는 한 세트의 인덱스 신호들을 저장하는 수단(330) ; 음성을 연속 시간 프레임 구간 부분들로 분할하고, 각각의 연속 시간 프레임 구간내 음성 부분을 나타내는 시간 영역 신호를 생성하는 수단(225 및 245를 제어한 203 내지 247) ; 각각의 상기 시간 영역 신호로부터 적어도 하나의 변환 영역 신호를 발생하는 수단(225, 245, 250) ; 상기 변환 영역 신호 발생 수단에서의 동일한 형식의 변환을 통하여, 각각의 임의 부호 신호에 응답하여 이 임의 부호 신호에 대응하는 변환 영역 부호 신호를 발생하는 수단(305) ; 각각의 시간 프레임 구간에 대한 변환 영역 신호에 그리고 상기 변환 영역 신호 각각에 대하여 각각의 상기 변환 영역 부호 신호들에 비교 응답하여 최소의 오차 즉 최대의 상사성을 산출하는 변환 영역 부호 신호들중 하나를 상기 시간 프레임 구간내 음성 부분을 나타내는 신호로서 선택하는 수단(315 및 320 또는 501 내지 520 및 320) ; 및 상기 선택된 변환 영역 부호 신호에 대응하는 상기 임의 부호 신호에 대응하여 상기 인덱스 신호를 출력하는 수단(325)을 포함하는 음성 부호화 장치.
  7. 각각이 임의 부호를 나타내는 한 세트의 신호들과 각각이 상기 임의 부호들중 하나를 확인하는 한 세트의 인덱스 신호들을 저장하는 단계 ; 음성을 연속 시간 프레임 구간 부분들로 분할하는 단계 ; 각각의 연속 시간 프레임 구간내 음성부분을 나타내는 시간 영역 신호를 생성하는 단계 ; 각각의 상기 시간 영역 신호로 부터 적어도 하나의 변환 영역 신호를 발생하는 단계 ; 전술한 변환 영역 신호 발생 단계에서와 동일한 형식의 변환을 통하여, 각각의 임의 부호 신호에 응답하여 변환 영역 부호 신호를 발생하는 단계 ; 각각의 시간 프레임 구간에 대한 변환 영역 신호들을 각각의 상기 변환 영역 부호 신호들과 상호 연관시켜 최소의 오차 즉 최대의 상사성을 산출하는 상기 변환 영역 부호 신호들중 하나를 상기 시간 프레임 구간내 음성 부분을 나타내는 신호로서 선택하는 단계 ; 및 상기 선택된 변환 영역 부호 신호에 대응하는 임의 부호 신호에 대응하여 상기 인덱스 신호를 출력하는 단계를 포함하는 음성 부호화 방법.
  8. 제 7 항에 있어서, 상기 시간 영역 신호 생성 단계는 상기 신호를 각각의 연속 시간 프레임 구간내 음성 부분의 예측 파라미터들을 나타내는 신호로서 생성하는 단계를 포함하며, 상기 적어도 하나의 변환 영역 신호 발생 단계는 상기 예측 파라미터들을 나타내는 상기 시간 영역 신호로부터 상기 예측 파라미터를 나타내는 변환 영역 신호를 발생하고, 상기 음성 부분에 대한 예측 특성을 나타내는 변환 영역 신호를 발생하는 단계를 더 포함하며, 상기 상호 연관 단계는 상기 에너지 예측 특성을 나타내는 신호에 응답하여 각각의 시간 프레임 구간에 대한 예측 파라미터들을 나타내는 변환 영역 신호에 대하여 상기 변환 영역 부호 신호의 상대적 스케일링을 나타내는 신호(γ)를 생성하는 단계를 포함하고, 상기 출력 단계는 상기 예측 파라미터 신호와 상기 상대적 스케일링 신호를 합성하는 단계를 포함하는 음성 부호화 방법.
  9. 제 8 항에 있어서, 각각의 연속 시간 프레임내 음성부분의 패턴을 나타내는 신호로서 시간 영역 신호를 생성하는 상기 단계는 각각의 연속 시간 프레임 구간내 음성의 예측 파라미터들을 나타내는 신호들을 나타내는 한 세트의 신호들을 발생하는 단계와, 각각의 연속 시간 프레임 구간내 음성에 대한 예측 잔류를 나타내는 신호를 생성하는 단계와, 상기 예측 잔류 발생과 상기 예측 파라미터 신호 발생에 응답하여 선행 시간 프레임으로부터 음성에 의한 기여를 제거하는 단계를 포함하는 음성 부호화 방법.
  10. 제 9 항에 있어서, 상기 분할 단계 및 상기 시간 영역 신호 생성 단계는 상기 예측 잔류 신호에 응답하여 선행 프레임들의 기여를 포함하는 피치 예측 파라미터들을 생성하는 단계를 포함하고, 상기 합성 단계는 상기 피치 예측 파라미터들을 결합시키는 것으로 되어 있는 음성 부호화 방법.
  11. 제 8 항 또는 제 9 항에 있어서, 상기 상호연관 단계는 상기 예측 파라미터를 나타내는 변환 영역 신호, 상기 음성 부분에 대한 상대적 스케일링을 나타내는 상기 변환 영역 신호, 및 상기 변환 영역 부호 신호 3개 모두를 정확히 상호연관시키고, 상기 정확한 상호 연관 단계의 출력과 상기 3개 신호들중 하나 이상을 인가하여 상기 상대적 스켕일링 신호(γ)와 상호연관 에러 신호(E(4))를 생성하는 것으로 되어 있는 음성 부호화 방법.
  12. 각각이 임의 부호를 나타내는 한 세트의 신호들과 각각이 그 임의 부호를 확인하는 한 세트의 인덱스 신호들을 저장하는 단계 ; 음성을 연속 시간 프레임 구간 부분들로 분할하는 단계 ; 각각의 연속 시간 프레임 구간내 음성부분을 나타내는 시간영역 신호를 생성하는 단계 ; 각각의 상기 시간 영역 신호로부터 적어도 하나의 변환 영역 신호를 발생하는 단계 ; 상기 변환 영역 신호 발생 단계에서와 같은 형식의 변환을 통해 각각의 임의 부호 신호에 응답하여 변환 영역 부호 신호를 발생하는 단계 ; 각각의 시간 프레임 구간에 대한 변환 영역 신호들에 그리고 이 신호들 각각에 대한 상기 변환 영역 부호 신호들 각각에 비교 응답하여, 최소의 에러 중 최대의 상사성을 산출하는 상기 변환 영역 부호 신호들 중 하나를 상기 시간 프레임 구간내 음성 부분을 나타내는 신호로서 선택하는 단계 ; 및 상기 선택된 변환 영역 부호 신호에 대응하는 임의 부호 신호에 대응하는 상기 인덱스 신호를 출력하는 단계 ; 를 포함하는 음성 부호화 방법.
KR1019860007063A 1985-12-26 1986-08-26 음성 부호화 장치와 그 방법 KR950013372B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019950025265A KR950013373B1 (ko) 1985-12-26 1995-08-14 음성 메시지 공급 장치와 음성 메시지 생성 방법
KR1019950025266A KR950013374B1 (ko) 1985-12-26 1995-08-15 입력 음성 처리 장치와 그 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US810920 1985-12-26
US06/810,920 US4827517A (en) 1985-12-26 1985-12-26 Digital speech processor using arbitrary excitation coding

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1019950025265A Division KR950013373B1 (ko) 1985-12-26 1995-08-14 음성 메시지 공급 장치와 음성 메시지 생성 방법
KR1019950025266A Division KR950013374B1 (ko) 1985-12-26 1995-08-15 입력 음성 처리 장치와 그 방법

Publications (2)

Publication Number Publication Date
KR870006508A KR870006508A (ko) 1987-07-11
KR950013372B1 true KR950013372B1 (ko) 1995-11-02

Family

ID=25205042

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019860007063A KR950013372B1 (ko) 1985-12-26 1986-08-26 음성 부호화 장치와 그 방법

Country Status (6)

Country Link
US (1) US4827517A (ko)
EP (1) EP0232456B1 (ko)
JP (1) JP2954588B2 (ko)
KR (1) KR950013372B1 (ko)
CA (1) CA1318976C (ko)
DE (1) DE3685324D1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2584236B2 (ja) * 1987-07-30 1997-02-26 三洋電機株式会社 規則音声合成装置
JPH02250100A (ja) * 1989-03-24 1990-10-05 Mitsubishi Electric Corp 音声符合化装置
JPH0782359B2 (ja) * 1989-04-21 1995-09-06 三菱電機株式会社 音声符号化装置、音声復号化装置及び音声符号化・復号化装置
JPH0365822A (ja) * 1989-08-04 1991-03-20 Fujitsu Ltd ベクトル量子化符号器及びベクトル量子化復号器
CA2021514C (en) * 1989-09-01 1998-12-15 Yair Shoham Constrained-stochastic-excitation coding
NL8902347A (nl) * 1989-09-20 1991-04-16 Nederland Ptt Werkwijze voor het coderen van een binnen een zeker tijdsinterval voorkomend analoog signaal, waarbij dat analoge signaal wordt geconverteerd in besturingscodes die bruikbaar zijn voor het samenstellen van een met dat analoge signaal overeenkomend synthetisch signaal.
US5235669A (en) * 1990-06-29 1993-08-10 At&T Laboratories Low-delay code-excited linear-predictive coding of wideband speech at 32 kbits/sec
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
ES2225321T3 (es) * 1991-06-11 2005-03-16 Qualcomm Incorporated Aparaato y procedimiento para el enmascaramiento de errores en tramas de datos.
IT1249940B (it) * 1991-06-28 1995-03-30 Sip Perfezionamenti ai codificatori della voce basati su tecniche di analisi per sintesi.
US5189701A (en) * 1991-10-25 1993-02-23 Micom Communications Corp. Voice coder/decoder and methods of coding/decoding
US5490234A (en) * 1993-01-21 1996-02-06 Apple Computer, Inc. Waveform blending technique for text-to-speech system
TW271524B (ko) 1994-08-05 1996-03-01 Qualcomm Inc
US5742734A (en) * 1994-08-10 1998-04-21 Qualcomm Incorporated Encoding rate selection in a variable rate vocoder
US5715372A (en) * 1995-01-10 1998-02-03 Lucent Technologies Inc. Method and apparatus for characterizing an input signal
US5751901A (en) * 1996-07-31 1998-05-12 Qualcomm Incorporated Method for searching an excitation codebook in a code excited linear prediction (CELP) coder
JPH10124092A (ja) * 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5839098A (en) 1996-12-19 1998-11-17 Lucent Technologies Inc. Speech coder methods and systems
US6714540B1 (en) * 1998-02-25 2004-03-30 Matsushita Electric Industrial Co., Ltd. Data communication method, communication frame generating method, and medium on which program for carrying out the methods are recorded
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
MX2007005261A (es) * 2004-11-04 2007-07-09 Koninkl Philips Electronics Nv Codificacion y descodificacion de un conjunto de senales.
US9349386B2 (en) * 2013-03-07 2016-05-24 Analog Device Global System and method for processor wake-up based on sensor data

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3588460A (en) * 1968-07-01 1971-06-28 Bell Telephone Labor Inc Fast fourier transform processor
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
US3740476A (en) * 1971-07-09 1973-06-19 Bell Telephone Labor Inc Speech signal pitch detector using prediction error data
US3982070A (en) * 1974-06-05 1976-09-21 Bell Telephone Laboratories, Incorporated Phase vocoder speech synthesis system
US4022974A (en) * 1976-06-03 1977-05-10 Bell Telephone Laboratories, Incorporated Adaptive linear prediction speech synthesizer
US4092493A (en) * 1976-11-30 1978-05-30 Bell Telephone Laboratories, Incorporated Speech recognition system
US4133976A (en) * 1978-04-07 1979-01-09 Bell Telephone Laboratories, Incorporated Predictive speech signal coding with reduced noise effects
US4184049A (en) * 1978-08-25 1980-01-15 Bell Telephone Laboratories, Incorporated Transform speech signal coding with pitch controlled adaptive quantizing
US4354057A (en) * 1980-04-08 1982-10-12 Bell Telephone Laboratories, Incorporated Predictive signal coding with partitioned quantization
JPS5816297A (ja) * 1981-07-22 1983-01-29 ソニー株式会社 音声合成方式
US4472832A (en) * 1981-12-01 1984-09-18 At&T Bell Laboratories Digital speech coder
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement

Also Published As

Publication number Publication date
CA1318976C (en) 1993-06-08
JP2954588B2 (ja) 1999-09-27
JPS62159199A (ja) 1987-07-15
EP0232456B1 (en) 1992-05-13
DE3685324D1 (de) 1992-06-17
EP0232456A1 (en) 1987-08-19
US4827517A (en) 1989-05-02
KR870006508A (ko) 1987-07-11

Similar Documents

Publication Publication Date Title
KR950013372B1 (ko) 음성 부호화 장치와 그 방법
EP0515138B1 (en) Digital speech coder
KR0143076B1 (ko) 다중-요소 신호 코딩 방법 및 장치
US5265190A (en) CELP vocoder with efficient adaptive codebook search
US5187745A (en) Efficient codebook search for CELP vocoders
CA1335841C (en) Code excited linear predictive vocoder
CA1222568A (en) Multipulse lpc speech processing arrangement
US6055496A (en) Vector quantization in celp speech coder
JPS6156400A (ja) 音声処理装置
KR19980024885A (ko) 벡터양자화 방법, 음성부호화 방법 및 장치
WO1980002211A1 (en) Residual excited predictive speech coding system
KR19980024631A (ko) 음성 복호화 방법 및 장치
KR19980032983A (ko) 음성 부호화 방법 및 장치와 오디오신호 부호화 방법 및 장치
EP0550657A1 (en) METHOD AND DEVICE FOR CODING ANALOG SIGNALS.
US5173941A (en) Reduced codebook search arrangement for CELP vocoders
JP3236592B2 (ja) デジタル音声符号器において使用するための音声符号化方法
CA2175264C (en) Improved codebook searching techniques
KR950013373B1 (ko) 음성 메시지 공급 장치와 음성 메시지 생성 방법
USRE34247E (en) Digital speech processor using arbitrary excitation coding
JP3731575B2 (ja) 符号化装置及び復号装置
JP2648138B2 (ja) 音声パターンを圧縮する方法
JP4228630B2 (ja) 音声符号化装置および音声符号化プログラム
NO302549B1 (no) Fremgangsmåte og anordning for koding av et samplet analogsignal av repeterende natur
WO2001009880A1 (en) Multimode vselp speech coder
JP3095758B2 (ja) ベクトル量子化のコードベクトル検索方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20051025

Year of fee payment: 11

EXPY Expiration of term