KR970001167B1 - 음성 분석 및 합성 장치와 분석 및 합성 방법 - Google Patents

음성 분석 및 합성 장치와 분석 및 합성 방법 Download PDF

Info

Publication number
KR970001167B1
KR970001167B1 KR1019870700361A KR870700361A KR970001167B1 KR 970001167 B1 KR970001167 B1 KR 970001167B1 KR 1019870700361 A KR1019870700361 A KR 1019870700361A KR 870700361 A KR870700361 A KR 870700361A KR 970001167 B1 KR970001167 B1 KR 970001167B1
Authority
KR
South Korea
Prior art keywords
language
frame
frames
pitch
pulse
Prior art date
Application number
KR1019870700361A
Other languages
English (en)
Other versions
KR880700388A (ko
Inventor
파노스 프레자스 디미트리오스
린 톰슨 데이비드
Original Assignee
아메리칸 텔리폰 앤드 텔레그라프 캄파니
엘리 와이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아메리칸 텔리폰 앤드 텔레그라프 캄파니, 엘리 와이스 filed Critical 아메리칸 텔리폰 앤드 텔레그라프 캄파니
Publication of KR880700388A publication Critical patent/KR880700388A/ko
Application granted granted Critical
Publication of KR970001167B1 publication Critical patent/KR970001167B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

내용없음

Description

[발명의 명칭]
음성 분석 및 합성 장치와 분석 및 합성 방법
[도면의 간단한 설명]
제1도는 본 발명에 따른 음성 분석기(voice analyzer)를 블럭 형태로 도시한 도면.
제2도는 본 발명에 따른 음성 합성기를 블럭 형태로 도시한 도면.
제3도는 유성음을 복제하기 위한 정보를 포함하고 있는 패킷을 도시한 도면.
제4도는 잡음 여기를 이용한 무성음 언어를 복제하기 위한 정보를 포함하고 있는 패킷을 도시한 도면.
제5도는 펄스 여기를 이용한 무성음 언어를 복제하기 위한 정보를 포함하고 있는 패킷을 도시한 도면.
제6도는 제1도의 피치 검출기(109)를 블럭 형태로 도시한 도면.
제7도는 언어 프레임(speech frame)의 후보 표본을 그래프 형태로 도시한 도면.
제8도는 제1도의 피치 보우터를 블럭 형태로 도시한 도면.
제9도는 제1도 및 제2도의 디지탈 신호 처리기의 사용을 도시한 도면.
제10도 내지 제14도는 제1도의 분석기 회로를 사용하도록 하기 위해 제9도의 디지탈 신호 처리기를 제어하는 프로그램을 흐름도 형태로 도시한 도면.
제15도 내지 제17도는 제2도의 합성기를 사용하도록 하기 위해 제9도의 디지탈 신호 처리기의 수행을 제어하는 프로그램을 흐름도 형태로 도시한 도면.
[발명의 상세한 설명]
[기술분야]
본 발명은 기억 또는 전송 및 합성을 위한 언어 신호(speech signal)의 디지탈 부호화에 관한 것으로, 특히 사람의 언어의 복제를 하기 위해 합성 필터를 여기시키는 합성기에 사용되는 신호의 형태에 관한 것이다.
[발명의 배경]
음성(voice)을 낮은 비트율로 기억 또는 전송하기 위해서, 사람의 언어를 디지탈화하고, 그 언어를 표현하는데 필요한 초당 디지탈 비트수를 최소화시키기 위해 언어를 부호화하는 것은 공지되어 있다. 아날로그 언어 표본들은 20밀리초의 배수로 개별 길이의 프레임 또는 세그먼트로 통상 분할된다. 표본화는 통상 8킬로헤르쯔(KHz)의 율(rate)로 수행되며 각 표본은 디지탈의 나중 비트수로 부호화된다.
연속적인 부호화 표본은 사람 음성 변위(human vacal tract)를 모델화하는 적당한 필터 계수/매개변수를 결정하는 선형 예측 부호화기(LPC)에서 더 처리된다. 필터 매개변수는 소정수의 이전에 표본화된 값들의 가중치 부여된 합계를 기초로 하여 효율적으로 각 신호 표본의 현재값을 추정하는데 사용될 수 있다. 필터 매개변수는 음성 범위 통신 함수의 구성소음(formant) 구조로 모델화한다. 언어 신호(speech signal)는 분석적으로 여기 신호와 구성소음 통신 함수로 구성되어 있는 것으로 간주한다. 여기 성분은 후두부 또는 성대에서 발생되며 구성소음 성분은 여기 성분에서 음성 범위의 나머지의 동작에 의해 생긴다. 여기 성분은 성대에 의한 기류(air stream)로 전해지는 기본 주파수가 있느냐 없느냐에 따라 유성음 또는 무성음으로서 더 구분된다. 만약 성대에 의한 기류로 전해지는 기본 주파수가 있는 경우, 여기 성분은 유성음으로서 구분된다. 만약 여기 성분이 무성음인 경우, 여기 성분은 종래 기술에서 단순히 백색 잡음으로서 구분된다. 낮은 비트율에 맞게 언어를 부호화하기 위해, 언어의 세그먼트에 대한 LPC 계수들을 결정하여, 이들 계수를 언어를 재생해야 할 복호화 회로에 통신하는 것이 필요하다. 또한 여기 성분을 결정하여 이 성분을 통상 음성 합성기(synthesizer)로 불리는 복호화 회로에 통신하는 것이 필요하다.
합성기에 이용되어야 할 여기 성분을 결정하는 한가지 방법은 미합중국 특허 제4,472,832호에 기술된 다중 펄스 여기 모델이다. 이 방법은 구성소음 필터를 여기시키기 위해 합성기에 의해 사용되는 각 프레임에 대한 펄스의 수를 결정함으로써 기능한다. 이들 펄스는 상기 인용 문헌에 기술되어 있는 바와 같이 합성 방법에 의한 분석에 의해 결정된다. 다중 펄스 여기 모델은 9.6kbs의 비트율로 잘 수행되는 반면, 언어 합성의 질은 더 낮은 비트율에서는 열화하기 시작한다. 또한, 언어의 유성음 영역 동안에는, 합성된 언어가 약간 조악할 수 있고 원래의 언어에 꼭맞는 것은 아니다. 다중 펄스 여기 모델과 더불어 존재하는 다른 문제점은 각 프레임에 대한 펄스를 결정하는데 필요한 방대한 량의 계산이다. 왜냐하면 펄스의 계산은 수많은 복소수의 연산을 필요로 하기 때문이다.
LPC 합성된 언어에 대한 여기를 결정하는데 사용되는 다른 방법은 유성음 영역 동안에 후두부에 의해 발생되고 있는 피치 또는 기본 주파수를 결정하는 것이다. 피치를 수신할때 합성기는 구성소음 필터를 여기 시키기 위해 대응 주파수를 발생한다. 언어가 무성음으로 간주되고 있는 때의 기간동안, 이 사실은 합성기로 통신되며, 합성기는 백색 잡음 발생기를 사용하여 구성소음 필터를 여기시킨다. 이 방법에서의 문제점은 백색 잡음 여기가 파열 자음, 유성음 및 무성음 프레임 순차간의 전이 및, 무성음으로 잘못 선언된 유성음 프레임에 대한 부적절한 여기라는 것이다. 이 문제점으로 인해서, 합성된 언어는 원래의 언어와 똑같은 소리로 되지 않는다.
상기 관점에서 볼때, 언어의 유성음 및 무성음 영역 모두를 정확히 모델화하고, 무성음과 유성음 프레임 순차간의 전이범위를 적절하게 조절하며, 파열자츰을 재생할 수 있는 여기 모델에 대한 필요성이 있다.
[발명의 요약]
상술된 문제점은 예시된 실시예와 방법으로 본 발명의 원리에 따라 해결되며 기술적인 진보가 이루어진다. 즉, 음성 범위를 모델화하는 필터를 여기시키는데 이용되는 여기는 언어의 유성음 세그먼트 동안에는 기본 주파수를 이용하며, 언어의 잡음 세그먼트 동안에는 백색 잡음을 이용하고, 유성음도 잡음도 아닌 세그먼트 동안에는 경제적이고 효율적인 방법으로 계산되는 펄스를 이용한다. 여기 모델은 정류된 잔류 신호의 평균 진폭에 대해 언어 표본의 잔류 신호 편차에 연관되어 있는 임계값을 기초로 하여 잡음 또는 펄스 여기를 이용할 시기를 결정한다.
실시예는 사람의 언어에 응답하여 그 언어를 다수의 언어 프레임으로 디지탈화하고 양자화시키는 표본 및 양자화기를 구비한다. 매개변수 유니트는 각 언어 프레임에 대한 음성 범위를 한정하는 한 세트의 언어 매개변수를 계산하는데 사용되며, 다른 유니트는 그 프레임들중 유성음인 프레임과 무성음인 프레임을 지정하는데 사용된다. 각 프레임에 있어서, 피치 검출 유니트는 각 프레임들에 대한 피치를 측정하는데 사용되며, 다른 여기 유니트는 다수의 다른 형태의 여기 정보를 발생한다. 채널 부호화기/조합 유니트는 유성음으로서 지정되었던 프레임들에 응답하여 피치 정보를 통신용의 언어 매개변수들로 된 세트와 조합하고, 무성음으로서 지정되었던 프레임들에 응답하여 다른 형태의 여기정보를 통신용의 매개변수들로 된 세트와 조합한다.
유리하게는, 다른 여기 유니트는 펄스형 여기를 발생하거나, 또는 합성기에서 잡음형 여기가 이용되어야 함을 지정한다. 펄스형 여기는 각 프레임에 대해 언어 표본으로부터 잔류 표본을 계산하고 그 잔류-표본으로부터 최대 펄스들로 된 보조 셋트를 결정함으로써 발생된다. 이 펄스의 보조 셋트는 채널 부호화기에 의해 여기형들(excitation types)중의 한 형으로서 통신되는 펄스형 여기를 나타낸다.
유리하게는, 시스템은 잔류 표본들의 편차와 각 프레임에 대한 정류된 잔류 표본의 평균 진폭을 계산함으로써 잡음형 여기를 사용할 것인지 또는 펄스형 여기를 사용할 것인지를 선택한다. 이어서 잔류분의 편차와 정류된 잔류분의 평균 진폭의 제곱 사이에 비교가 이루어진다. 펄스형 여기 정보는 그 편차와 평균 진폭의 제곱의 비교가 소정의 임계값보다 큰 경우 선택되도록 지정된다.
또한, 언어 매개변수들로 된 셋트는 각 프레임에 대해 선형 예측 부호화 매개변수들로 된 셋트를 계산함으로써 얻어진다. 또한 각 프레임에 대한 피치는 각 프레임에 대한 언어 표본들로 된 개개의 소정 부분에 대해 응답하여 개개의 피치값을 추정하는 다수의 동질의 피치 검출기에 의해 발생된다. 보우터(voter) 유니트는 각 피치 검출기로부터 개별적으로 추정된 피치값에 응답하여 각 프레임에 대한 최종 피치값을 결정한다.
유리하게는, 구성적인 실시예는 합성기 보조 시스템을 포함하고 있으며, 그 보조 시스템은 통신된 여기정보와 각 프레임의 언어 매개변수를 수신하기 위한 유니트를 갖고 있다. 합성기 보조 시스템은 후자의 정보를 이용하기 위한 피치 정보를 포함하고 있는 각 프레임에 응답하여 그 프레임에 언어 매개변수를 기초로 합성 필터를 여기시킨다. 만약 여기 정보가 펄스형 여기라면, 언어 매개변수와 통신되는 펄스는 합성 필터를 여기시키기 위해 사용된다. 만약 잡음형 여기가 지정되는 경우, 잡음 발생기가 합성기 보조 시스템내에서 사용되어 합성 필터를 구동하기 위한 잡음형 여기를 발생시킨다.
유리하게는, 앞서 상세히 설명한 기능은 디지탈 신호 처리기의 수행을 제어하는 명령어 그룹과 보조 셋트로 더 세분되는 셋트를 갖는 프로그램 명령어들로 된 셋트를 수행하는 디지탈 신호 처리기에 의해 실해이 될 수 있다.
상기 예시된 방법은 양자화기가 아날로그 언어(analog speech)를 디지탈 표본의 프레임으로 변환시키는 디지탈화기를 갖는 시스템에서 기능을 발휘하며, 상기 방법은 소정수의 디지탈 표본을 갖는 다수의 언어 프레임을 기억하는 단계와, 각 프레임에 대해 음성 범위를 규정하는 언어 매개변수들로 된 셋트를 계산하는 단계와, 각 프레임을 유성음 또는 무성음으로서 지정하는 단계와, 각 프레임에 대해 피치형 여기 정보를 발생하는 단계와, 각 프레임에 대해 다수의 다른형의 여기 정보를 발생하는 단계 및, 어떤 프레임이 유성음으로서 지정되었을때 피치 여기 정보를 언어 매개변수와 조합하고 프레임이 무성음으로서 지정되었을때 다른 여기 형태중 한 형태를 언어 매개변수와 조합하는 단계를 실행한다.
또한, 다른형의 여기 정보를 발생하는 단계는 디지탈 언어 표본으로부터 각 프레임에 대해 잔류 표본을 계산하는 단계와, 결과적인 펄스가 펄스형 여기 정보인 잔류 표본으로부터 펄스를 결정하는 단계를 실행함으로써 펄스형 여기 정보를 발생하는 단계를 포함한다. 또한, 상기 펄스는 최대 진폭을 갖는 각 프레임에 대해 잔류 표본내의 펄스들로 된 보조 셋트를 색출함으로써 잔류 표본으로부터 결정된다.
유리하게는, 조합 단계는 잔류 표본들의 편차와 각 프레임에 대한 정류된 잔류 표본들의 평균 진폭을 계산함으로써 다른 여기 형태들중 한 형태를 선택하는 단계와, 그 편차 계산을 평균 진폭 계산의 제곱과 비교하는 단계 및, 만약 비교 결과가 소정의 임계값보다 큰 경우 펄스형 여기를 선택하는 단계를 포함한다.
[상세한 설명]
제1도 및 제2도는 본 발명의 촛점이 되는 언어 분석기와 언어 합성기를 도시한다. 제1도의 언어 분석기는 도전체(113)를 통해 수신된 아나로그 언어 신호에 응답하여 그 신호를 채널(140)을 통해 제2도의 합성기(200)로 전송하기 위해 낮은 비트율로 신호를 부호화한다. 유리하게는, 채널(140)은 통신 전송 통로 또는 기억부로 될 수 있으며, 따라서 음성 합성은 후에 합성된 음성(synthesized voice)을 필요로 하는 여러 응용 분야에 제공될 수 있다.
상기 응용중의 하나는 디지탈 컴퓨터로부터의 언어 출력이다. 제1도에 도시된 분석기는 블럭(100,112,101)을 이용한 아날로그 언어 정보를 디지탈화하여 양자화시킨다. 블럭(102)에서는 그 디지탈화된 양자 정보에 응답하여 사람 음성 범위를 모델화하는 선형 예측 부호(LPC) 계수를 발행한다. 상기 후자 계수의 형성은 미합중국 특허 제3,740,476호에 공지된 장치 또는 종래 기술에 공지된 다른 장치에 따라 실행될 수 있다. 채널 부호화기(129)를 제외하고 제1도의 나머지 부품은 LPC 필터 계수에 의해 규정된 모델을 여기시키기 위해 제2도의 합성기(200)에 사용된 여기를 결정하는데 사용된다. 채널 부호화기(129)는 LPC 계수와 여기 상태를 규정하는 정보에 응답하여 이 정보를 제3도 내지 제5도에 도시된 바와 같이 패킷 형태로 합성기(200)로 전송한다. 그러나 후자의 도면들은 패킷 형태로 전송되고 있는 정보를 도시하며, 본 기술에 숙련된 사람들은 이 정보가 다음에 합성기에 의해 사용되기 위해 메모리에 기억될 수 있으며 또는 정보가 합성기로 병렬 전송이 될 수 있음을 알 수 있다. LPC 계수와 여기 성분의 전송은 유리하게는 160개의 표본으로 이루어진 프레임마다(per-frame-basis) 실행된다. 여기 성분은 후두부에 의해 언어로 전해지는 기본 주파수를 규정하는 피치, 합성기가 백색 잡음 발생기를 사용할 수 있게 하는 지정, 또는 피치 검출기(109 및/또는 110)에 의해 결정되는 바와 같은 잔류 표본들로 된 셋트일 수 있다.
전송되기 위한 여기 형태에 대한 결정은 다음 방법으로 블럭(111,125,126)에 의해 실행이 된다. 피치 검출기(109,110)는 블럭(102)으로부터의 잔류 신호 e(n)에 응답하여 신호가 유성음 또는 무성음 인가를 피치 보우터(111)에 표시하여 주며, 블럭(107,108)은 디지탈화된 음성 표본 x(n)에 응답하여 상기 신호가 유성음 또는 무성음인가를 결정한다. 피치 보우터(111)는 프레임이 유성음 또는 무성음인가를 표시할 것인가에 대해 최종 결정한다. 만약 피치 보우터(111) 프레임이 유성음이라고 결정하는 경우, 신호는 상기 사실을 표시하는 통로(131)를 통해 채널 부호화기(129)로 전송된다. 채널 부호화기(129)는 상기 표시에 응답하여 제3도에 도시된 패킷을 형성한다. 후자의 패킷은 제1프레임의 유성음 순서가 통로(132)를 통해 피치 보우터(111)로부터 처리가 되고 있는 경우 프레임이 유성음이라는 표시, LPC 계수, 피치 보우터(111)로부터의 피치 정보 이득 계산기(136)로부터의 이득 정보, 제 1펄스의 위치등을 포함한다.
만약 피치 보우터(111)가 프레임이 무성음이라고 결정한 경우, 상기 프레임을 실행 처리하기 위해 통로(131)를 통해 소자(126)와 채널 부호화기(129)에 이를 전송한다. 백색 잡음을 사용할 것인가에 대한 표시를 전송할 것인지에 대한 결정은 제1도에 있는 분석기에 의해 이루어져야 한다. 후자의 결정은 다음 형태로 이루어진다. 다음 조건이 만족되는 경우,
Figure kpo00001
여기서,
Figure kpo00002
그래서 여기는 합성기에서 백색 잡음이 되어야 한다. 상기 조건이 만족되지 않는 경우, 펄스 여기는 합성기(200)로 전송되어야 한다. 방정식(1)은 다음과 같이 표현될 수 있다.
Figure kpo00003
상기 방정식에서, N은 프레임당 표본의 수인 160이며, T는 약 1.8의 값을 갖는다. 방정식(2)는 우측 부분은 제1도의 블럭(120에서 122)에 의해 계산되고, 좌측 부분은 블럭(123,124)에 의해 결정된다. 비교기(125)는 체배기(122,124)의 출력에 응답하여 방정식(2)을 평가한다. 비교기(125)로부터의 상기 검토 사항은 통로(133)를 통해 채널 부호화기(129)와 결정회로(126)에 전송된다. 만약 비교기(125)가 체배기(124)의 출력이 체배기(122)의 출력 이하 또는 같을때, 비교기(125)는 통로(133)를 통해, 백색 잡음 여기가 합성기에서 이용되어야 한다는 것을 표시하는 신호를 전송한다. 채널 부호화기(129)는 후자의 신호에 응답하여 제4도에 표시된 패킷을 형성한다. 상기 패킷은 무성음 프레임을 표시하는 0과 같은 v/u비트 셋트와, 백색 잡음 여기가 사용되여 한다는 것을 표시하는 0과 같은 펄스형 비트 셋트, 이득 블럭(136)으로부터의 이득 및 블럭(102)으로부터의 LPC 계수를 갖는다.
만약 비교기(125)가 체배기(124)의 출력이 체배기(122)의 출력보다 크다는 것을 결정하였을때, 비교기(125)는 펄스가 여기를 위해 사용되어야 한다는 것을 표시하는 신호를 통로(133)를 통해 전송한다. 현재 프레임에 있어서, 그리고 후자 신호에 응답하여, 결정 회로(126)는 피치 검출기(109,110)로부터의 모든 후보 펄스를 전송할 것인가 또는 상기 펄스중의 단 하나의 셋트만 전송할 것인가를 결정한다. 만약 2개의 피치 검출기로부터의 전체 후보 펄스의 수가 7개 이하 또는 7개일때, 판정회로(26)는 통로(138)를 통해 1을 채널 부호화기(129)로 전송한다. 채널 부호화기(129)는 비교기(125)로부터의 신호화 결정 회로(126)로부터의 1에 응답하여, 제5도에 도시된 패킷을 형성하기 위해 통로(134,135)를 통해 전송이 되는 모든 후보 펄스를 이용한다. 만약 피치 검출기(109,110)로부터의 전체 최대 펄스 수가 7보다 큰 경우, 결정회로(126)는 통로(138)를 통해 0을 채널 부호화기(129)로 전송하며, 통로(139)를 통해 채널 부호화기가 통로(134 또는 135)상의 펄스를 이용할 것인가를 표시한다. 상기 결정은 피치 검출기가 현재 프레임에 대해 가장 큰 펄스를 갖는 것을 기초로 하여 이루어진다. 만약 피치 검출기(109)가 가장 큰 펄스를 발생한 경우 결정 회로(126)는 채널 부호화기(129)에 1을 전송한다. 그러나 만약 피치 검출기(110)가 가장 큰 펄스를 발생한 경우 결정 회로(126)는 0을 채널 부호화기(129)로 전송한다. 후자는 통로(138)를 통해 수신된 0과 통로(139)를 통해 수신된 신호에 응답하여 제5도에 도시된 패킷을 형성하기 위해 통로(133 또는 134)로부터 지정된 펄스의 셋트를 선택한다.
후자 패킷은 무성음 프레임을 표시하는 0과 같은 v/u 비트 셋트, 펄스에 여기가 사용되어야 하며, 펄스의 위치 및 LPC 계수와 마찬가지로 진폭을 포함하는 것을 표시하는 1과 같은 비트 셋트를 갖는다.
제2도에 도시된 바와같이 합성기(200)는 채널(140)을 통해 수신된 여기 정보와 음성 범위 모델에 응답하여 제1도의 분석기에 의해 부호화된 원래의 아날로그 음성을 재생한다.
합성기(200)는 다음과 같은 기능을 한다. 제3도에 도시된 바와같이 유성음 정보 패킷을 수신함에 따라 채널 복호화기(201)는 통로(216)를 통해 합성 필터(207)에 LPC 계수를 통신하며, 통로(211)를 통해 전원 레벨을 피치 발생기(202)에 통신한다. 또한, 만약 유성음 순차의 제 1유성음 프레임인 경우, 채널 복호화기는 통로(213)를 통해 제 1펄스의 개시 위치를 피치 발생기(202)로 전송한다. 만약 v/u비트가 유성음 프레임을 표시한는 1과 같은 경우, 채널 복호화기는 피치 발생기(202)의 출력을 선택하여 피치 발생기로부터의 상기 정보가 통로(217)를 통해 합성 필터(207)에 통신되게 하는 조건을 만든다. 피치 발생기(202)는 통로(211에서 213)을 통해 수신된 정보에 응답하여 실제 음성이 존재하는 동안 후두부에 의해 발생된 기본 주파수를 다시 발생한다. 합성 필터(207)는 피치 발생기(202)로부터 수신된 여기와 음성 범위 모델을 규정하는 LPC 계수에 응답하여 음성을 나타내는 디지탈 표본을 발생한다. 디지탈/아날로그 변환기(208)는 필터(207)에 의해 발생된 상기 디지탈 표본에 응답하여 도전체(218)상에서 음성의 아날로그 표시를 발생한다.
만약 채널 복호화기(201)가 제4도에 도시된 바와같이 무성음을 수신하는 경우, 채널 복호화기(201)는 통로(214)를 통해 신호를 전송하여 선택기(206)가 선택기(205)의 출력을 선택하게 한다. 또한, 채널 복호화기(201)는 백색 잡음 발생기에 구동인수(power factor)를 전송한다. 합성 필터(207)는 통로(216)을 통해 채널 복호화기(201)로부터 수신된 LPC 계수와 선택기(205,206)을 통해 수신된 백색 잡음 발생기(203)의 출력에 응답하여 언어의 디지탈 표본을 발생한다.
만약 체널 복호화기(201)가 채널(140)로부터 제5도에 도시된 바와같이 펄스 여기를 갖은 무성음 프레임을 수신하는 경우, 후자의 복호화기는 통로(210)를 통해 가장 큰 진폭에 대한 펄스의 상태 진폭과 위치를 펄스 발생기(204)에 전송하며, 가장 큰 펄스의 진폭을 통로(211)를 통해 전송한다. 또한 채널 복호화기(201)는 선택(205,206)가 펄스 발생기(204)의 출력을 각각 선택하게 하는 조건을 만들며, 이 출력을 합성 필터(207)로 이송한다. 합성 필터(207)와 아날로그-디지탈 변환기(208)는 언어를 재생한다. 변환기(208)는 변환기의 출력부에서 내장된 저역 통과 필터를 갖는다. 또한, 채널 검출기(201)는 미합중국 특허 제3,740,476호 또는 종래 기술에서 공지된 다른 장치에서와 같이 통로(216)를 통해 LPC 계수를 합성 필터(207)에 전송한다.
보다 더 상세히 검토해 보면, 피치 검출 보조 시스템(150)에 의해 실행된 피치 검출 기능은 제1도에 도시되어 있다. 클러퍼(clipper)(103에서 106)는 통로(115,116)상을 통해 입력되는 x 및 e 디지탈 신호를 정방향 진행 및 부방향 진행 파형으로 변환시킨다. 이런 신호를 형성하는 목적은 합성 파형이 주기성을 분명히 나타내지 않는 반면 클리프된 신호의 주기가 분명히 나타나도록 하는 것이다. 그래서, 주기가 용이하게 검출된다. 클라퍼(103,105)는 x 및 e 신호를 각각 부방향 진행 신호로 변환시킨다.
피치 검출기(107에서 110)는 입력 신호의 주기를 결정하기 위해 자신의 개별 입력 신호에 각각 응답한다. 피치 검출기의 출력은 상기 신호의 수신 다음에 2개의 프레임이다. 각 프레임은 예시된 바와같이 160개의 표본 지점으로 구성이 된다는 것에 유의하여야 한다. 피치 보우터(111)는 최종 피치 보우터(111)의 출력은 통로(114)를 통해 전송이 된다.
제6도는 피치 검출기(109)를 블럭 선도로 도시한 것이다. 다른 피치 검출기도 형태가 유사하다. 최대치 색출기(locator ; 601)는 각 프레임의 디지탈 신호에 응답하여 주기성 검색이 실행된 펄스를 찾는다. 최대치 색출기(601)의 출력은 2셋트의 숫자이며, 이들은 후보 표본인 최대진폭(Mi)을 나타내며, 진폭(Di)의 프레임 내에서 위치를 표시한다. 상기 2셋트의 수는 피치 보우터(111)가 현재 프레임을 무성음으로 판정하는 경우, 여기 펄스로 사용가능하도록 지연기(145)로 이송된다. 거리 검출기(602)는 상기 2셋트의 수에 응답하여 주기적인 후보 펄스의 보조 셋트를 결정한다. 상기 보조 셋트는 상기 프레임에 대한 주기성이 어떠한가에 대한 거리 검출기(602)의 판단을 나타낸다. 거리 검출기(602)의 출력은 피치 트랙커(pitch tracker ; 603)로 통신한다. 피치 트랙커(603)의 목적은 디지탈화된 신호의 연속적인 프레임 사이의 피치 검출기의 결정을 제한하는 것이다. 상기 기능을 수행하기 위해 피치 트랙커(603)는 2개의 이전 프레임에 대해 결정된 바와같이 피치를 사용한다.
최대치 색출기(601)에 의해 실행되는 동작을 보다 상세히 검토해 보면, 최대치 색출기(602)는 우선 프레임으로부터의 표본내에서 전체 최대 진폭(MO) 및 프레임에서 위치(Do)를 식별한다. 주기성 검색을 위해 선택된 다른 지점은 다음 모든 조건을 만족시켜야 한다. 첫째 펄스는 부분적인 최대치여야 하며, 이는 선택된 다음 펄스는 이미 선택되었거나 또는 삭제된 모든 펄스를 제외한 프레임에 최대 진폭이 되어야 하는 것을 의미한다. 상기 조건은 피치 펄스가 통상 프레임에서 다른 표본보다 큰 진폭을 갖기 때문에 적용된다. 둘째, 선택된 펄스의 진폭은 전체 최대의 백분률보다 크거나 같아야 하며, 즉, MigMO이며, 여기서 g는 25% 정도가 바람직한 임계 진폭의 백분률이다. 셋째, 펄스는 이미 찾은 모든 펄스로부터 최소한 18개의 표본으로 분리되는 것이 유리하다. 상기 조건은 사람 음성에서 생기는 가장 높은 피치는 8KHz의 표본류에서 18개 표본을 만드는 약 444Hz이다.
거리 검출기(602)는 프레임 전체 최대치(Mo)로부터 후보 펄스에 인접한 가장 가까운 것까지의 거리를 고려하여 시작이 되는 순환 형태 작동한다. 상기 거리는 후보 거리(dc)이며, 다음과 같이 주어진다.
Figure kpo00004
여기서 Di는 후보 펄스에 인접한 가장 가까운 것의 프레임내의 위치이다. 만약 프레임에서 보조 셋트의 펄스가 호흡 간격(B)을 더하거나 빼고 이 거리만큼 분리되지 않는 경우, 상기 후보 거리는 사용되지 않으며, 상기 과정은 새로운 후보 거리를 이용한 후보 펄스에 인접한 다음 가장 가까운 것으로 다시 시작된다. B는 4 내지 7까지의 값을 가질 수 있다. 상기 새로운 후보 거리는 전체 최대 펄스에 대한 다음 인접한 펄스까지의 거리이다.
한번 피치 검출기(602)가 일정한 거리만큼 분리된 후보 펄스의 보조 셋트를 결정한 경우, 즉 dc+b인 경우 보간 진폭 테스트가 행하여진다. 보간 진폭 테스트는 MO와 다음 인접한 후보 펄스 각각 사이에 선형 보간을 실행하며, MO에 바로 인접한 후보 펄스의 진폭이 상기 보간된 값의 최소한 q퍼센트인 것을 필요로 한다. 보간 진폭 임계값 즉, q퍼센트는 75%이다. 제7도에 도시된 후보 펄스로 예시된 실시예를 고려해 보기로 한다. 유효한 후보 거리인 dc에 대해서 다음 사항이 만족되어야 한다.
Figure kpo00005
그리고
Figure kpo00006
여기서
Figure kpo00007
앞에서 본 바와 같이
Figure kpo00008
이다.
피치 트랙커(603)는 거리 검출기(602)의 출력에 응답하여 피치의 주파수에 관련된 피치거리 계산을 실행한다. 왜냐하면 피치거리는 피치의 주기를 나타내기 때문이다. 피치 트랙커(603)는 4가지 시험 즉, 음성 세그먼트 개시 테스트(voice segnment start-up test), 최대 호흡 및 피치 이중 테스트, 제한 테스트 및 갑작스런 변화 테스트 등을 실행하여 피치 검출기로부터 수신된 초기 피치거리 계산을 필요에 따라 수정하여 프레임과 프레임이 일치되도록 피치거리 계산을 제한하는 것이다. 이들 테스트중 첫번째, 즉 음성 세그먼트 개시 테스트는 유성음 영역의 시작에서 피치거리의 일치를 확인하기 위해 실행된다. 이 테스트는 유성음 부분의 개시점과 연관이 되기 때문에, 현재 프레임은 제로 피치가 아닌 주기를 갖는 것으로 가정한다. 상기 가정은 이전의 프레임과 현재의 프레임이 유성음 영역에서 제 1 및 제 2음성 프레임이 된다는 것이다. 만약 피치 거리 계산이 T(i)로 표시되는 경우(여기서 i는 거리 검출기(602)로부터의 현재 피치거리 계산을 표시한다). 피치 검출기(603)는 T*(i-2)를 출력한다. 왜냐하면, 각 검출기를 통해 2개 프레임이 지연되기 때문이다. 상기 테스트는 T(i-3) 및 T(i-2)가 제로이거나 또는 T(i-3) 및 T(i-4)가 제로인 반면, T(i-2)가 제로가 아닌 즉, 프레임 i-2와 i-1이 유성음 영역에서 각각 제 1 및 제 2유성음 프레임인 경우에만 실행이 된다. 음성 세그먼트 개시 테스트는 2가지의 일치 테스트를 실행한다. 그중 하나는 제 1유성음 프레임 T(i-2)에 대한 것이며, 이들 2개의 테스트는 연속적인 프레임 동안 실행이 되며, 상기 음성 세그먼트 테스트의 목적은 유성음 부분이 실제 시작되지 않았을때 유성음 영역의 개시를 규정하는 확률을 감소시킨다. 이는 유성음 부분에 대한 다른 일치 테스트가 최대 호흡 및 피치 이중 시험에서 행하여 지며, 단지 하나의 일치 조건이 필요하다. 첫번째 일치 테스트는 T(i-2)에 있는 우측 후보 표본과 T(i-1) 및 T(i-2)에 있는 가장 좌측 후보 표본의 거리가 피치 임계값 B+2내에 인접하여 있다는 것을 확인하기 위해 실행된다.
만약 첫번째 일치 테스트에 부합하는 경우, 제 1테스트에 의해 확인이 되었고 그러나 현재 프레임 순서가 프레임 순서의 우측으로 하나가 변위되었다는 같은 결과를 확인하기 위해 다음 프레임 동안 제 2일치 테스트가 행하여진다. 만약 제 2일치 테스트가 만족되자 않는 경우, T(i-1)는 제로에 즉, 프레임 i-1가 제 2유성음 프레임일 수 없다는(만약 T(i-2)가 제로에 셋트되어 있지 않는 경우)을 의미하는 제로에 셋트된다. 그러나, 만약 2개의 일치 테스트를 통과하는 경우, 프레임 i-2과 i-1가 유성음 부분의 개시부를 규정한다. 만약 T(i-1)가 제로에 셋트된 경우, 반면 T(i-2)는 제로가 아닌 것으로 결정되어 있고, T(i-3)가 제로인 경우, 이는 프레임(i-2)이 무성음 프레임 사이에서 유성음인 것을 표시하며, 갑작스런 변화 테스트는 상기 상황을 관장하며 상기 특정 테스트는 다음에서 기술하기로 한다.
최대 호흡 및 피치 이중 테스트는 유성음 영역에 있는 2개의 인접 유성음 프레임에 대해 피치 일치성을 확인한다. 그래서 상기 테스트는 T(i-3), T(i-2) 및 T(i-1)이 제로가 아닌 경우에만 실행된다. 최대 호흡 및 피치 이중 테스트는 거리 검출기(602)에 의해 만들어진 어떤 피치 이중 에러를 검색하여 보정한다. 피치 이중 부분의 검색은 T(i-2)과 T(i-1)이 일치하거나 또는 T(i-2)가 피치 이중 에러를 의미하는 2배의 T(i-1)와 일치하는 경우에 검색한다. 상기 테스트는 먼저 테스트의 최대 호흡 부분이 일치하는가를 알기 위해 검색을 하며 이는 다음 식에 의해 행하여진다.
Figure kpo00009
여기서 A는 값 10을 가질 수도 있다. 만약 상기 방정식이 만족되지 않는 경우, T(i-1)는 피치거리의 양호한 계산이 되며 수정이 될 필요는 없다. 그러나, 테스트의 최대호흡 부분이 맞지 않는 경우, 상기 테스트는 테스트의 피치 이중 부분이 만족되는가에 애해 결정을 하기 위해 실행이 되어야 한다. 제 1부분의 테스트는 T(i-2)와 2배의 T(i-1)가 다음 식에 의해 정의된 바와 같이 피치 임계 값내에 근접하여 있는가를 알기 위해 검색을 하며 다음 식에서 T(i-3)는 제로가 아니다.
Figure kpo00010
만약 상기 조건이 만족되는 경우, T(i-1)는 T(i-2)에 같게 셋트된다. 만약 상기 조건이 맞지 않는 경우, T(i-1)는 제로에 셋트된다. 상기 테스트의 상기 부분의 2번째 부분은 제로와 같다. 만약 다음 식을 만족하는 경우, 즉
Figure kpo00011
를 만족하면,
Figure kpo00012
이 된다. 만약 상기 조건이 만족되지 않는 경우, T(i-1)는 제로에 셋트된다.
T(i-1)상에 실행된 제한 테스트는 계산된 피치가 50Hz에서 400Hz인 사람 음성의 범위내에 있는가를 확인한다. 만약, 계산된 피치가 상기 범위내에 해당하지 않는 경우 T(i-1)는 i-1이 계산된 피치로 유성음이 될 수 없는 것을 표시하는 제로와 같게 셋트된다.
갑작스런 변화 테스트는 3개의 이전 테스트가 실행이 된 후 이루어지며, 다른 테스트가 유성음 부분의 중간에서 무성음 영역 또는 무성음의 중간에 있는 유성음으로 프레임이 표시될 수 있도록 결정한다. 사람은 통상적으로 상기와 같은 순서의 음성 프레임을 발생할 수 없기 때문에, 갑작스런 변화 테스트는 어떤 유성음 또는 무성음 세그먼트가 유성음-무성음-유성음 또는 무성음-유성음-무성음임 어떤 순서를 제거하여 최소한 2개의 프레임인 것을 확인한다. 갑작스런 변화 테스트는 2개의 별도의 과정으로 구성이 되며, 각각은 앞서 기술한 2개의 순서를 검출하도록 되어 있다. 피치 트랙커(603)가 한번 앞서 기술된 4개의 테스트가 실행되면, T*(i-2)을 제1도의 피치 필터(111)에 출력한다. 피치 트랙커(603)는 거리 검출기(602)로부터 다음에 수신된 피치거리의 계산을 위해 다른 피치거리를 유지한다.
제8도는 제1도의 필터(111)를 보다 상세히 도시한다. 피치값 계산기(801)는 피치 검출기(107 내지 110)의 출력에 응답하여 2개 프레임 P(i-2)에 대한 피치를 처음 계산하고, 피치 트랙커(802)는 피치값 계산기(801)의 출력에 응답하여 3번째 이전 프레임 P(i-3)에 대해 최종 피치값이 프레임 사이에서 일치가 되도록 제한한다. 피치값을 결정하고 전송할 뿐만 아니라, 피치 필터(111)는 유성음 부분의 개시 부분에서 제1펄스의 v/u신호와 위치를 발생하여 전송한다.
피치값 계산기(801)에 의해 실행된 기능을 보다 상세히 살펴보기로 한다. 일반적으로 피치값 계산기(801)에 의해 수신된 4개의 모든 피치거리 계산이 유성음 프레임을 나타내는 제로가 아닌 경우, 최저 계산값과 최고 계산값은 무시되고 P(i-2)는 나머지 2개 계산값의 산술 평균같게 셋트된다. 마찬가지로 만약 3개의 피치거리 계산값이 제로가 아닌 겨우, 가장 높은 그리고 가장 낮은 계산값은 무시되고, 피치값 계산기(801)는 P(i-2)를 나머지 제로가 아닌 계산값에 셋트된다. 만약 단지 2개의 계산값이 제로가 아닌 경우, 피치값 계산기(801)는 2개의 값이 피치 임계값(A)내에 근접하는 경우에만 2개의 피치거리 계산값의 산술적 평균과 같게 셋트된다. 만약 2개의 값이 피치 임계값(A)내에서 근접하여 있지 않는 경우 피치값 계산기(801)는 P(i-2)를 제로로 셋트시킨다. 상기 판정은 몇개의 개별 검출기가 부정확하게 판단하어라도 몇몇의 주기를 갖는 무성음이라는 것을 나타낸다. 4개의 피치거리 계산값 0중의 단지 하나라도 제로가 아닌 경우, 피치값 측정기(801)는 P(i-2)를 제로가 아닌 값으로 셋트시킨다. 이 경우, 이전의 피치 계산과 일치하도록 하기 위해 상기 피치거리 계산값의 유효성을 검색하는 피치값 트랙커(802)에 남게된다. 모든 피치거리 계산값이 제로인 경우, 피치값 계산기(801)는 P(i-2)를 제로에 셋트시킨다.
피치값 트랙커(802)를 보다 상세히 검토해 보기로 한다. 피치값 트랙커(802)는 피치값 계산기(801)의 출력에 응답하여 세번째 이전 프레임 P*(i-3)에 대해 피치값 계산을 발생하며, 이 계산은 P(i-2)과 P(i-4)를 기본으로 하여 이루어진다. 피치값 P*(i-3)는 프레임 사이가 일치하도록 선택된다.
검색이 된 첫번째 것은 다음 형태 즉 유성음-무성음-유성음, 무성음-유성음-무성음 또는 유성음-유성음-무성음 형태를 갖는 프레임의 순서이다. 만약 제 1순서가 제로가 아닌 P(i-4)와 P(i-2)로 표시된 바와 같이 생기게 되고 P(i-3)가 제로인 경우, 최종값 P*(i-3)은 피치값 트랙커(802)에 의한 P(i-4)와 P(i-2)의 산술 평균값에 셋트된다. 만약 2번째 순서가 발생되는 경우, 최종 피치값 P*(i-3)은 제로로 셋트된다. 제 3순서에 있어서, 후자의 피치 트랙커는 제로가 아닌 P(i-4)와 P(i-3)와 제로인 P(i-3)에 응답하여 P(i-3)과 P(i-4)가 피치 임계값(A)내에 가까워져 있는 한 P(i-3)와 P(i-4)의 산술 평균에 셋트된다. 피치 트랙커(802)는
Figure kpo00013
에 응답하여 다음 연산을 실행한다.
Figure kpo00014
만약 피치값 트랙커(802)가 P(i-3)과 P(i-4)가 상기 조건에 맞지 않다고 판단한 겨우(즉, 피치 임계값 A내에 근접하여 있지 않은 경우), 피치값 트랙커(802)는 P*(i-3)을 P(i-4)의 값에 같게 셋트시킨다.
상술된 연산뿐만 아니라, 피치값 트랙커(802)는 어떤 형태의 유성음-유성음-유성음 프레임 순서에 대해 피치값을 평활화시키도록 작동을 수행한다. 3가지 형태의 프레임 순서는 상기 평활화 작동이 수행되는 곳에서 생긴다. 첫번째 순서는 다은 사실이 참일때이다.
Figure kpo00015
상기 조건이 참일때, 피치값 트랙커(802)는
Figure kpo00016
를 셋트하여 평활 동작을 실행한다.
Figure kpo00017
상기 셋트의 조건이 발생된다. 상기 제 2셋트의 조건이 참일때, 피치값 트랙커(802)는
Figure kpo00018
을 셋트시킨다. 제 3 및 최종 셋트의 조건은 다음과 같이 규정된다.
Figure kpo00019
상기 최종 셋트의 조건 발생에 대해서 피치값 트랙커(802)는
Figure kpo00020
을 셋트시킨다.
제9도는 디지탈 신호 처리기를 이용하여 실행된 제1도 및 제2도의 분석이 및 합성기의 실시예를 도시한다. 제1도 및 제2도에 도시된 기능을 수행하기 위해 제10도 및 제15도의 흐름도 형태로 도시된 프로그램이 제9도의 PROM(901)에 기억되어 있다. 제9도의 분석기/합성기 결합부는 채널(906)을 통해 유사한 유니트에 접속이 되고, 음성 대화는 이 2개의 분석기/합성기를 이용하여 통신된다. RAM(902)는 제1도에 도시된 각 피치 검출기를 위해 개개의 매개변수의 기억을 포함한 여러가지 형태의 정보를 기억하기 위해 사용된다. 피치 검출기는 PROM(901)에 기억된 공통 프로그램 명령어를 사용하여 실행된다. 제9도의 분석기/합성기는 입력되는 음성을 디지탈화시키는 A/D변환기(904)와 채널(906)을 통해 수신된 디지탈 신호의 아날로그 표현을 출력하기 위해 D/A변환기(905)를 이용한다.
제10도는 디지탈 신호 처리기(903)에 의한 수행을 위해 제1도의 LPC부호기 및 필터(102)의 소프트웨어실행을 도시한다. 제10도의 흐름도 형태로 도시된 프로그램은 블럭(1001에서 1012)의 수행에 의해 부르그(Burg) 알고리즘을 실행한다. 상기 알고리즘 LPC계수 및 각 프레임에 대한 파워(power)는 잔류 표본으로부터 블럭(1013,1014,1015)에 의해 계산된다.
다음, 제1도의 피치 검출기(107에서 110)은 제11도의 블럭(1101)에 의해 실행된다. 블럭(1101)은 적극성 및 부극성 음성 표본상에서 제9도의 RAM(902)에 있는 별도의 기억 매개변수를 갖는 프로그램 명령의 공통 셋트를 이용하여 실행한다. 잔류 표면에 대해서 피치 검출 동안 결정된 후보 펄스는 펄스 여기로서 다음에 사용할 수 있도록 저장된다. 제1도의 피치 보우터(111)의 기능은 블럭(1102,1103)에 의해 실행된다. v/u비트는 블럭(1102)에 의해 셋트된다. 후자의 비트는 결정 블럭(1104)에 의해 검사된다. 만약 v/u비트가 음성 프레임이 유성음 프레임이라는 것을 표시하는 1에 셋트되는 경우, 제14도의 블럭(1401,1402)은 피치 및 파워 정보를 채널 부호화기로 보낸다. 결정 블럭(1403)은 음성 프레임이 직렬 음성 프레임의 첫번째에 있는가를 결정한다. 만약 이러한 경우는 만약 블럭(1404)이 제 1피치 펄스의 위치를 채널 부호화기로 보낸다. 상기 정보는 피치 정보를 적당히 이용하기 위해 합성기에 의해 사용된다. 다음 블럭(1406,1407)은 LPC계수(Ki)를 채널 보호화기로 전송한다. 채널 부호화기는 수신된 정보를 널리 알려진 기술을 이용하여 비트 형태로 채널을 통해 합성기로 보낸다.
만약 v/u비트가 0에 셋트되어 있는 경우, 결정 블럭(1104)은 블럭(1105에서 1201)을 통해 제어 신호를 통신한다. 후자의 블럭은 방정식(2)의 좌측 및 우측을 결정하는데 필요한 계산을 행한다. 한번 상기 계산이 이루어지면, 펄스 여기 또는 잡음 여기를 이용할 것인가에 대한 결정은 방정식(2)의 최종 단계를 실행하는 결정 블럭(1202)에 의해 이루어진다. 만약 잡음 여기가 이용될 것이라는 결정이 이루어지면, 제어 신호는 제12도의 블럭(1203)과 제14도의 블럭(1405에서 1407)로 통신된다. 이들 블럭은 합성기에 의한 잡음 여기의 이용을 위해 정보를 준비하여 통신한다.
만약 펄스 여기를 이용할 것이라는 결정이 이루어지면, 결정 블럭(1202)은 제어 신호를 제12도의 블럭(1204,1205)로 통신한다. 블럭(1204)은 제어 신호를 제12도의 블럭(1204,1205)로 통신한다. 블럭(1204)의 실행은 펄스 여기가 실행되어야 한다는 것을 표시하는 1이 채널 부호화기로 통신되게 한다. 그리고 블럭(1205)의 실행은 최대 후보 펄스는 제11도의 블럭(1101)에 의해 실행된 피치 검출기에 의해 결정된다. 후자의 정보가 채널 부호화기로 통신된 후 제13도의 결정 블럭이 실행된다. 결정 블럭(1301)의 목적은 제11도의 블럭(1101)에 의해 발견된 어느 후보 펄스가 합성기에 통신될 것인가를 결정한다. 만약 잔류 피치 검출기에 의해 발견된 후보 펄스의 전체 수는 7 또는 2 이하인 경우, 따라서 모든 후보 펄스의 수가 통신된다. 만약 후보 펄스의 수가 7보다 큰 경우, 가장 큰 진폭의 후보 펄스를 갖는 피치 검출기로 부터의 후보 펄스는 채널로 통신된다. 만약 펄스의 전체 수가 7보다 큰 경우, 결정 블럭(1302)은 표본에 존재하는 가장 큰 진폭의 후보 펄스중의 후보 펄스가 부곡성 잔류 표본으로부터 나온 것인지 또는 적극성 잔류 표본으로부터 나온 것인지를 결정한다. 만약 최대 펄스 진폭이 부극성 잔류 표면에 존재하는 경우, 블럭(1303,1304)이 실행되어 부극성 잔류 표본으로부터의 후보 펼스를 채널 부호화기로 통신하게 한다. 만약 최대 진폭 후보 펄스가 정극성 잔류표본에 있다는 것이 결정 블럭(1302)에 의해 결정이 되면, 표본(1309,1310)이 실행되어 정극성 잔류 표본으로부터의 후보 펄스가 채널 부호화기로 통신되게 한다.블럭(1304)에 의해 통신된 정보는 각 후보 펄스의 진폭 및 위치이다. 진폭 정보는 블럭(1205)에 의해 부호화기로 통신된 최대 진폭의 후보 펄스의 진폭에 관련된다.
만약 결정 블럭(1301)에 의해 정극성 및 부극성 잔류 표본 모두에 있는 후보 펄스의 전체 수가 7 또는 2이하로 판단이 되는 경우, 블럭(1305,1306,1307,1308)이 실행되어 정극성 및 부극성 잔류 표본에 대한 모든 후보 펄스가 부호화기로 전송되게 한다.
상기 연산이 수행되후, 블럭(1311)은 모든 펄스가 통신되었다는 것을 보호화기에 표시하기 위해 실행이 된다. 블럭(1311)이 실행된 다음 제14도의 블럭(1406,1407)이 실행되어 LPC계수를 채널보호화기로 통신한다. 피치, 잡음 또는 펄스 여기 정보가 LPC계수 및 파워 정보와 함께 채널 부호화기에 한번 통신되고 나면, 그 과정은 다음 프레임에 대해 반복된다.
제2도의 합성기를 실행하기 위한 제9도의 디지탈 신호 처리기(903)에 대한 프로그램은 제15,16 및 17도에 도시되어 있다. 제15도상의 흐름도에 도시된 프로그램 단계는 합성 필터(207)를 실행시키는 프로그램 명령어를 구동시키는데 이용되는 여기의 형태를 결정한다. 제15도에 의해 도시된 프로그램 단계는 프레임형태를 결정하며, 어떤 매개변수를 판독하다. 블럭(1501)은 우선 채널 복호화기로부터의 v/u비트를 얻고 제2도의 선택기(206)를 실행시키는 결정 블럭(1502)은 v/u비트가 유성음 또는 무성음 정보를 표시하는 1또는 0인가를 결정한다. 만약 유성음 정보가 표시되는 경우, 블럭(1503,1504)은 채널 복호화기로부터의 피치 및 파워 정보를 얻기 위해 실행된다. 후자가 얻어진다음, 결정 블럭(1505)의 실행에 의해 이것이 유성음 부분의 첫번째 프레임인가를 결정하는 검색이 이루어진다. 만약, 유성음 부분의 제 1프레임인 경우, 블럭(1506)은 유성음 프레임내의 제1피치 펄스의 위치를 얻기 위해 실행된다.
만약 정보가 무성음이라는 것이 판단된 경우,블럭(1507)이 실행된다. 후자의 블럭은 채널 부호화기로부터 펄스비트를 얻는다. 펄스 비트가 1 또는 0인가에 대한 것을 기본으로 한 결정 블럭(1508)은 펄스 여기 또는 잡음 여기를 이용하기 위해 프로그램 명령을 실행하며, 제2도의 선택기 (205)를 실행시킨다. 만약 펄스비트가 잡음 여기를 표시하는 0인 경우, 파워는 블럭(1512)에 의해 채널 복호화기로 부터 얻어진다. 만약 펄스 비트가 펄스 여기를 표시하는 1인 경우, 블럭(1509에서 1511)이 실행되어 펄스 여기를 위해 사용되는 후보 펄스의 제1펄스 위치를 얻는다.
제 1프레임 형태의 펄스가 결정된 후, 제16도 및 17도에 흐름도 형태로 도시된 프로그램 단계를 실행한다. 블럭(1603에서 1610)은 여기를 위해 사용될 펄스를 결정하며, 블럭(1701에서 1707)은 합성 필터를 실행시킨다. 결정 블럭(1603)은 음성 프레임이 완전히 합성된 시기를 결정한다. 결정 블럭(1604)은 다시 한번 프레임이 유성음인가 또는 무성음인가를 결정한다. 만약 유성음 프레임인 경우, 블럭(1610)이 실행되어 피치 여기를 위한 다음 펄스를 결정한다. 그리고 합성 필터 프로그램 명령어가 그 다음 실행된다.
만약 프레임이 무성음인 겨우, 결정 블럭(1605)가 실행되어 잡음 또는 펄스 여기를 사용할 것인가를 결정한다. 만약 잡음 여기가 사용되는 경우, 결정 블럭(1605)이 합성 필터 프로그램 명령어로 시용될 수 있는 펄스를 얻기 위해 사용된다. 만약 펄스 여기가 사용되는 경우 브럭(1701 내지 1707)은 잘 알려진 LPC합성 기술을 이용한다. 음성의 전체 프레임이 합성된 후, 제16도 및 제17도에 의해 프로그램된 명령어는 다음 음성 프레임동안 반복된다.
상술된 실시예는 본 발명의 단지 예시에 지나지 않으며 본 발명의 정신과 범위를 벗어나지 않고 본 기술의 숙련자들에 의해 다른 장치가 고안될 수 있다.

Claims (10)

  1. 사람 언어의 분석 및 합성용 처리 장치에 있어서, 상기 언어의 순간 진폭의 균일간격의 소정 표본수를 갖는 다수의 언어 프레임을 기억하는 수단(100,112,101)과; 각 언어 프레임에 대해 음성 범위를 규정하는 언어 매개변수 신호들로 된 셋트를 계산하는 수단(102)과; 상기 다수의 음성 프레임들로 된 제 1보조 셋트를 유성음으로서 지정하고 상기 다수의 언어 프레임들로 된 제 2보조 셋트를 무성음으로서 지정하는 수단(111)과; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 피치 여기정보를 발생하는 수단(107에서 110)과; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 프레임에 대해 잡음 또는 펄스 여기정보를 발생하는 수단(109,110,126)과; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임의 지정에 응답하여 상기 피치 여기정보와 상기 언어 매개변수 신호들로 된 상기 셋트를 선택하는 수단(120에서 125)과; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임의 지정에 더 응답하여 잡음 또는 펄스 여기정보와 상기 언어 매개변수 신호들로 된 선택하는 상기 선택수단(120에서 125)및; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 선택된 피치 여기정보와 상기 언어 매개변수 신호들로 된 셋트와, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 여기정보의 선택된 잡음 또는 펄스와 상기 언어 매개변수 신호들로 된 셋트를 통신하는 수단(129)을 구비하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  2. 제1항에 있어서, 상기 발생 수단은 펄스 여기를 제공하기 위해 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 상기 언어 표본으로부터 펄스를 결정하는 수단(1301에서 1311)을 구비하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  3. 제2항에 있어서, 상기 결정 수단은 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 상기 언어 표본으로부터 잔류 표본을 계산하는 수단(1101) 및, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 프레임에 대해 최대 진폭을 갖는 상기 잔류 표본의 펄스들로 된 보조 셋트를 색출하는 수단(1301)을 구비하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  4. 제1항에 있어서, 상기 선택 수단은 상기 각 프레임에 대해 자승된 잔류 표본의 전부를 함께 합하는 수단(123)과; 어떤 값을 발생기키기 위해서 한 프레임에 있는 상기 소정수의 표본을 상기 각 프레임에 대한 상기 자승된 잔류 표본의 합으로 곱하는 수단(124)과; 상기 각 프레임에 대한 절대 잔류 표본 전부를 합하는 수단(120)과; 다른 값을 발생시키기 위해 상기 각 프레임에 대해 합산된 절대 잔류 표본값을 자승하는 수단(121)과; 상기 각 프레임에 대해 상기 값을 상기 다른 값에 비교하는 수단(125) 및; 상기 비교가 소정의 임계값보다 큰 겨우 선택되어야 할 상기 펄스 여기정보를 지정하고, 기타의 경우에 상기 잡음 여기가 지정되는 수단(1204)을 구비하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  5. 언어를 디지탈 표면의 프레임으로 변환하는 양자화기(904)와, 다수의 프로그램 명령에 응답하여 상기 언어를 분석 및 합성하는 디지탈 신호 처리기(903)를 구비하는 시스템으로 사람 언어를 분석 및 합성하기 위한 방법에 있어서, 상기 언어의 소정수의 순간진폭의 균일간격의 표본을 갖는 다수의 언어 프레임을 가억하는 단계와; 각 언어 프레임에 대해 음성범위를 규정하는 언어 매개변수 신호들로 된 셋트를 계산하는 단계와; 상기 다수의 언어 프레임들로 된 제 1보조 셋트를 무성음으로서 지정하고 상기 다수의 언어 프레임들로 된 제 2보조 셋트를 유성음으로서 지정하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 피치 여기정보를 발생하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 잡음 또는 펄스 여기정보를 발생하는 단계와; 유성음으로서 지정된 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 언어 매개변수 신호들로 된 상기 피치 여기정보를 선택하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 잡음 또는 펄스 여기를 선택하는 단계 및; 상기 다수의 언어 프레임들로 된 상기 제1보조 셋트의 각 프레임에 대해 선택된 상기 피치 여기정보와 상기 언어 매개변수 신호들로 된 셋트 및, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 선택된 잡음 또는 펄스 여기정보와 상기 언어 매개변수 신호들로 된 셋트를 통신하는 단계를 구비하는 것을 특징으로 하는 음성분석 및 합성방법.
  6. 제5항에 있어서, 상기 발생 단계는 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 상기 언어 표본으로부터의 잔류 표본을 계산하는 단계 및; 펄스 여기를 제공하기 위해 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 상기 잔류 표본으로 부터의 펄스를 결정하는 단계를 구비하는 것을 특징으로 하는 음성분석 및 합성처리방법.
  7. 제6항에 있어서, 상기 결정 단계는 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 최대진폭을 갖는 상기 잔류 표본의 펄스들로 된 보조 셋트를 색출하는 단계를 구비하는 것을 특징으로 하는 음성분석 및 합성처리방법.
  8. 사람 언어의 분석 및 합성용 처리 장치에 있어서, 상기 언어의 순간 진폭의 균일간격의 소정 표본수를 갖는 다수의 언어 프레임을 기억하는 수단(100,112,101)과; 각 언어 프레임에 대해 음성 범위를 규정하는 언어 매개변수 신호들로 된 셋트를 계산하는 수단(102)과; 상기 다수의 음성 프레임들로 된 제 1보조 셋트를 유성음으로 지정하고 상기 다수의 언어 프레임들로 된 제 2보조 셋트를 무성음으로 지정하는 수단(111)과; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 피치 여기정보를 발생하는 수단(107에서 110)과; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 잡음 또는 펄스 여기정보를 발생하는 수단(109,110,126)과; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 프레임의 지정에 응답하여 상기 피치 여기정보와 상기 언어 매개변수 신호들로 된 상기 셋트를 선택하는 수단(120에서 125)과; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임의 지정에 더 응답하여 잡음 또는 펄스 여기정보와 상기 언어 매개변수 신호들로 된 셋트를 선택하는 상기 선택 수단(120에서 125)과; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 선택된 피치 여기정보와 상기 언어 매개변수 신호들로 된 셋트와, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 여기정보의 선택된 잡음 또는 펄스와 상기 언어 매개변수 신호들로 된 셋트를 통신하는 수단(129)과; 상기 통신된 여기정보와 상기 각 프레임에 대한 언어 매개변수 신호들로 된 상기 셋트를 수신하는 수단(201)과; 상기 피치 여기정보가 통신되고 있을때 언어 매개변수 신호들로 된 상기 셋트와 상기 피치 여기정보를 이용하여 각 언어 프레임을 합성하는 수단(102에서 208) 및; 언어 매개변수 신호들로 된 상기 셋트와 잡음 또는 펄스 여기정보를 더 이용하여 여기정보의 상기 잡음 또는 펄스가 통신되고 있을때 상기 잡음 또는 펄스 여기정보를 이용해서 각 언어 프레임을 합성하는 상기 합성 수단을 구비하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  9. 제8항에 있어서, 상기 잡음 또는 펄스 여기정보가 통신되고 있을때 무성음형 신호를 더 발생하는 상기 수신 수단과; 상기 펄스 여기정보가 통신되고 있을때 펄스 신호를 발생하는 수단(204)과; 상기 펄스형 신호의 공백(absence)과 상기 무성음형 신호에 응답하여 잡음 여기정보를 발생하는 수단(203)과; 상기 펄스형 신호에 응답하여 상기 펄스 여기정보를 선택하는 수단(205)를 포함하는 것을 특징으로 하는 음성분석 및 합성처리장치.
  10. 언어를 디지탈 표본의 프레임으로 변환하는 양자화기(904)와, 다수의 프로그램 명령에 응답하여 상기 언어를 분석 및 합성하는 디지탈 신호 처리기(903)를 구비하는 시스템으로 사람언어를 분석 및 합성하기 위한 방법에 있어서, 상기 언어의 소정수의 순간 진폭의 균일간격의 표본을 갖는 다수의 언어 프레임을 기억하는 단계와; 각 언어 프레임에 대해 음성범위를 규정하는 언어 매개변수 신호들로 된 셋트를 계산하는 단계와; 상기 다수의 언어 프레임들로 된 제 1보조 셋트를 무성음으로서 지정하고 상기 다수의 언어 프레임들로 된 제 2보조 셋트를 유성음으로서 지정하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 피치 여기정보를 발생하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제2보조 셋트의 각 프레임에 대해 잡음 또는 펄스 여기정보를 발생하는 단계와; 유성음으로서 지정된 상기 다수의 언어 프레임들로 된 상기 제1보조 셋트의 각 프레임에 대해 언어 매개변수 신호들로 된 상기 피치 여기정보를 선택하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 잡음 또는 펄스 여기를 선택하는 단계 및; 상기 다수의 언어 프레임들로 된 상기 제 1보조 셋트의 각 프레임에 대해 선택된 상기 피치 여기정보의 상기 언어 매개변수 신호들로 된 셋트 및, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 선택된 잡음 또는 펄스 여기정보와 상기 언어 매개변수 신호들로 된 셋트를 통신하는 단계를 구비하고, 상기 잡음 또는 펄스 여기 선택 단계는 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 잔류 표본의 편차를 계산하는 단계와, 상기 잔류 표본을 정류하는 단계와, 그 정류된 잔류 표본의 평균 진폭을 계산하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제2보조 셋트의 각 프레임에서 그 정류된 잔류 표본의 평균 진폭의 자승을 계산하는 단계와, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 평균 진폭의 자승을 계산하는 단계와; 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에서 그 정류된 잔류 표본의 평균 진폭의 자승을 계산하는 단계와, 상기 다수의 언어 프레임들로 된 상기 제 2보조 셋트의 각 프레임에 대해 평균 진폭의 자승 계산과 편차 계산을 비교하는 단계 및 상기 비교가 소정의 임계 값보다 큰 경우에 선택되어야 할 상기 펄스 정보를 지정하고 그렇지 않은 경우에 잡음 정보를 지정하는 단계를 포함하는 것을 특징으로 하는 음성분석 및 합성처리방법.
KR1019870700361A 1985-08-28 1986-07-24 음성 분석 및 합성 장치와 분석 및 합성 방법 KR970001167B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US770,631 1985-08-28
US06/770,631 US4890328A (en) 1985-08-28 1985-08-28 Voice synthesis utilizing multi-level filter excitation
PCT/US1986/001543 WO1987001500A1 (en) 1985-08-28 1986-07-24 Voice synthesis utilizing multi-level filter excitation

Publications (2)

Publication Number Publication Date
KR880700388A KR880700388A (ko) 1988-03-15
KR970001167B1 true KR970001167B1 (ko) 1997-01-29

Family

ID=25089219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019870700361A KR970001167B1 (ko) 1985-08-28 1986-07-24 음성 분석 및 합성 장치와 분석 및 합성 방법

Country Status (6)

Country Link
US (1) US4890328A (ko)
EP (1) EP0235180B1 (ko)
JP (1) JP2738533B2 (ko)
KR (1) KR970001167B1 (ko)
CA (1) CA1258316A (ko)
WO (1) WO1987001500A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107600708A (zh) * 2017-08-28 2018-01-19 珠海格力电器股份有限公司 一种吸尘器的包装结构及包装方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5060269A (en) * 1989-05-18 1991-10-22 General Electric Company Hybrid switched multi-pulse/stochastic speech coding technique
US5105464A (en) * 1989-05-18 1992-04-14 General Electric Company Means for improving the speech quality in multi-pulse excited linear predictive coding
IT1264766B1 (it) * 1993-04-09 1996-10-04 Sip Codificatore della voce utilizzante tecniche di analisi con un'eccitazione a impulsi.
GB2312360B (en) * 1996-04-12 2001-01-24 Olympus Optical Co Voice signal coding apparatus
US5937374A (en) * 1996-05-15 1999-08-10 Advanced Micro Devices, Inc. System and method for improved pitch estimation which performs first formant energy removal for a frame using coefficients from a prior frame
US6047254A (en) * 1996-05-15 2000-04-04 Advanced Micro Devices, Inc. System and method for determining a first formant analysis filter and prefiltering a speech signal for improved pitch estimation
JP4040126B2 (ja) * 1996-09-20 2008-01-30 ソニー株式会社 音声復号化方法および装置
US6154499A (en) * 1996-10-21 2000-11-28 Comsat Corporation Communication systems using nested coder and compatible channel coding
FI964975A (fi) * 1996-12-12 1998-06-13 Nokia Mobile Phones Ltd Menetelmä ja laite puheen koodaamiseksi
GB2322778B (en) * 1997-03-01 2001-10-10 Motorola Ltd Noise output for a decoded speech signal
US20030135374A1 (en) * 2002-01-16 2003-07-17 Hardwick John C. Speech synthesizer
US7698132B2 (en) * 2002-12-17 2010-04-13 Qualcomm Incorporated Sub-sampled excitation waveform codebooks
EP2830062B1 (en) * 2012-03-21 2019-11-20 Samsung Electronics Co., Ltd. Method and apparatus for high-frequency encoding/decoding for bandwidth extension
JP6860901B2 (ja) * 2017-02-28 2021-04-21 国立研究開発法人情報通信研究機構 学習装置、音声合成システムおよび音声合成方法
CN115273913B (zh) * 2022-07-27 2024-07-30 歌尔科技有限公司 语音端点检测方法、装置、设备及计算机可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
FR2206889A5 (ko) * 1972-11-16 1974-06-07 Rhone Poulenc Sa
US3916105A (en) * 1972-12-04 1975-10-28 Ibm Pitch peak detection using linear prediction
US3903366A (en) * 1974-04-23 1975-09-02 Us Navy Application of simultaneous voice/unvoice excitation in a channel vocoder
US3979557A (en) * 1974-07-03 1976-09-07 International Telephone And Telegraph Corporation Speech processor system for pitch period extraction using prediction filters
US4058676A (en) * 1975-07-07 1977-11-15 International Communication Sciences Speech analysis and synthesis system
US4301329A (en) * 1978-01-09 1981-11-17 Nippon Electric Co., Ltd. Speech analysis and synthesis apparatus
CA1123955A (en) * 1978-03-30 1982-05-18 Tetsu Taguchi Speech analysis and synthesis apparatus
JPS602678B2 (ja) * 1980-04-18 1985-01-23 松下電器産業株式会社 音成合成方式
JPS576898A (en) * 1980-06-13 1982-01-13 Nippon Electric Co Voice synthesizer
JPS6040633B2 (ja) * 1981-07-15 1985-09-11 松下電工株式会社 無声破裂音源付きの音声合成装置
ATE15415T1 (de) * 1981-09-24 1985-09-15 Gretag Ag Verfahren und vorrichtung zur redundanzvermindernden digitalen sprachverarbeitung.
US4472832A (en) * 1981-12-01 1984-09-18 At&T Bell Laboratories Digital speech coder
US4561102A (en) * 1982-09-20 1985-12-24 At&T Bell Laboratories Pitch detector for speech analysis
US4696038A (en) * 1983-04-13 1987-09-22 Texas Instruments Incorporated Voice messaging system with unified pitch and voice tracking
US4669120A (en) * 1983-07-08 1987-05-26 Nec Corporation Low bit-rate speech coding with decision of a location of each exciting pulse of a train concurrently with optimum amplitudes of pulses
JPS6087400A (ja) * 1983-10-19 1985-05-17 日本電気株式会社 マルチパルス型音声符号復号化装置
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107600708A (zh) * 2017-08-28 2018-01-19 珠海格力电器股份有限公司 一种吸尘器的包装结构及包装方法

Also Published As

Publication number Publication date
EP0235180A1 (en) 1987-09-09
KR880700388A (ko) 1988-03-15
US4890328A (en) 1989-12-26
CA1258316A (en) 1989-08-08
JPS63500681A (ja) 1988-03-10
WO1987001500A1 (en) 1987-03-12
JP2738533B2 (ja) 1998-04-08
EP0235180B1 (en) 1991-05-29

Similar Documents

Publication Publication Date Title
KR970001167B1 (ko) 음성 분석 및 합성 장치와 분석 및 합성 방법
KR960002388B1 (ko) 언어 엔코딩 처리 시스템 및 음성 합성방법
EP0127729B1 (en) Voice messaging system with unified pitch and voice tracking
KR970001166B1 (ko) 언어 처리 방법 및 장치
US4731846A (en) Voice messaging system with pitch tracking based on adaptively filtered LPC residual signal
EP0235181B1 (en) A parallel processing pitch detector
CA1307344C (en) Digital speech sinusoidal vocoder with transmission of only a subset ofharmonics
US20020032563A1 (en) Method and system for synthesizing voices
JP2002516420A (ja) 音声コーダ
EP0415163B1 (en) Digital speech coder having improved long term lag parameter determination
JP3531780B2 (ja) 音声符号化方法および復号化方法
JP2534446Y2 (ja) ディジタル化信号から有効サンプルを決定する装置
KR100388488B1 (ko) 유성음 구간에서의 고속 피치 탐색 방법
JPH08211895A (ja) ピッチラグを評価するためのシステムおよび方法、ならびに音声符号化装置および方法
JP2648138B2 (ja) 音声パターンを圧縮する方法
JPH10232697A (ja) 音声符号化方法および復号化方法
JPH05265486A (ja) 音声分析合成方法
JPH05507796A (ja) 音声の低スループット符号化の方法と装置
JPH0141998B2 (ko)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J2X1 Appeal (before the patent court)

Free format text: APPEAL AGAINST DECISION TO DECLINE REFUSAL

G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20020105

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee