KR960002388B1 - 언어 엔코딩 처리 시스템 및 음성 합성방법 - Google Patents

언어 엔코딩 처리 시스템 및 음성 합성방법 Download PDF

Info

Publication number
KR960002388B1
KR960002388B1 KR1019870009956A KR870009956A KR960002388B1 KR 960002388 B1 KR960002388 B1 KR 960002388B1 KR 1019870009956 A KR1019870009956 A KR 1019870009956A KR 870009956 A KR870009956 A KR 870009956A KR 960002388 B1 KR960002388 B1 KR 960002388B1
Authority
KR
South Korea
Prior art keywords
frame
harmonic
language
signal
frequency
Prior art date
Application number
KR1019870009956A
Other languages
English (en)
Other versions
KR880004426A (ko
Inventor
챨스 브론슨 에드워드
도온리 하트웰 왈터
바스티안 클레인 윌렘
파노스 프레자스 디미트라이어즈
Original Assignee
아메리칸 텔리폰 앤드 텔레그라프 캄파니
엘리 와이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아메리칸 텔리폰 앤드 텔레그라프 캄파니, 엘리 와이스 filed Critical 아메리칸 텔리폰 앤드 텔레그라프 캄파니
Publication of KR880004426A publication Critical patent/KR880004426A/ko
Application granted granted Critical
Publication of KR960002388B1 publication Critical patent/KR960002388B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/093Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using sinusoidal excitation models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

내용 없음.

Description

언어 엔코딩 처리 시스템 및 음성 합성방법
제1도는 본 발명에 따른 음성 분해기의 블럭도.
제2도는 본 발명에 따른 음성 합성기의 블럭도.
제3도는 음성 영역시에 언어를 모사하기 위한 패킷 정보의 사시도.
제4도는 노이즈 여자를 이용한 비음성 영역시에 언어를 모사하기 위한 패킷정보의 도시도.
제5도는 펄스여자를 이용한 비음성 영역시에 언어를 모사하기 위한 패킷정보의 도시도.
제6도는 제2도의 합성기에 의해 수행되는 기본 및 고조파 주파수 보간의 그래프도.
제7도는 제2도의 합성기에 의해 수행되는 기본 및 고조파 주파수 진폭보간의 그래프도.
제8도는 제1 및 2도의 디지탈 신호 프로세서의 설치도.
제9 내지 13도는 제1도의 분해회로를 설치하도록 제8도의 디지털 신호 프로세서를 제어하기 위한 프로그램의 플로우차트.
제14 내지 19도는 제2도의 합성기를 설치하도록 제8도의 디지탈 신호 프로세서의 수행을 제어할 프로그램의 플로우차트.
* 도면의 주요부분에 대한 부호의 설명
100 : 분해기 101: 아나로그-디지탈 변환기
102 : 프레임 세그멘터 107 : 피치 조정기
109 : 피치 검출기 111 : LPC 계산기
113 : 파리미터 엔코더 200 : 합성기
206 : 선택기 208 : 디지탈-아나로그 변환기
803 : 프로세서
본 발명은 언어 처리기에 관한 것으로, 특히, 언어의 음성부에 대한 사인파 모델과, 언어의 비음성부에 대한 여자 예측 필터모델을 이용함으로써 언어를 모사하는 디지탈 언어 코딩 및 디코딩 장치에 관한 것이다.
일반적으로, 저장 및 전송에 필요한 비트율을 감소시키도록 신호를 압축하는 것은 음성 저장 및 음성응답시설물을 포함한 디지탈 언어 통신 시스템내에서 바람직하게 이루어졌다. 신호 압축을 위한 공지된 한 디지탈 언어 엔코딩 기법은 1984년, 음향, 언어 및 신호처리의 IEEE 국제회의 회보, 볼륨 2, 페이지 27.6.1 내지 27.6.4(미합중국, 산 디에고)에 명칭이 "사인파 언어 모델을 이용한 크기만의 재건"인 논문에 기술되어 있다. 상기 논문은 또한 언어의 음성부 및 비음성부를 엔코딩하고 디코딩하기 위한 사인파 언어 모델의 이용법을 기술하고 있다. 언어 파형은 사인파의 합으로서 언어 파형을 모델링함으로써 보코더의 합성기내에서 재생된다. 상기 사인파의 합산은 언어 파형의 기본 및 고주파 주파수로 이루어지며, 아래와 같이 표시된다.
S(n)=Σa1(n)sin[ψ1(n)]……………………………(1)
항목 a1(n) 및 ψ1(n)은 제각기 적절한 포인트에서 언어의 사인파 성분의 시간 변화진폭 및 위상이다. 음성 처리 기능은 분해기내의 위상 및 진폭을 결정하여, 식(1)을 이용하여 언어 파형을 재건하는 분해기로 상기 값을 전송함으로써 수행된다.
맥크오레이 논문에서는 또한 진폭 및 위상이 통상적으로 프레임이라 칭하는 고정된 시간 주기 동안에 고속 푸리에 스펙트럼 분해를 수행함으로 결정된다. 기본 및 고조파 주파수는 고속푸리에 스펙트럼내에서 피크로 나타나, 기본 및 고조파의 진폭 및 주파수를 결정하도록 피크-피킹을 수행함으로써 결정된다.
맥크오레이 방식에 따른 문제점은 기본 주파수, 모든 고주파 및 모든 진폭이 분해기로부터 고비트율 전송을 유발하는 합성기로 전송된다는 것이다. 다른 문제점은 주파수 및 진폭이 직접적으로 합성 스펙트럼 피크로부터만 결정된다는 것이다. 이용된 고속 푸리에 변환은 상기 피크를 매우 정확히 계산한다.
상기 방법에 따른 부가적인 문제점은 언어의 음성부 뿐만 아니라 사인파형 코딩기술을 이용한 언어의 비음성부를 모델한다는 것이다. 음성 및 비음성 영역사이의 변화는 스펙트럼내의 관련 피크를 결정하기 어려운 상기 영역 사이의 경계 프레임에서 분리되는 스펙트럼 분해로부터 스펙트럼 에너지를 유발시킨다.
본 발명은 전술된 문제점 및 종래 기술의 난점을 해소하며, 각 언어 프레임에 대한 프레임 에너지, 성대(vocal tract)를 한정하는 언어 파라미터, 기본 주파수 및 각 고조파 주파수와 연속 언어 분해를 위한 정수배의 기본 주파수의 차를 표시하는 오프셋을 엔코딩하고 전송하는 분해기를 구비하는 구조실시예 및 방법으로 기술적 진보를 얻을 수 있다. 합성기는 전송된 정보에 응답하여, 고조파 및 기존 주파수의 위상 및 진폭을 계산하고, 모사 언어를 발생시킬 계산된 정보를 이용한다. 잇점으로, 상기 장치는 분해기로부터 합성기로 진폭 정보를 전송할 필요성을 해소한다.
한 실시예가 있어서, 분해기는 스펙트럼 분해에 의해 성취되는 피치의 고조파에 관한 정보를 이용함으로써 피치 검출기에 의해 결정된 피치 또는 기본 주파수를 조정한다. 상기 피치조정은, 피치 검출기의 동작에 의한 부정확성 및 정수배의 샘플링 주기를 이용하여 계산되는 사실과 관련된 문제점에 대한 초기 피치 평가치를 정정한다. 게다가, 피치 조정기는, 각종 고조파를 인출하도록 적절히 증배될 시에 조정치가 스펙트럼 분해로부터 결정된 고조파의 실제값 사이에서 평균이 되도록 피치를 조정한다. 따라서, 피치 조정기는 분해기로부터 합성기로 고조파를 한정하는 오프셋 정보를 전송하는 데에 요구된 비트수를 감소시킨다.
피치가 조정되는 경우, 적절히 증배되는 조정된 피치값은, 스펙트럼내의 각 고조파의 위치를 재평가하여, 바람직한 고조파의 수에 의해 조정된 피치값을 증배함으로써 결정된 바와 같이 고조파의 이론치로 부터 위치된 고조파의 오프셋을 결정하도록 개시점으로서 이용된다.
본 발명은, 합성기가 언어의 음성부에 대한 사인파 모델링하는 전술된 기술을 이용하고, 언어의 비음성부에 대한 멀티펄스나 노이즈 여자 모델링을 이용하는 전송된 정보로부터 언어를 재생시킨다는 점에서 개량된 것이다.
더욱 상세히 설명하면, 고조파의 진폭은 주 샘플점과 선형 예측 코딩, LPC 계수로부터 결정된 전체 프레임 에너지를 이용함으로써 합성기에서 결정 된다. 고조파 진폭은 LPC 계수를 이용함으로써 각 고조파로부터 스케일되지 않은 에너지를 제공하여, 산술동작의 스케일링 계수로서의 전체 에너지를 이용함으로써 고조파의 진폭의 인출로 계산된다. 이런 기술은 분해기가 LPC 계수 및 전체 에너지만 전송하고, 각 고조파의 진폭을 전송하지 않게 한다.
잇점으로, 합성기는 기본 및 각 고조파 주파수에 응답하며, 상기 주파수는 프레임 중간에 발생하여, 각 프레임 전체를 통해 연속 주파수를 발생시키도록 음성 프레임간에 보간한다. 마찬가지로, 기본 및 고조파 진폭은 같은 방식으로 발생한다.
음성 프레임에서 비음성 프레임으로와, 그 역으로 전이에 따른 문제점은 아래와 같은 방식으로 조정된다. 비음성 프레임으로부터 음성 프레임으로 전이할 시에, 기본 및 각 고조파 주파수가 개시 프레임으로부터 중간 프레임까지는 일정하다. 상기 주파수가 음성 프레임으로부터 비음성 프레임으로 전이할 시에는 상기와 유사하게 계산된다. 통상적인 보간법은 잔여 프레임 동안의 주파수를 계산하는 데에 이용된다. 기본 및 고조파 진폭은 음성 프레임의 시작에서 0으로 개시하며, 프레임의 제1절반부에서 보간된다. 상기 진폭은 음성 프레임으로부터 비음성 프레임으로 전이할 시에 유사하게 계산된다.
게다가, 각 음성 프레임에 따라 고조파 수는 프레임간에서 변할 수 있다. 따라서, 인접한 음성 프레임내에서 보다 한 음성 프레임내에서 더욱 많거나 적은 고조파를 가질 수 있다. 인접한 프레임내에서 정합(match)하지 않고 고조파 주파수가 상기 프레임의 중간에서 인접한 프레임 경계까지는 일정하고, 상기 프레임의 고조파 진폭이 프레임과 인접한 프레임 사이의 경계에서 0이 됨으로써 상기 문제점은 해소된다. 이것은 보간법이 정상적인 방식으로 수행되게 한다.
또한, 음성 프레임에서 비음성 프레임으로의 전이가 수행될 시에, 비음성 LPC 필터는 이전의 음성 프레임으로부터 LPC 계수로 개시된다. 이것은 비음성 필터가 비음성 영역에서 언어를 정확히 합성시킨다. 음성 프레임으로부터의 LPC 계수는 이전의 시간 주기 동안에 성대를 정확히 모델한다.
이하, 첨부된 도면을 참조로 하여 본원 명세서를 더욱 상세히 설명하기로 한다.
제1 및 2도는 제각기 본 발명의 촛점인 언어 분해기 및 언어 합성기를 도시한 것이다.
제1도의 언어 분해기(100)는 경로(120)를 통해 수신된 아나로그 언신호에 응답하여, 채널(139)을 통해 제2도의 합성기(200)로 전송하기 위해 저비율로 상기 신호를 엔코드한다. 채널 (139)은 은 잇점으로 통신 전송경로이거나, 적절한 시기의 더욱 후반부의 포인트에서 음성 합성이 합성된 음성을 필요로 하는 각종 응용에 제공되도록 저장될 수 있다. 그러한 한 응용은 디지탈 컴퓨터에 대한 언어 출력이다. 분해기(100)은 아나로그-디지탈 변환기(101) 및 프레임 세그멘터(102)를 이용한 아나로그 언어 정보를 숫자화하고 양자화한다. LPC 계산기(111)는 양자화된 숫자화샘플에 응답하여, 인간성대를 모델한 신형 예측 코딩(LPC) 계수를 발생시켜 잔여 신호를 발생시킨다. 상기 후자 계수 및 신호 정보는 본 기술에 공지된 다른 장치내에나 동일 양수인에게 양도된 미합중국 특허 제3,740,476호에 기술된 장치에 따라 수행될 수 있다. 분해기(100)는 아래의 분해 기술, 즉 사인파 분해, 멀티펄스분해나, 노이즈 여자 분해중의 하나를 이용하여 경로(120)를 통해 수신된 언어 신호를 엔코드한다. 첫째로, 프레임 분할 블럭(102)은 잇점으로 160 샘플로 구성된 프레임내로 언어 샘플을 그룹한다.
계산기(111)는 각 프레임에 응답하여, 잔여 신호를 계산하고, 경로(122)를 통해 상기 신호를 피치 검출기(109)로 전송한다. 후자 검출기는 잔여 신호 및 언어 샘플에 응답하여, 프레임이 음성화되거나 음성화되지 않는 여부를 결정한다. 음성 프레임은 정상적으로 피치를 호출한 기본 주파수가 프레임내에서 검출된 것이다. 피치 검출기(109)가 프레임이 음성화 되는지 결정할 경우, 블럭(103 내지 108)은 프레임의 사인파를 엔코딩한다. 그러나, 프레임이 음성되지 않은 경우, 노이즈/멀티펄스 결정 블럭(112)은 노이즈 여자 또는 멀티펄스 여자가 LPC 계산기 블럭(111)에 의해 계산되는 LPC 계수에 의해 한정된 필터를 여자 하도록 합성기(200)에 의해 이용되는 지를 결정한다. 노이즈 여자가 이용될 경우, 이런 사실(fact)은 파라미터 엔코딩 블럭(113) 및 전송기(114)를 통해 합성기(200)로 전송되다. 그러나, 멀티펄스 여자가 이용될 경우, 블럭(110)은 펄스 트레인의 진폭 및 위치를 결정하여, 제2도의 합성기(200)로 연속 전송하기 위한 파라미터 엔코딩 블럭(113)으로 경로(128 및 129)를 통해 상기 정보를 전송시킨다.
분해기(100) 및 합성기(200)사이의 통신 채널이 패킷을 이용하여 구현될 경우, 음성 프레임 구간에 전송된 패킷은 제3도에 도시되고, 화이트 노이즈 여자를 이용한 비음성 프레임 구간에 전송된 패킷은 제4도에 도시되며, 멀티펄스 여자를 이용한 비음성 프레임 구간에 전송된 패킷은 제5도에 도시된다.
분해기(100)의 동작법을 더욱 상세히 설명하기로 한다. 피치 검출기(109)가 프레임이 음성화되지 않는 경로(130)를 통해 신호한 경우, 노이즈/멀티펄스 결정 블럭(112)은 상기 신호에 응답하여, 노이즈 또는 멀티펄스 여자가 이용되는 지를 결정한다. 멀티펄스 여자가 이용될 경우, 상기 사실을 표시하는 신호는 멀티펄스 분해기 블럭(110)으로 전송된다. 멀티펄스 분해기(110)는 경로(124)상의 신호와 피치 검출기(109)로부터 경로(125 및 126)를 통해 전송된 펄스 세트에 응답한다. 멀티펄스 분해기(110)는 선택된 펄스의 진폭에 따라 선택된 펄스의 위치를 파라미터 엔코더(113)로 전송한다. 후자 엔코더는 또한 제5도에 도시된 패킷을 형성하도록 LPC 계산기(111)로부터 경로(123)를 통해 수신된 LPC 계수에 응답한다.
노이즈/멀티펄스 결정블럭(112)이 노이즈 여자가 이용될 것인지를 결정한 경우, 경로(124)를 통해 신호를 파라미터 엔코더 블럭(113)으로 전송시킴으로써 상기 사실을 표시한다. 후자 엔코더가 상기 신호에 응답하여, 블럭(111)으로부터의 LPC 계수를 이용하는 제4도에 도시된 패킷과, 블럭(115)에 의해 잔여 신호로부터 계산된 이득을 형성한다.
음성 프레임시에 분해기(100)의 동작을 더욱 상세히 설명한다. 에너지 계산기(103)는 프레임 세그맨터(102)로부터 수신된 프레임 구간의 숫자화된 언어 Sn에 응답하여, 아래의 식에서와 같이, 잇점으로 160 언어 샘플을 가진 프레임내의 언어의 전체 에너지를 계산한다.
Figure kpo00004
상기 에너지값은 LPC 계수와 관련한 기본 및 고조파 진폭을 결정하도록 합성기(200)에 의해 이용된다.
해밍 윈도우 블럭(104)은 경로(121)를 통해 전송된 언어 신호에 응답하여, 아래 식으로 주어진 바와같이 윈도우 동작을 수행한다.
Figure kpo00005
윈도우 동작의 목적은 고속 푸리에 변환 FFT을 계산하기 위해 프레임의 종점에서의 디스조인트니스(disjointness)를 제거한다. 윈도우 동작이 수행된 후에, 블럭(105)은 블럭(104)으로부터 합성 샘플로 0을 패드(pad)하며, 상기 블럭(104)은 잇점으로 아래 식에서와 같이 신규 순차의 1024 데이타 포인트를 유발시킨다.
Figure kpo00006
그후, 블럭(105)은 아래식으로 한정된 불연속푸리에 변환을 고속 구현하는 고속 푸리에 변환을 수행한다.
Figure kpo00007
FET 계산을 수행한 후, 블럭(105)은 식(5)의 계산에서 유발된 각 복소수 주파수 데이타 포인트의 정도를 계산함으로써 스펙트럼 S을 성취하며, 이런 동작은 아래 식으로 한정된다.
Figure kpo00008
피치 조정기(107)는 피치 검출기(109)에 의해 계산된 피치와, 블럭(105)에 의해 계산된 스펙트럼에 응답하여, 피치 검출기(109)로부터 조정된 값보다 더욱 정확한 산정된 피치를 계산한다. 더우기, 정수배의 피치은 고조파 주파수가 비교적 동일하게 분배되는 값이다. 이런 조정은 3가지 이유로 바람직하다. 첫번째로 블럭(105)에 의해 계산된 스펙트럼의 제1피크가 기본위치를 표시하지만 사실상 이런 신호는 성대의 결과와, 아나로그-디지탈 변환기(101)의 저역통과 필터의 결과로 공칭적으로 시프트된다. 두번째로, 피치 검출기의 주파수 리졸루션은 아나로그-디지탈 변환기의 샘플율로 제한되어, 대응 피치 주기가 두 샘플림사이에 있을 경우에 정확한 피치 주파수를 한정하지 못한다. 정확한 피치를 갖지 않는 상기와 같은 결과는 피치 조정기(107)에 의해 조정된다. 이런 것에 대한 가장 큰 임팩트(impact)는 고조파 로케이터(106) 및 고조파 오프셋 계산기(108)에 의해 계산된다. 고조파 로케이터(106)는 피치 조정기(107)에 의해 결정된 피치를 이용하여, 각종 고조파 위치를 결정하도록 스펙트럼 등급 블럭(105)에 의해 발생된 스펙트럼을 분해하기 위한 개시점을 발생시킨다.
세번째로, 고조파 오프셋 계산기(108)는 피치값으로부터 계산된 이론 고조파 주파수 및 로케이터(106)에 의해 결정된 고조파 주파수를 이용하여, 합성기(200)로 전송된 오프셋을 결정한다. 피치 주파수가 부정확할 경우에, 상기 각 오프셋은 너무 많은 비트를 필요로 하는 큰 수이기 때문에 합성기(200)로 전송시킬 수 없다. 0 고조파 오프셋 주변의 고조파 오프셋을 분배함으로써, 고조파 오프셋을 합성기(200)로 통신 시키는 데에 요구된 비트수는 최소수로 유지된다.
피치 조정기 블럭(107)은 아래 방식으로 수행한다. 기본 주파수에 대응하는 FFT 스펙트럼 등급 블럭(105)에 의해 계산된 스펙트럼내의 피크가 전술된 이유로 확실치 않으므로, 피치 조정기(107)는 먼저 아래와 같이 될 초기 피치값을 설정함으로써 스펙트럼을 검사한다.
th1=2P0……………………………………(7)
여기서, P0은 피치검출기(109)에 의해 결정된 기본 주파수이고, th1은 이론적인 제2고조파이다. th1에 의해 결정된 스펙트럼내의 상기 포인트 주변의 검사는 아래와 같이 한정된 주파수 f의 영역내에 있다.
Figure kpo00009
≤f≤
Figure kpo00012
…………………………(8)
상기 영역내에서, 피치 조정기(107)는 이론 고조파 주파수의 각 측면상의 스펙트럼상의 기울기를 계산하여, 제1스펙트럼 피크가 검사영액내에 위치될 때가지 증가한 기울기의 방향내에서 상기 영역을 검사한다. 상기 피크가 발생하는 주파수 PK1는 그때 프레임 구간에서의 피치값을 조정한다. 이 포인트에서, 신규 피치값 P1은 아래와 같이 된다.
Figure kpo00013
상기 신규 피치값 P1은 그때 제3고조파의 이론 주파수 th2=3P1를 계산한다. 이런 검사 절차은 각 이론 고조파 주파수, th1=3600hz로 반복된다. 3600hz 이상의 주파수에서는 저역 통과 필터링으로 스팩트럼이 불투명하게 된다. 검사 절차가 검사영역내에서 스펙트럼 피크를 위치시킬 수 없을 경우, 조정되지 않고, 앞서 조정된 피크값을 이용한 다음 피크를 위해 검사가 계속된다. 각 피크는 i가 제i고조파 또는 고조주파를 표시하는 PK1로 명시된다. 제1피크값 P1의 식은 아래와 같다.
Figure kpo00014
제i피치값에 대한 검사영역은 아래와 같이 한정된다.
(i+1/2)Pi-1≤f≤(i+3/2)Pi-1, i>0 ………………………………………………(11)
피치 조정기(107)가 피치값을 결정한 후에, 경로(133)를 통한 고조파 로케이터(106) 및 합성기(200)로 연속 전송하기 위한 파라미터 엔코더(113)로 전송된다. 후자 로케이터는 식(6)으로 한정된 스펙트럼에 응답하여, 아래와 같이 한정된 스팩트럼내에서 검사할 개시점으로서, 최종 조정된 피치값 PF을 이용하여 스팩트럼내의 고조파 피크를 정확히 결정한다.
(i+1/2)PF≤f≤(i+3/2)PF,1≤i≤h ……………………………(12)
여기서 h는 현재 프레임내의 고조파 주파수의 수이다. 이런 식으로 위치된 각 피크는 i가 제i고조파 또는 고조파수를 표시하는 PK1로 명시된다. 고조파 계산기(108)는 PK1값에 응답하여, 이로 고조파 주파수 tS1로부터 고조파 오프셋을 계산하며, 상기 오프셋은 hO1로 명시되며, 아래와 같이 한정된다.
Figure kpo00021
여기서, fr는 계산된 스펙트럼 S의 크기에 의한 연속 스펙트럼 데이타 포인트 사이의 주파수이다. 고조파 계산기(108)는 그때 분해기(200)로 연속 전송하기 위한 파라미터 엔코더(113)로 경로(137)를 통해 상기 오프셋을 전송한다.
제2도에 도시된 바와같이, 합성기(200)는 채널(139)을 통해 수신된 여자 정보 또는 사인파 정보와 성대 모델 파라미터에 응답하여, 제1도의 분해기(100)에 의해 엔코드된 주 아나로그 언어의 폐쇄 모사를 발생시킨다. 합성기(200)는 아래의 식으로 역할을 이행한다. 프레임이 음성화될 경우, 블럭(212),(213) 및 (214)은 식(1)에 따라 주언어 신호를 재생시키도록 사인파를 합성시키며, 이때 상기 재건된 음성 정보는 선택기(206)를 통해 디지탈-아나로그 변환기(208)로 전달되며, 상기 변환기(208)는 수신된 디지탈 정보를 아나로그 신호로 변환시킨다.
제3도에 도시된 바와같이, 음성 정보 패킷을 수신함과 동시에. 채널 디코더(201)는 피치 및 고조파 주파수 오프셋 정보를 제각기 경로(221 및 222)를 통한 고조파 주파수 계산기(212)로 전송하고, 언어 프레임 에너지 eo 및 LPC 계수를 제각기 경로(220 및 216)를 통한 고조파 진폭 계산기(213)로 전송하며, 그리고 음성/비음성 V/U 신호를 고조파 주파수 계산기(212) 및 선택기(206)로 전송한다. V/U 신호 "1"는 프레임이 음성화됨을 표시한다. 고조파 주파수 계산기(212)는 V/U 신호 "1"에 응답하여, 제각기 경로(221 및 222)를 통해 수신된 조정 피치 및 고조파 주파수 오프셋 정보에 응답하는 고조파 주파수를 계산한다. 후자 계산기는 그때 고조파 주파수 정보를 블럭(213 및 214)으로 전송시킨다.
고조파 진폭 계산기(213)는 계산기(212)로 부터의 고조파 주파수 정보, 경로(220)를 통해 수신된 프레임 에너지 정보 및 경로(216)를 통해 수신된 LPC 계수에 응답하여, 고조파 주파수의 진폭을 계산한다. 사인파 발생기(214)는 고조파 위상 정보를 결정하도록 경로(223)를 통해 계산기(212)로부터 수신된 주파수 정보에 응답하여, 상기 위상 정보와, 식(1)로 계산할 계산기(213)로부터 경로(224)를 통해 수신된 진폭정보를 이용한다.
채널 디코더(201)가 제4도에 도시된 바와 같은 노이즈 여자 패킷을 수신할 경우, 채널 디코더(201)는 경로(227)를 통해 선택기(205)가 화이트 노이즈 발생기(203)의 출력을 선택시키는 신호와, 경로(215)를 통해 선택기(206)가 합성 필터(207)의 출력을 선택시키는 신호를 전송한다. 게다가, 채널 디코더(201)는 경로(211)를 통해 화이트 노이즈 발생기(203)로 이득을 전송한다. 합성 필터(207)는 경로 (216)를 통해 채널 디코더(201)로부터 수신된 LPC 계수와, 선택기(205)를 통해 수신된 화이트 노이즈 발생기(203)의 출력에 응답하여, 언어의 디지탈 샘플을 발생시킨다.
채널 디코더(201)가 제5도에 도시된 바와 같이 채널(139)로부터 펄스 여자 패킷을 수신할 경우, 후자 디코더는 가장 큰 펄스의 진폭에 대한 펄스의 상대적 진폭과 위치를 경로(210)를 통한 펄스 발생기(204)와 경로(230)를 통한 펄스의 진폭으로 전송시킨다. 게다가, 채널 디코더(201)는 펄스 발생기(204)의 출력을 선택하여, 상기 출력을 합성 필터(207)로 전송하도록 경로(227)를 통해 선택기(205)를 조절한다. 합성 필터(207) 및 디지탈-아나로그 변환기(208)는 그때 경로(215)를 통해 디코더(201)에 의해 조절된 선택기(206)을 통해 언어를 재생시킨다. 변환기(208)는 변환기의 출력에서 자체 함유 저역 통과 필터를 가진다
음성 프레임의 사인파를 합성시키는 블럭(212), (213) 및 (214)의 동작을 더욱 상세히 설명하기로 한다. 고조파 주파수 계산기(212)는 경로(221)를 통해 수신된 조정 피치 PF에 응답하여, 경로(222)를 통해 수신된 고조파 오프셋을 이용함으로써 고조파 주파수를 결정한다. 이론 고조파 주파수 tS1는 조정된 피치에 의해 증배된 고조파의 종도로서 한정된다. 각 고조파 주파수 hf1는 적당한 고조파 오프셋에 의해 보상된 후에 스펙트럼 포인트상에 떨어지도록 조정된다. 아래 식은 각 고조파에 대한 제i 고조파 주파수를 한정한다.
hf1=tS1+hO1fr, 1≤i≤h ………………………………(14)
여기서 fr은 스팩트럼 주파수 해상도이다.
식(14)은 각 고조파 주파수에 대한 1 값을 발생시킨다. 상기 값은 합성되는 언어의 중앙에 대응한다. 프레임내의 각 언어 샘플에 대한 샘플당 잔여 주파수는 인접한 음성 프레임 주파수나 인접한 비음성 프레임에 대한 예정된 경계 조건 사이에서 선형적으로 보간함으로써 성취된다. 이런 보간은 사인파 발생기(214)내에서 수행되며, 연속적인 단락에서 기술된다.
고조파 진폭 계산기(213)는 계산기(212)에 의해 계산된 주파수, 경로(216)를 통해 수신된 LPC 계수 및 경로(220)를 통해 수신된 프레임 에너지에 응답하여, 기본 및 고조파 진폭을 계산한다. 각 음성 프레임에 대한 LPC 반사 계수는 각 프레임시에 성대를 표시하는 음향관 모델을 한정한다. 상대적 고조파 진폭은 상기 정보로부터 결정될 수 있다.
그러나, LPC 계수가 성대 구조를 모델링하므로, 상기 각 고조파 주파수에서의 에너지량에 대한 충분한 정보를 포함하지 않는다. 상기 정보는 경로(220)를 통해 수신된 프레임 에너지를 이용함으로써 결정된다. 각 프레임 동안에, 계산기(213)는 고조파 주파수를 계산하는 바와 같이 프레임의 중앙에 위치되는 고조파 진폭을 계산한다. 선형 보간은 인접한 음성 프레임으로 부터의 진폭 정보나 인접한 비음성 프레임에 대한 예정된 경계 조건을 이용함으로써 프레임 전체를 통한 잔여 진폭을 결정한다.
상기 진폭은 성대가 모든 극 필터 모델을 이용하여 기술됨을 인식함으로써 조사될 수 있다
Figure kpo00024
Figure kpo00025
여기서, 계수 a0=1이다. 모든 극 필터를 기술한 계수 am, 1≤m≤m10는 제이. 디. 마켈과 에이. 에이취. 그레이 2세에 의한 1976년 뉴욕, 스프링저-버래그에서 "언어 선형 예측"에 기술된 순환 단계 절차를 이용함으로써 경로(216)를 통해 수신된 반사 계수로부터 성취될 수 있다. 식(15 및 16)에서 기술된 필터는 아래 방식으로 각 프레임에 대한 고조파 성분의 진폭을 계산한다. 계산될 고조파 진폭을 ha1, 0≤i≤h라 하자. 여기서, h는 현재 프레임내의 고조파의 최대수이다. 스케일되지 않은 고조파 기여치, he1, 0
Figure kpo00030
i
Figure kpo00031
h는 각 고조파 주파수, hf1동안에 성취될 수 있다.
Figure kpo00032
여기서 Sr은 샘플링율이다. 모든 고조파의 스케일되지 않은 총 에너지는 아래에 의해 성취된다.
Figure kpo00033
식(19)인 경우, 160포인트의 프레임 크기에 대하여, 스케일된 제i고조파 진폭 ha1은 아래와 같이 계산될 수 있다.
Figure kpo00034
여기서, e0는 식(2)으로 한정되고, 분해기(100)에 의해 계산되는 전송된 언어 프레임 에너지이다.
사인파 발생기(214)가 식(1)과 같이 계산할 계산기(212 및 213)로부터 수신된 정보를 이용하는 방법을 설명하기로 한다. 소정의 프레임에 대하여, 계산기(212 및 213)는 상기 프레임내의 각 고조파의 단일 주파수 및 진폭을 발생기(214)로 제공한다. 발생기(214)는 주파수 정보를 위상정보로 변환하여, 프레임 전체를 통한 각 샘플점에 대한 주파수 및 진폭을 갖도록 주파수 및 진폭 양자에 대한 선형 보간을 수행한다.
선형 보간은 아래 방식으로 수행된다. 제6도는 5언어 프레임과, 제o고조파인 기본 주파수로 수행되는 선형 보간을 도시한 것이다. 다른 고조파 주파수에 대해서도 유사하게 표시된다. 일반적으로, 음성 프레임동안에 3개의 경계 조건이 있다. 첫째로,음성 프레임은 선행 비음성 프레임과 연속 음성 프레임을 가지며, 둘째로, 음성 프레임은 다른 음성 프레임으로 둘러싸이며, 셋째로, 음성 프레임은 선행 음성 프레임과 연속 비음성 프레임을 가질 수 있다. 제6도에 도시된 바와같이, 프레임 C, 포인트(601 내지 603)은 제1조건을 나타내고, 주파수
Figure kpo00035
는 포인트(601)로 한정되는 프레임의 개시로 일정하게 된다. 어깨숫자 C는 프레임 C이라 부른다. 프레임 C후에 포인트(603 내지 605)로 한정된 프레임 b은 두번째 경우이며, 선형 보간은 제각기 포인트(602 및 604)에서 발생하는 주파수
Figure kpo00036
를 이용한 포인트(602 및 604)사이에서 수행된다. 제3조건은 포인트(605 내지 607)로부터 신장한 프레임으로 표시되고, 프레임 후행 프레임 a은 포인트(607 내지 608)로 한정된 비음성 프레임이다. 이런 상황에서,
Figure kpo00037
주파수는 포인트(607)까지 일정하다.
제7도는 진폭 보간을 설명한 것이다. 프레임(702 내지 704)와, 프레임 (704 내지 706)로 한정된 바와같은 연속 음성 프레임에 대해, 주파수에 대해 수행되는 보간은 동일하다. 그러나, 이전의 프레임이 프레임(701 내지 703)에 대한 프레임(700 내지 701)의 관계와 같이 음성화되지 않을시에, 프레임 개시에서의 고조파는 프레임(701)에서 설명된 바와같이 0진폭을 갖는다. 마찬가지로, 음성 프레임이 프레임(705 내지 707)과 프레임(707 및 708)에서 설명된 바와같이 비음성 프레임에 대해 선행할 경우, 종단 프레임(707)에서의 고조파는 0진폭을 가져, 선형 보간이 수행된다.
발생기(214)는 아래 식을 이용하여 전술된 보간을 수행한다. On, i가 제i고조파의 샘플당 위상인 제n샘플의 샘플당 위상은 아래와 같다.
Figure kpo00038
여기서, Sr은 출력 샘플율이다. 위상을 풀이하기 위해서는, 샘플당 주파수 Wn,i를 알 필요가 있으며, 상기 샘플당 주파수는 보간함으로써 알 수 있다.
제6도의 프레임 b과 같은 인접한 음성 프레임에 따른 음성 프레임에 대한 주파수의 선형 보간은 아래와 같이 한정된다.
Figure kpo00039
여기서, hmin은 어느 한 인접한 프레임내의 고조파의 최소치이다. 비음성 프레임으로부터 프레임 C과 같은 음성 프레임으로의 전이는 아래식에 의해 샘플당 고조파 주파수를 결정함으로써 조정된다.
Figure kpo00040
음성프레임으로부터 프레임 a과 같은 비음성 프레임으로의 전이는 아래식에 의해 샘플당 고조파 주파수를 결정함으로써 조정된다.
Figure kpo00041
hmin이 둘중 어느 한 인접한 프레임내의 고조파의 최소치를 나타낼 경우, 프레임 b이 프레임 C보다 큰 고조파를 갖는 경우에 대해, 식(23)은 hmin보다 큰 고조파에 대한 샘플당 고조파 주파수를 계산하는데에 이용된다. 프레임 b이 프레임 a보다 큰 고조파일 경우, 식(24)은 hmin보다 큰 고조파에 대한 샘플당 고조파 주파수를 계산한다.
샘플당 고조파 진폭 An,i은 유사한 방식으로 ha1로부터 결정될 수 있으며, 아래식에 의해 음성 프레임 동안에 한정된다.
Figure kpo00042
프레임이 프레임 C의 개시에서와 같은 음성 영역의 시작일 시에, 샘플당 고조파 진폭은 아래에 의해 결정된다.
Figure kpo00043
여기서, h는 프레임 C내의 고조파수이다. 프레임이 프레임 a과 같은 음성 영역의 종단일 시에, 샘플당 진폭은 아래에 의해 결정된다.
Figure kpo00044
여기서, h는 프레임 a 내의 고조파수이다. 프레임 b과 같은 프레임이 프레임 C과 같은 선행 음성 프레임보다 큰 고조파를 가질 경우에, 식(27 및 28)은 hmin보다 큰 고조파에 대한 고조파 진폭을 계산하는 데에 이용된다. 프레임 b이 프레임 a보다 큰 고조파를 가질 경우, 식(29)은 hmin보다 큰 고조파에 대한 고조파 진폭을 계산하는 데에 이용된다.
에너지 계산기(103)는 제9도의 블럭(901 내지 904)을 수행하는 제8도의 프로세서(803)에 의해 구현된다. 블럭(901)은 잇점으로 프레임당 샘플수를 160으로 세트한다. 블럭(902 및 903)은 그때 각 디지탈 샘플 Sa의 제곱을 합산한다. 합산이 이루어진 후에, 블럭(904)은 주 언어 프레임 에너지 e0을 산출하는 상기 합산의 제곱근을 취한다. 후자 에너지는 그때 파라미터 엔코더(113)와 블럭(1001)으로 전송된다.
제1도의 해밍 윈도우 블럭(104)은 제9도의 블럭(1001 및 1002)을 수행하는 프로세서(803)에 의해 구현된다. 상기 후자 블럭은 공지된 해밍 윈도우 동작을 수행한다.
FFT 스팩트럼 등급 블럭(105)은 제9 및 10도의 블럭(1003 내지 1023)을 수행함으로써 구현된다. 블럭(1003 내지 1005)은 식(4)에 한정된 바와같이 패딩 동작을 수행한다. 상기 패딩 동작은 잇점으로 실수부 및 허수부 양자에 대한 1024 데이타 포인트를 포함하는 배열내에서 0을 가진 포인트 C의 실수부 Rc와 허수부 Ic를 패드시킨다. 블럭(1006 내지 1013)은 본 기술에 공지된 데이타 정렬 동작을 수행한다. 후자 동작은 통상적으로 비트 역 동작으로 이루어지는데, 왜냐하면, FFT 분해가 정확한 주파수 영역 등급내에서 발생되는 방식으로 데이타 포인트 등급을 재배치하기 때문이다.
제9 및 10도의 블럭(1014 내지 1021)은 식(5)에 의해 한정된 바와같은 불연속 푸리에 변환을 계산할 고속푸리에 변환 구현을 설명한 것이다. 고속 푸리에 분해가 후자 블럭에 의해 수행된 후에, 블럭(1022 및 1023)은 식(6)에 의해 한정된 바와같이 합성 스펙트럼 등급 데이타를 제공하도록 필요한 제곱근 동작을 수행한다.
피치 조정기(107)는 제10,11 및 12도의 블럭(1101 내지 1132)에 의해 구현된다. 제10도의 블럭(1101)은 피치 조정 동작 수행에 요구된 각종 변수를 개시시킨다. 블럭(1102)은 각 고조파 피크를 조사함으로써 피치 조정에서 수행될 반복수를 결정한다. 이론 주파수 th가 최대 허용 가능한 주파수 mxf를 초과할 경우에, 블럭(1102)에 의해 제어된 "포 루프"(for loop)는 결정 블럭(1104)에 의해 종단된다. 이론 주파수는 블럭(1103)에 의해 제각기 반복을 위해 세트된다. 식(10)은 피치 조정에 이용되는 절차를 결정하고, 식(11)은 각 피크에 대한 검사 영역을 결정한다. 블럭(1108)은 인덱스 m를 스펙트럼 등급 데이타 Sm내로 결정하는 데에 이용되며, 상기 데이타는 검사가 시작되는 개시 데이타 포인트를 결정한다. 블럭(1108)은 또한 상부 기울기 US 및 하부 기울기 IS라 칭하는 상기 데이타 포인트 주변의 기울기를 계산한다. 상부 및 하부 기울기는 지정된 데이타 포인트 주변의 스펙트럼 등급 데이타의 기울기에 관한 5개중의 하나의 서로 다른 조건을 결정하는 데에 이용된다. 조건은 로컬 피크, 정 기울기, 부 기울기, 로컬 최소치, 또는 스팩트럼의 플랫부이다. 이런 조건은 제10 및 11도의 블럭(1111),(1114),(1109) 및 (1110)내에서 테스트된다. 기울기가 블럭(1110) 및 (1109)에 의해 곡선의 플랫부 또는 최소치에서 검출될 시에, 블럭(1107)은 결정된 최종 피치값과 같은 조정된 피치 주파수 P1를 세트하며, 제11도의 블럭(1107)이 수행된다 곡선의 최소 또는 플랫부가 발결되지 않을 경우, 결정 블럭(1111)이 수행된다. 피크가 결정 블럭(1111)에 의해 결정될 경우, 피크에서의 데이타 샘플의 주파수는 블럭(1112)에 의해 결정된다.
지정된 포인트 주변의 스팩트럼 등급 데이타의 기울기가 피크, 정 기울기 또는 부 기울기에서 검출될 경우, 피치는 블럭(1128 내지 1132)에 의해 조정된다. 이런 조정은 식(10)에 따라 수행된다. 블럭(1128)은 피크 위치를 플래그를 세트시켜, 제각기 식(10)의 분자 및 분모를 표시하는 변수 mm 및 dm를 개시시킨다. 블럭(1129 내지 1132)은 그때 식(10)의 계산을 보충한다. 결정 블럭(1130)은 특성 고조파에 위치된 피크가 있는 여부를 결정한다. 피크가 위치되지 않을 경우, 루프는 간단히 계속되고, 블럭(1131)에 의해 지정된 계산은 수행되지 않는다. 모든 피크가 처리된 후에, 블럭(1132)은 수행되어, 현재 위치된 피크 동안에 조정된 피치를 나타내는 조정된 피치를 발생시킨다.
스펙트럼 데이타 포인트의 기울기가 정 또는 부로 검출될 경우, 제11도의 블럭(1113 내지 1127)이 수행된다. 초기에, 블럭(1113)은 개시 샘플 포인트 psf에 대한 주파수 값을 계산하며, 상기 포인트는 블럭(1119 및 1123)과 블럭(1122 및 1124)에 의해 이용되어, 식(11)에 의해 지정된 포인트 이상으로 검사되지 않게 한다. 기울기가 정 또는 부인 여부의 결정은 결정 블럭(1114)에 의해 이루어진다.스펙트럼 데이타 포인트가 부 기울기상에 있을 경우, 블럭(1115 내지 1125)은 수행된다. 이런 블럭의 목적은 피크가 발결되거나 블럭(1119 및 1123)에 의해 지정되는 검사 영역의 단부가 초과될 때까지 스펙트럼 데이타 포인트를 통해 검사한다. 결정 블럭(1125)은 피크가 검사 영역내에서 발견되는 여부를 결정하도록 이용된다. 정 기울기가 블럭(1114)에 의해 결정될 경우, 블럭(1116 내지 1126)은 실행되어, 부 기울기 경우에 대하여 블럭(1115 내지 1125)에 의해 수행된 기능과 유사한 기능을 갖는다. 블럭(1113 내지 1126)이 실행한 후에, 블럭(1127 내지 1132)은 전술된 바와같은 식으로 실행된다. 스펙트럼 내의 모든 피크가 테스트된 후에, 최종 피치값은 식(10)에 따라 제12도의 블럭(1106)에 의해 누산된 조정 피치값과 동일하다.
고조파 로케이터(106)는 제12 및 13도의 블럭(1201 내지 1222)에 의해 구현된다. 블럭(1201)은 고조파 주파수를 위치시키는 데에 필요한 초기 조건을 설정한다. 블럭(1202)은 블럭(1203 내지 1222)의 실행을 제어함으로써, 변수 harm로 지정된 바와같이 모든 피크는 위치된다. 각 고조파에 대하여, 블럭(1203)은 이론 고조파 스펙트럼 데이터 포인트, 상부 기울 및 하부 기울기를 결정하는 데에 이용될 인덱스를 결정한다 기울기가 결정 블럭(1204 내지 1206)에 의해 제각기 결정되는 바와같이 최소 플랫 영역 또는 피크를 표시할 경우, 0과 같은 고조파 오프셋을세트시키는 블럭(1222)이 실행된다. 기울기가 정 또는 부일 경우, 블럭(1207 내지 1221)은 실행된다. 블럭(1207 내지 1220)은 전술된 블럭(1113 내지 1126)의 동작으로 수행된 기능과 유사한 기능을 수행한다. 일단, 블럭(1208 내지 1220)이 수행되면, 고조파 오프셋 hog은 블럭(1221)에 의해 인덱스 수 r와 동일하게 세트된다.
제14 내지 19도는 제2도의 합성기(200)를 구현하는 프로세서(803)에 의해 실행된 단계를 상세히 도시한 것이다. 제2도의 고조파 주파수 계산기(212)는 제14도의 블럭(1301),(1302) 및 (1303)에 의해 구현된다. 블럭(1301)은 이런 동작에서 이용될 파라미터를 개시시킨다. 제i프레임의 기본 주파수
Figure kpo00045
는 전송된 피치 PF와 동일하게 세트된다. 이런 초기치를 이용하여, 블럭(1303)은 고조파수의 피치배를 증배시킴으로써 고조파의 이론 주파수를 먼저 계산함으로써 각 고조파 주파수를 계산한다. 그때 이론 고조파의 인덱스는 주파수가 스펙트럼 데이타 포인트 상에 떨어지도록 성취되어, 전송된 고조파 오프셋 hot에 가산된다. 스펙트럼 데이타 포인트 인덱스가 결정될 경우, 인덱스는 주파수해상도 fr의 몇배로 증배되어, 제i프레임 고조파 주파수
Figure kpo00046
를 결정한다. 이런 절차는 모든 고조파가 계산될 때까지 블럭(1302)에 의해 반복된다.
고조파 진복 계산기(213)는 제14 및 15도의 블럭(1401 내지1417)을 실행시키는 제8도의 프로세서(803)에 의해 구현된다. 블럭(1401 내지 1407)은 단계 절차를구현하여, LPC 반사계수를 식(16)의 성대의 모든 극 필터 기술에 이용된 계수로 변환한다. 블럭(1408 내지 1412)은 식(17)에서 한정된 바와같이 각 고조파에 대한 스케일되지 않은 고조파 에너지를 계산한다. 블럭(1413 내지 1415)은 식(18)에 의해 한정된 바와같이 스케일되지 않은 총 에너지 E를 계산하는 데에 이용된다. 블럭(1416 및 1417)은 식(20)에 의해 한정되는 스케일된 제i프레임 고조파 진폭을 계산한다.
제15 내지 18도의 블럭(1501 내지 1521) 및 블럭(1601 내지 1614)은 제6 및 7도에 도시된 바와같이 각 고조파에 대한 주파수 및 진폭 보간을 이행하는 프로세서(803)에 의해 수행되는 동작을 설명한 것이다. 이런 동작은 블럭(1501 내지 1521)에 의해 처리되는 프레임의 제1부와, 블럭(1601 내지 1614)에 의해 처리되는 프레임의 제2부에 의해 수행된다. 제6도에 도시된 바와같이, 프레임 C의 제1절반부는 포인트(601)로부터 포인트(602)로 연장하고, 프레임 C의 제2절반부는 포인트(602)로부터 프레임(603)로 연장한다. 상기 블럭에 의해 수행된 동작은 먼저 이전의 프레임이 음성화 또는 비음성화되는 여부를 결정한다.
특히, 제15도의 블럭(1501)은 초기치를 설정한다. 결정블럭(1502)은 이전의 프레임이 음성화 또는 비음화되는 여부를 결정한다. 이전의 프레임이 비음성화된 경우, 결정블럭(1504 내지 1510)은 수행된다. 제17도의 블럭(1504 및 1507)은 프레임의 초기에서의 각 고조파에 대한 고조파 주파수 및 진폭의 제1데이타 포인트를 위상에 대한
Figure kpo00047
와 진폭에 대한
Figure kpo00048
로 개시시킨다. 이것은 제6 및 7도에 설명된 바와 동일하다. 프레임의 제1데이타 포인트에 대한 초기치가 설정된 후에, 이전의 비음성 프레임에 대한 잔여값은 블럭(1508 내지 1510)의 실행으로 세트된다. 고조파 주파수의 경우에 대하여, 주파수는 제6도에 도시된 바와같은 중심 주파수와 동일하게 세트된다. 고조파 진폭의 경우에 대하여, 각 데이타 포인트는 제7도의 프레임 C구간에 도시된 바와같이 프레임의 초기에서의 0으로부터 중간적 진폭으로 개시시키는 선형 근사값과 동일하게 세트된다.
이전의 블럭이 음성화되는 블럭(1502)에 의해 결정될 경우, 제16도의 결정블럭(1503)은 실행된다.결정블럭(1503)은 이전의 프레임이 현재 프레임보다 더 많거나 적은 고조파를 갖는 여부를 결정한다. 고조파수는 변수 Sh에 의해 표시된다. 가장 많은 고조파를 프레임은 블럭(1505 또는 1506)이 수행되는 여부를 결정함에 달려 있다. 변수 hmin는 어느 한 프레임의 고조파의 가장 적은 수와 동일하게 세트된다. 어느 한 블럭(1505 또는 1506)이 실행된 후에, 블럭(1511 및 1512)은 실행된다. 후자 블럭은 주파수 및 진폭 양자에 대한 이전의 프레임의 최종 포인트를 계산함으로써 현재 프레임의 초기 포인트를 결정한다. 이런 동작이 모든 고조파 동안에 수행된 후에, 블럭(1513 내지 1515)은 식(22 및 26)에 의해 제각기 한정된 바와같은 모든 고조파의 주파수 및 진폭 양자에 대한 각각의 샘플당 값을 계산한다.
변수 hmin에 의해 한정된 바와같은 모든 고조파가 계산된 샘플당 주파수 및 진폭을 가진 후에, 블럭(1516 내지 1521)은 현재 프레임이 이전 프레임 보다 더 많은 고조파를 갖는 사실을 설명하도록 계산된다. 현재 프레임이 이전의 프레임보다 더 많은 고조파를 가질 경우, 결정블럭(1516)은 블럭(1517)로 제어한다. 이전의 프레임보다 현재 프레임내에 고조파가 더 많은 곳에서, 블럭(1517 내지 1521)은 수행되어, 그의 동작은 전술된 바와같이 블럭(1504 내지 1510)과 동일하다.
프레임의 제2절반부에 대한 진폭 및 주파수에 대한 각 고조파의 샘플당 포인트의 계산법은 블럭(1601 내지 1614)에 의해 설명된다. 다음 프레임이 음성화 또는 비음성화 되는 여부를 블럭 (1601)에서 결정된다. 다음 프레임이 비음성화될 경우, 블럭(1603 내지 1607)은 실행된다. 제1포인트가 주파수 및 진폭 양자에 대한 프레임의 중간 포인트이므로, 블럭(1504 및 1507)에 의해 수행된 바와같이 초기치를 결정할 필요가 없다. 블럭(1603 내지 1607)은 블럭(1504 및 1510)에 의해 수행된 기능과 유사한 기능을 수행한다. 다음 프레임이 음성 프레임일 경우, 결정블럭(1602) 및 블럭(1604 및 1605)은 실행된다. 상기 블럭의 실행방법은 전술된 블럭(1503),(1505) 및 (1506)과 유사하다. 블럭(1608 내지 1611)은 전술된 바와같이 블럭(1513 내지 1516)의 동작과 유사하다. 블럭(1612 내지 1614)은 전술된 바와같이 블럭(1519 내지 1521)의 동작과 유사하다.
발생기(214)에 의해 수행된 최종 동작은 전술된 바와같이 각 고조파에 대해 계산된 샘플당 주파수 및 진폭을 이용한 언어의 실제사인파로 구성된다. 제19도의 블럭(1701 내지 1707)은 주파수로부터 고조파 위상을 계산하여, 식(1)에 의해 계산되도록 전술된 바와같이 계산된 주파수 정보를 이용한다. 블럭(1702 및 1703)은 프레임 개시에 대한 초기 어어 샘플을 결정한다. 상기 초기 포인트가 결정된 후에, 프레임에 대한 잔여 언어 샘플이 블럭(1704 내지 1707)에 의해 계산된다. 상기 블럭으로 부터의 출력은 그때 디지탈-아나로그 변환기(208)로 전송된다.

Claims (11)

  1. 동시 언어 진폭의 일정한 공간 샘플의 예정된 수를 가진 각각의 다수 언어 프레임내로 언어를 분할하기 위한 세그멘터(102), 각 프레임에 대한 성대를 한정하는 언어 파리머터 신호의 세트를 계산하기 위한 계산기(111), 언어샘플의 프레임당 프레임 에너지를 계산하기 위한 에너지 계산기(103) 및, 각 프레임에 대한 스펙트럼을 발생시키도록 각 프레임의 상기 언어 샘플의 스펙트럼 분해를 수행하기 위한 분해기(104,105)를 구비하는 사람 언어 엔코더 처리 시스템에 있어서, 각 프레임에 대응하는 스펙트럼으로부터 각 프레임에 대한 기본 주파수 신호를 검출하기 위한 피치 검출기(109,107), 각 프레임에 대응하는 스펙트럼으로부터 각 프레임에 대한 고조파 주파수 신호를 결정하기 위한 고조파 로케이터(106), 각 상기 고조파 주파수 신호와, 각 프레임에 대한 정수배의 상기 기본 주파수 신호의 차를 나타내는 오프셋 신호를 결정하기 위한 고조파 계산기(108) 및, 상기 프레임 에너지, 상기 언어 파라미터 세트, 상기 기본 주파수 및 연속 언어 합성에 대한 상기 오프셋 신호의 엔코드된 표시부를 전송하기 위한 전송기(113,114)를 구비하는것을 특징으로 하는 언어 엔코딩 처리 시스템.
  2. 제1항에 있어서, 상기 검출기는 고조파 주파수 신호가 상기 기본 및 고조파 주파수 신호를 표시하는 상기 샘플 내의 피크 분해로 조정된 기본 주파수 신호의 약 정수배로 균등하게 분배되도록 검출된 기분 주파수 신호를 조정하기 위한 피치 조정기(107)를 구비하는 것을 특징으로 하는 언어 엔코딩 처리 시스템.
  3. 제2항에 있어서, 상기 고조파 로케이터는 상기 각 고조파 주파수 신호에 대한 개시점으로서 상기 조정된 복합 기본 주파수 신호를 이용한 상기 고조파 주파수 신호를 결정하도록 상기 샘플을 검사하기 위한 수단(1201 내지 1222)을 구비하는 것을 특징으로 하는 언어 엔코딩 처리 시스템.
  4. 언어의 순간 진폭의 일정한 공간 샘플의 예정된 수를 가지며, 프레임 에너지, 언어 파리머터 세트, 언어의 기본 주파수 신호 및 기본 주파수 신호로부터 인출되는 이론 고조파 주파수와 실제고조파 주파수의 차를 나타내는 오프셋 신호에 의해 엔코드되는 각각의 다수 프레임내로 분할되는 음성을 합성하는 방법에 있어서, 상기 한 프레임의 기본 주파수 신호 및 오프셋 신호에 응답하여 상기 각 프레임 구간의 각 고조파 주파수에 대한 고조파 위상 신호를 계산하는 단계(212), 상기 한 프레임의 언어파라미터 세트 및 프레임 에너지에 응답하여 상기 고조파 위상신호의 진폭을 결정하는 단계(213) 및, 상기 한 프레임 구간의 상기 결정된 진폭과 상기 고조파 위상 신호에 응답하여 모사된 언어를 발생시키는 단계(214)로 이루어지는 것을 특징으로 하는 음성 합성방법.
  5. 제4항에 있어서, 상기 결정 단계는 상기 한 프레임 구간의 언어 파리미터 세트를 이용하는 상기 각 고조파 위상 신호의 스케일되지 않은 에너지를 계산하는 단계, 상기 한 프레임 구간의 상기 모든 고조파 위상신호에 대한 상기 스케일되지 않은 에너지를 합산하는 단계 및, 상기 한 프레임 구간의 상기 프레임 에너지, 합산되어 스케일되지 않은 에너지와 상기 각 고조파 위상신호의 상기 고조파 에너지에 응답하여 상기 고조파 위상신호의 고조파 진폭을 계산하는 단계를 포함하는 것을 특징으로 하는 음성 합성방법.
  6. 제4항에 있어서, 상기 각 고조파 위상신호는 다수의 샘플로 이루어지고, 상기 계산단계는, 상기 각 고조파 위상신호에 대한 고조파 주파수 신호를 수신하도록 정수배의 상기 기본 주파수 신호에 상기 각 오프셋 신호를 가산하는 단계 및, 상기 한 프레임 구간의 고조파 주파수 신호 및, 상기 각 고조파 위상신호에 대한 이전의 연속 프레임 구간의 대응 고조파 주파수 신호에 응답하여, 상기 이전의 연속 프레임이 음성 프레임과 동시에 상기 한 프레임 구간의 상기 각 고조파 위상신호에 대한 상기 다수의 고조파 샘플을 입수하도록 보간하는 단계를 포함하는 것을 특징으로 하는 음성 합성방법.
  7. 제6항에 있어서,상기 보간 단계는 선형으로 보간되는 것을 특징으로 하는 음성 합성방법.
  8. 제7항에 있어서,상기 각 고조파 위상신호에 대한 상기 한 프레임 구간의 상기 고조파 주파수 신호는 상기 한 프레임의 중앙에 위치되는 것을 특징으로 하는 음성 합성방법.
  9. 제5항에 있어서, 상기 고조파 위상신호의 상기 각 진폭은 다수의 진폭 샘플로 이루어지고, 상기 계산단계는, 상기 한프레임 구간의 계산된 고조파 진폭과 상기 각 고조파 위상신호에 대한 이전의 연속 프레임 구간의 계산된 고조파 진폭 샘플에 응답하여, 상기 이전의 연속 프레임이 음성 프레임과 동시에 상기 한 프레임 구간의 상기 각 고조파 위상신호에 대한 상기 다수의 진폭 샘플을 입수하도록 보간하는 단계를 포함하는 것을 특징으로 하는 음성 합성방법.
  10. 제9항에 있어서,상기 보간단계는 선형으로 보간되는 것을 특징으로 하는 음성 합성방법.
  11. 제10항에 있어서,상기 각 고조파 위상신호에 대한 상기 한 프레임 구간의 상기 계산된 고조파 진폭은 상기 한 프레임의 중심부에 위치되는 것을 특징으로 하는 음성 합성방법.
KR1019870009956A 1986-09-11 1987-09-09 언어 엔코딩 처리 시스템 및 음성 합성방법 KR960002388B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US906523 1986-09-11
US06/906,523 US4797926A (en) 1986-09-11 1986-09-11 Digital speech vocoder

Publications (2)

Publication Number Publication Date
KR880004426A KR880004426A (ko) 1988-06-07
KR960002388B1 true KR960002388B1 (ko) 1996-02-16

Family

ID=25422593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019870009956A KR960002388B1 (ko) 1986-09-11 1987-09-09 언어 엔코딩 처리 시스템 및 음성 합성방법

Country Status (8)

Country Link
US (1) US4797926A (ko)
EP (1) EP0260053B1 (ko)
JP (1) JPH0833754B2 (ko)
KR (1) KR960002388B1 (ko)
AT (1) ATE103728T1 (ko)
AU (1) AU580218B2 (ko)
CA (1) CA1307345C (ko)
DE (1) DE3789476T2 (ko)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5202953A (en) * 1987-04-08 1993-04-13 Nec Corporation Multi-pulse type coding system with correlation calculation by backward-filtering operation for multi-pulse searching
US4989250A (en) * 1988-02-19 1991-01-29 Sanyo Electric Co., Ltd. Speech synthesizing apparatus and method
US5003604A (en) * 1988-03-14 1991-03-26 Fujitsu Limited Voice coding apparatus
US5179626A (en) * 1988-04-08 1993-01-12 At&T Bell Laboratories Harmonic speech coding arrangement where a set of parameters for a continuous magnitude spectrum is determined by a speech analyzer and the parameters are used by a synthesizer to determine a spectrum which is used to determine senusoids for synthesis
US5023910A (en) * 1988-04-08 1991-06-11 At&T Bell Laboratories Vector quantization in a harmonic speech coding arrangement
US5359696A (en) * 1988-06-28 1994-10-25 Motorola Inc. Digital speech coder having improved sub-sample resolution long-term predictor
US5091946A (en) * 1988-12-23 1992-02-25 Nec Corporation Communication system capable of improving a speech quality by effectively calculating excitation multipulses
JP2903533B2 (ja) * 1989-03-22 1999-06-07 日本電気株式会社 音声符号化方式
JPH0782359B2 (ja) * 1989-04-21 1995-09-06 三菱電機株式会社 音声符号化装置、音声復号化装置及び音声符号化・復号化装置
CA2021514C (en) * 1989-09-01 1998-12-15 Yair Shoham Constrained-stochastic-excitation coding
NL8902463A (nl) * 1989-10-04 1991-05-01 Philips Nv Inrichting voor geluidsynthese.
CA2010830C (en) * 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
US5701392A (en) * 1990-02-23 1997-12-23 Universite De Sherbrooke Depth-first algebraic-codebook search for fast coding of speech
JP2689739B2 (ja) * 1990-03-01 1997-12-10 日本電気株式会社 秘話装置
US5226108A (en) * 1990-09-20 1993-07-06 Digital Voice Systems, Inc. Processing a speech signal with estimated pitch
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
US5293449A (en) * 1990-11-23 1994-03-08 Comsat Corporation Analysis-by-synthesis 2,4 kbps linear predictive speech codec
US5226084A (en) * 1990-12-05 1993-07-06 Digital Voice Systems, Inc. Methods for speech quantization and error correction
US5630011A (en) * 1990-12-05 1997-05-13 Digital Voice Systems, Inc. Quantization of harmonic amplitudes representing speech
US5450522A (en) * 1991-08-19 1995-09-12 U S West Advanced Technologies, Inc. Auditory model for parametrization of speech
US5189701A (en) * 1991-10-25 1993-02-23 Micom Communications Corp. Voice coder/decoder and methods of coding/decoding
US5351338A (en) * 1992-07-06 1994-09-27 Telefonaktiebolaget L M Ericsson Time variable spectral analysis based on interpolation for speech coding
US5517511A (en) * 1992-11-30 1996-05-14 Digital Voice Systems, Inc. Digital transmission of acoustic signals over a noisy communication channel
US5832436A (en) * 1992-12-11 1998-11-03 Industrial Technology Research Institute System architecture and method for linear interpolation implementation
US5448679A (en) * 1992-12-30 1995-09-05 International Business Machines Corporation Method and system for speech data compression and regeneration
US5479559A (en) * 1993-05-28 1995-12-26 Motorola, Inc. Excitation synchronous time encoding vocoder and method
CA2140779C (en) * 1993-05-31 2005-09-20 Kyoya Tsutsui Method, apparatus and recording medium for coding of separated tone and noise characteristics spectral components of an acoustic signal
RU2131169C1 (ru) * 1993-06-30 1999-05-27 Сони Корпорейшн Устройство кодирования сигнала, устройство декодирования сигнала, носитель записи и способ кодирования и декодирования
JP2906968B2 (ja) * 1993-12-10 1999-06-21 日本電気株式会社 マルチパルス符号化方法とその装置並びに分析器及び合成器
ES2224121T3 (es) * 1994-04-01 2005-03-01 Sony Corporation Metodo y dispositivo para codificar y descodificar informacion.
US5715365A (en) * 1994-04-04 1998-02-03 Digital Voice Systems, Inc. Estimation of excitation parameters
US5787387A (en) * 1994-07-11 1998-07-28 Voxware, Inc. Harmonic adaptive speech coding method and system
JP3528258B2 (ja) * 1994-08-23 2004-05-17 ソニー株式会社 符号化音声信号の復号化方法及び装置
AU696092B2 (en) * 1995-01-12 1998-09-03 Digital Voice Systems, Inc. Estimation of excitation parameters
US5754974A (en) * 1995-02-22 1998-05-19 Digital Voice Systems, Inc Spectral magnitude representation for multi-band excitation speech coders
US5701390A (en) * 1995-02-22 1997-12-23 Digital Voice Systems, Inc. Synthesis of MBE-based coded speech using regenerated phase information
JPH08254993A (ja) * 1995-03-16 1996-10-01 Toshiba Corp 音声合成装置
US5717819A (en) * 1995-04-28 1998-02-10 Motorola, Inc. Methods and apparatus for encoding/decoding speech signals at low bit rates
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
JP2861889B2 (ja) * 1995-10-18 1999-02-24 日本電気株式会社 音声パケット伝送システム
JP4005154B2 (ja) * 1995-10-26 2007-11-07 ソニー株式会社 音声復号化方法及び装置
JP3707116B2 (ja) 1995-10-26 2005-10-19 ソニー株式会社 音声復号化方法及び装置
JP2778567B2 (ja) * 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
US5794199A (en) * 1996-01-29 1998-08-11 Texas Instruments Incorporated Method and system for improved discontinuous speech transmission
JP3687181B2 (ja) * 1996-04-15 2005-08-24 ソニー株式会社 有声音/無声音判定方法及び装置、並びに音声符号化方法
US5778337A (en) * 1996-05-06 1998-07-07 Advanced Micro Devices, Inc. Dispersed impulse generator system and method for efficiently computing an excitation signal in a speech production model
JPH10149199A (ja) * 1996-11-19 1998-06-02 Sony Corp 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体
US6131084A (en) * 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
US6161089A (en) * 1997-03-14 2000-12-12 Digital Voice Systems, Inc. Multi-subframe quantization of spectral parameters
JP2001500284A (ja) * 1997-07-11 2001-01-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 改良した調波音声符号器を備えた送信機
CN1145925C (zh) * 1997-07-11 2004-04-14 皇家菲利浦电子有限公司 具有改进语音编码器和解码器的发射机
US6029133A (en) * 1997-09-15 2000-02-22 Tritech Microelectronics, Ltd. Pitch synchronized sinusoidal synthesizer
JP3502247B2 (ja) * 1997-10-28 2004-03-02 ヤマハ株式会社 音声変換装置
US6199037B1 (en) 1997-12-04 2001-03-06 Digital Voice Systems, Inc. Joint quantization of speech subframe voicing metrics and fundamental frequencies
DE69932786T2 (de) * 1998-05-11 2007-08-16 Koninklijke Philips Electronics N.V. Tonhöhenerkennung
WO1999059139A2 (en) * 1998-05-11 1999-11-18 Koninklijke Philips Electronics N.V. Speech coding based on determining a noise contribution from a phase change
US6230130B1 (en) 1998-05-18 2001-05-08 U.S. Philips Corporation Scalable mixing for speech streaming
TW430778B (en) * 1998-06-15 2001-04-21 Yamaha Corp Voice converter with extraction and modification of attribute data
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
GB2357231B (en) * 1999-10-01 2004-06-09 Ibm Method and system for encoding and decoding speech signals
US6725190B1 (en) * 1999-11-02 2004-04-20 International Business Machines Corporation Method and system for speech reconstruction from speech recognition features, pitch and voicing with resampled basis functions providing reconstruction of the spectral envelope
US6377916B1 (en) 1999-11-29 2002-04-23 Digital Voice Systems, Inc. Multiband harmonic transform coder
US7212639B1 (en) * 1999-12-30 2007-05-01 The Charles Stark Draper Laboratory Electro-larynx
JP2007510524A (ja) * 2003-11-12 2007-04-26 ファセット・テクノロジーズ・エルエルシー 穿刺装置及びマルチランセットカートリッジ
EP1569200A1 (en) * 2004-02-26 2005-08-31 Sony International (Europe) GmbH Identification of the presence of speech in digital audio data
KR100608062B1 (ko) * 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
KR100790110B1 (ko) * 2006-03-18 2008-01-02 삼성전자주식회사 모폴로지 기반의 음성 신호 코덱 방법 및 장치
KR100900438B1 (ko) * 2006-04-25 2009-06-01 삼성전자주식회사 음성 패킷 복구 장치 및 방법
KR101380170B1 (ko) * 2007-08-31 2014-04-02 삼성전자주식회사 미디어 신호 인코딩/디코딩 방법 및 장치
JP4775977B2 (ja) * 2008-03-28 2011-09-21 日立金属株式会社 シート材穿孔装置
CN102422531B (zh) * 2009-06-29 2014-09-03 三菱电机株式会社 音频信号处理装置
JP4883732B2 (ja) * 2009-10-13 2012-02-22 株式会社日立メタルプレシジョン シート材穿孔装置
CN101847404B (zh) * 2010-03-18 2012-08-22 北京天籁传音数字技术有限公司 一种实现音频变调的方法和装置
JP6053196B2 (ja) * 2012-05-23 2016-12-27 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、および記録媒体
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
US9837089B2 (en) * 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
EP3121814A1 (en) * 2015-07-24 2017-01-25 Sound object techology S.A. in organization A method and a system for decomposition of acoustic signal into sound objects, a sound object and its use
CN106356055B (zh) * 2016-09-09 2019-12-10 华南理工大学 基于正弦模型的可变频语音合成系统及方法
CN113938749B (zh) * 2021-11-30 2023-05-05 北京百度网讯科技有限公司 音频数据处理方法、装置、电子设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4045616A (en) * 1975-05-23 1977-08-30 Time Data Corporation Vocoder system
JPS5543554A (en) * 1978-09-25 1980-03-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS56119194A (en) * 1980-02-23 1981-09-18 Sony Corp Sound source device for electronic music instrument
JPS56125795A (en) * 1980-03-05 1981-10-02 Sony Corp Sound source for electronic music instrument
US4419544A (en) * 1982-04-26 1983-12-06 Adelman Roger A Signal processing apparatus
SE428167B (sv) * 1981-04-16 1983-06-06 Mangold Stephan Programmerbar signalbehandlingsanordning, huvudsakligen avsedd for personer med nedsatt horsel
US4631746A (en) * 1983-02-14 1986-12-23 Wang Laboratories, Inc. Compression and expansion of digitized voice signals
US4667340A (en) * 1983-04-13 1987-05-19 Texas Instruments Incorporated Voice messaging system with pitch-congruent baseband coding
US4513651A (en) * 1983-07-25 1985-04-30 Kawai Musical Instrument Mfg. Co., Ltd. Generation of anharmonic overtones in a musical instrument by additive synthesis
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement
JPS6121000A (ja) * 1984-07-10 1986-01-29 日本電気株式会社 Csm型音声合成器
JP2759646B2 (ja) * 1985-03-18 1998-05-28 マサチユ−セツツ インステイテユ−ト オブ テクノロジ− 音響波形の処理
US4771465A (en) * 1986-09-11 1988-09-13 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech sinusoidal vocoder with transmission of only subset of harmonics

Also Published As

Publication number Publication date
AU7825487A (en) 1988-03-24
EP0260053B1 (en) 1994-03-30
AU580218B2 (en) 1989-01-05
JPS6370900A (ja) 1988-03-31
JPH0833754B2 (ja) 1996-03-29
KR880004426A (ko) 1988-06-07
CA1307345C (en) 1992-09-08
EP0260053A1 (en) 1988-03-16
US4797926A (en) 1989-01-10
ATE103728T1 (de) 1994-04-15
DE3789476D1 (de) 1994-05-05
DE3789476T2 (de) 1994-09-15

Similar Documents

Publication Publication Date Title
KR960002388B1 (ko) 언어 엔코딩 처리 시스템 및 음성 합성방법
KR960002387B1 (ko) 음성 처리 시스템 및 음성 처리방법
EP0337636B1 (en) Harmonic speech coding arrangement
EP0336658B1 (en) Vector quantization in a harmonic speech coding arrangement
US7092881B1 (en) Parametric speech codec for representing synthetic speech in the presence of background noise
US6741960B2 (en) Harmonic-noise speech coding algorithm and coder using cepstrum analysis method
US5305421A (en) Low bit rate speech coding system and compression
CA1337665C (en) Computationally efficient sine wave synthesis for acoustic waveform processing
EP0745971A2 (en) Pitch lag estimation system using linear predictive coding residual
US4776015A (en) Speech analysis-synthesis apparatus and method
WO1999010719A1 (en) Method and apparatus for hybrid coding of speech at 4kbps
US4890328A (en) Voice synthesis utilizing multi-level filter excitation
Singhal et al. Optimizing LPC filter parameters for multi-pulse excitation
Etemoglu et al. Matching pursuits sinusoidal speech coding
US6662153B2 (en) Speech coding system and method using time-separated coding algorithm
JP3398968B2 (ja) 音声分析合成方法
EP0713208A2 (en) Pitch lag estimation system
Nakhai et al. Split band CELP (SB-CELP) speech coder
Yazu et al. The speech synthesis system for an unlimited Japanese vocabulary
Chang et al. Quality enhancement of sinusoidal transform vocoders
Kim et al. On a Reduction of Pitch Searching Time by Preliminary Pitch in the CELP Vocoder
NAKHAI et al. A hybrid speech coder based on CELP and sinusoidal coding
JPS6087400A (ja) マルチパルス型音声符号復号化装置
Yeldener et al. LINEAR PREDICTIVE CODING OF SPEECH
JPH0229233B2 (ko)

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070208

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee