KR960002387B1 - 음성 처리 시스템 및 음성 처리방법 - Google Patents

음성 처리 시스템 및 음성 처리방법 Download PDF

Info

Publication number
KR960002387B1
KR960002387B1 KR1019870007479A KR870007479A KR960002387B1 KR 960002387 B1 KR960002387 B1 KR 960002387B1 KR 1019870007479 A KR1019870007479 A KR 1019870007479A KR 870007479 A KR870007479 A KR 870007479A KR 960002387 B1 KR960002387 B1 KR 960002387B1
Authority
KR
South Korea
Prior art keywords
frame
harmonic
speech
signal
frequency
Prior art date
Application number
KR1019870007479A
Other languages
English (en)
Other versions
KR880004425A (ko
Inventor
찰스 브론슨 에드워드
돈리 하트웰 월터
해리 케첨 리챠드
에드워드 제이콥스 토마스
바스티안 클레이옌 월럼
Original Assignee
아메리칸 텔리폰 앤드 텔레그라프 캄파니
엘리 와이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아메리칸 텔리폰 앤드 텔레그라프 캄파니, 엘리 와이스 filed Critical 아메리칸 텔리폰 앤드 텔레그라프 캄파니
Publication of KR880004425A publication Critical patent/KR880004425A/ko
Application granted granted Critical
Publication of KR960002387B1 publication Critical patent/KR960002387B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/093Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using sinusoidal excitation models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Devices For Supply Of Signal Current (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

내용 없음.

Description

음성 처리 시스템 및 음성 처리방법
제1도는 본 발명에 따른 음성 분석기의 블럭선도.
제2도는 본 발명에 따른 음성 합성기의 블력선도.
제3도는 유성음 부분동안 음성을 복제하기 위한 정보를 포함하는 패킷을 도시한 도면.
제4도는 잡음여기(noise excitation)을 이용한 무성음 부분동안 음성을 복제하기 위한 정보를 포함하는 패킷을 도시한 도면.
제5도는 펄스여기를 이용한 무성음 부분동안 음성을 복제하기 위한 정보를 포함하는 패킷을 도시한 도면.
제6도는 제1도의 음성 플임 세그먼트(voice frame segmenter)(141)가 음성 프레임을 세그먼트와 중복시키는 방법을 도시한 도면.
제7도는 기본 주파수 및 고조파의 진폭에 대해 제2도의 합성기 의해 실행된 보간(interpolation)을 그래프 형태로 도시한 도면.
제8도는 기본 및 고조파의 진폭에 대해 제2도의 합성기에 의해 이루어진 보간을 그래프 형태로 도시한 도면.
제9도는 제1도 및 2도의 디지탈 신호 처리기 동작을 도시한 도면.
제10도 내지 제13도는 제9도의 신호 처리기(903)를 제어하여 제1도의 분석기의 작동이 가능하게 하는 프로그램을 흐름도로 도시한 도면.
제14도 내지 제19도는 제9도의 디지탈 신호 처리기(903)의 실행을 제어하여 제2도의 합성기의 동작이 가능하도록 하는 프로그램의 흐름도를 도시한 도면.
제20도 내지 제22도는 제9도의 디지탈 신호 처리기(903)의 실행을 제어하여 제2도의 고조파 계산기(211)의 동작 수행을 가능하게 하는 다른 프로그램루틴을 흐름도 형태로 도시한 도면.
* 도면의 주요부분에 대한 부호의 설명
100 : 음성 분석기 101 : 아날로그 디지탈(A/D)변환기
102 : 세그먼트 200 : 음성 합성기
205 : 선택기 207 : 합성 필터
214 : 싸인파 발생기
본 발명은 음성 처리에 관한 것으로, 특히, 음성의 유성음 부분에 대해서 싸인형 모델을 이용하고, 음성의 무성음 부분에 대해서는 보코더(vocoder)의 분석기 부분과 여기된 선형 예측 코딩 필터로부터의 기본 주파수와 보조 셋트의 고조파만을 이용하는 음성복제에 관한 디지탈 음성 코딩 및 디코딩 장치에 관한 것이다.
음성 기억 및 음성 응답 장치를 포함하는 디지탈 음성 통신 시스템은 전송 및/또는 기억에 필요한 비트 전송율을 감소기키기 위해 신호 압축을 이용한다. 한가지 공지된 디지탈 음성 인코딩 형태 "1984년도 음파, 음성 및 신호 처리내 대한 IEEE 국제회의회보, 제2권 27.6.1 내지 27.6.4 페이지에 알.제이.맥알레이, 등의 논문 "싸인파 음성 모델을 이용한 크기 단일 재구성"에 공지되어 있다. 상기 논문은 음성의 유성음 및 무성음 부분 모두의 인코딩 및 디코딩을 위해 싸인파 음성 모델의 사용에 대해 기술하고 있다. 음성 파형은 싸인파의 합으로 음성 파형을 모델 형성하여 보코더의 분석기 부분에서 분석된다. 싸인파의 상기 합은 음성파의 기본 및 고조파를 구비하며 다음과 같이 표현된다.
S(n)=Σai(n) sin[Øi(n)] (1)
ai(n)과φi항은 어떤 주어진 시점에서 시간적 변화 진폭 및 위상이다. 음성 처리 함수는 분석기 부분에서 진폭 및 위상을 결정하여 실행이 되며, 방정식(1)을 이용한 음성 파형을 재구성하는 합성기 부분에 상기 값을 전송한다.
맥알레이 논문은 보코더의 분석기 부분에 의해 모든 고조파에 대한 진폭 및 위상의 결정과 그 다음 상기 정보를 보코더의 합성기 부분에 전송하는 것에 대해 기술하고 있다. 위상의 순간 주파수의 적분치라는 사실을 이용하여 합성기 부분은 기본 및 고주파 주파수로부터 대응 위상을 결정한다. 분석기는 퓨리에 급변환(fast Fourier transform FFT) 스펙트럼으로부터 이들 주파수를 결정한다. 왜냐하면, 이들은 기본 및 고조파의 주파수와 진폭을 결정하기 위해 간단한 피크-픽킹(peak-picking)을 하여 상기 스펙트럼내의 피크로 나타나기 때문이다. 분석기가 기본 및 모든 고조파 주파수 및 진폭을 한번 결정하고 나면, 분석기는 상기 정보를 합성기에 전송한다.
기본 및 모든 고조파 주파수와 진폭이 전송되기 때문에, 분석기로부터 합성기로 전달하기 위해 초당 많은 수의 비트가 필요하다는 문제가 존재한다. 또한, 주파수 및 진폭이 결과적인 스펙트럼내의 피크로부터 직접 결정되기 때문에, 광범위한 계산 결과로 이루어진 이들 피크의 검출이 가능하도록 하기 위해 실행된 FFT 계산이 아주 정확해야 하는 또다른 문제가 남아있다.
본 발명은 종래 기술의 상술한 문제및 결점을 해결하며, 분석에서 기본 및 보조 셋트의 고조파 주파수를 결정하고 음성의 유성음 부분에 대해 싸인형 모델을 이용하여 합성기에서 음성을 복제하여 음성 분석과 합성이 이루어지는 방법 및 구성적 실시예에 의해 기술 발전이 이루어진다. 상기 모델은 기본 및 보조 셋트의 고조파 주파수를 이용하여 구성이 되고, 나머지 고조파 주파수는 이론적인 고조파 주파수로부터의 변화를 주는 계산을 이용한 기본 주파수로부터 결정된다. 기본 및 고조파 주파수에 대한 진폭은 분석기로부터 직접 합성기에 전송되는 것이 아니라, 진폭은 선형 예측 코딩(Linear predictive Coding ; CPC)계수와 분석기로부터 수신된 프레임 에너지로부터 합성기에서 결정이 된다. 이는 진폭의 직접 전송보다 진폭을 재구성하기 위한 정보를 전송하는데 필요한 비트가 상당히 적어지게 한다.
계산을 간단히 하기 위해 분석기는 FFT스펙트럼으로부터 피크를 발견하고, 스펙트럼내에서 피크가 생길 수 있는 곳을 보다 정확히 결정하기 위해 보간을 행하여 기본 및 고조파 주파수를 결정한다. 이는 FFT 계산의 주파수 해가 낮게 유지되게 한다.
각 음성 프레임에 대해, 합성기는 프레임 에너지, 음성 변수의 세트, 기본 주파수 및 기본주파수와 실제고주파 주파수의 보조 셋트로부터 유도된 바와같이 각 이론적인 주파수 사이의 차를 나타내는 옵셋 신호로 구성된 인코드된 정보에 응답한다. 상기 합성기는 옵셋 신호에 대응하는 고조파 위상 신호의 보조 셋트를 계산하기 의해 옵셋 신호 및 기본 주파수 신호에 응답하며, 또한 나머지 고조파 위상 신호를 계산하기 위해 기본 주파수에 응답한다. 합성기는 기본 신호의 진폭, 고조파 위상 신호의 보조셋트 및 나머지 고조파 위상 신호의 진폭을 결정하기 위해 프레임 에너지 및 음성 변수의 셋트에 응답한다. 다음, 합성기는 기본 신호 및 고조파 위상 신호와 이들 신호의 진폭에 응답하여 음성을 복제한다.
합성기는 고조파 수를 기본 주파수에 곱하며, 그리고 결과적으로 주파수를 변화시켜 변화시켜 나머지 고조파 위상 신호를 계산하는 한가지 실시예에서 나머지 고조파 주파수 신호를 계산하는 것이 유리하다.
두번째 실시예에서, 합성기는 고조파 수를 기본 주파수 신호에 곱하여 이론적인 고조파 주파수 신호를 먼저 결정하여 나머지 고조파 주파수 신호를 발생하는 것이 장점이다. 다음, 상기 합성기는 나머지 고조파 주파수 신호에 대응하는 이론적인 고조파 주파수 신호를 원래 보조 셋트의 고조파 위상 신호로서 같은 수의 고조파를 각각 갖는 다의 보조 셋트로 그룹을 형성하며, 다음 상기 보조 셋트 신호의 각각을 다수의 보조 셋트의 각각의 대응하는 나머지 이론적인 주파수 신호에 합산하여 변화된 나머지 고조파 주파수 신호를 발생한다. 다음 합성기는 변화된 나머지 고조파 주파수 신호를 이용하여 나머지 고조파 위상 신호를 계산한다.
세번째 실시예에서, 합성기는 이들 신호가 이론적인 고조파 주파수에 가산되어 변화된 나머지 고조파 주파수 신호를 발생하기 전에 옵셋 신호의 순서가 바뀌는 것을 제외하고 제2실시예와 유사한 나머지 고조파 주파수 신호를 계산하는 것이 장점이다.
또한 합성기는 각 프레임에 대해 음성 변수셋트로부터 고조파 주파수 신호의 각각의 감소되지 않은 에너지와, 모든 고조파 신호에 대해 감소되지 않은 이들 에너지를 합하여 기본 주파수 신호와 고조파 주파수 신호를 결정한다. 다음, 합성기는 각 고조파 신호에 대한 고조파 에너지와, 감소되지 않은 합산에너지 및 프레임 에너지를 사용하여 고조파 위상 신호 각각의 진폭을 계산한다.
재생된 음질을 개선하기 위해, 기본 주파수 신호와 계산된 고조파 주파수 신호를 음성 프레임의 중간에서 단일 샘플을 나타내도록 고려되고 있으며, 합성기는 기본 및 고조파 주파수 신호 모두에 대해 음성 프레임을 통해 연속적인 샘플을 발생하도록 보간법을 이용한다. 기본 및 고조파 주파수의 진폭에 대해서도 유사한 보간법이 이루어진다. 만약 인접 프레임이 무성음 프레임이라면, 기본 및 고조파 신호의 주파수는 유성음 프레임의 중간으로부터 무성음 프레임까지 일정한 것으로 간주되고 반면 진폭은 무성음과 유성음 프레임 사이의 경계에서 "0"으로 간주된다.
무성음인 프레임에 대한 인코딩은 음성 변수의 셋트, 다중 펄스 여기 정보, 및 여기 형태 정보와 기본 주파수 신호를 포함한다. 합성기는 잡음형 여기를 갖는 음성 변수 셋트에 의해 규정된 필터를 여기시켜 음성을 합성하기 위해 여기 형태 신호에 의해 잡음 형태 여기되도록 표시하는 무성음 프레임에 응답한다. 또한, 합성기는 음성 변수 신호의 셋트로부터 구성된 필터를 여기시키는 다중 펄스 여기 정보를 이용하기 위해 여기 형태 신호 표시 다중 펄스에 응답한다. 또한, 유성음에서 무성음으로부터의 변이가 이루어질 때, 유성음 프레임으로부터의 음성 변수의 셋트는 무성음 부분동안 지정된 여기 정보로 이용되는 필터를 설정하기 위해 초기에 이용된다.
제1도 및 제2도는 본 발명의 요체인 음성 분석기 및 음성 합성기를 도시한다. 제1도의 음성 분석기(100)는 선로(120)를 통해 수신된 아날로그 음성 신호에 응답하여 채널(139)을 통해 제2도의 합성기(200)에 전송하기 위해 상기 신호를 낮은 비트 전송 속도로 인코드한다. 채널(139)은 통신 전송 선로 또는 기억매체일 수도 있으며, 따라서 음성 합성은 나중에 합성된 음성을 필요로 하는 여러가지 응용분야에 제공될 수 있다. 분석기(100)는 3가지 다른 이코딩 기술을 이용하여 채널(120)을 통해 수신된 음성을 인코드한다. 음성의 유성음 영역동안, 분석기(100)는 합성기(200)가 싸인파 모델링과 음성의 재생을 가능하게 할 수 있는 정보를 인코드된다. 부분(영역)은 기본 주파수가 성대에 의한 공기 흐름으로 나누어지는 경우 유성음으로 분류된다. 무성음 영역동안, 분석기(100)는 선형 예측 코딩(LPC) 필터를 적당한 여기로 구동하여 음성이 합성기(200)에서 복제될 수 있도록 정보를 인코드한다. 여기의 형태는 각 무성음 프레임에 대해 분석기(100)에 의해 결정이 있다. 다중 펄스 여기는 무성음으로 분류되는 유성음과 무성음 사이의 파열성 자음 및 변이를 포함하는 무성음 영역동안 분석기(100)에 의해 인코드되어 합성기(200)에 전송된다. 만약, 다중 펄스 여기가 무성음 프레임에 대해 인코드 되지 않는 경우, 분석기(100)는 LPC 필터를 구동시키기 위해 잡음 여기가 사용되어야 한다는 것을 표시하는 신호를 합성기(200)에 전송한다.
분석기(100)의 전체 작동에 대해 보다 상세히 설명하기로 한다. 분석기(100)는 아날로그-디지탈 변환기(101)로부터 프레임형태로 수신된 디지탈 샘플을 처리하며 프레임 세그먼트(102)는 각 세그먼트로 나누며, 각 프레임은 180개의 샘플로 구성이 된다. 프레임이 유성음 또는 무성음인가에 대한 결정은 다음 방법으로 이루어진다. LPC계산기(111) 프레임의 디지탈형 샘플에 응답하여 사람의 음역 및 나머지 신호의 모델을 형성하는 LPC 계수를 발생한다. 상기 후자 계수의 형성과 에너지를 미합중국 특허 제3,740,476호에 공지된 장치에 따라 실행되며, 다른 장치도 물론 공지된 것이 있다. 피치 검출기(109)는 선로(122)를 통해 수신된 잔여 신호와 프레임 세그먼트블럭(102)으로부터 선로(121)를 통해 수신된 음성샘플에 응답하여 프레임이 유성음 또는 무성음 인가를 결정한다. 피치 검출기(109)가 프레임이 유성음인 것을 검출한 경우, 블럭(141 내지 147)은 상기 프레임의 싸인형 인코딩을 실행한다. 그러나 상기 프레임이 무성으로 검출된 경우, 잡음/다중 펄스 결정 블럭(112)은 합성기(200)에 LPC 계산기 블럭(111)에 의해 계산이 되는 LPC 계수에 의해 형성되는 필터를 여기시키기 위해 합성기(200)에 의해 잡음 여기 또는 다중 펄스 여기가 이용될 것인가를 결정한다. 잡음 여기가 사용되는 경우, 이러한 사실이 변수 인코딩 블럭(113)을 통해 합성기(200)에 전송이 된다. 그러나, 다중 펄스 여기가 이용되는 경우, 블럭(110)은 펄스 트레인 위치 및 진폭을 측정하고, 이 정보를 선로(128,129)를 통해 변수 인코딩 블럭(113)에 전송하여 제2도의 합성기(200)에 전송한다.
분석기(100)와 합성기(200) 사이의 통신 채널이 패킷을 이용하여 작동되는 경우, 유성음 프레임에 대해 전송된 패킷이 제3도에 도시되어 있으며, 무성음 프레임 동안 백색 잡음 여기를 이용하여 전송된 패킷은 제4도에 도시되어 있고, 무성음 프레임 동안 다중 펄스 여기를 이용하여 전송된 패킷은 제5도에 도시되어 있다.
무성음 프레임에 대해 분석기(100)의 작동보다 상세히 고려해 보기로 한다. 피치 검출기(109)가 선로(130)를 통해 프레임이 무성음이라는 신호를 한번 보내면, 잡음/다중 펄스 결정 블럭(112)은 상기 신호에 응답하여 잡음 또는 다중 펄스 여기가 이용될 것인가를 결정한다. 만약 다중 펄스 여기가 이용되는 경우, 상기 사실을 표시하는 신호는 선로(124)를 통해 다중 펄스 분석기 블럭(110)으로 전송이 된다. 후자의 분석기는 선로(124)상의 신호와, 피치 검출기(109)로부터 선로(125,126)를 통해 전송된 2셋트의 펄스에 응답한다. 다중 펄스 분석기 블럭(110)은 선택된 펄스의 진폭과 함께 선택된 펄스위 위치를 변수 인코더(113)에 전송한다. 후자의 인코더는 또한 LPC 계산기(111)로부터 선로(123)를 통해 수신된 LPC 계수에 응답하여 제5도 도시된 패킷을 형성한다.
만약 잡음/다중 펄스 결정 블럭(112)이 잡음 여기가 사용되어야 한다고 결정이 된 경우, 선로(124)를 통해 신호를 변수 인코더(113)에 전송하여 상기 사실을 표시한다. 후자의 인코더는 상기 신호에 응답하여 블럭(111)으로부터 LPC 계수와 블럭(115)에 의해 잔여 신호로부터 계산된 바와같은 이득을 이용하여 제4도에 도시된 패킷을 형성한다.
유성음 동안 분석기(100)의 작동에 대해 보다 상세히 설명하기로 한다. 상기와 같은 프레임 동안 분석기(100)로부터 합성기(200)에 전송된 정보를 도시한다. LPC 계수는 LPC 계산기(111)에 의해 발생이 되며 선로(123)를 통해 변수 인코더(113)에 전송이 된다. 프레임이 유성음이라는 사실의 표시는 피치 검출기(109)로부터 선로(130)를 통해 전송이 된다. 유성음 부분의 기본 주파수는 피치 검출기(109)에 의해 선로 (131)를 통해 피치 주기로서 전송이 된다. 변수 인코더(113)는 상기 주기에 응답하여 채널(139)상에 전송되기 전에 기본 주파수로 변환이 된다. 프레임 eo 내의 전체 음성 에너지는 에너지 계산기(103)에 의해 계산이 된다. 후자의 계산기는 자승이 된 디지탈 샘플의 합의 평방근을 취하여 e0를 발생한다. 디지탈 샘플은 선로(121)를 통해 프레임 세그먼트(102)로부터 수신되며, 에너지 계산기(103)는 선로(135)를 통해 결과적으로 계산된 에너지를 변수 인코더(113)에 전송한다.
제6도에 도시된 프레임 A와 같이, 각 프레임은 130개의 샘플로 구성되는 것이 유리하다. 음성 프레임 세그먼트(141)는 아날로그-디지탈 변환기(101)로부터의 디지탈 샘플에 응답하여 세그먼트 A와 프레임 A로 제6도에 도시된 바와같이 프레임을 중첩시키는 세그먼트와 함께 데이타 샘플의 세그먼트를 추출해낸다. 하나의 세그먼트는 256개의 샘플을 구비한다. 싸인 분석을 수행하기 전에 프레임을 중첩시키는 목적은 프레임의 말단부에서 더 많은 정보를 제공하는 것이다. 다운 샘플러(Down Sampler)(142)는 유성음 프레임 세그먼트(141)의 출력에 응답하여 256개의 샘플 세그먼트 중에서 매 두번째 샘플을 선택하며, 128개의 샘플을 갖는 샘플의 그룹을 형성한다. 상기 다운 샘플링의 목적은 블럭(143,144)에 의해 실행되는 계산의 복잡성을 줄이는 것이다.
햄밍 윈도우 블럭(Hamming window block : 143)은 블럭(142)으로부터의 데이타 sn에 응답하여 다음 방정식으로 주어지는 윈도우잉(windowing)동작을 실행한다.
Figure kpo00002
윈도우잉 동작의 목적은 프레임의 말단 지점에서 불연속을 없애고 스펙트럼 분해능을 개성하기 위해서이다. 윈도우잉 작동이 실행된 후, 블럭(144)은 먼저 블럭(143)으로부터의 결과적인 샘플에 0을 부가한다. 상기 부가는 다음 방정식으로 정의된 바와같이 256개의 데이타 포이트의 새로운 순서를 가져온다.
Figure kpo00003
다음, 블럭(144)은 다음 방정식으로 정의된 이산 퓨리에 변환을 실행한다.
Figure kpo00004
여기서 Sn p는 부가된 순서 Sp의 n번째 지점이다. 방정식(4)의 해는 퓨리에 급변환 방법을 이용하여 구해진다. FFT 계산을 한 다음, 블럭(144)은 방정식(4)에서 이루어진 계산으로부터 얻어진 각각의 복소수 주파수 데이타 포인트의 자승의 크기를 계산하여 스펙트럼 S을 얻는다. 그리고 상기 작동은 다음 방정식으로 정의된다.
Figure kpo00005
여기서 * 표시는 공액 복소수이다.
고조파 피크 색출기(locator)(145)는 피치 검출기(109)에 의해 계산된 피치 주기와 블럭(144)에 의해 계산된 스펙트럼에 응답하여 기본 주파수 다음 처음 5개 고조파에 대응하는 스펙트럼내에서 피크를 결정한다. 상기 색출은 스펙트럼에서 개시점으로서 기본 주파수의 여러배의 고조파인 이론적인 고조파 주파수를 이용하고 다음 이론적인 고조파로부터 소정의 거리내에서 가장 높은 샘플에 대한 기울기를 측정하여 이루어진다.
스펙트럼은 제한된 수의 데이타 샘플을 기본으로 하기 때문에, 고조파 보간기(146)는 고조파 피크 색출기(145)에 의해 결정된 고조파 피크 부근의 제2차 보간을 실행한다. 이는 고조파에 대해 결정된 값과 인접하여 보다 가까운 정확한 값을 나타낸다. 다음 방정식은 각 고조파에 대해 사용된 상기 제2차 보간을 정의한다.
Figure kpo00006
S(q)는 색출된 피크에 더 가까운 샘플 포인트이며, 고조파 주파수는 샘플링 주파수의 Pk배와 같다.
고조파 계산기(147)는 인접한 고조파 주파수 및 피치에 응답하여 이론적인 고조파 및 계산된 고조파 피크 사이의 옵셋을 결정한다. 상기 옵셋은 합성기(200)에 전송하기 위해 변수 인코더(113)에 전송이 된다.
합성기(200)는 제2도에 도시되어 있으며, 채널(139)을 통해 수신된 여기 정보 또는 싸인파 정보 및 음역 모델에 응답하여 제1도의 분석기(100)에 의해 인코드된 원래의 아날로그 음성을 재생한다. 수신된 정보가 프레임이 유성음이라는 것을 나타내는 경우, 블럭(211 내지 214)은 방정식(1)에 따라 원래 유성음 프레임 정보를 재생하기 위해 싸인파 합성을 실행하며, 상기 재생된 음성은 선택기(206)를 통해 수신된 디지탈 정보를 아날로그 신호로 변환하는 디지탈아날로그 변환기에 전달된다.
수신된 인코드 정보가 무성음으로 지정된 경우, 잡음 여기 또는 다중 펄스 여기가 합성 필터(207)를 구동하기 위해 사용되지 않는다. 선로(227)를 통해 전송된 잡음/다중 펄스, N/M 신호는 잡음 또는 다중 펄스 여기가 사용될 것인가를 결정하며, 또한 지정된 발생기(203 또는 204)의 출력이 합성 필터(207)에 전송하기 위해 선택기(205)를 작동시킨다. 합성 필터(207)는 음역 모델을 형성하기 위해 LPC계수를 이용한다. 또한 만약 무성음 프레임이 무성음 부분의 제1프레임인 경우, 다음 유성음 프레임으로부터 LPC 계수가 선로(225)를 통해 얻어지며 합성 필터(207)의 작동 개시를 위해 사용된다.
유성음 프레임의 수신에 따라 실행되는 동작에 대해 고려해 보기로 한다. 제3도에 도시된 바와같이 유성음 패킷이 수신된 다음, 채널 디코더(201)는 선로(221)를 통해 기본 주파수(피치)와 선로(222)를 통해 고조파 주파수 옵셋 정보를 저고조파 주파수 계산기(212)와 높은 고조파 주파수 계산기(211)에 전송한다. 읍성 프레임이 에너지 eo와 LPC 계수는 각각 선로(220,216)를 통해 고조파 진폭 계산기에 전송된다. 유성음/뮤성음, v/u, 신호는 고조파 주파수 계산기(211,212)에 전송된다. "1"인 v/u 신호는 프레임이 유성음이라는 것을 표시한다. 저고조파 주파수 계산기(212)는 기본 주파수 및 고조파 주파수 옵셋 정보에 응답하여 처음 5개 고조파 주파수를 계산하기 위해 "1"인 v/u에 응답한다. 후자 계산기는 선로(223)를 통해 블럭(213,214)에 첫번째 5개 고조파 주파수를 전달한다.
높은 고조파 주파수 계산기(211)는 프레임의 나머지 고조파 주파수를 발생하기 위해 기본 주파수와 v/u 신호에 응답하며, 이들 고조파 주파수를 선로(229)를 통해 블럭(213,214)에 전송한다.
고조파 진폭 계산기(213)는 계산기(212,211)로부터의 고조파 주파수와, 선로(220)를 통해 수신된 프레임 에너지 정보 및 선로(216)를 통해 수신된 LPC 계수에 응답하여 고조파 주파수의 진폭을 계산한다. 싸인파 발생기(214)는 계산기(211,212)로부터 수신된 주파수 정보에 응답하여 고조파 위상 정보를 결정하며, 다음 상기 위상 정보와 계산기(213)로부터 수신된 고조파 진폭을 이용하여 방정식(1)으로 표시된 결정을 수행한다.
만약, 채널 디코더(201)가 제4도에 도시된 바와같은 잡음 여기 패킷을 수신하는 경우, 채널 디코더(201)는 선택기(205)가 백색 잡음 발생기(203)의 출력을 선택하게 하는 신호를 선로(227)를 통해 전송하고, 선택기(206)가 합성 필터(207)의 출력을 선택하게 하는 신호를 전송한다. 또한 채널 디코더(201)는 선로(228)를 통해 이득을 백색 잡음(203)를 전송한다. 상기 이득을 제1도에 도시된 바와같이 분석기(100)의 이득 계산기(115)에 의해 발생된다. 합성 필터(207)는 선로(216)를 통해 채널 디코더(201)로부터 수신된 LPC 계수와 선택기(205)를 통해 수신된 백색 잡음 발생기(203)의 출력에 응답하여 음성의 디지탈 샘플을 발생한다.
만약 채널 디코더(201)가 제5도에 도시된 바와같이 펄스 여기 패킷을 채널(139)로부터 수신하는 경우, 후자의 디코더는 수신된 펄스의 위치 및 진폭을 선로(210)를 통해 펄스 발생기에 전송한다. 또한 채널 디코더(201)는 선택기(205)가 선로(227)를 통해 펄스 발생기(204)의 출력을 선택하여 상기 출력을 합성 필터(207)에 전달하게 하는 상태를 만든다. 합성 필터(207) 및 디지탈-아날로그 변환기(208)는 음성을 재생시킨다. 변환기(208)는 변환기의 출력에 내장된 저역통과 필터를 갖는다.
유성음 프레임의 싸인파 합성을 실행하는데 있어서 블럭(211 내지 214)의 작동을 보다 상세히 고려해 보기로 한다. 저고조파 주파수(212)는 선로(221)를 통해 수신된 기본 주파수 Fr에 응답하여 선로(222)를 통해 수신된 고조파 옵셋 hoi을 이용하여 5인 보조 셋트의 고조파 주파수를 결정한다. 이론적인 고조파 주파수 tsi는 기본 주파수에 고조파의 차수를 단순히 곱하여 얻어진다. 다음 방정식은 고조파의 각각에 대해 그 고조파 주파수를 정의한다.
hfi=tsi+hoifr, 1≤i<5
여기서 fr은 스펙트럼 샘플 포인트 사이의 주파수 분해능이다.
계산기(211)는 기본 주파수 Fr에 응답하여 고조파 주파수 hfi를 발생한다. 여기서 다음 방정식을 이용하면 i≥6이다.
hfi=ifr, 6≤i≤h ………………………………………………………(7)
여기서 h는 현재 프레임에서 고조파의 최대수이다.
계산기(211)의 또 다른 실시예는 기본 주파수에 응답하여 다음 방정식을 이용하여 5번째 고조파보다 다른 고조파 주파수를 발생한다.
hfi=ma, 6≤i≤h ………………………………………………………(8)
여기서 h는 고조파의 최대수이며, a는 합성기에서 허용된 주파수 분해능이다. 변수는 2Hz가 되도록 선택되는 것이 유리하다. i번째 주파수에 대한 정수 n은 다음식을 최소화하여 알 수 있다.
(iFr-na)2………………………………………………………………(9)
여기서 iFr은 i번째 이론적 고조파 주파수를 나타낸다. 그래서, 작은 옵셋의 변환 패턴이 발생된다.
계산된(211)의 또다른 실시예는 5개그룹에서 나머지 고조파를 그룹으로 형성하고 이들 그룹에 옵셋을 부가시킨 나머지 고조파에 대해 옵셋을 이론적 고조파 주파수에 첨가하여 5번째 고조파 보다 큰 고조파를 발생하기 위해 처음 5개 고조파 주파수에 대한 기본주파수와 옵셋에 응답한다. 상기 그룹은 {k1+1,…2k1},{2k1+1,…3k1} 등이다. 여기서 k1=5이다. 다음 방정식은 mk1+1 내지 (m+1)k1으로 된 지수를 갖는 고조파의 그룹에 대한 상기 실시예를 정의한다.
hfi=jFr+hoj
여기서 J=mk1+1에 대해서
Figure kpo00011
상기에서 m은 정수이다. 순열은 변수 m(그룹 지수)의 함수로 될 수 있다. 일반적으로, 최종 그룹은 고조파의 수가 k1의 배수가 아닐 때 완전해질 수 없다. 순열은 공지된 방법을 이용하여 각 음성 프레임에 대해 임의로 또는 결정론적으로 또는 발견록적일 수 있다. 계산기(211,212)는 기본 주파수와 각 고조파 주파수에 대해 하나의 값을 발생한다. 상기 값은 합성이 될 때 음성 프레임의 중심에 위치되는 것으로 가정한다. 프레임에 있는 각 샘플에 대해 나머지 샘플당 주파수는 인접 유성음 프레임의 주파수 또는 인접 무성음 프레임에 대한 소정의 경계 조건 사이에서 선형 보간에 의해 얻어진다. 상기 보간은 싸인파 발생기(214)에서 실행되며, 다음에서 설명이 된다.
고조파 진폭 계산기(213)는 계산기(211,212)에 의해 계산된 주파수와, 선로(216)를 통해 수신된 LPC계수 및 선로(220)를 통해 수신된 프레임 에너지 eo에 응답하여 고주파 진폭을 계산한다. 각 유성음 프레임에 대한 LPC반사 계수는 각 프레임 동안 음역을 나타내는 음향관 모델을 정의한다. 상대적 고조파 진폭은 상기 정보를 결정이 된다. 그러나, LPC계수가 음역의 구조 모델을 형성하기 때문에 이들은 상기 고조파 주파수 각각에서 에너지 양에 대한 정보를 포함하지 않는다. 상기 정보는 선로(220)를 통해 수신된 프레임 에너지를 이용하여 계산기(213)에 의해 결정될 수 있다. 각 프레임에 대해 계산기(213)는 주파수 계산과 같이 상기 진폭이 프레임의 중앙에 있는 것으로 가정한 고조파 진폭을 계산한다. 선형 보간은 인접 유성음 프레임으로부터 진폭 정보를 이용하여 프레임을 통해 진폭을 결정하는데 이용이 되거나 또는 인접 무성음 프레임에 대한 소정의 경계 조건을 결정하는데 이용된다.
상기 진폭은 음역이 모든 극(all-pole)필터에 의해 기술될 수 있는 것을 인정하면 알 수 있다.
Figure kpo00012
여기서
Figure kpo00013
정의에 의해 계수 a0는 1이 된다. 모든 극 필터를 기술하기 위해 필요한 계수 am(1≤m≤10)는 제이.디.마이클과 에이.에이취.그레이 2세의 "음성의 선형 예측"에 기술된 재순환 구성 절차를 이용하여 선로(216)를 통해 수신된 반사 계수로부터 얻어질 수 있다. 방정식(11)과 (12)에 기술된 필터는 다음 방법으로 각 프레임에 대해 고조파 성분의 진폭을 계산하는데 이용된다. 고조파 진폭은 hai로 지정되도록 계산되게 한다. 여기서 0≤i≤h이며, h는 고조파의 수이다. 감소되지 않는 고조파 분포값 hei(0≤i≤h)는 다음 식에 의해 각 고조파 주파수 hfi에 대해 얻어질 수 있다.
Figure kpo00014
여기서 sr은 샘플링 비율이다. 모든 고조파의 전체 감소되지 않은 에너지 E는 다음과 같이 얻어진다.
Figure kpo00015
상기(15)식과 같이 가정하면, i번째 고조파 진폭 hai은 다음과 같이 계산된다.
Figure kpo00016
상기에서 eo는 분석기(100)에 의해 계산되어 전송된 음성 프레임 에너지이다.
다음, 싸인파 발생기(214)가 계산기(211 내지 213)으로부터 수신된 정보를 어떻게 이용하여 방정식(1)에 나타난 계산을 실행하는 가에 대해 살펴보기로 한다. 주어진 프레임에 대해서 계산기(211 내지 213)은 상기 프레임에 있는 각 고조파에 대해 단일 주파수 및 진폭을 발생기(214)에 제공한다. 발생기(214)는 주파수 및 진폭에 대해 선형 보간을 실행하며, 위상 정보를 주파수 정보로 변환시켜 프레임 정체에 걸쳐 각 샘플 포인트에 대해 위상과 진폭을 갖게한다.
선형 보간은 다음 방법으로 실행된다. 제7도는 0번째 고조파 주파수인 것을 간주되는 기본 주파수에 대해 실행되는 선형 보간 및 5개 음성 프레임을 도시한다. 다른 고조파에 대해 마찬가지로 표현될 것이다. 일반적으로, 유성음 프레임에 대해 존재할 수 있는 3개의 경계 조건이 있다. 첫째, 유성음 프레임은 앞에 무성음 프레임과 뒤에 유성음 프레임을 가질 수 있으며, 둘째 유성음이 다른 유성음으로 둘러싸여 있을 수 있으며, 셋째, 유성음은 앞이 유성음 프레임이고 뒤가 무성음 프레임일 수 있다. 제7도에 도시된 바와 같이, 프레임(지정 701 내지 703)는 제1조건을 나타내며, 주파수
Figure kpo00017
는 701로 규정된 프레임의 처음부터 상수인 것으로 가정한다. 기본 주파수에 대해 i는 0과 같다. C는 이것이 C프레임이라는 것을 나타낸다. 프레임 C 다음에 오며 지점 703 내지 705로 규정된 프레임 b는 두번째 경우를 나타낸다. 선형 보간은 지점 702와 704에서 생기는 주파수
Figure kpo00018
Figure kpo00019
를 이용하여 지점 702와 704사이에서 실행된다. 제3조건은 지점 705 내지 707까지 연장된 프레임으로 표시되며, 프레임 a 다음의 상기 프레임은 무성음 프레임(지점 707 내지 708)이다. 상기 상태에서 고조파 주파수
Figure kpo00020
는 지점 707에서 프레임 a의 끝까지 상수이다.
제8도는 진폭의 보간을 도시한다. 프레임 c 및 b에 의해 규정된 바와 같이 연속적인 유성음 프레임에 대해, 보간은 주파수에 대해 이루어진 보간과 동일하다. 그러나, 앞의 프레임이 프레임(800 내지 801)에 대한 프레임 c의 관계인 것과 같이 무성음일때, 프레임의 시작은 지점 801에서 도시된 바와 같이 진폭 0을 갖는 것으로 가정한다. 마찬가지로, 프레임 a 및 프레임(807,808)으로 도시된 바와 같이, 유성음 프레임 다음에 무성음 프레임이 있는 경우, 지점 807과 같이 마지막 지점은 0진폭을 갖는 것으로 가정한다.
발생기(214)는 다음 방정식을 이용하여 상술된 보간을 실행한다. On,1가 i번째 고조파의 샘플당 위상은 다음 식에 의해 정의된다.
Figure kpo00021
상기에서 sr은 출력 샘플 이율이다. 위상에 대해 해를 구하기 위해 샘플당 주파수 Wn,1만 알 필요가 있으며 상기 샘플당 주파수는 보간을 행하여 알 수 있다. 제7도의 프레임 b와 같은 인접 유성음 프레임과 같은 유성음 프레임에 대한 주파수의 선형 보간은 다음과 같이 정의된다.
Figure kpo00022
Figure kpo00023
hmin은 어느 인접 프레임에서 고조파의 최소수이다. 프레임 c와 같이 무성음에서 유성음 프레임으로의 변환은 다음 식에 의해 샘플당 고조파 주파수를 결정하여 처리된다.
Figure kpo00024
프레임 a와 같이 유성음 프레임으로부터 무성음 프레임으로의 변환은 다음식에 의해 샘플당 고조파 주파수를 결정하여야 처리된다.
Figure kpo00025
만약 hmin이 2개의 인접한 프레임중의 어느 하나에서 고조파의 최소수를 나타내는 경우, 프레임 b가 프레임 c이상의 고조파를 갖는 경우에 대해 방정식(20)은 hmin보다 큰 고조파에 대해 샘플당 고조파 주파수를 계산하는데 이용된다. 만약 프레임 b가 프레임 a보다 많은 고조파를 갖는 경우, 방정식(21)은 hmin보다 큰 고조파에 대해 샘플당 고조파 주파수를 계산하는데 이용된다.
샘플당 고조파 진폭 An,1은 유성음 프레임 b에 대해 다음 방정식에 대해 정의된 바와 마찬가지 방법으로 hai로부터 결정이 될 수 있다.
Figure kpo00026
프레임 c의 시작과 같이 프레임의 유성음 부분으로 시작될때, 샘플당 진폭은 다음식에 의해 결정이 된다.
Figure kpo00027
여기서 h는 프레임 c에서의 고조파 수이다. 프레임이 프레임 a와 같은 유성음 부분으로 끝날때, 샘플당 고조파 진폭은 다음 식에 의해 결정이 된다.
Figure kpo00028
상기에서 h는 프레임 a에서 고조파 수이다. 프레임 b와 같은 프레임이 프레임 c와 같이 앞의 유성음 프레임보다 더 많은 고조파를 가질때, 방정식(24)와 (25)는 hmin보다큰 고조파에 대해 고조파 진폭을 계산하는데 이용된다. 만약 프레임 b가 프레임a보다 많은 고조파를 가질때, 방정식(18)은 hmin보다 큰 고조파에 대해 고조파 진폭을 계산하는데 이용된다.
제1도에 도시된 분석기에 대해 보다 상세히 생각해 보기로 한다. 제10도 및 11도는 제1도의 프레임 세그먼트(141)를 동작시키는데 필요한 단계를 도시한다. 각 샘플과 같이, s는 A/O블럭(101)으로부터 수신이 되며, 세그먼트(14)는 상기 각 샘플을 순환버퍼(B)에 기억시킨다. 블럭(100 내지 1005)는 i색인을 이용하여 순환버퍼(B)에 샘플을 기억시킨다. 결정 블럭(1002)은 버퍼의 마지막을 규정하는 N에 대해 i를 비교하여 순환버퍼(B)에 마지막 도달했을때를 비교하며, 또한 N은 스펙트럼 분석에 있어서 지점의 수를 나타낸다. N은 256과 같고, W는 180과 같다.
i가 버퍼의 마지막을 초과할때, i는 블럭(1003)에 의해 0의 셋트되며, 샘플은 순환버퍼(B)의 처음부터 기억되기 시작한다. 결정 블럭(1005)은 순환버퍼(B)에 기억된 샘플의 수를 계수하며, W에 의해 규정된 180개 샘플이 기억되었을때, 프레임을 지정하는 블럭(1006)이 실행되고, 그렇지 않으면 다른 블럭(1007)이 실행된다. 제10도에 도시된 관계는 블럭(101)으로부터 다음 샘플을 기다린다. 180개 지점의 수신되었을때, 제10도 및 제11도의 블럭(1006 내지 1106)은 순환버퍼(B)로부터의 정보를 어레이(C)로 전달하고 어레이(C)에 있는 정보는 제6도에 도시된 세그먼트 중의 하나를 표시한다.
다음 샘플러(142)와 행밍 윈도우 블럭(143)은 제11도의 블럭(1107 내지 1110)에 의해 실행이 된다. 블럭(142)에 의해 실행되는 다운 샘플링은 블럭(1108)에 의해 실행되며, 방정식(2)와 같이 햄밍 윈도우 기능을 블럭(1109)에 의해 실행된다. 결정 블럭(1107)와 연결 블럭(1110)은 어레이(C)에 기억된 데이타 지점에 대해 상기 작동을 수행한다.
제12도의 블럭(1201 내지 1207)은 FFT스펙트럼 크기 블럭(144)의 기능을 수행한다. 방정식(3)으로 정의된 바와 같이 제로 인가는 블럭(1201 내지 1203)에 의해 실행된다. 블럭(1201 내지 1203)으로 부터의 결과적인 데이타 지점상에서 퓨리에 급변환의 실행은 방정식(4)으로 규정된 바와 같은 동일한 결과를 제공하는 블럭(1204)에 의해 실행된다. 블럭(1205 내지 1207)은 방정식(5)에 의해 규정된 스펙트럼을 얻기 위해 이용된다.
제1도의 블럭(145,146,147)은 제12도 및 13도의 블럭(1208 내지 1314)에 의해 도시된 단계를 실행한다. 제1도의 선로(131)를 통해 피치 검출기(109)로부터 수신된 피치 주기는 블럭(1208)에 의해 기본 주파수 Fr로 변환이 된다. 상기 변환은 고조파 피크 색출기(145) 및 고조파 계산기(147)에 의해 실행된다. 만약 기본 주파수가 60㎐정도일 수 있는 소정 주파수 Q이하 또는 같을때, 결정 블럭(1209)은 고조파 옵셋을 0으로 셋트시키는 블럭(1301,1302)에 제어 신호를 전달한다. 만약 기본 주파수가 규정치 Q보다 클때 제어신호는 결정 블럭(1209)에 의해 결정 블럭(1303)에 전달된다. 결정 블럭(1303)과 연결기 블럭(1314)는 고조파 1 내지 5에 대한 고조파 옵셋의 보조 셋트의 계산을 제어한다.
K0에 의해 규정되는 초기 고조파는 1에 셋트되고 K1에 의해 결정되는 상부 고조파 값은 5에 셋트된다. 블럭(1304)은 현재 계산되고 있는 고조파가 스펙트럼 S내에서 발견될 수 있는 초기 평가 값을 결정한다. 블럭(1305 내지 1308)은 계산되는 현재 고조파와 관련된 피크의 위치를 찾는다. 이들 후자 블럭은 고조파 피크 색출기(145)를 구성한다. 피크를 찾은 다음 블럭(1309)은 블럭(146)의 고조파 보관기능을 수행한다.
고조파 계산기(147)는 블럭(1310 내지 1313)에 의해 실행이 된다. 처음 현재 계산되고 있는 고조파에 대해 감소되지 않은 옵셋은, 블럭(1310)의 실행에 의해 얻어진다. 다음, 블럭(1310)의 결과는 블럭(1311)에 의해 감소되어 정수가 얻어진다. 결정 블럭(1312)은 에러가 있는 고조파 피크가 색출되는 것을 방지하기 위해 옵셋이 소정의 범위내에 있도록 하기 위해 검색을 한다. 만약 계산된 옵셋이 소정의 범위보다 큰 경우, 옵셋은 블럭(1313)의 실행에 의해 0으로 셋트된다. 모든 고조파 옵셋이 계산된 후, 제어 신호는 제1도의 변수 인코더(113)에 전달된다.
제14도 내지 제19도는 제2도의 합성기를 동작시키는데 있어서 프로세서(803)에 의해 실행되는 단계를 상세히 도시한다. 제2도의 고조파 주파수 계산기(212,211)는 제14도의 블럭(1418 내지 1424)에 의해 실행이 된다. 블럭(1418)는 변수가 상기 감소되어 전송된 옵셋은 블럭(1421,1424)에 의해 첫번째 5개의 이론적인 고조파 주파수에 첨가되다. 상기 상수 K0와 K1은 각각 블럭(1421)에 의해 "1" 및 "5"와 같도록 셋트된다.
고조파 진폭 계산기(213)는 제14도 및 15도의 블럭(1401 내지 1417)을 실행하여 제8도의 프로세서(803)에 의해 실행된다. 블럭(1401 내지 1407)은 방정식(11)으로 주어진 음역의 모든 극 필터 설명을 위해 LPC 반사 계수를 변환시키기 위해 절차를 실행한다. 블럭(1408 내지 1412)은 방정식(13)으로 정의된 바와 같이 각 고조파에 대해 감소되지 않는 고조파 에너지를 계산한다. 블럭(1413 내지 1415)는 방정식(14)에 의해 규정된 바와 같이 전체 감소되지 않은 에너지(E)를 계산하는데 이용이 된다. 블럭(1416,1417)은 방정식(16)에 의해 규정된 i번째 고조파 진폭이 감소된 프레임
Figure kpo00029
를 계산한다.
제15도 내지 제18도의 블럭(1501 내지 1521)과 블럭(1614 내지 1601)은 제7도 및 8도에 도시된 바와 같이 각 고조파에 대해 주파수 및 진폭을 위한 보간을 실행함에 있어서 프로세서(803)에 의해 실행된다. 상기 작동은 블럭(1601 내지 1614)에 의해 프레임의 제2부분과 블럭(1501 내지 1521)에 의해 프레임의 제1부분이 처리되는 것에 의해 실행이 된다. 제7도에 도시된 바와 같이, 프레임 C의 제1부분은 지점 701 내지 702까지 연장되며, 프레임 C의 제2부분은 지점 702 내지 703까지 연장된다. 상기 블럭에 의해 실행된 작동은 이전 프레임이 유성음 또는 무성음 인가를 먼저 결정하는 것이다.
구체적으로 제15도의 블럭(1501)은 초기치를 설정한다. 결정 블럭(1502)은 이전 프레임이 유성음 또는 무성음이었는지에 대해 결정한다. 만약 이전 프레임이 무성음인 경우, 결정 블럭(1504 내지 1501)이 실행된다. 제17도의 블럭(1504,1507)은 위상에 대한
Figure kpo00030
및 진폭에 대한
Figure kpo00031
에 대한 프레임의 초기부터 각 고조파에 대한 고조파 주파수 및 진폭에 대한 제1데이타 지점을 초기화시킨다. 이는 제7도 8도의 도면에 대응한다. 프레임의 제1데이타 지점에 대한 초기 값이 설정된 후, 이전 무성음 프레임에 대한 나머지 값은 블럭(1508 내지 1510)의 실행에 의해 설정된다. 고조파 주파수의 경우에 있어서, 주파수는 제7도에 도시된 바와 같이 중심 주파수와 같게 셋트된다. 각 데이타 지점에 대한 고조파 진폭의 경우에 대해서는 제8도의 프레임 C에 대해 도시된 바와 같이 프레임의 개시점에 있는 제로부터 중간 지점 진폭까지 선형 근사치와 같게 셋트된다.
만약 블럭 (1502)에 의해 이전 프레임이 유성이었다는 것이 판정된 경우 제16도의 결정 블럭(1503)이 실행된다. 결정 블럭(1503)은 이전 프레임이 현재 프레임보다 많은 또는 적은 고조파를 갖는가를 결정한다. 고조파의 수는 변수 sh에 의해 표시된다. 어느 프레임이 가장 많은 고조파를 갖는가에 따라 블럭(1505) 또는 블럭(1506)이 실행될 것인가를 결정한다. 변수 hmin은 프레임의 가장 작은 고조파의 수에 셋트된다. 블럭(1505) 또는 블럭(1506)이 실행된 다음 블럭(1511,1512)가 실행된다. 후자의 블럭은 주파수 및 진폭에 대해 이전 프레임의 최종 지점을 계산하여 현재 프레임의 초기 지점을 결정한다. 모든 고조파에 대해 상기 작동이 실행된 다음, 블럭(1513 내지 1515)는 방정식(22)과 방정식(26)에 의해 규정된 바와 같이 모든 고조파에 대해 주파수 및 진폭을 위한 각각의 샘플당 값을 계산한다.
변수 hmin으로 규정된 바와 같이 모든 고조파가 계산된 샘플당 주파수 및 진폭을 가진 다음 블럭(1516 내지 1512)은 현재 프레임이 이전 프레임보다 더 많은 고조파를 가질 수 있다는 것을 설명하기 위해 계산된다. 만약 현재의 프레임이 이전 프레임보다 많은 고조파를 갖는 경우, 결정 블럭(1516)은 제어 신호를 블럭(1517)에 전달한다. 이전 프레임보다 현재 프레임에서 보다 많은 고조파가 있는 경우, 블럭(1517 내지 1521)이 실행되며, 이들의 작동은 이미 설명한 바와 같이 블럭(1504 내지 1510)과 같다.
두번째 1/2 프레임에 대한 주파수 및 진폭에 대한 각 고조파를 위한 샘플당 지점의 계산은 블럭(1601 내지 1614)로 도시되어 있다. 다음 프레임이 유성음 또는 무성음인가에 대한 결정은 블럭(1601)에 의해 이루어진다. 만약 다음 프레임이 무성음인 경우, 블럭(1603 내지 1607)이 실행된다. 초기 지점이 주파수 및 진폭에 대한 프레임의 중간 지점에 있기 때문에 블럭(1504,1507)에 의해 실행된 바와 같이 초기치를 결정할 필요가 있다는 사실에 유의하여야 한다. 블럭(1603 내지 1607)은 블럭(1508 내지 1510)에 의해 실행된 기능과 유사한 기능을 한다. 만약 다음 프레임이 유성음 프레임이라면, 결정 블럭(1602,1604) 또는 블럭(1605)가 실행된다. 이들 블럭의 실행은 블럭(1503,1505,1506)에 대해 이미 기술된 바와 같은 실행과 유사하다. 블럭(1608 내지 1516)은 상술한 블럭(1513 내지 1516)에 대한 작동과 유사하다. 주파수 및 진폭에 대한 두번째 1/2 프레임에 대한 초기 상태를 설정하는 것이 필요하다. 블럭(1612 내지 1614)은 상술된 바와 같이 블럭(1519 내지 1521)에 대한 작동과 유사하다.
발생기(214)에 의해 실행되는 최종 작동은 상술한 바와 같이 각 고조파에 대해 계산된 샘플당 주파수 및 진폭을 이용하여 음성의 실제싸인파 구성이다. 제19도의 블럭(1701 내지 1707)은 주파수로부터 고조파의 위상을 계산하기 위해 이전에 계산된 주파수 정보를 이용하며, 다음, 방정식(1)에 정의된 계산을 실행한다. 블럭(1702,1703)은 프레임의 개시에 대해 초기 음성 샘플을 결정한다. 상기 초기 지점이 결정된 다음 프레임에 대한 음성 샘플의 나머지는 블럭(1704 내지 1707)에 의해 계산된다. 상기 블럭으로부터의 출력은 디지탈-아날로그 변환기(208)에 전송된다.
계산기(211)의 또 다른 실시예는 5보다 큰 고조파에 대해 계산된 이론적 고조파 주파수를 변화시키기 위해 전송된 고조파 옵셋을 다시 이용하며, 제20도에 도시되어 있다. 블럭(2003 내지 2005)는 5번째 이상의 고조파를 5개의 그룹으로 형성하는데 이용되며, 블럭(2006,2007)은 전송된 대응 고조파 옵셋을 상기 그룹에 있는 이론적 고조파 주파수의 각각에 첨가시킨다.
제21도는 제20도에 도시된 실시예와 다른 계산기의 제2실시예를 도시하며, 여기서 옵셋의 순서는 블럭(2100)에 의해 첫번째 5개 고조파 이상의 고조파 주파수의 각 그룹에 대해 임의의 순열 형태로 선택이 된다. 제21도의 블럭(1201 내지 2108)은 제20도의 대응 블럭의 기능과 유사한 기능을 수행한다.
제3실시예가 제22도에 도시되어 있다. 상기 실시예는 블럭(2202,2205)의 제어하에서 각 고조파 주파수에 대해 블럭(2203,2204)으로 도시된 계산을 수행하여 제2도의 발생기(214)와 계산기(213)에 전송된 이론적 고조파 주파수로부터 고조파 주파수를 변화시킨다.
상술된 실시예는 본 발명의 원리를 설명하는 것에 지나지 않으며, 본 분야의 기술에 숙련된 사람에 의해 본원의 사상과 범주를 벗어나지 않고도 변형이 가능하다.

Claims (8)

  1. 음성을 다수의 음성 프레임으로 세그먼트를 나누는 세그먼트(102,141)를 구비하며, 이들 각각은 음성의 순간 진폭의 균일하게 간격을 둔 샘플의 소정 수를 가지며 이들 각각은 앞 프레임 및 다음 프레임과 소정수의 샘플이 중복되며, 각 프레임에 대해 음역을 규정하는 음성 변수 신호의 셋트를 계산하는 LPC계산기(111)를 구비하고, 음성 샘플의 프레임당 프레임 에너지를 계산하는 에너지 계산기(103)를 구비하여 음성을 인코딩하기 위한 처리 시스템에 있어서, 각 프레임에 대한 스펙트럼을 발생하기 위해 각 프레임의 상기 음성 샘플의 스펙트럼 분석을 실행하기 위한 스펙트럼 분석기(142,143,144)와 ; 각 프레임에 대응하는 스펙트럼으로부터 각 프레임에 대한 기본 주파수 신호를 검출하기 위한 피치 검출기(109)와 ; 각 프레임에 대응하는 스펙트럼으로부터 각 프레임에 대한 고조파 주파수 신호의 보조 셋트를 결정하기 위한 고조파 피크 검출기(145)와 ; 상기 고조파 주파수 신호의 각각과 상기 기본 주파수 신호의 정수배 사이의 차리를 나타내는 옵셋 신호를 결정하기 위한 고조파 계산기(147)와 ; 음성 합성을 위해 상기 프레임 에너지의 인코드된 표시와, 상기 음성 변수의 셋트와 상기 기본 주파수 신호와 상기 옵셋 신호를 전송하기 위한 변수 인코더(113)를 구비하는 것을 특징으로 하는 음성 처리 시스템.
  2. 제1항에 있어서, 상기 스펙트럼 분석기는 상기 음성 샘플을 다운 샘플링하기 위한 샘플러(142)를 구비하여 계산량을 감소시키는 것을 특징으로 하는 음성 처리 시스템.
  3. 제2항에 있어서, 상기 피치 검출기는 프레임을 유성음과 무성음으로 지정하며, 상기 시스템은 사람의 성대에서 잡음 형태의 소스로부터 프레임 중의 하나로 된 음성이 나오고 상기 지지 수단이 무성음 프레임을 표시함에 따라 잡음형 여기를 사용하도록 표시하는 신호를 전송하기 위해 잡음/다중 펄스 결정 회로(112)를 구비하며 ; 잡음형 소스가 존재하지 않고 상기 지정 수단이 무성음 프레임을 표시함에 따라 다중 펄스 여기 소스로부터 여기 정보를 형성하기 위한 펄스 분석기(110)를 구비하며 ; 상기 변수 인코더는 음성 합성을 위해 다중 펄스 여기 정보의 인코드된 표시 신호와 음성 변수의 셋트를 전송하기 위해 상기 다중 펄스 여기 정보와 상기 음성 변수의 셋트에 응답하는 것을 특징으로 하는 음성 처리 시스템.
  4. 음성의 순간 진폭의 균일 간격의 샘플 소정수를 갖는 음성 프레임을 나타내며, 각 프레임에 대한 인코드된 정보는 프레임 에너지와, 음성 변수의 셋트 및 음성의 기본 주파수 및 기본 주파수로부터 유도된 바와 같이 이론적인 고조파 주파수와 실제고조파 주파수의 보조 셋트 사이의 차이를 나타내는 옵셋 신호를 구비하는 정보로부터 음성을 합성하기 위한 방법에 있어서, 옵셋 신호에 대응하는 고조파 위상 신호의 보조 셋트를 계산하는 단계와 ; 상기 기본 주파수 신호로부터 상기 프레임중의 하나에 대해 나머지 고조파 위상 신호를 계산하는 단계와 ; 프레임 에너지와 프레임중의 하나의 음성 변수 셋트로부터 기본 주파수 신호와 고조파 위상 신호의 보조 셋트와 나머지 고조파 위상 신호의 진폭을 결정하는 단계와 ; 상기 기본 신호와 상기 보조 셋트와 나머지 고조파 위상 신호 및 상기 프레임 중의 하나에 대해 결정된 진폭에 응답하여 복제된 음성을 발생하는 단계를 구비하는 것을 특징으로 하는 음성 처리 방법.
  5. 제4항에 있어서, 상기 계산 단계는 상기 나머지 고조파 위상 신호의 각각에 대해 주파수를 발생하기 위해 각 고조파의 수를 상기 기본 주파수 신호와 곱하는 단계와 발생된 주파수를 산술적으로 변화시키는 단계와 상기 변화된 주파수로부터 나머지 위상 신호를 계산하는 단계를 구비하는 것을 특징으로 하는 음성 처리 방법.
  6. 제4항에 있어서, 상기 계산 단계는 상기 기본 주파수 신호는 상기 나머지 고조파 신호의 각각에 대한 고조파 수를 곱하여 상기 나머지 고조파 위상 신호에 대응하는 나머지 고조파 주파수 신호를 발생하는 단계와 ; 곱셈이된 주파수 신호를 다수의 보조 셋트로 그룹을 형성하는 단계를 구비하며, 상기 보조 셋트 각각은 고조파 위상 신호의 보조 셋트와 같은 수의 고조파를 가지며 ; 변화된 나머지 고조파 주파수 신호를 발생하기 위해 다수의 보조 셋트의 각각의 대응 주파수 신호 그룹에 옵셋 신호를 가산하는 단계와 ; 상기 변화된 고조파 주파수 신호로부터 상기 나머지 고조파 위상 신호를 계산하는 단계를 구비하는 것을 특징으로 하는 음성 처리 방법.
  7. 제6항의 방법에 있어서, 상기 가산 단계는 변화된 나머지 고조파 신호를 발생하기 위해 상기 다수의 보조 셋트 각각의 대응 주파수 신호 그룹에 상기 신호를 가산하기 전에 상기 옵셋 신호의 순서를 바꾸는 단계를 구비하는 것을 특징으로 하는 음성 처리 방법.
  8. 제4항에 있어서, 상기 결정 단계는 상기 프레임중의 하나에 대해 음성 변수의 셋트로부터 상기 각 고조파 위상 신호의 감소되지 않은 에너지를 계산하는 단계와 ; 상기 프레임 중의 하나에 대해 상기 고조파 신호의 모두를 위해 감소되지 않은 에너지를 합하는 단계와 ; 상기 고조파 신호의 각각의 고조파 에너지와 합산되어 감소되지 않은 에너지 및 상기 프레임 중의 하나에 대한 프레임 에너지에 응답하여 상기 고조파 위상 신호의 진폭을 계산하는 단계를 구비하는 것을 특징으로 하는 음성 처리 방법.
KR1019870007479A 1986-09-11 1987-07-11 음성 처리 시스템 및 음성 처리방법 KR960002387B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US06/906,424 US4771465A (en) 1986-09-11 1986-09-11 Digital speech sinusoidal vocoder with transmission of only subset of harmonics
US906,424 1986-09-11

Publications (2)

Publication Number Publication Date
KR880004425A KR880004425A (ko) 1988-06-07
KR960002387B1 true KR960002387B1 (ko) 1996-02-16

Family

ID=25422427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019870007479A KR960002387B1 (ko) 1986-09-11 1987-07-11 음성 처리 시스템 및 음성 처리방법

Country Status (9)

Country Link
US (1) US4771465A (ko)
EP (1) EP0259950B1 (ko)
JP (1) JPH0833753B2 (ko)
KR (1) KR960002387B1 (ko)
AT (1) ATE73251T1 (ko)
AU (1) AU575515B2 (ko)
CA (1) CA1307344C (ko)
DE (1) DE3777028D1 (ko)
SG (1) SG123392G (ko)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4797926A (en) * 1986-09-11 1989-01-10 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech vocoder
JP2586043B2 (ja) * 1987-05-14 1997-02-26 日本電気株式会社 マルチパルス符号化装置
US5023910A (en) * 1988-04-08 1991-06-11 At&T Bell Laboratories Vector quantization in a harmonic speech coding arrangement
US5179626A (en) * 1988-04-08 1993-01-12 At&T Bell Laboratories Harmonic speech coding arrangement where a set of parameters for a continuous magnitude spectrum is determined by a speech analyzer and the parameters are used by a synthesizer to determine a spectrum which is used to determine senusoids for synthesis
US5127054A (en) * 1988-04-29 1992-06-30 Motorola, Inc. Speech quality improvement for voice coders and synthesizers
EP0351479B1 (en) * 1988-07-18 1994-10-19 International Business Machines Corporation Low bit rate voice coding method and device
US5293448A (en) * 1989-10-02 1994-03-08 Nippon Telegraph And Telephone Corporation Speech analysis-synthesis method and apparatus therefor
CA2010830C (en) * 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5701392A (en) * 1990-02-23 1997-12-23 Universite De Sherbrooke Depth-first algebraic-codebook search for fast coding of speech
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
CA2635914A1 (en) * 1991-06-11 1992-12-23 Qualcomm Incorporated Error masking in a variable rate vocoder
US5189701A (en) * 1991-10-25 1993-02-23 Micom Communications Corp. Voice coder/decoder and methods of coding/decoding
JP3277398B2 (ja) * 1992-04-15 2002-04-22 ソニー株式会社 有声音判別方法
FI95085C (fi) * 1992-05-11 1995-12-11 Nokia Mobile Phones Ltd Menetelmä puhesignaalin digitaaliseksi koodaamiseksi sekä puhekooderi menetelmän suorittamiseksi
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
IT1257431B (it) * 1992-12-04 1996-01-16 Sip Procedimento e dispositivo per la quantizzazione dei guadagni dell'eccitazione in codificatori della voce basati su tecniche di analisi per sintesi
US5448679A (en) * 1992-12-30 1995-09-05 International Business Machines Corporation Method and system for speech data compression and regeneration
JP3137805B2 (ja) * 1993-05-21 2001-02-26 三菱電機株式会社 音声符号化装置、音声復号化装置、音声後処理装置及びこれらの方法
US5787387A (en) * 1994-07-11 1998-07-28 Voxware, Inc. Harmonic adaptive speech coding method and system
TW271524B (ko) * 1994-08-05 1996-03-01 Qualcomm Inc
US5742734A (en) * 1994-08-10 1998-04-21 Qualcomm Incorporated Encoding rate selection in a variable rate vocoder
US5701390A (en) * 1995-02-22 1997-12-23 Digital Voice Systems, Inc. Synthesis of MBE-based coded speech using regenerated phase information
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
JP2861889B2 (ja) * 1995-10-18 1999-02-24 日本電気株式会社 音声パケット伝送システム
JPH09185397A (ja) * 1995-12-28 1997-07-15 Olympus Optical Co Ltd 音声情報記録装置
US5794199A (en) * 1996-01-29 1998-08-11 Texas Instruments Incorporated Method and system for improved discontinuous speech transmission
US5778337A (en) * 1996-05-06 1998-07-07 Advanced Micro Devices, Inc. Dispersed impulse generator system and method for efficiently computing an excitation signal in a speech production model
US6219637B1 (en) 1996-07-30 2001-04-17 Bristish Telecommunications Public Limited Company Speech coding/decoding using phase spectrum corresponding to a transfer function having at least one pole outside the unit circle
US5751901A (en) * 1996-07-31 1998-05-12 Qualcomm Incorporated Method for searching an excitation codebook in a code excited linear prediction (CELP) coder
KR19980025793A (ko) * 1996-10-05 1998-07-15 구자홍 음성데이타 보정방법 및 장치
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
JP2001500284A (ja) * 1997-07-11 2001-01-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 改良した調波音声符号器を備えた送信機
WO1999003097A2 (en) * 1997-07-11 1999-01-21 Koninklijke Philips Electronics N.V. Transmitter with an improved speech encoder and decoder
US6029133A (en) * 1997-09-15 2000-02-22 Tritech Microelectronics, Ltd. Pitch synchronized sinusoidal synthesizer
US6230130B1 (en) 1998-05-18 2001-05-08 U.S. Philips Corporation Scalable mixing for speech streaming
US6810409B1 (en) 1998-06-02 2004-10-26 British Telecommunications Public Limited Company Communications network
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6453287B1 (en) * 1999-02-04 2002-09-17 Georgia-Tech Research Corporation Apparatus and quality enhancement algorithm for mixed excitation linear predictive (MELP) and other speech coders
US6959274B1 (en) 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
WO2001037263A1 (en) * 1999-11-16 2001-05-25 Koninklijke Philips Electronics N.V. Wideband audio transmission system
SE0001926D0 (sv) * 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
KR100861884B1 (ko) * 2000-06-20 2008-10-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 정현파 코딩 방법 및 장치
EP1440433B1 (en) * 2001-11-02 2005-05-04 Matsushita Electric Industrial Co., Ltd. Audio encoding and decoding device
US20030108108A1 (en) * 2001-11-15 2003-06-12 Takashi Katayama Decoder, decoding method, and program distribution medium therefor
JP2003255976A (ja) * 2002-02-28 2003-09-10 Nec Corp 音声素片データベースの圧縮伸張を行なう音声合成装置及び方法
US7027980B2 (en) * 2002-03-28 2006-04-11 Motorola, Inc. Method for modeling speech harmonic magnitudes
US7343283B2 (en) * 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US20050065787A1 (en) * 2003-09-23 2005-03-24 Jacek Stachurski Hybrid speech coding and system
CN101542593B (zh) * 2007-03-12 2013-04-17 富士通株式会社 语音波形内插装置及方法
US8688441B2 (en) * 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
JP5229234B2 (ja) * 2007-12-18 2013-07-03 富士通株式会社 非音声区間検出方法及び非音声区間検出装置
US8433582B2 (en) * 2008-02-01 2013-04-30 Motorola Mobility Llc Method and apparatus for estimating high-band energy in a bandwidth extension system
US20090201983A1 (en) * 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
KR20100006492A (ko) 2008-07-09 2010-01-19 삼성전자주식회사 부호화 방식 결정 방법 및 장치
US8463412B2 (en) * 2008-08-21 2013-06-11 Motorola Mobility Llc Method and apparatus to facilitate determining signal bounding frequencies
US8463599B2 (en) * 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
TWI626645B (zh) 2012-03-21 2018-06-11 南韓商三星電子股份有限公司 編碼音訊信號的裝置
CN103811011B (zh) * 2012-11-02 2017-05-17 富士通株式会社 音频弦波检测方法和装置
BR112015032013B1 (pt) * 2013-06-21 2021-02-23 Fraunhofer-Gesellschaft zur Förderung der Angewandten ForschungE.V. Método e equipamento para a obtenção de coeficientes do espectropara um quadro de substituição de um sinal de áudio, descodificador de áudio,receptor de áudio e sistema para transmissão de sinais de áudio
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
US9400861B2 (en) 2014-02-07 2016-07-26 Freescale Semiconductor, Inc. Method of optimizing the design of an electronic device with respect to electromagnetic emissions based on frequency spreading introduced by software, computer program product for carrying out the method and associated article of manufacture
US9323878B2 (en) * 2014-02-07 2016-04-26 Freescale Semiconductor, Inc. Method of optimizing the design of an electronic device with respect to electromagnetic emissions based on frequency spreading introduced by data post-processing, computer program product for carrying out the method and associated article of manufacture
US9323879B2 (en) 2014-02-07 2016-04-26 Freescale Semiconductor, Inc. Method of optimizing the design of an electronic device with respect to electromagnetic emissions based on frequency spreading introduced by hardware, computer program product for carrying out the method and associated article of manufacture
RU2584462C2 (ru) * 2014-06-10 2016-05-20 Федеральное государственное образовательное бюджетное учреждение высшего профессионального образования Московский технический университет связи и информатики (ФГОБУ ВПО МТУСИ) Способ передачи и приема сигналов, представленных параметрами ступенчатого модуляционного разложения, и устройство для его осуществления
CN113393849B (zh) * 2019-01-29 2022-07-12 桂林理工大学南宁分校 一种双模块数据处理的对讲机系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4058676A (en) * 1975-07-07 1977-11-15 International Communication Sciences Speech analysis and synthesis system
JPS5543554A (en) * 1978-09-25 1980-03-27 Nippon Musical Instruments Mfg Electronic musical instrument
US4304965A (en) * 1979-05-29 1981-12-08 Texas Instruments Incorporated Data converter for a speech synthesizer
JPS56119194A (en) * 1980-02-23 1981-09-18 Sony Corp Sound source device for electronic music instrument
JPS56125795A (en) * 1980-03-05 1981-10-02 Sony Corp Sound source for electronic music instrument
US4513651A (en) * 1983-07-25 1985-04-30 Kawai Musical Instrument Mfg. Co., Ltd. Generation of anharmonic overtones in a musical instrument by additive synthesis
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement
JPS6121000A (ja) * 1984-07-10 1986-01-29 日本電気株式会社 Csm型音声合成器
AU597573B2 (en) * 1985-03-18 1990-06-07 Massachusetts Institute Of Technology Acoustic waveform processing
US4720861A (en) * 1985-12-24 1988-01-19 Itt Defense Communications A Division Of Itt Corporation Digital speech coding circuit

Also Published As

Publication number Publication date
CA1307344C (en) 1992-09-08
KR880004425A (ko) 1988-06-07
AU575515B2 (en) 1988-07-28
EP0259950A1 (en) 1988-03-16
DE3777028D1 (de) 1992-04-09
JPH0833753B2 (ja) 1996-03-29
ATE73251T1 (de) 1992-03-15
JPS6370300A (ja) 1988-03-30
EP0259950B1 (en) 1992-03-04
AU7530287A (en) 1988-03-17
SG123392G (en) 1993-02-19
US4771465A (en) 1988-09-13

Similar Documents

Publication Publication Date Title
KR960002387B1 (ko) 음성 처리 시스템 및 음성 처리방법
KR960002388B1 (ko) 언어 엔코딩 처리 시스템 및 음성 합성방법
CA1337665C (en) Computationally efficient sine wave synthesis for acoustic waveform processing
US6885986B1 (en) Refinement of pitch detection
US5794182A (en) Linear predictive speech encoding systems with efficient combination pitch coefficients computation
US5305421A (en) Low bit rate speech coding system and compression
USRE36478E (en) Processing of acoustic waveforms
US5384891A (en) Vector quantizing apparatus and speech analysis-synthesis system using the apparatus
US5179626A (en) Harmonic speech coding arrangement where a set of parameters for a continuous magnitude spectrum is determined by a speech analyzer and the parameters are used by a synthesizer to determine a spectrum which is used to determine senusoids for synthesis
US4821324A (en) Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate
US6453283B1 (en) Speech coding based on determining a noise contribution from a phase change
CA1065490A (en) Emphasis controlled speech synthesizer
EP0745971A2 (en) Pitch lag estimation system using linear predictive coding residual
JP2759646B2 (ja) 音響波形の処理
US4945565A (en) Low bit-rate pattern encoding and decoding with a reduced number of excitation pulses
US4890328A (en) Voice synthesis utilizing multi-level filter excitation
McAulay et al. Mid-rate coding based on a sinusoidal representation of speech
JP4194656B2 (ja) 波形の合成
US5839102A (en) Speech coding parameter sequence reconstruction by sequence classification and interpolation
US6026357A (en) First formant location determination and removal from speech correlation information for pitch detection
KR100310930B1 (ko) 음성합성장치및그방법
Bronson et al. Harmonic coding of speech at 4.8 Kb/s
JPH07104793A (ja) 音声信号の符号化装置及び復号化装置
Li Fixed and variable bit-rate speech coding using sinusoidal transform coding with discrete all-pole modelling
JPH01257999A (ja) 音声信号符号化復号化方法及び音声信号符号化装置

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070208

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee