KR100310930B1 - 음성합성장치및그방법 - Google Patents
음성합성장치및그방법 Download PDFInfo
- Publication number
- KR100310930B1 KR100310930B1 KR1019960054320A KR19960054320A KR100310930B1 KR 100310930 B1 KR100310930 B1 KR 100310930B1 KR 1019960054320 A KR1019960054320 A KR 1019960054320A KR 19960054320 A KR19960054320 A KR 19960054320A KR 100310930 B1 KR100310930 B1 KR 100310930B1
- Authority
- KR
- South Korea
- Prior art keywords
- pitch
- unit
- detecting
- voice
- detected
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 18
- 239000011295 pitch Substances 0.000 claims description 96
- 230000002776 aggregation Effects 0.000 claims description 21
- 238000004220 aggregation Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 15
- 238000012935 Averaging Methods 0.000 claims description 6
- 230000006698 induction Effects 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 9
- 239000011159 matrix material Substances 0.000 abstract description 4
- 230000001360 synchronised effect Effects 0.000 abstract 2
- 230000015572 biosynthetic process Effects 0.000 description 24
- 238000003786 synthesis reaction Methods 0.000 description 22
- 238000001308 synthesis method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
- G10L13/0335—Pitch control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
본 발명은 디지털 통신 시스템의 음성신호 처리에 있어서, 음의 변화량을 비선형적으로 모델링하는 피치 동기 방식에 의한 피치 매트릭싱 방법과 선형 예측 방법을 이용한 이차원 비선형 인터폴레이션/데시메이션 기술을 통하여 음성을 합성함으로써 음의 자연성 및 명료성이 우수한 고음질의 음성 데이터 서비스를 제공할 수 있으며, 간단한 구조의 하드웨어 및 소프트웨어의 구현이 가능한 음성 합성장치 및 그 방법에 관한 것으로, 입력되는 음성신호가 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하고, 이 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성하는 제1과정과, 상기 제1과정에서 형성된 각 피치집합군에 대한 상관관계계수를 검출하고, 이 검출된 상관관계 계수를 평균하여 예측 계수를 산출하는 제2과정과, 상기 제2과정에서 산출된 예측 계수와 상기 제1과정에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성하는 제3과정과, 입력되는 음성신호가 무성음인 경우 이 음성신호를 가우시안 잡음으로 대치하여 처리하는 제4과정으로 이루어지는 것을 특징으로 한다.
Description
제1도는 본 발명에 의한 음성 합성장치의 블록 구성도.
제2도는 본 발명에 의한 음성 합성 제어흐름도.
제3도는 본 발명에 의한 이차원 비선형 인터폴레이션 기술의 원리를 나타낸 도면.
제4도의 (a)는 한 프래임내의 음성신호 파형도.
(b)는 본 발명의 합성장치에 의해 합성된 음성신호 파형도.
* 도면의 주요부분에 대한 부호의 설명
10 : 유/무성음 검출부 20 : 피치주기 검출부
30 : 피치집합군 형성부 40 : 상관관계계수 검출부
50 : 선형 예측 적용부 60 : 예측 계수 합성부
70 : 가우시안 잡음 처리부
본 발명은 디지털 통신 시스템의 음성신호 처리에 있어서, 음의 변화량을 비선형적으로 모델링하는 피치 동기 방식에 의한 피치 매트릭싱(pitch matrixing) 방법과 선형 예측 방법을 이용한 이차원 비선형 인터폴레이션/데시메이션(interpolation/decimation)기술을 통하여 음성을 합성함으로써 음의 자연성(naturality) 및 명료성(intelligibility)이 우수한 고음질의 음성데이터 서비스를 제공할 수 있으며, 간단한 구조의 하드웨어 및 소프트웨어의 구현이 가능한 음성 합성장치 및 그 방법에 관한 것이다.
일반적으로 급속히 변화하는 산업사회에서 쏟아지는 많은 정보들은 영상이나 음성을 통해서 전달되게 되며, 특히 상기 음성을 사용한 정보전달방법은 통신수단이나 대화수단으로서 가장 오랫동안 사용되어 온 통신방법이다.
최근, 통신방식이 아날로그에서 디지털화 되어가는 시점에서 음성신호를 디지털화하여 송수신하는 디지털 통신 시스템의 음성신호 처리에 있어서, 많은 음성 합성 기술 및 부호화, 복호화 기술이 대두되고 있다.
이러한 음성 합성 기술에 있어서, 그 합성 방법으로는 대역제한된 신호 표본화(sampling)와 양자화를 거쳐 반복적이고 불필요한 잉여성분을 제거한 후에 합성하는 시간영역 합성법(time domain method)과 음성 생성과정(speech production model)에 근거한 주파수별로 각 독립된 필터를 사용하여 합성하는 주파수영역 합성법(frequency domain method) 및 상기 시간영역 합성법과 주파수영역 합성법의 장점을 이용하여 합성하는 혼성 합성법(hybrid method)이 있다.
상기 시간영역 합성법은 잉여성분만을 제거하여 합성하므로 음질의 자연성 및 명료성이 매우 높으나, 많은 양의 정보가 필요하여 메모리의 효율성이 저하되는 단점이 있으며, 이런 합성법으로는 PCM(pulse code modulation), DM(delta modulation), ADM(adaptive modulation), DPCM(differential pulse code modulation)등이 있다.
그리고, 음성 생성과정에 근거하여 음성은 음원(source)과 성도필터(vocal tract)에 의하여 생성되고 이를 모델링하여 인위적으로 합성하는 상기 주파수영역 합성법은 시간영역에서 주파수영역으로 변환하여 여기성분(excitation)과 포만트성분(formant)을 분리한 후 독립적으로 합성하는 것으로서, 이 방법에는 LPC(linear prediction coding), LSP(linear spectrum pair), PARCOR 등이 있으며, 특징 파라미터만으로 합성함에 따라 메모리 사용이 효율적인 장점이 있다.
그러나, 음의 전이, 음의 시작/끝, 유/무성음의 반복시에는 상기 특징 파라미터만으로는 모델링을 할 수 없기 때문에 음질의 열화가 발생하고, 특히 비음이나 마찰음을 모델링하는 데는 전극형모델(all-pole model)에서 극-영형모델(zero-pole model)이 요구되어 음의 자연성과 명료성이 떨어지는 결점이 있다.
또한, 상기 시간영역 합성법의 장점인 고음질과 주파수영역 합성법의 장점인 메모리 효율성을 취한 혼성 합성법은 반복적인 분석에 의한 합성(synthesis by analysis) 또는 규칙에 의한 합성(synthesis by rule)을 적용함에 따라 낮은 비트율로서 고음질을 보장받기 위해서는 반복적인 계산과정과 비교과정이 필요하게 되고, 이로 인하여 계산량이 방대해짐은 물론 구조가 복잡해지는 단점이 있다.
상기와 같은 시간영역 합성법, 주파수영역 합성법 및 혼성 합성법은 대부분 분석 후에 다시 합성하는 분석에 의한 합성과 임의의 규칙에 따라 합성하여 출력하는 규칙에 의한 합성에 의한 것으로서, 독립된 데이터를 데이터 베이스로 사용하기 때문에 음과 음의 연결이 부드럽지 않으며, 음의 자연스러운 변화를 추정하지 않고 합성함에 따라 음의 자연성이 떨어지게 된다.
특히, 음의 변화가 심하고 피치가 변화하는 구간, 강세와 억양의 변화가 심한 음에서는 자연성이 열화되어 반복해서 듣지 않으면 음을 확실히 구별할 수가 없게 되고, 고음질을 서비스하기 위해 혼성 합성법을 사용하는 경우에도 복잡한 구조와 방대한 계산시간이 요구되게 되는 등 많은 문제점이 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 그 목적은 피치 동기 인터폴레이션(Pitch Synchronous Interpolation; PSI)을 이용한 피치 매트릭싱 방법과 선형 예측 방법을 이용한 비선형 인터폴레이션/데시메이션 기술을 통해 음의 상관관계에 의한 변화를 추정하여 음성을 합성함으로써 음의 자연성 및 명료성을 향상시킴은 물론 고음질의 음성 데이터 서비스를 제공할 수 있도록 한 음성 합성장치 및 그 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 음성 합성장치는, 입력되는 음성신호가 유성음인지 무성음인지를 검출하는 유/무성음 검출부와, 상기 유/무 검출부에서 검출된 입력음성이 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하는 피치 검출부와, 상기 피치 검출부에서 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치 갯수를 갖는 피치집합군을 형성하는 피치집합군 형성부와, 상기 피치집합군 형성부에서 형성된 각 피치집합군에 대한 상관관계계수를 검출하는 상관관계계수 검출부와, 상기 상관관계계수 검출부에서 검출된 상관관계계수를 평균하여 예측 계수를 산출하는 선형 예측 적용부와, 상기 선형 예측 적용부에서 산출된 예측 계수와 상기 피치집합군 형성부에서 형성된 피치집합군의 피치 주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성하는 예측계수 합성부와, 상기 유/무성음 검출부에서 검출된 음성신호가 무성음인 경우 음성신호를 가우시안 잡음으로 대치하여 처리하는 가우시안 잡음 처리부로 구성되는 것을 특징으로 한다.
그리고, 본 발명에 의한 음성 합성방법은 입력되는 음성신호가 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하고, 이 검출된 0피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성하는 제1과정과, 상기 제1과정에서 형성된 각 피치집합군에 대한 상관관계계수를 검출하고, 이 검출된 상관관계계수를 평균하여 예측 계수를 산출하는 제2과정과, 상기 제2과정에서 산출된 예측 계수와 상기 제1과정에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성하는 제3과정과, 입력되는 음성신호가 무성음인 경우 이 음성신호를 가우시안 잡음으로 대치하여 처리하는 제4과정으로 이루어지는 것을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 의한 음성 합성장치 및 그 방법을 상세히 설명한다.
도1은 본 발명의 음성 합성장치의 블록 구성도로서, 입력되는 음성신호가 유성음인지 무성음인지를 검출하는 유/무성음 검출부(10)와, 상기 유/무 검출부(10)에서 검출된 입력음성이 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하는 피치 검출부(20)와, 상기 피치 검출부(20)에서 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성하는 피치집합군 형성부(30)와, 상기 피치집합군 형성부(30)에서 형성된 피치집합군에 대한 상관관계계수를 검출하는 상관관계계수 검출부(40)와, 상기 상관관계계수 검출부(40)에서 검출된 상관관계계수를 평균하여 예측 계수를 산출하는 선형 예측 적용부(50)와, 상기 선형 예측 적용부(50)에서 산출된 예측 계수와 상기 피치집합군 형성부(30)에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성하는 예측 계수 합성부(60)와, 상기 유/무성음 검출부(10)에서 검출된 음성신호가 무성음인 경우 음성신호를 가우시안 잡음으로 대치하여 처리하는 가우시안 잡음 처리부(70)로 구성된다.
상기와 같이 구성되는 음성 합성장치의 합성 방법을 도2에 도시된 흐름도를 참고하여 설명하면 다음과 같다.
먼저, 유/무성음 검출부(10)는 입력되는 음성신호가 유성음인지 무성음인지를 판단하여(S1) 유성음인 경우에는 피치 검출부(20)를 통해 한 프래임내 음성신호 샘플에 대한 피치를 검출하고, 이어 피치집합군 형성부(30)를 통해 상기 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성한다(S2).
상기 피치집합군을 형성하는 단계(S2)는 이차원 벡터형성(two dimension vector) 과정으로서, 피치를 단위로 1차원 음성신호 샘플을 프래임내의 피치주기와 피치갯수인 2차원 신호로 변환하는 피치 매트릭싱을 수행하는 것이다.
즉, 음성신호의 경우 아날로그 입력에 대한 디지털 변환을 통해 한 프래임을 256샘플로 나누면, 각 프래임이 피치를 단위로 매트릭싱을 수행하도록 프래임별 피치를 검출해야 한다.
음성신호에 있어서 피치(pitch)는 두드러진 봉우리(peak)와 봉우리 혹은 골(valey)과 골 사이의 한 주기(fundamental frequency)를 말하는데, 상기 피치 검출부(20)는 정확성이 높은 자기상관관계(autocorrelation method)를 사용하여 식 1과 같이 피치를 검출한다.
[식 1]
여기서 s(.)는 입력 디지털 음성이고, k는 지연인자이다.
그리고, 상기 피치집합군 형성부(30)에서 형성되는 피치집합군은 i축이 프래임내의 피치주기(Pk)이고 j축이 피치개수(Kp)로 식 2와 같은 행렬(Pij)로 구성된다.
[식 2]
여기서, P는 피치주기이고, K는 피치갯수이다.
이어, 상관관계계수 검출부(40)는 상기 단계(S2)에서 형성된 피치집합군에 대한 상관관계계수를 식 3을 통해 검출한다(S3).
[식 3]
여기서, α는 상관관계계수이고, P는 피치집합군이다.
그리고 나서, 선형 예측 적용부(50)는 상기 단계(S3)내 상관관계계수 검출부(40)에서 검출된 상관관계계수를 평균하여 예측 계수를 산출하고(S4), 예측 계수 합성부(60)는 상기 단계(S4)내 선형 예측 적용부(50)에서 산출된 예측 계수와 상기 단계(S2)내 피치집합군 형성부(3O)에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성한다.
한편, 음성신호가 무성음일 때는 가우시안 잡음 처리부(70)를 통해 잡음신호를 발생하여 일반적인 가우시안 잡음으로 대치하여 처리한다(S6).
상기 단계(S3) 이후의 과정은 상기 피치집합군에서 샘플 대 샘플에 대한 선형 예측 적용 과정과 예측 계수에 의한 합성 과정이다.
예를 들어, 한 프래임 내에 5개의 피치주기(50 samples)가 있다면 상관관계계수는 50*5개의 갯수를 가지게 된다.
그리고 각 피치집합군에 대한 상관관계계수의 평균치를 구하면 5개의 계수를 가지게 된다.
따라서, 선형 예측 방법을 적용하여 5개의 예측 계수를 산출하게 되고, 이에 따라 50샘플의 한 피치주기와 5개의 예측 계수를 이용하여 합성음을 비선형적으로 인터폴레이션하게 된다.
즉, 도3에 도시된 바와 같이 실제적인 합성에 필요한 샘플(●) 사이에 샘플(○)이 비선형적으로 인터폴레이션됨으로써 음의 명료성과 자연성을 유지시켜 줄 수 있는 하나의 음성을 완전하게 합성하게 된다.
제4도(a)(b)에 도시된 바와 같이, (a)는 본 발명의 음성 합성장치를 사용하기 전의 한 프래임내의 음성신호 파형도이고, (b)는 본 발명의 음성 합성장치에 의해 합성된 음성신호의 파형도로서 자연성 및 명료성이 우수한 고음질을 출력하고 있다.
상기와 같은 본 발명의 음성 합성과정에 있어서, 합성에 필요한 데이터가 피치주기와 피치갯수에 의존하기 때문에 주파수영역 합성법의 장점인 메모리 효율성을 가지며 음의 변화를 비선형적으로 추적하여 복원함에 따라 자연성과 명료성이 우수하게 된다.
그리고, 상기 선형 예측을 통한 예측 계수 검출과 예측 계수에 의한 합성과정은 음의 상관관계에 의한 변화를 추적하여 합성하기 때문에 음의 변화에 적응할 수 있고 음의 전이구간에서도 매우 용이하다.
이상 설명에서와 같이, 본 발명은 음성신호가 단시간(short term)에는 느린 변화를 하며 준주기적인 특성을 가진다는 것을 이용하여 불필요한 데이터를 줄일 수 있고, 2차원 피치행렬과 비선형적인 변화의 추적으로 음의 변화를 잘 추적하여 합성함으로써 자연성 및 명료성이 우수함은 물론 계산량이 적고 간단한 구조를 갖는 장점이 있다.
Claims (2)
- (정정) 입력되는 음성신호가 유성음인지 무성음인지를 검출하는 유/무성음 검출부(10)와, 상기 유/무성음 검출부(10)에서 검출된 입력음성이 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하는 피치 검출부(20)와, 상기 피치 검출부(20)에서 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성하는 피치집합군 형성부(30)와, 상기 피치집합군 형성부(30)에서 형성된 각 피치집합군에 대한 상관관계계수를 검출하는 상관관계계수 검출부(40)와, 상기 상관관계계수 검출부(40)에서 검출된 상관관계계수를 평균하여 예측 계수를 산출하는 선형 예측 적용부(50)와, 상기 선형 예측 적용부(50)에서 산출된 예측 계수와 상기 피치집합군 형성부(30)에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인더폴레이션을 수행하여 음성신호를 합성하는 예측 계수 합성부(60)와, 상기 유/무성음 검출부(10)에서 검출된 음성신호가 무성음인 경우 음성신호를 가우시안 잡음으로 대치하여 처리하는 가우시안 잡음 처리부(70)로 구성되는 것을 특징으로 하는 음성 합성장치.
- (정정) 입력되는 음성신호가 유성음인 경우 자기상관관계를 이용하여 음성신호의 피치를 검출하고, 이 검출된 피치를 단위로 이차원 피치 매트릭싱 과정을 수행하여 피치주기와 피치갯수를 갖는 피치집합군을 형성하는 제1과정과, 상기 제1과정에서 형성된 각 피치집합군에 대한 상관관계계수를 검출하고, 이 검출된 상관관계계수를 평균하여 예측 계수를 산출하는 제2과정과, 상기 제2과정에서 산출된 예측 계수와 상기 제1과정에서 형성된 피치집합군의 피치주기를 통해 비선형적인 인터폴레이션을 수행하여 음성신호를 합성하는 제3과정과, 입력되는 음성신호가 무성음인 경우 이 음성신호를 가우시안 잡음으로 대치하여 처리하는 제4과정으로 이루어지는 것을 특징으로 하는 음성 합성방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019960054320A KR100310930B1 (ko) | 1996-11-15 | 1996-11-15 | 음성합성장치및그방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019960054320A KR100310930B1 (ko) | 1996-11-15 | 1996-11-15 | 음성합성장치및그방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19980035870A KR19980035870A (ko) | 1998-08-05 |
KR100310930B1 true KR100310930B1 (ko) | 2001-12-17 |
Family
ID=37530957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019960054320A KR100310930B1 (ko) | 1996-11-15 | 1996-11-15 | 음성합성장치및그방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100310930B1 (ko) |
-
1996
- 1996-11-15 KR KR1019960054320A patent/KR100310930B1/ko not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR19980035870A (ko) | 1998-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA1307344C (en) | Digital speech sinusoidal vocoder with transmission of only a subset ofharmonics | |
EP0745971A2 (en) | Pitch lag estimation system using linear predictive coding residual | |
JPH0833754B2 (ja) | デジタル音声符号化および復号方法および装置 | |
EP1420389A1 (en) | Speech bandwidth extension apparatus and speech bandwidth extension method | |
KR20020052191A (ko) | 음성 분류를 이용한 음성의 가변 비트 속도 켈프 코딩 방법 | |
US5884251A (en) | Voice coding and decoding method and device therefor | |
JPH10319996A (ja) | 雑音の効率的分解と波形補間における周期信号波形 | |
JPH01221800A (ja) | 音響波形のコード化方式 | |
JP3531780B2 (ja) | 音声符号化方法および復号化方法 | |
KR100310930B1 (ko) | 음성합성장치및그방법 | |
JPH11219198A (ja) | 位相検出装置及び方法、並びに音声符号化装置及び方法 | |
JPH08305396A (ja) | 音声帯域拡大装置および音声帯域拡大方法 | |
EP1183682A1 (en) | Quantization of variable-dimension speech spectral amplitudes using spectral interpolation between previous and subsequent frames | |
JPH05297895A (ja) | 高能率符号化方法 | |
JPH0782360B2 (ja) | 音声分析合成方法 | |
JPH11219199A (ja) | 位相検出装置及び方法、並びに音声符号化装置及び方法 | |
JPH07261798A (ja) | 音声分析合成装置 | |
Li et al. | Enhanced harmonic coding of speech with frequency domain transition modelling | |
JP3398968B2 (ja) | 音声分析合成方法 | |
JP3296411B2 (ja) | 音声符号化方法および復号化方法 | |
KR100255297B1 (ko) | 음성 데이터 부호화/복호화장치 및 그 방법 | |
JP3297750B2 (ja) | 符号化方法 | |
JPH05281995A (ja) | 音声符号化方法 | |
KR19980035868A (ko) | 음성데이터 부호화/복호화장치 및 그 방법 | |
JPH0511799A (ja) | 音声符号化方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20050822 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |