KR960025314A - 음성세그먼트 작성방법, 음성합성방법 및 그 장치 - Google Patents
음성세그먼트 작성방법, 음성합성방법 및 그 장치 Download PDFInfo
- Publication number
- KR960025314A KR960025314A KR1019950046901A KR19950046901A KR960025314A KR 960025314 A KR960025314 A KR 960025314A KR 1019950046901 A KR1019950046901 A KR 1019950046901A KR 19950046901 A KR19950046901 A KR 19950046901A KR 960025314 A KR960025314 A KR 960025314A
- Authority
- KR
- South Korea
- Prior art keywords
- speech
- waveform
- segment
- voice
- pitch
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims 15
- 238000001308 synthesis method Methods 0.000 title claims 13
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 238000003786 synthesis reaction Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims 33
- 108010076504 Protein Sorting Signals Proteins 0.000 claims 5
- 238000013500 data storage Methods 0.000 claims 5
- 238000007726 management method Methods 0.000 claims 5
- 230000005540 biological transmission Effects 0.000 claims 3
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 230000005284 excitation Effects 0.000 claims 2
- 239000000284 extract Substances 0.000 claims 1
- 230000003595 spectral effect Effects 0.000 claims 1
- 230000002123 temporal effect Effects 0.000 claims 1
- 210000001260 vocal cord Anatomy 0.000 claims 1
- 239000011295 pitch Substances 0.000 abstract 4
- 239000000654 additive Substances 0.000 abstract 1
- 230000000996 additive effect Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
창인출후의 음성피치 세그먼트가 인접피치들간의 차를 취하는 형식으로 압축음성세그먼트 DB에 기억되고, 상태 보유부, 샘플 판독부 및 파형보유부의 세트가 복수개 설치되고, 압축음성세그먼트 DB에서 차분 파형을 판독하면서 원래 파형을 조합하여 이들을 가산 중첩부에서 중첩시킴으로써 원하는 피치주기를 갖는 음성 파형이 합성되고, 그밖에 자연음성세그먼트 채널과 합성음성세그먼트 채널을 설치함으로써, CV단위로 기록된 음성세그먼트들이 자연음성세그먼트 채널에 기억되는 한편, 제1 및 제2포르만트 주파수의 각 축상에 그려진 F1-F2 공간을 분할하는 각 영역에 대응하는 포르만트 합성파형들이 상기 합성음성세그먼트 채널에 기억되고, 어느 한 채널에서 상기 음성세그먼트가 각 피치주기에서의 창인출에 의해 인출되고, 자연음성세그먼트 채널에서 세그먼트들이 원래 CV합성과 같이 접속되지만, 상호 세그먼트의 접속점에서 제1 및 제2포르만트 주파수 상호의 변화궤적이 상기 합성음성세그먼트들을 접속시킴으로써 합성된다.
Description
본 내용은 요부공개 건이므로 전문내용을 수록하지 않았음
제1도는 본 발명에 관한 제1실시예 음성합성장치의 구성도, 제2도는 제1실시예에 제어부를 중심으로 한 전체처리의 한 흐름도.
Claims (36)
- 음성파형의 소정 구간내의 피치 주기마다 존재하는 각각의 피크에 대해 상기 피크를 중심으로 하여 양단에서 0 근방에 수렴하는 창함수로 피치파형을 인출하는 조작을 상기 소정 구간내의 모든 피크에 대해 행하고, 창함수의 길이가 음성파형에 기초하여 임의 피크에 대해서도 피크에 도달할 때보다 더 짧도록 원하는 모든 음성파형에 대해 음성세그먼트 데이터를 작성하고, 그 작성한 음성세그먼트 데이터를 기억해 두고, 그 기억하고 있는 음성세그먼트 데이터에서 원하는 음성세그먼트 데이터의 원하는 피치파형을 판독하고, 원하는 피치주기의 간격이 되도록 겹쳐 배치하고, 그들을 가산하여 하나의 음성파형으로 출력하는 것을 특징으로 하는 음성합성방법.
- 제1항에 있어서, 상기 창함수의 길이는 모두 같은 길이인 것을 특징으로 하는 음성합성방법.
- 제1항에 있어서, 상기 창함수의 길이는 음성파형의 그 시점에서 피치 주기 2배의 길이를 1보다 작은 소정의 정수로 승산한 길이인 것을 특징으로 하는 음성합성방법.
- 제1항에 있어서, 상기 창함수의 길이는 각 음성파형에 대해 그 음성파형의 피치 주기를 나타내는 하나의 대표값을 2배한 것을 1보다 작은 소정의 정수로 승산한 길이인 것을 특징으로 하는 음성합성방법.
- 제1항 또는 제4항에 있어서, 음성세그먼트 데이터의 상기 기억은 각 음성세그먼트 데이터의 최초 피치파형에 대해 파형그 자체를 기억하고, 2번째 이후의 피치파형에 대해서는 하나 전의 피치파형에서 그 피치파형의 변화를 나타내는 차이량 피치파형을 기억하는 것이고, 어떤 음성세그먼트 데이터를 판독하는 경우, 최초의 피치파형은 기억되어 있는 파형을 그대로 판독하는 동시에, 다음 피치파형을 판독할 때까지 그 값을 일시적으로 기억해 두고, 2번째 이후의 피치파형은 판독한 차이량 파형값을 상기 기억된 하나 전의 피치파형값에 가산하여 파형을 복원하는 동시에 상기 일시 기억된 값을 복원된 파형 값으로 교환하는 것을 특징으로 하는 음성합성방법.
- 음성파형의 소정 구간내의 피치주기마다 존재하는 각각의 피크에 대해 상기 피크를 중심으로 하여 양단의 0 근방에 수렴하는 창함수로 피치파형을 인출하는 조작을 상기 소정 구간내의 모든 피크에 대해 행하고, 창함수의 길이가 음성 파형에 기초하여 임의 피크에 대해서도 양단의 피크에 도달할 때보다 더 짧도록 작성된 원하는 모든 음성파형에 대해 음성세그먼트 데이터를 기억하는 음성세그먼트 데이터 기억수단과, 그 음성세그먼트 데이터 기억수단에서 원하는 음성세그먼트 데이터의 원하는 피치파형을 판독하는 피치파형 판독수단과, 그 판독된 피치파형을 원하는 피치 주기의 간격이 되도록 겹쳐 배치하고, 그들을 가산하여 하나의 음성파형으로 출력하는 가산중첩부를 구비한 것을 특징으로 하는 음성합성장치.
- 제6항에 있어서, 상기 창함수의 길이는 각 음성파형에 대해 그 음성파형의피치 주기를 나타내는 하나의 대표값을 2배한 것을 1보다도 작은 소정의 정수로 승산한 길이인 것을 특징으로 하는 음성합성장치.
- 제6항 또는 제7항에 있어서, 상기 음성세그먼트 데이터 기억수단은 각 음성세그먼트 데이터의 최초 피치파형에 대해서는 파형 그 자체를 기억하고, 2번째 이후의 피치파형에 대해서는 하나전의 피치파형과 그 피치파형의 변화를 나타내는 차이량 피치파형을 기억하는 것이고, 어떤 음성세그먼트 데이터를 판독하는 경우에 판독된 최초의 피치파형을 다음 피치파형을 판독할 때까지 그 값을 일시적으로 기억하는 피치파형 일시 기억수단을 구비하고, 2번째 이후의 피치파형은 판독한 차이량 파형값을 상기 피치파형 일시기억수단에 기억된 하나전의 피치파형값에 가산하여 파형을 복원하는 동시에, 상기 피치파형 일시기억수단에 기억된 값을 복원된 파형의 값으로 교환하는 것을 특징으로 하는 음성합성장치.
- 시각 정보와 소정의 기능을 나타내는 기능정보와 상기 소정의 기능에 따른 임의 개수의 파라미터를 갖는 제어신호의 배열인 제어신호열을 생성하고, 상기 제어 신호의 기능정보와 파라미터를 이용하여 상기 시각정보가 나타내는 타이밍에 따라 음성세그먼터를 제어하는 것을 특징으로 하는 음성합성방법.
- 제9항에 있어서, 상기 소정의 기능은 피치 주기단위로 인출된 음성세그먼트의 판독 타이밍 제어인 것을 특징으로 하는 음성합성방법.
- 제9항 또는 제10항에 있어서, 상기 소정의 기능은 음소마다 준비된 음성세그먼트의 전환 제어이고, 파라미터는 목적 음소에 대응하는 음성세그먼트를 가리키는 정보인 것을 특징으로 하는 음성합성방법.
- 시각정보와 소정의 기능을 나타내는 기능정보와 상기 소정의 기능에 따른 임의 개수의 파라미터를 갖는 제어신호의 배열인 제어신호열을 생성하고, 상기 제어신호의 기능정보와 파라미터를 이용하여, 상기 시각정보가 나타내는 타이밍에 따라 음성세그먼트를 제어하는 제어수단을 구비한 것을 특징으로 하는 음성합성장치.
- 제12항에 있어서, 상기 소정의 기능은 피치 주기단위로 인출된 음성세그먼트의 판독 타이밍 제어인 것을 특징으로 하는 음성합성장치.
- 제12항 또는 제13항에 있어서, 상기 소정의 기능은 음소마다 준비된 음성세그먼트의 전환 제어이고, 상기 파라미터는 목적 음소에 대응하는 음성세그먼트를 가리키는 정보인 것을 특징으로 하는 음성합성장치.
- 제1항, 제4항 또는 제5항에 있어서, 시각 정보와 소정의 기능을 나타내는 기능정보와 상기 소정의 기능에 따른 임이 개수의 파라미터를 갖는 제어신호의 배열인 제어신호열을 생성하고, 상기 제어신호의 기능정보와 파라미터를 이용하여 상기 시각정보가 나타내는 타이밍에 따라 음성세그먼터를 제어하는 것을 특징으로 하는 음성합성방법.
- 제15항에 있어서, 상기 소정의 기능은 피치파형 판독개시 지시이고, 관리수단의 상기 피치파형 판독개시 지시에 의해 복수의 피치파형 판독부중 가장 오랫동안 선택된 것을 선택하여 피치파형의 판독을 개시하고, 가산중첩부에 의해 모든 피치파형 판독부의 판독값을 가산하여 출력하는 것을 특징으로 하는 음성합성방법.
- 제16항에 있어서, 상기 파라미터는 음성세그먼트 데이터 기억수단에 기억된 어느 하나의 음성파형 또는 차이량 파형을 가리키는 피치파형 지정정보이고, 상기 관리수단은 상기 피치파형 지정정보가 가리키는 피치파형의 판독을 개시하게 하는 것을 특징으로 하는 음성합성방법.
- 제15항, 제16항 또는 제17항에 있어서, 상기 소정의 기능은 음성세그먼트 전환지시이고, 상기 파라미터는 음성세그먼트 데이터 기억수단에 기억된 어느 하나의 음성세그먼터를 가리키는 정보인 것을 특징으로 하는 음성합성방법.
- 제6항, 제7항 또는 제8항에 있어서, 시각정보와 소정의 기능을 나타내는 기능정보와 상기 소정의 기능에 따른 임의 개수의 파라미터를 갖는 제어신호의 배열인 제어신호열을 생성하고, 상기 제어신호의 기능정보와 파라미터를 이용하여 시각정보가 나타내는 타이밍에 따라 음성세그먼트를 제어하는 제어수단을 구비한 것을 특징으로 하는 음성합성장치.
- 제19항에 있어서, 하나의 관리수단을 구비하고, 상기 피치파형 판독수단은 복수의 피치파형 판독부를 갖고, 상기 소정의 기능은 피치파형 판독개시지시이고, 상기 관리수단은 상기 피치파형 판독개시지시에 의해 상기 복수의 피치파형 판독부 중 가장 오랫동안 선택된 것을 선택하여, 피치파형의 판독을 개시하게 하고, 상기 가산 중첩부는 모든 피치파형 판독부가 판독한 값을 가산하여 출력하는 것을 특징으로 하는 음성합성장치.
- 제20항에 있어서, 상기 파라미터는 상기 음성세그먼트 데이터 기억수단에 기억된 어느 하나의 음성파형 또는 차이량 파형을 가리키는 파형 지정정보이고, 상기 관리수단은 상기 피치파형 지정정보가 가리키는 피치파형의 판독을 개시하게 하는 것을 특징으로 하는 음성합성장치.
- 제19항, 제20항 또는 제21항에 있어서, 상기 소정의 기능은 음성세그먼트 전환지시이고, 상기 파라미터는 상기 음성세그먼트 데이터 기억수단에 기억된 어느 하나의 음성세그먼트를 가리키는 정보인 것을 특징으로 하는 음성합성장치.
- 파라미터드를 생성하는 파라미터 생성부, 이 파라미터 생성부가 생성한 상기 파라미터들에 따라 합성파형을 생성하는 음성합성부, 상기 합성된 파형을 기억하는 파형기억부, 및 상기 합성파형에 대응하는 파라미터값들을 기억하는 파라미터 기억부를 이용하여 음성세그먼트들을 작성하는 음성세그먼트 작성방법에 있어서, 상기 파라미터 생성부는 N파라미터로 구성된 파라미터 벡터P로 조성된 N차원 공간S(N은 양의 정수)를 A0내지 AM-1(M은 양의 정수)의 M지역들로 분할하고, 0에서 M-1까지 변하는 모든 정수에 대해 영역 Ai내의 원하는 위치에 대응하는 파라미터 벡터Pi를 생성하고, 상기 음성합성부는 상기 파라미터 백터 Pi에 따라 합성파형을 생성하고, 상기 파형기억부는 상기 합성파형을 기억하고, 상기 파라미터 기억부는 상기 합성파형에 대응하는 상기 파라미터 벡터 Pi를 기억하는 것을 특징으로 하는 음성세그먼트 작성방법.
- 제23항에 있어서, 상기 파라미터 생성부는 N파라미터로 구성된 파라미터 벡터P로 조성된 N차원 공간S(N은 양의 정수)을 P의 확률분포에 따라 A0내지 AM-1(M은 양의 정수)의 M영역들로 분할하는 것을 특징으로 하는 음성세그먼트 작성방법.
- 제23항 또는 제24항에 있어서, 상기 음성 합성부는 상기 피치주기내 피크의 중심으로서 파라미터에 따라 합성된 파형의 적절한 위치에서 단일 피치주기의 파형과 함께 창함수로 인출된 피치파형을 생성하고, 상기 파형기억부가 상기 피치파형을 기억하는 것을 특징으로 하는 음성세그먼트 작성방법.
- 제23항, 제24항 또는 제25항에 있어서, 상기 파라미터 벡터P의 원소 파라미터는 하나 또는 복수의 음성포르만트의 중심주파수와, 성대진동의 스펙트럼 경사각의 하나 또는 복수의 조합인 것을 특징으로 하는 음성세그먼트 작성방법.
- 제23항 내지 제26항 중 어느 한 항에 있어서, 상기 음성 합성부는 포르만트 합성법에 의한 것임을 특징으로 하는 음성세그먼트 작성방법.
- 제27항에 있어서, 상기 음성합성부는 자연음성파형에서 발성관 전달특성을 추출하고, 상기 발성관 전달특성의 반전특성을 갖는 발성관 반전필터를 구비하고, 상기 발성관 반전필터에 의해 상기 자연음성 파형에서 상기 발성관 전달특성을 제거하고, 결과로서 얻어진 진동파형을 진동음원 파형으로 사용하는 것을 특징으로 하는 음성세그먼트 작성방법.
- 소정음절체인마다 미리 기록된 음성파형을 인출함으로써 작성된 자연음성세그먼트들을 자연음성세그먼트 기억부로 기억하고, 제23항 내지 제28항 중 어느 한 항 기재의 음성세그먼트 작성방법에 의해 작성된 음성세그먼트들을 합성음성세그먼트 기억부로 기억하고, 접속 합성부에 상기 자연음성세그먼트와 합성음성세그먼트들을 접속하면서 음성합성하는 것을 특징으로 하는 음성합성방법.
- 제29항에 있어서, 상기 접속합성부는 상기 자연음성세그먼트 기억부에 기억된 자연음성세그먼트의 파라미터들을 기억하는 자연음성세그먼트 파라미터 기억부와, 상기 합성음성세그먼트 기억부에 기억된 합성음성세그먼트의 파라미터를 기억하는 합성음성세그먼트 파라미터 기억부를 이용함으로써 음성을 합성하고, 상기 자연음성세그먼트 파라미터 기억부와 합성음성세그먼트 파라미터 기억부에 기억된 상기 파라미터들이 동일하거나 동일한 조합이고, 상기 접속 합성부는 2개의 자연음성세그먼트들을 서로 접속할 때 소정시간 구간에 걸친 접점에서 상호 파라미터의 차이를 보간하고, 상기 합성음성세그먼트 기억부로부터의 타이밍마다 상기 보간된 파라미터들이 조합에 가장 가까운 파라미터에 의해 합성된 상기 합성음성세그먼트를 판독하고, 판독된 상기 합성음성세그먼트에 의해 상기 2개의 자연음성세그먼트들을 접속시키는 것을 특징으로 하는 음성합성방법.
- 제29항 또는 제30항에 있어서, 상기 합성음성세그먼트 기억부는 제28항의 음성세그먼트 작성방법으로 생성한 상기 합성음성세그먼트를 기억하고, 상기 자연음성세그먼트 기억부에 기억된 상기 자연음성세그먼트와 상기 음성 합성부내의 여진음원파형이 동일화자에 의해 발생되는 것을 특징으로 하는 음성합성방법.
- 제31항에 있어서, 상기 합성음성세그먼트 파라미터 기억부는 제28항의 음성세그먼트 작성방법에 의해 작성된 합성음성세그먼트의 파라미터들은 기억하는 것을 특징으로 하는 음성합성방법.
- 소정 음절체인마다 미리 녹음된 음성파형을 인출하여 작성한 자연음성세그먼트들을 기억하는 합성음성세그먼트 기억부와, 제23항 내지 제28항 중 어느 한 항 기재의 음성세그먼트 작성방법으로 작성한 음성세그먼트들을 기억하는 자연음성세그먼트 기억부와, 상기 자연음성세그먼트와 합성음세그먼트를 접속시키면서 음성을 합성하는 접속합성부를 구비하는 것을 특징으로 하는 음성합성장치.
- 제33항에 있어서, 상기자연음성세그먼트 기억부에 기억된 상기 자연음성세그먼트의 파라미터들을 기억하는 자연음성세그먼트 파라미터 기억부와, 상기 합성음성세그먼트 기억부에 기억된 상기 합성음성세그먼트의 파라미터들을 기억하는 합성음성세그먼트 파라미터 기억부를 더 구비하고, 상기 자연음성세그먼트 파라미터 기억부와 합성음성세그먼트 파라미터 기억부에 기억된 상기 파라미터들이 동일하거나 동일 조합이고, 상기 접속합성부는 2개의 자연음성세그먼트들을 서로 접속시키면서 소정 시간 구간에 걸친 접속에서 상호 파라미터들의 차이를 보간하고, 상기 합성음성세그먼트 기억부에서 타이밍마다 상기 보간된 파라미터들의 조합에 가장 근접한 파라미터로 합성된 상기 합성음성세그먼트를 판독하고, 상기 판독된 합성음성세그먼트로 상기 2개의 자연음성세그먼트들을 접속하는 것을 특징으로 하는 음성합성장치.
- 제33항 또는 제34항에 있어서, 상기 합성음성세그먼트 기억부는 제28항 기재의 음성세그먼트 작성방법으로 생성된 상기 합성음성세그먼트들을 기억하고, 상기 자연음성세그먼트 기억부에 기억된 상기 자연음성세그먼트와 상기 음성 합성부내의 여진음원파형이 동일화자에 의해 발성되는 것을 특징으로 하는 음성합성장치.
- 제35항에 있어서, 상기 합성음성 세그먼트 파라미터 기억부는 제28항 기재의 음성세그먼트 작성방법으로 작성된 합성음성세그먼트의 파라미터들을 기억하는 것을 특징으로 하는 음성합성장치.※ 참고사항 : 최초출원 내용에 의하여 공개하는 것임.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP94-302471 | 1994-12-06 | ||
JP6302471A JPH08160991A (ja) | 1994-12-06 | 1994-12-06 | 音声素片作成方法および音声合成方法、装置 |
JP7220963A JP2987089B2 (ja) | 1995-08-30 | 1995-08-30 | 音声素片作成方法および音声合成方法とその装置 |
JP95-220963 | 1995-08-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR960025314A true KR960025314A (ko) | 1996-07-20 |
KR100385603B1 KR100385603B1 (ko) | 2003-08-21 |
Family
ID=26523998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019950046901A KR100385603B1 (ko) | 1994-12-06 | 1995-12-05 | 음성세그먼트작성방법,음성합성방법및그장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US5864812A (ko) |
KR (1) | KR100385603B1 (ko) |
CN (2) | CN1294555C (ko) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6240384B1 (en) * | 1995-12-04 | 2001-05-29 | Kabushiki Kaisha Toshiba | Speech synthesis method |
DE19610019C2 (de) * | 1996-03-14 | 1999-10-28 | Data Software Gmbh G | Digitales Sprachsyntheseverfahren |
JP3349905B2 (ja) * | 1996-12-10 | 2002-11-25 | 松下電器産業株式会社 | 音声合成方法および装置 |
US6490562B1 (en) | 1997-04-09 | 2002-12-03 | Matsushita Electric Industrial Co., Ltd. | Method and system for analyzing voices |
JP3902860B2 (ja) * | 1998-03-09 | 2007-04-11 | キヤノン株式会社 | 音声合成制御装置及びその制御方法、コンピュータ可読メモリ |
JP3430985B2 (ja) * | 1999-08-05 | 2003-07-28 | ヤマハ株式会社 | 合成音生成装置 |
JP3450237B2 (ja) * | 1999-10-06 | 2003-09-22 | 株式会社アルカディア | 音声合成装置および方法 |
GB9925297D0 (en) * | 1999-10-27 | 1999-12-29 | Ibm | Voice processing system |
JP2001265375A (ja) * | 2000-03-17 | 2001-09-28 | Oki Electric Ind Co Ltd | 規則音声合成装置 |
JP3728172B2 (ja) * | 2000-03-31 | 2005-12-21 | キヤノン株式会社 | 音声合成方法および装置 |
US6662162B2 (en) * | 2000-08-28 | 2003-12-09 | Maureen Casper | Method of rating motor dysfunction by assessing speech prosody |
US7251601B2 (en) * | 2001-03-26 | 2007-07-31 | Kabushiki Kaisha Toshiba | Speech synthesis method and speech synthesizer |
DE60122296T2 (de) * | 2001-05-28 | 2007-08-30 | Texas Instruments Inc., Dallas | Programmierbarer Melodienerzeuger |
EP1422693B1 (en) * | 2001-08-31 | 2008-11-05 | Kenwood Corporation | Pitch waveform signal generation apparatus; pitch waveform signal generation method; and program |
US6681208B2 (en) * | 2001-09-25 | 2004-01-20 | Motorola, Inc. | Text-to-speech native coding in a communication system |
US7483832B2 (en) * | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US20060069567A1 (en) * | 2001-12-10 | 2006-03-30 | Tischer Steven N | Methods, systems, and products for translating text to speech |
US7065485B1 (en) * | 2002-01-09 | 2006-06-20 | At&T Corp | Enhancing speech intelligibility using variable-rate time-scale modification |
JP2003255993A (ja) * | 2002-03-04 | 2003-09-10 | Ntt Docomo Inc | 音声認識システム、音声認識方法、音声認識プログラム、音声合成システム、音声合成方法、音声合成プログラム |
JP2003295880A (ja) * | 2002-03-28 | 2003-10-15 | Fujitsu Ltd | 録音音声と合成音声を接続する音声合成システム |
GB2392592B (en) * | 2002-08-27 | 2004-07-07 | 20 20 Speech Ltd | Speech synthesis apparatus and method |
US20040073428A1 (en) * | 2002-10-10 | 2004-04-15 | Igor Zlokarnik | Apparatus, methods, and programming for speech synthesis via bit manipulations of compressed database |
JP4407305B2 (ja) * | 2003-02-17 | 2010-02-03 | 株式会社ケンウッド | ピッチ波形信号分割装置、音声信号圧縮装置、音声合成装置、ピッチ波形信号分割方法、音声信号圧縮方法、音声合成方法、記録媒体及びプログラム |
EP1471499B1 (en) * | 2003-04-25 | 2014-10-01 | Alcatel Lucent | Method of distributed speech synthesis |
WO2004097792A1 (ja) * | 2003-04-28 | 2004-11-11 | Fujitsu Limited | 音声合成システム |
CN1813285B (zh) * | 2003-06-05 | 2010-06-16 | 株式会社建伍 | 语音合成设备和方法 |
US7363221B2 (en) * | 2003-08-19 | 2008-04-22 | Microsoft Corporation | Method of noise reduction using instantaneous signal-to-noise ratio as the principal quantity for optimal estimation |
JP4483450B2 (ja) * | 2004-07-22 | 2010-06-16 | 株式会社デンソー | 音声案内装置、音声案内方法およびナビゲーション装置 |
US20060259303A1 (en) * | 2005-05-12 | 2006-11-16 | Raimo Bakis | Systems and methods for pitch smoothing for text-to-speech synthesis |
CN101542593B (zh) * | 2007-03-12 | 2013-04-17 | 富士通株式会社 | 语音波形内插装置及方法 |
US7953600B2 (en) * | 2007-04-24 | 2011-05-31 | Novaspeech Llc | System and method for hybrid speech synthesis |
JP4294724B2 (ja) * | 2007-08-10 | 2009-07-15 | パナソニック株式会社 | 音声分離装置、音声合成装置および声質変換装置 |
JP5141688B2 (ja) * | 2007-09-06 | 2013-02-13 | 富士通株式会社 | 音信号生成方法、音信号生成装置及びコンピュータプログラム |
US20090177473A1 (en) * | 2008-01-07 | 2009-07-09 | Aaron Andrew S | Applying vocal characteristics from a target speaker to a source speaker for synthetic speech |
US9031834B2 (en) | 2009-09-04 | 2015-05-12 | Nuance Communications, Inc. | Speech enhancement techniques on the power spectrum |
US10747963B2 (en) * | 2010-10-31 | 2020-08-18 | Speech Morphing Systems, Inc. | Speech morphing communication system |
US9401138B2 (en) * | 2011-05-25 | 2016-07-26 | Nec Corporation | Segment information generation device, speech synthesis device, speech synthesis method, and speech synthesis program |
CN105895076B (zh) * | 2015-01-26 | 2019-11-15 | 科大讯飞股份有限公司 | 一种语音合成方法及系统 |
JP6728755B2 (ja) * | 2015-03-25 | 2020-07-22 | ヤマハ株式会社 | 歌唱音発音装置 |
JP6996095B2 (ja) | 2017-03-17 | 2022-01-17 | 株式会社リコー | 情報表示装置、生体信号計測システムおよびプログラム |
CN107799122B (zh) * | 2017-09-08 | 2020-10-23 | 中国科学院深圳先进技术研究院 | 一种高生物拟真性语音处理滤波器与语音识别设备 |
JP7181173B2 (ja) * | 2019-09-13 | 2022-11-30 | 株式会社スクウェア・エニックス | プログラム、情報処理装置、情報処理システム及び方法 |
CN112786001B (zh) * | 2019-11-11 | 2024-04-09 | 北京地平线机器人技术研发有限公司 | 语音合成模型训练方法、语音合成方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4685135A (en) * | 1981-03-05 | 1987-08-04 | Texas Instruments Incorporated | Text-to-speech synthesis system |
US4586193A (en) * | 1982-12-08 | 1986-04-29 | Harris Corporation | Formant-based speech synthesizer |
US5208897A (en) * | 1990-08-21 | 1993-05-04 | Emerson & Stern Associates, Inc. | Method and apparatus for speech recognition based on subsyllable spellings |
US5400434A (en) * | 1990-09-04 | 1995-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice source for synthetic speech system |
KR940002854B1 (ko) * | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
ATE260486T1 (de) * | 1992-07-31 | 2004-03-15 | Ibm | Auffindung von zeichenketten in einer datenbank von zeichenketten |
CN1092195A (zh) * | 1993-03-13 | 1994-09-14 | 北京联想计算机集团公司 | Pc机合成语音音乐及发声的方法 |
US5704007A (en) * | 1994-03-11 | 1997-12-30 | Apple Computer, Inc. | Utilization of multiple voice sources in a speech synthesizer |
-
1995
- 1995-11-30 US US08/565,401 patent/US5864812A/en not_active Expired - Fee Related
- 1995-12-05 KR KR1019950046901A patent/KR100385603B1/ko not_active IP Right Cessation
- 1995-12-06 CN CNB2003101028665A patent/CN1294555C/zh not_active Expired - Fee Related
- 1995-12-06 CN CNB951190490A patent/CN1146863C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5864812A (en) | 1999-01-26 |
CN1146863C (zh) | 2004-04-21 |
CN1294555C (zh) | 2007-01-10 |
CN1131785A (zh) | 1996-09-25 |
CN1495703A (zh) | 2004-05-12 |
KR100385603B1 (ko) | 2003-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR960025314A (ko) | 음성세그먼트 작성방법, 음성합성방법 및 그 장치 | |
US6490562B1 (en) | Method and system for analyzing voices | |
JP4112613B2 (ja) | 波形言語合成 | |
EP0380572A1 (en) | SPEECH SYNTHESIS FROM SEGMENTS OF DIGITAL COARTICULATED VOICE SIGNALS. | |
JPS62160495A (ja) | 音声合成装置 | |
US5890118A (en) | Interpolating between representative frame waveforms of a prediction error signal for speech synthesis | |
US5808222A (en) | Method of building a database of timbre samples for wave-table music synthesizers to produce synthesized sounds with high timbre quality | |
JP4214842B2 (ja) | 音声合成装置及び音声合成方法 | |
EP0351848A2 (en) | Voice synthesizing device | |
KR20020076144A (ko) | 음성합성방법, 음성합성장치 및 기록매체 | |
JP2001513225A (ja) | 伸長オーディオ信号からの周期性の除去 | |
US7010491B1 (en) | Method and system for waveform compression and expansion with time axis | |
US5163110A (en) | Pitch control in artificial speech | |
Dutilleux et al. | Time‐segment Processing | |
KR102480360B1 (ko) | 이미지를 통한 학습을 이용하여 합성 음원을 생성하는 장치, 방법 및 컴퓨터 프로그램 | |
JP5552794B2 (ja) | 音響信号の符号化方法および装置 | |
US20050114136A1 (en) | Manipulating wavetable data for wavetable based sound synthesis | |
JPH0258639B2 (ko) | ||
JP2987089B2 (ja) | 音声素片作成方法および音声合成方法とその装置 | |
JPH0772897A (ja) | 音声合成方法および装置 | |
JP2002244693A (ja) | 音声合成装置および音声合成方法 | |
JP5782751B2 (ja) | 音声合成装置 | |
JP3525492B2 (ja) | 楽音信号合成装置 | |
JP3404756B2 (ja) | 楽音合成装置 | |
JP2000066681A (ja) | 波形圧縮伸長装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |