KR20010018064A - Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration - Google Patents
Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration Download PDFInfo
- Publication number
- KR20010018064A KR20010018064A KR1019990033869A KR19990033869A KR20010018064A KR 20010018064 A KR20010018064 A KR 20010018064A KR 1019990033869 A KR1019990033869 A KR 1019990033869A KR 19990033869 A KR19990033869 A KR 19990033869A KR 20010018064 A KR20010018064 A KR 20010018064A
- Authority
- KR
- South Korea
- Prior art keywords
- phoneme
- articulation
- phoneme sequence
- environment
- immediately
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000006243 chemical reaction Methods 0.000 title claims description 26
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000033764 rhythmic process Effects 0.000 claims abstract description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 53
- 238000003786 synthesis reaction Methods 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 4
- 238000005304 joining Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 abstract description 2
- 150000001875 compounds Chemical class 0.000 abstract 6
- 238000013329 compounding Methods 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 1
- 240000007817 Olea europaea Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 230000001808 coupling effect Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- RGCLLPNLLBQHPF-HJWRWDBZSA-N phosphamidon Chemical compound CCN(CC)C(=O)C(\Cl)=C(/C)OP(=O)(OC)OC RGCLLPNLLBQHPF-HJWRWDBZSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본 발명은 음성인식시스템 등에서 음운환경과 합성단위 앞뒤에 위치하는 묵음구간 길이정보를 합성단위 선정에 이용하여 합성음의 명료도 및 자연성을 향상시킨 텍스트/음성변환 장치 및 그 방법과, 그를 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention provides a text / voice conversion apparatus and method for improving the clarity and naturalness of a synthesized sound using a phonological environment and silence section length information located before and after the synthesized unit in a speech recognition system and the like, and a program for realizing the same. The present invention relates to a computer-readable recording medium having recorded thereon.
기존의 합성기는 후보를 선정하는데 있어서, 일반적으로 대상이 되는 음소의 변이음 특성을 자연스럽게 구현하기 위해서, 좌/우 음운환경만을 고려한다. 이처럼 종래의 합성음 생성 방법에서는 묵음구간을 그 길이와 무관하게 하나의 음소로 간주하였다.Existing synthesizers generally consider only the left / right phonological environment in order to naturally implement the variation sound characteristics of the target phoneme. As described above, in the conventional synthesis sound generating method, the silent section is regarded as one phoneme regardless of its length.
그러나, 실제의 발성음에서는 묵음구간의 장단에 따라 묵음구간 이전 또는 이후의 음운환경이 여전히 대상 음소의 음향, 음성적 자질에 영향을 미치고 있으므로, 이를 고려하여야만 한다.However, in actual phonation, the phonological environment before or after the silent period still affects the sound and voice quality of the target phoneme, depending on the length and length of the silent period.
텍스트/음성변환기(TTS : Text-to-Speech conversion system)의 기능은 컴퓨터가 사용자인 인간에게 다양한 형태의 정보를 음성으로 제공하는데 있다.The function of the Text-to-Speech Conversion System (TTS) is to provide various types of information by voice to a human being.
이를 위해서, TTS는 사용자에게 주어진 텍스트로부터 고품질의 합성음 서비스를 제공할 수 있어야 한다. 여기서, 고품질의 합성음이란, 음가가 명료해야 하며, 끊어읽기, 음의 길이, 세기, 높이 등과 같은 운율적 요소들이 적절히 구현되어 자연성이 높아야 한다. 이는 마치 텍스트에서 독자에 의미전달을 정확히 하기 위해 적합한 어휘와 띄어쓰기, 구두점 등을 이용하는 것과 동일하다 할 수 있다.To this end, the TTS should be able to provide high quality synthesized speech services from the text given to the user. Here, the high-quality synthesized sound should have a clear sound value and have high naturalness by appropriately implementing rhythmic elements such as reading, sound length, strength, and height. This is the same as using the proper vocabulary, spacing, and punctuation to correctly convey meaning to the reader in the text.
그런데, 발화에서 나타나는 이들 운율적 요소들은 문장의 의미구조, 구문구조, 단어, 조음결합 현상, 화자의 의도, 발화속도 등이 복합적으로 작용한 결과이다.However, these rhyme elements appearing in speech are the result of the combination of sentence semantic structure, phrase structure, words, articulation combination, speaker's intention, and speech rate.
그러므로, 고품질의 합성음을 생성하기 위해서 기존의 음성합성기는 입력되는 텍스트 문장으로부터 읽기변환, 구문구조분석, 운율처리, 신호처리 과정을 통하여 음편선정, 끊어읽기, 음의 길이, 세기, 높이를 조절한 합성음을 생성한다. 즉, 종래의 TTS가 입력된 텍스트로부터 합성음을 생성하는 과정을 도 1을 참조하여 설명한다.Therefore, in order to generate high quality synthesized sound, the existing speech synthesizer adjusts the selection, cut-off, length, strength, and height of speech through reading conversion, syntax structure analysis, rhyme processing, and signal processing from input text sentences. Produces synthesized sound. That is, a process of generating a synthesis sound from the text in which the conventional TTS is input will be described with reference to FIG. 1.
도 1 은 종래의 텍스트/음성변환 장치의 구성도로서, 도면에서 "11"은 언어처리부, "12"는 운율처리부, "13"은 신호처리부, 및 "14"는 합성단위 데이터베이스를 각각 나타낸다.FIG. 1 is a block diagram of a conventional text / voice conversion apparatus, in which "11" is a language processing unit, "12" is a rhyme processing unit, "13" is a signal processing unit, and "14" is a synthesis unit database, respectively.
언어처리부(11)는 TTS에 입력된 텍스트 문장을 받아서 기호, 숫자, 외국어 읽기 변환을 한다. 또한, 운율처리에 필요한 정보로서 음절, 단어의 경계정보, 문장내 각 단어의 품사, 문법적 기능 등의 구문구조 정보를 추정하고, 예외발음사전과 읽기변환 규칙을 이용하여 철자/음소 변환을 수행한다.The language processor 11 receives a text sentence input to the TTS and converts a symbol, a number, and a foreign language reading. In addition, as information necessary for rhyme processing, information on syntax structure such as syllables, word boundary information, parts of speech in each sentence, and grammatical functions is estimated, and the spelling / phoneme conversion is performed using an exception phonetic dictionary and a read conversion rule. .
이상의 과정을 통하여 언어처리부(11)는 음소열과 문장의 구문구조 정보를 운율처리부(12)로 전달한다.Through the above process, the language processor 11 transmits the phoneme string and the syntax structure information of the sentence to the rhyme processor 12.
운율처리부(12)는 언어처리부(11)에서 전달받은 구문구조 정보와 음소열을 입력으로 하여 규칙과 운율 테이블을 이용하여 끊어읽기, 소리의 높낮이, 소리의 강약, 소리의 장단과 관련된 운율 파라미터값을 계산한다. 즉, 구/절의 경계에서 분리도에 따라 끊어읽기 규칙을 적용하여 적절한 쉼 구간을 삽입하고, 단어간 수식관계에 따라 규칙과 테이블을 이용하여 억양과 관련된 피치값을 계산하며, 해당 음소에 피치값을 할당한다.The rhyme processing unit 12 inputs the syntax structure information and the phoneme strings transmitted from the language processing unit 11, and uses the rules and the rhyme table to cut off the reading, the height of the sound, the strength and weakness of the sound, and the rhythm parameter values related to the length and length of the sound. Calculate In other words, insert the appropriate rest period by applying the break reading rule according to the degree of separation at the boundary of phrase / verse, calculate the pitch value related to intonation using rules and tables according to the formula relation between words, and assign the pitch value to the phoneme. Assign.
그리고, 운율처리부(12)는 음소별 고유 지속시간값과 음운환경 및 구문구조에 따른 변화 규칙을 이용하여 각 음소의 지속시간을 계산한다. 또한, 각 음소별 조음특성과 문법적 기능을 고려하여 각 음소의 에너지 컨투어를 생성한다.Then, the rhyme processing unit 12 calculates the duration of each phoneme using the intrinsic duration value for each phoneme and the change rule according to the phoneme environment and syntax structure. In addition, an energy contour of each phoneme is generated by considering the articulation characteristics and grammatical functions of each phoneme.
이상의 과정을 통하여 운율처리부(12)는 추정된 운율 파라미터 값들을 음소열 정보와 함께 신호처리부(13)로 전달한다.Through the above process, the prosody processor 12 transmits the estimated prosody parameter values to the signal processor 13 along with phoneme string information.
신호처리부(13)는 운율처리부(12)에서 전달받은 음소열, 운율제어 파라미터 값을 이용하여 합성 단위 데이터베이스(14)에서 합성음 생성에 적합한 음편 후보를 선택하고, 필요시 운율제어 파라미터 값에 부합되도록 선택된 음편을 신호처리 방법으로 가공하여 이들 음편들을 접합함으로써 원하는 합성음을 만든다.The signal processor 13 selects a phonetic candidate suitable for synthesis sound generation from the synthesis unit database 14 by using the phoneme string and rhyme control parameter values received from the rhythm processor 12, and if necessary, matches the rhythm control parameter value. The selected pieces are processed by the signal processing method and the desired pieces are combined by joining these pieces.
합성단위의 설계와 음편후보 선택은 TTS가 고품질의 합성음을 생성하는데 큰 영향을 미치는 중요한 요인으로서, 많은 경험과 기술을 필요로 한다.The design of the synthesis unit and the selection of the music candidates are important factors that greatly influence the TTS to produce high quality synthesized sound, which requires much experience and skill.
합성단위의 선정 및 제작 방법에 있어서, 문장이나 단어는 그 수가 무한하므로 TTS의 합성단위로는 고려의 대상이 되질 못한다. 왜냐하면, 음절은 그 수가 유한하지만 인접 음운환경에 따른 변이음 수가 많아지게 되고, 음소는 그 수가 작지만 실제 발성음에서 음소간의 조음결합 현상을 올바르게 구현하기 어렵기 때문이다.In the method of selecting and producing the synthesis unit, the number of sentences or words is infinite, and thus the synthesis unit of the TTS cannot be considered. Because the number of syllables is finite but the number of variation sounds according to the adjacent phonological environment increases, the number of phonemes is small, but it is difficult to correctly implement the articulation coupling phenomenon between the phonemes in the actual voice.
조음결합 현상을 고려하여 1958년 "Peterson"은 이음소(Diphone)를 제안하였고, 1968년 "Dixon"에 의해서 포만트 합성기에 구현되었으며, 1977년 "Olive"에 의해 선형예측부호화(LPC : Linear Predictive Coding) 합성기에 접목되었다.In 1958, "Peterson" proposed Diphone, implemented in formant synthesizer by "Dixon" in 1968, and Linear Predictive (LPC) by "Olive" in 1977. Coding) to the synthesizer.
그러나, 이러한 시도는 접합점에서의 평활화(Smoothing), 이음소 지속시간However, these attempts result in smoothing at the junction, and the duration of the phoneme.
의 변경, 기본주파수의 변경으로 인하여 합성음의 자연성은 기대만큼의 성과를 얻지 못했다.Due to the change in the frequency and the fundamental frequency, the naturalness of the synthesized sound did not achieve as expected.
1978년 "Fujimura"가 제안한 반음절(Demisyllable)은 조음결합이 강한 음절내 자음군을 단위로 묶는 장점이 있지만, 음절경계에서의 조음결합 처리가 미흡한 단점이 있다.The semisyllable proposed by "Fujimura" in 1978 has the advantage of grouping consonant groups within syllables with strong articulation, but has a disadvantage of insufficient articulation in syllable boundaries.
이외에도 1961년 "Sivertsen"이 제안한 VCV(모음+자음+모음의 연속인 음운환경) 단위인 "Syllable dyad"와, 1980년대부터 사용되기 시작한 3음소(Triphone), 4음소(Tetraphone) 및 1988년 "Sagisaka"의 비정형 길이의 합성단위, "Nakajima"의 자동회귀 방법을 채택한 문맥지향 군집화(Context Oriented Clustering) 3음소 작성방법도 시도되었다. 또한, 1996년 "Donovan"은 음소인식기를 이용하여 합성단위 데이터베이스의 제작을 통계기반으로 자동화하였다.In addition, "Syllable dyad" proposed by "Sivertsen" in 1961, a phonological environment that is a continuation of vowels + consonants + vowels, and triphones, tetraphones, and 1988 " Context-oriented clustering triphones using Sagisaka's unstructured length unit, Nakajima's automatic regression, were also tried. Also, in 1996, "Donovan" automated the production of a database of synthesis units using a phoneme recognizer.
그러나, 이 방법들은 여러가지 장점에도 불구하고 음성인식기의 성능에 의존적이며, 음편내 천이구간의 연결이 자연스럽지 못한 단점이 있다.However, these methods, in spite of various advantages, depend on the performance of the speech recognizer, and have a disadvantage in that the connection between transitions in the sound is not natural.
이와 같이, 합성단위와 관련된 연구는 초기의 합성음 명료도와 자연성에서 한계가 분명한 소량의 음소, 이음소, 반음절 제작에서 시작하여 합성음의 명료도 향상을 위해 다음소열과 운율특성을 고려한 합성단위로 확장되고 있다.In this way, the research related to the synthesis unit begins with the production of a small number of phonemes, phonemes, and half-syllables, which have limitations in the initial synthesis soundness and naturalness, and then expands to the synthesis unit considering the next sequence and rhyme characteristics to improve the intelligibility of the synthesized sound. have.
이상에서와 같이, 종래의 합성기는 후보를 선정하는데 있어서, 일반적으로 대상이 되는 음소의 변이음 특성을 자연스럽게 구현하기 위해서 좌,우 음운환경을 고려한다.As described above, in selecting a candidate, a conventional synthesizer generally considers the left and right phonological environments in order to naturally implement the variation sound characteristics of the target phoneme.
예를 들면, 대상 음소를 T, 앞뒤 음운환경을 각각 x,y라 할 때, 합성단위For example, when the target phoneme is T and the front and back phonetic environments are x and y, respectively,
데이터베이스(14)에 저장되는 음편들은 xTy의 조건에 입각하여 제작되며, 후보의 선정에 있어서도 xTy의 조건에 부합되는 음편을 선택하게 된다. 이때, 묵음 구간도 하나의 음소로 인정하여 좌,우 음운환경에 포함시킨다. 즉, 종래의 방법은 묵음 구간을 그 길이와 무관하게 하나의 음소로 간주하고 있다.The music pieces stored in the database 14 are produced based on the conditions of xTy, and in selecting candidates, the music pieces satisfying the conditions of xTy are selected. At this time, the silent section is also recognized as one phoneme and included in the left and right phonetic environment. That is, the conventional method regards the silent section as one phoneme regardless of its length.
이러한 종래의 방법은 묵음구간이 대상 음소의 음향, 음성적 자질에 미치는 영향도 고려하면서 등록되어야 할 음편의 수도 줄일 수 있는 장점이 있으나, 실제의 발성음에서 묵음구간의 장단에 따라 묵음구간 이전 또는 이후의 음운환경이 여전히 대상 음소의 음향, 음성적 자질에 영향을 미치고 있는 점을 간과하여 합성음의 자연성 및 명료도가 떨어지는 문제점이 있었다.This conventional method has the advantage of reducing the number of music to be registered while considering the effect of the silent section on the sound and voice quality of the target phoneme, but before or after the silent section depending on the length and duration of the silent section. Overlooking the fact that the phonological environment still affects the sound and voice quality of the target phoneme, there was a problem that the naturalness and clarity of the synthesized sound were inferior.
상기한 바와 같은 문제점을 해결하기 위하여 안출된 본 발명은, 음성인식시스템 등에서 음운환경과 합성단위 앞뒤에 위치하는 묵음구간 길이정보를 합성단위 선정에 이용하여 합성음의 명료도 및 자연성을 향상시킨 텍스트/음성변환 장치 및 그 방법과, 그를 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.The present invention devised to solve the problems described above, the text / speech that improves the clarity and naturalness of the synthesized sound by using the phonological environment and the silence section length information located before and after the synthesized unit in the speech recognition system, etc. for selecting the synthesis unit It is an object of the present invention to provide a conversion device, a method thereof, and a computer-readable recording medium having recorded thereon a program for realizing the same.
도 1 은 종래의 텍스트/음성변환 장치의 구성도.1 is a block diagram of a conventional text-to-speech device.
도 2 는 본 발명에 따른 텍스트/음성변환 장치의 일실시예 구성도.2 is a block diagram of an embodiment of a text-to-speech device according to the present invention;
도 3 은 본 발명에 따른 텍스트/음성변환 방법에 대한 일실시예 흐름도.3 is a flowchart illustrating an embodiment of a text / voice conversion method according to the present invention;
*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
21 : 언어처리부 22 : 운율처리부21: language processing unit 22: rhyme processing unit
23 : 신호처리부 24 : 합성단위 데이터베이스23: signal processing unit 24: synthesis unit database
상기 목적을 달성하기 위한 본 발명은, 데이터베이스 관리 장치에 저장된 내용을 읽어오는 방법에 있어서, 음소의 변이음 분류시에, 목표음소(T)와, 직전 음The present invention for achieving the above object, in the method of reading the contents stored in the database management device, at the time of classifying the variation sounds of the phoneme, the target phoneme (T) and the immediately preceding sound
소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과, 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y)을 순차적으로 구성하되, 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과 상기 목표음소(T) 사이에 제1 묵음구간(S1)을 삽입하고, 상기 목표음소(T)와 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 제2 묵음구간(S2)을 삽입하는 것을 특징으로 한다.The articulation environment and articulation method (x) related to the sequential or immediately preceding phoneme sequence, and the articulation environment and articulation method (y) related to the immediately after phoneme sequence or the immediately preceding phoneme sequence, are composed sequentially, Inserting a first silent section (S1) between the articulation method (x) and the target phoneme (T), and between the target phoneme (T) and the articulation environment and articulation method (y) associated with the immediate phoneme sequence or immediately preceding phoneme sequence (y). It is characterized in that the insertion of the second silent section (S2).
그리고, 본 발명은, 데이터베이스 관리 장치에 저장하는 방법에 있어서, 음소의 변이음 분류시에, 목표음소(T)와, 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과, 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y)을 순차적으로 구성하되, 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과 상기 목표음소(T) 사이에 제1 묵음구간(S1)을 삽입하고, 상기 목표음소(T)와 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 제2 묵음구간(S2)을 삽입하는 것을 특징으로 한다.In addition, the present invention relates to a method for storing in a database management device, wherein, in classifying the phonetic variations, the target phoneme T, the articulation environment and the articulation method (x) associated with the immediately preceding phoneme sequence or the immediately preceding phoneme sequence, and immediately after the phoneme The articulation environment and the articulation method (y) related to the heat or immediately preceding phoneme sequence are sequentially configured, and a first silent section is formed between the articulation environment and articulation method (x) and the target phoneme (T) related to the immediately preceding phoneme sequence or the immediately preceding phoneme sequence. And inserting a second silent section S2 between the target phoneme T and the articulation environment and the articulation method y associated with the immediately preceding phoneme sequence or the immediately preceding phoneme sequence.
또한, 본 발명은, 데이터베이스 관리 장치에 저장된 내용을 읽어오는 방법에 있어서, 음절의 변이음 분류시에, 목표음절(T)과, 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과, 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y)을 순차적으로 구성하되, 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과 상기 목표음절(T) 사이에 제1 묵음구간(S1)을 삽입하고, 상기 목표음절(T)과 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 제2 묵음구간(S2)을 삽입하는 것을 특징으로 한다.In addition, the present invention relates to a method of reading contents stored in a database management device, wherein, when classifying the syllables of syllables, the target syllable T, the articulation environment related to the immediately preceding phoneme sequence and the immediately preceding phoneme sequence, and the articulation method (x); And the articulation environment and articulation method (y) related to the immediately subsequent phoneme sequence or the immediately preceding phoneme sequence are sequentially arranged between the articulation environment and articulation method (x) and the target syllable (T) related to the immediately preceding phoneme sequence or the immediately preceding phoneme sequence. A first silent section S1 is inserted, and a second silent section S2 is inserted between the target syllable T and the articulation environment and the articulation method y associated with the immediately after phoneme sequence or the immediately preceding phoneme sequence.
또한, 본 발명은, 데이터베이스 관리 장치에 저장하는 방법에 있어서, 음절의 변이음 분류시에, 목표음절(T)과, 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과, 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y)을 순차적으로 구성하되, 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x)과 상기 목표음절(T) 사이에 제1 묵음구간(S1)을 삽입하고, 상기 목표음절(T)과 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 제2 묵음구간(S2)을 삽입하는 것을 특징으로 한다.In addition, the present invention relates to a method for storing in a database management device, wherein, when classifying the syllables of syllables, the target syllable T, the articulation environment and articulation method (x) associated with the immediately preceding phoneme sequence or the immediately preceding phoneme sequence, and immediately after the phoneme The articulation environment and the articulation method (y) related to the column or the immediately preceding phoneme sequence are sequentially formed, and the first silent section is formed between the articulation environment and the articulation method (x) and the target syllable (T) related to the immediately preceding phoneme sequence or the previous phoneme sequence. And inserting a second silent section S2 between the target syllable T and the articulation environment and the articulation method y associated with the immediately subsequent phoneme sequence or the immediately preceding phoneme sequence.
또한, 본 발명은, 입력된 텍스트로부터 합성음을 생성하기 위한 장치에 있어서, 입력되는 텍스트로부터 음소열과 문장의 구문구조 정보를 추출하기 위한 언어 처리수단; 상기 언어 처리수단에서 추출된 구문구조 정보와 음소열을 입력받아, 규칙과 운율 테이블을 이용하여 운율제어 파라메터값을 추정하기 위한 운율 처리수단; 합성단위 검색 정보에 대응하는 음편을 저장하기 위한 합성단위 저장수단; 및 상기 운율 처리수단에서 추정된 음소열과 운율제어 파라메터값으로부터 대상 음소 및 직전/직후 음소열의 음운환경과 심볼 변환된 묵음구간 길이를 추정하여 상기 합성단위 검색정보를 생성하고, 상기 합성단위 검색정보를 이용하여 상기 합성단위 저장수단에 저장된 음편들을 선택한 후에 선택된 음편들을 합성하여 원하는 합성음을 생성하기 위한 합성음 생성수단을 포함한다.The present invention also provides an apparatus for generating a synthesized sound from input text, comprising: language processing means for extracting a phoneme string and syntax structure information of a sentence from input text; Rhyme processing means for receiving syntax structure information and a phoneme string extracted from the language processing means and estimating a rhyme control parameter value using a rule and a rhyme table; Synthesis unit storage means for storing a sound piece corresponding to the synthesis unit search information; And generating the synthesized unit search information by estimating the phonological environment of the target phoneme, the phoneme sequence immediately before and after the phoneme sequence, and the length of the symbol-converted silent section from the phoneme sequence and the rhyme control parameter values estimated by the rhyme processing means. And synthesized sound generating means for generating the desired synthesized sound by synthesizing the selected sound pieces after selecting the pieces stored in the synthesis unit storage means.
또한, 본 발명은, 입력된 텍스트로부터 합성음을 생성하기 위한 장치에 적용되는 텍스트/음성변환 방법에 있어서, 합성단위 검색정보에 대응되는 음편들로 구성된 합성단위 데이터베이스를 구축하는 제 1 단계; 입력되는 텍스트로부터 음소The present invention also provides a text / voice conversion method applied to an apparatus for generating a synthesized sound from input text, the method comprising: a first step of constructing a synthesis unit database composed of pieces corresponding to synthesis unit search information; Phoneme from input text
열과 문장의 구문구조 정보를 추출하고, 규칙과 운율 테이블을 이용하여 운율제어 파라메터값을 추정하는 제 2 단계; 및 상기 추정된 음소열과 운율제어 파라메터값으로부터 대상 음소 및 직전/직후 음소열의 음운환경과 심볼 변환된 묵음구간 길이를 추정하여 상기 합성단위 검색정보를 생성하고, 상기 합성단위 검색정보를 이용하여 상기 합성단위 데이터베이스에 저장된 후보 음편을 선택/합성하여 원하는 합성음을 생성하는 제 3 단계를 포함한다.Extracting syntax structure information of a column and a sentence, and estimating a rhyme control parameter value using a rule and a rhyme table; And generating the synthesized unit search information by estimating the phonological environment of the target phoneme, the phoneme sequence immediately before and after the phoneme sequence, and the length of the symbol-converted silent section from the estimated phoneme sequence and the rhythm control parameter value, and using the synthesis unit search information. And selecting / synthesizing candidate pieces stored in the unit database to generate a desired synthesized sound.
또한, 본 발명은, 프로세서를 구비한 텍스트/음성변환 장치에, 합성단위 검색정보에 대응되는 음편들로 구성된 합성단위 데이터베이스를 구축하는 기능; 입력되는 텍스트로부터 음소열과 문장의 구문구조 정보를 추출하고, 규칙과 운율 테이블을 이용하여 운율제어 파라메터값을 추정하는 기능; 및 상기 추정된 음소열과 운율제어 파라메터값으로부터 대상 음소 및 직전/직후 음소열의 음운환경과 심볼 변환된 묵음구간 길이를 추정하여 상기 합성단위 검색정보를 생성하고, 상기 합성단위 검색정보를 이용하여 상기 합성단위 데이터베이스에 저장된 후보 음편을 선택/합성하여 원하는 합성음을 생성하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In addition, the present invention, in the text / speech conversion device having a processor, a function for constructing a synthesis unit database composed of sound pieces corresponding to the synthesis unit search information; Extracting a phoneme string and syntax structure information from an input text, and estimating a rhyme control parameter value using a rule and a rhyme table; And generating the synthesized unit search information by estimating the phonological environment of the target phoneme, the phoneme sequence immediately before and after the phoneme sequence, and the length of the symbol-converted silent section from the estimated phoneme sequence and the rhythm control parameter value, and using the synthesis unit search information. Provided is a computer readable recording medium having recorded thereon a program for realizing a function of selecting / synthesizing candidate pieces stored in a unit database to generate a desired synthesized sound.
또한, 본 발명은 프로세서를 구비한 데이터베이스 관리 장치에, 음소의 변The present invention also provides a database management apparatus including a processor, wherein the phoneme is changed.
이음 분류시에, 목표음소(T) 구조; 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x) 구조; 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 구조; 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x) 구조; 상기 목표음소(T) 사이에 삽입되는 제1 묵음구간(S1) 구조; 상At the joint classification, a target phoneme structure; Articulation environment and articulation method (x) structure associated with the immediately preceding phoneme sequence or the immediately preceding phoneme sequence; Articulation environment and articulation method (y) structure associated with immediately or immediately after phoneme sequence; An articulation environment and an articulation method (x) structure related to the immediately preceding phoneme sequence or the immediately preceding phoneme sequence; A first silent section S1 inserted between the target phonemes T; Prize
기 목표음소(T)와 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 삽입되는 제2 묵음구간(S2) 구조를 가지는 데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공한다.Providing a computer-readable recording medium on which data having a second silent section (S2) structure inserted between the target phoneme (T) and the immediately preceding phoneme sequence or the articulation environment related to the immediately preceding phoneme sequence and the articulation method (y) is recorded. do.
본 발명은, 프로세서를 구비한 데이터베이스 관리 장치에, 음절의 변이음 분류시에, 목표음절(T) 구조; 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x) 구조; 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 구조; 상기 직전 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(x) 구조; 상기 목표음절(T) 사이에 삽입되는 제1 묵음구간(S1) 구조; 상기 목표음절(T)과 직후 음소열이나 직전 음소열과 관련된 조음환경 및 조음방법(y) 사이에 삽입되는 제2 묵음구간(S2) 구조를 가지는 데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공한다.The present invention provides a database management apparatus including a processor, comprising: a target syllable (T) structure at the time of classifying syllable variations; Articulation environment and articulation method (x) structure associated with the immediately preceding phoneme sequence or the immediately preceding phoneme sequence; Articulation environment and articulation method (y) structure associated with immediately or immediately after phoneme sequence; An articulation environment and an articulation method (x) structure related to the immediately preceding phoneme sequence or the immediately preceding phoneme sequence; A first silent section S1 inserted between the target syllables T; Providing a computer-readable recording medium on which data having a second silent section (S2) structure inserted between the target syllable T and the immediately following phoneme sequence or the articulation environment related to the immediately preceding phoneme sequence and the articulation method (y) is recorded. do.
본 발명은 음성인식시스템 등에서 대상 음소의 전후에 삽입되는 묵음 구간의 유무, 장단에 대한 정보와 대상 음소의 전후에 위치하는 음소들의 정보를 이용하여 대상 음소의 변이음을 정의하고, 이에 따라 합성음 생성에 적합한 후보 음편을 검색하여 선택하므로써, 합성음의 자연성과 명료도를 향상시킬 수 있다.The present invention defines a transition sound of a target phoneme by using information about whether there is a silent section inserted before and after the target phoneme, information about long and short periods, and information about phonemes located before and after the target phoneme in a voice recognition system. By searching and selecting suitable candidate pieces, the naturalness and clarity of the synthesized sound can be improved.
상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2 는 본 발명에 따른 텍스트/음성변환 장치의 일실시예 구성도이다.2 is a block diagram of an embodiment of a text-to-speech device according to the present invention.
도 2에 도시된 바와 같이, 본 발명에 따른 텍스트/음성변환 장치는, 입력된 텍스트로부터 합성음을 생성하기 위한 도 1의 텍스트/음성변환 장치에 있어서, 입력되는 텍스트로부터 음소열과 문장의 구문구조 정보를 추출하기 위한 언어처리부(21)와, 언어처리부(21)에서 추출된 구문구조 정보와 음소열을 입력받아, 규칙과 운율 테이블을 이용하여 운율제어 파라메터값을 추정하기 위한 운율처리부(22)와, 합성단위 검색 정보에 대응하는 음편을 저장하기 위한 합성단위 데이터베이스(24)와, 운율처리부(22)에서 추정된 음소열과 운율제어 파라메터값으로부터 대상 음소 및 직전/직후 음소열의 음운환경과 심볼 변환된 묵음구간 길이를 추정하여 합성단위 데이터베이스(24)에 저장된 음편을 검색하기 위한 합성단위 검색 정보를 생성하고, 이러한 합성단위 검색 정보를 이용하여 합성단위 데이터베이스(24)에 저장된 후보 음편을 선택한 후에, 선택된 음편들을 합성하여 원하는 합성음을 생성하기 위한 신호처리부(23)를 포함한다.As shown in FIG. 2, in the text / voice conversion apparatus of FIG. 1 for generating a synthesized sound from input text, the text / voice conversion apparatus according to the present invention includes syntax structure information of a phoneme string and a sentence from input text. A language processor 21 for extracting the information, a syntax structure information and a phoneme string extracted from the language processor 21, and a rhyme processor 22 for estimating a rhyme control parameter value using a rule and a rhyme table; And the phoneme environment and symbol conversion of the phoneme and the immediately / before / after phoneme sequence from the phoneme sequence and rhyme control parameter values estimated by the synthesized unit database 24 and the rhyme processor 22 for storing the pieces corresponding to the synthesized unit search information. Estimating the silence section length to generate synthesis unit search information for searching for the sound segments stored in the synthesis unit database 24, and searching such synthesis unit After selecting the candidate pieces stored in the synthesis unit database 24 by using the information, the signal processing unit 23 for synthesizing the selected pieces to generate a desired synthesized sound.
언어처리부(21)는 TTS에 입력된 텍스트 문장을 받아서 기호, 숫자, 외국어 읽기 변환을 한다. 또한, 운율처리에 필요한 정보로서 음절, 단어의 경계정보, 문장내 각 단어의 품사, 문법적 기능 등의 구문구조 정보를 추정하고, 예외발음사전과 읽기변환 규칙을 이용하여 철자/음소 변환을 수행한다.The language processor 21 receives a text sentence input to the TTS and converts a symbol, a number, and a foreign language reading. In addition, as information necessary for rhyme processing, information on syntax structure such as syllables, word boundary information, parts of speech in each sentence, and grammatical functions is estimated, and the spelling / phoneme conversion is performed using an exception phonetic dictionary and a read conversion rule. .
이상의 과정을 통하여 언어처리부(21)는 음소열과 문장의 구문구조 정보를 운율처리부(22)로 전달한다.Through the above process, the language processor 21 transmits the phoneme string and the syntax structure information of the sentence to the rhyme processor 22.
운율처리부(22)는 언어처리부(21)에서 전달받은 구문구조 정보와 음소열을 입력으로 하여 규칙과 운율 테이블을 이용하여 끊어읽기, 소리의 높낮이, 소리의 강약, 소리의 장단과 관련된 운율 파라미터값을 계산한다. 즉, 구/절의 경계에서 분리도에 따라 끊어읽기 규칙을 적용하여 적절한 쉼 구간을 삽입하고, 단어간 수식관계에 따라 규칙과 테이블을 이용하여 억양과 관련된 피치값을 계산하며, 해당 음소에 피치값을 할당한다.The rhyme processing unit 22 inputs the syntax structure information and the phoneme sequence transmitted from the language processing unit 21 as inputs, and uses a rule and a rhyme table to read, raise and lower the sound, strength and weakness of the sound, and rhyme parameter values related to the length and length of the sound. Calculate In other words, insert the appropriate rest period by applying the break reading rule according to the degree of separation at the boundary of phrase / verse, calculate the pitch value related to intonation using rules and tables according to the formula relation between words, and assign the pitch value to the phoneme. Assign.
그리고, 운율처리부(22)는 음소별 고유 지속시간값과 음운환경 및 구문구조에 따른 변화 규칙을 이용하여 각 음소의 지속시간을 계산한다. 또한, 각 음소별 조음특성과 문법적 기능을 고려하여 각 음소의 에너지 컨투어를 생성한다.And, the rhyme processing unit 22 calculates the duration of each phoneme using the intrinsic duration value for each phoneme and the change rule according to the phoneme environment and syntax structure. In addition, an energy contour of each phoneme is generated by considering the articulation characteristics and grammatical functions of each phoneme.
이상의 과정을 통하여 운율처리부(22)는 추정된 운율 파라미터 값들을 음소열 정보와 함께 신호처리부(23)로 전달한다.Through the above process, the prosody processor 22 transmits the estimated prosody parameter values to the signal processor 23 along with phoneme string information.
신호처리부(23)는 운율처리부(22)에서 전달받은 음소열로부터 음운환경과 관련하여 대상(즉, 목표) 음소와 직전 음소열, 직후 음소열을 선정하고, 직전/직후 음소열로부터 조음방법, 조음위치와 관련된 조음결합 패턴을 추정하여 대상음소(T), 직전 음소열의 음운환경(x), 직후 음소열의 음운환경(y)을 설정한다. 그리고, 신호처리부(23)는 운율제어 파라미터값중에서 목표 음소의 직전/직후에 삽입되는 묵음구간 길이를 선형, 비선형으로 양자화하여 이를 심볼(S1,S2)로 변환한다.The signal processor 23 selects a target (ie, a target) phoneme, a phoneme string immediately before and immediately after a phoneme string in relation to the phoneme environment from the phoneme sequence received from the rhyme processor 22, and then modulates the phoneme sequence from immediately before and after the phoneme sequence. By estimating the articulation combination pattern related to the articulation position, the target phoneme (T), the phonological environment (x) of the immediately preceding phoneme sequence, and the phonological environment (y) of the immediately after phoneme sequence are set. In addition, the signal processor 23 quantizes the length of the silent section inserted immediately before and immediately after the target phoneme in the rhythm control parameter values linearly and nonlinearly and converts the lengths of the silent sections into symbols S1 and S2.
신호처리부(23)는 대상음소(T), 직전 음소열의 음운환경(x), 직후 음소열의 음운환경(y), 심볼(S1,S2)로 변환된 묵음구간 길이로부터 x.S1.T.S2.y의 합성단위검색정보를 생성하고, 이러한 합성단위 검색정보(x.S1.T.S2.y)를 이용하여 합성 단위 데이터베이스(24)에서 합성음 생성에 적합한 후보 음편을 검색 선택한다. 또한, 필요시 운율제어 파라미터값에 부합되도록 선택된 음편을 신호처리 방법으로 억양, 강세, 지속시간을 조절하여 가공하며, 문장내 끊어읽기를 삽입한 후에, 이들 음편들을 접합하므로써 원하는 합성음을 생성하고 이를 외부로 출력한다.The signal processor 23 converts x.S1.T.S2 from the silence section lengths converted into the target phoneme T, the phoneme environment x of the immediately preceding phoneme sequence, the phoneme environment y of the immediately phoneme sequence, and the symbols S1 and S2. Synthesis unit search information of .y is generated, and the candidate unit suitable for synthesis sound generation is selected from the synthesis unit database 24 by using the synthesis unit search information (x.S1.T.S2.y). In addition, if necessary, the selected sound samples are processed to adjust the accent, accent, and duration according to the rhythm control parameter value.Then, after inserting cut-outs within a sentence, the desired sound is created by joining these sound pieces. Output to the outside.
합성단위 데이터베이스(24)에는 합성단위 검색정보(x.S1.T.S2.y)에 일대일 대응되는 음편들이 운용자에 의해 미리 저장된다.In the synthesis unit database 24, sound pieces corresponding to one-to-one correspondence to the synthesis unit search information (x.S1.T.S2.y) are previously stored by the operator.
도 3 은 본 발명에 따른 텍스트/음성변환 방법에 대한 일실시예 흐름도이3 is a flowchart illustrating an embodiment of a text / voice conversion method according to the present invention.
다.All.
도 3에 도시된 바와 같이, 본 발명에 따른 텍스트/음성변환 방법은, 먼저 언어처리부(21)에서 TTS에 입력되는 텍스트로부터 음소열과 문장의 구문구조 정보를 추출한다(301). 즉, 언어처리부(21)는 TTS에 입력된 텍스트 문장을 입력받아 기호, 숫자, 외국어 읽기 변환하고, 운율처리에 필요한 음절, 단어의 경계정보, 문장내 각 단어의 품사, 문법적 기능 등의 구문구조 정보를 추정하며, 예외발음사전과 읽기변환 규칙을 이용하여 철자/음소 변환을 수행한다.As shown in FIG. 3, in the text / voice conversion method according to the present invention, first, the language processor 21 extracts a phoneme string and syntax structure information of a sentence from text input to the TTS (301). That is, the language processor 21 receives the text sentence inputted in the TTS, converts symbols, numbers, and foreign language readings, and constructs syntactic structures such as syllables, word boundary information, parts of speech in each sentence, and grammatical functions necessary for rhyme processing. The information is estimated, and the spelling / phoneme conversion is performed using the exception phonetic dictionary and the read conversion rule.
이후, 운율처리부(22)가 언어처리부(21)에서 추출된 구문구조 정보와 음소열을 입력받아, 규칙과 운율 테이블을 이용하여 끊어읽기, 소리의 높낮이, 소리의 강약, 소리의 장단과 관련된 운율 파라미터값을 추정한다(302). 운율처리부(22)는 구/절의 경계에서 분리도에 따라 끊어읽기 규칙을 적용하여 적절한 쉼 구간을 삽입하고, 단어간 수식관계에 따라 규칙과 테이블을 이용하여 억양과 관련된 피치값을 계산하며, 해당 음소에 피치값을 할당한다. 그리고, 음소별 고유 지속시간값과 음운환경 및 구문구조에 따른 변화 규칙을 이용하여 각 음소의 지속시간을 계산하고, 각 음소별 조음특성과 문법적 기능을 고려하여 각 음소의 에너지 컨투어를 생성한다.Subsequently, the rhyme processor 22 receives the syntax structure information and the phoneme string extracted from the language processor 21, and uses the rules and the rhyme table to read and cut, the height of the sound, the strength and weakness of the sound, and the rhythm related to the length and length of the sound. The parameter value is estimated (302). The rhyme processor 22 inserts an appropriate rest period by applying a break reading rule according to the degree of separation at the boundary of the phrase / clause, calculates a pitch value related to the intonation by using a rule and a table according to a mathematical relationship between words, and the corresponding phonemes. Assign a pitch value to. Then, the duration of each phoneme is calculated using the intrinsic duration value of each phoneme and the change rules according to phonological environment and syntax structure, and an energy contour of each phoneme is generated in consideration of articulation characteristics and grammatical functions of each phoneme.
다음으로, 신호처리부(23)가 운율처리부(22)에서 전달받은 음소열로부터 음운환경과 관련하여 대상(즉, 목표) 음소와 직전 음소열, 직후 음소열을 선정하고(303), 직전/직후 음소열로부터 조음방법, 조음위치와 관련된 조음결합 패턴을 추정하여 대상음소(T), 직전 음소열의 음운환경(x), 직후 음소열의 음운환경(y)을 설정한다(304).Next, the signal processor 23 selects the target (ie, target) phoneme and the immediately preceding phoneme sequence, immediately after the phoneme sequence from the phoneme sequence received from the rhyme processor 22 (303), and immediately before / after From the phoneme strings, the articulation method and the articulation combination pattern related to the articulation position are estimated to set the target phoneme (T), the phonological environment (x) of the immediately preceding phoneme sequence, and the phonological environment (y) of the immediately after phoneme sequence (304).
그리고, 신호처리부(23)가 운율제어 파라미터값중에서 대상음소(T)의 직전/직후에 삽입되는 묵음구간 길이를 선형, 비선형으로 양자화하여 이를 심볼(S1,S2)로 변환한다(305).The signal processor 23 quantizes the length of the silent section inserted immediately before and after the target phoneme T in the rhythm control parameter values linearly and nonlinearly and converts the length of the silent section into symbols S1 and S2 (305).
이어서, 신호처리부(23)에서 대상음소(T), 직전 음소열의 음운환경(x), 직Subsequently, in the signal processor 23, the target phoneme T, the phonological environment x of the immediately preceding phoneme sequence,
후 음소열의 음운환경(y)과, 심볼(S1,S2)을 합성하여 합성단위 검색정보(x.S1.T.S2.y)를 생성한다(306). 이후에, 합성음을 생성하기 위해, 생성된 합성단위 검색정보(x.S1.T.S2.y)를 바탕으로 합성단위 데이터베이스(24)에 미리 저장된 음편을 검색하여 선택한다(307). 또한, 필요시 운율제어 파라미터값에 부합되도록 선택된 음편을 신호처리 방법으로 억양, 강세, 지속시간을 조절하여 가공하며, 문장내 끊어읽기를 삽입한다(308).Then, the phoneme environment y of the phoneme string and the symbols S1 and S2 are synthesized to generate synthesis unit search information (x.S1.T.S2.y) (306). Subsequently, in order to generate a synthesized sound, a sound previously stored in the synthesis unit database 24 is searched and selected based on the generated synthesis unit search information (x.S1.T.S2.y) (307). Further, if necessary, the selected sound piece is processed by adjusting the intonation, accent, and duration by a signal processing method so as to match the rhythm control parameter value, and inserts a broken reading in the sentence (308).
마지막으로, 선택된 음편들을 접합시켜 원하는 합성음을 생성한다(309).Finally, the selected pieces are joined to generate a desired synthesized sound (309).
상기한 바와 같은, 본 발명은 연속된 음소들 사이에 삽입되는 묵음구간의As described above, the present invention provides a silent section inserted between consecutive phonemes.
길이를 합성단위 검색정보에 활용하므로써, 인접 음운환경이 대상 음소에 미치는 조음결합 현상을 보다 정확하게 분류할 수 있으며, 합성음의 명료도와 자연성을 향상시킬 수 있다. 따라서, 본 발명은 고품질의 합성음을 생성하므로써 웹 브라우저 읽기, 전자메일 읽기, 주문형 소설(동화) 낭독 서비스 등의 통신서비스와 교육 등의 여러 분야에 응용할 수 있다.By using the length in the synthesis unit search information, it is possible to more accurately classify the articulation coupling effect of the adjacent phoneme environment on the target phoneme, and improve the clarity and naturalness of the synthesized sound. Accordingly, the present invention can be applied to various fields such as communication services and education, such as web browser reading, e-mail reading, on-demand novel reading story, etc. by generating high quality synthesized sound.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains, and the above-described embodiments and accompanying It is not limited to the drawing.
상기한 바와 같은 본 발명은, 연속된 음소들 사이에 삽입되는 묵음구간의 길이를 합성단위 데이터베이스에 저장된 음편을 검색하기 위한 합성단위 검색정보에 활용하므로써, 인접 음운환경이 대상 음소에 미치는 조음결합 현상을 보다 정확하게 분류할 수 있으며, 합성음의 명료도와 자연성을 크게 향상시킬 수 있는 효과가 있다.As described above, the present invention utilizes the length of a silent section inserted between consecutive phonemes in synthesis unit search information for searching for a piece of music stored in a synthesis unit database, whereby an adjacent phonological environment affects a target phoneme. It can be classified more accurately, and has the effect of greatly improving the clarity and naturalness of the synthesized sound.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-1999-0033869A KR100373329B1 (en) | 1999-08-17 | 1999-08-17 | Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-1999-0033869A KR100373329B1 (en) | 1999-08-17 | 1999-08-17 | Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010018064A true KR20010018064A (en) | 2001-03-05 |
KR100373329B1 KR100373329B1 (en) | 2003-02-25 |
Family
ID=19607485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-1999-0033869A KR100373329B1 (en) | 1999-08-17 | 1999-08-17 | Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100373329B1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020081912A (en) * | 2001-04-20 | 2002-10-30 | 황규오 | A voice service method on the web |
KR100443247B1 (en) * | 2001-12-26 | 2004-08-04 | 주식회사 케이티 | Pronunciation modeling system and method of sonorants + /h/ sequences in Korean speech recognition |
KR100769032B1 (en) * | 2003-09-29 | 2007-10-22 | 모토로라 인코포레이티드 | Letter to sound conversion for synthesized pronounciation of a text segment |
KR100883649B1 (en) * | 2002-04-04 | 2009-02-18 | 삼성전자주식회사 | Text to speech conversion apparatus and method thereof |
KR100932643B1 (en) * | 2007-10-04 | 2009-12-21 | 포항공과대학교 산학협력단 | Method of grapheme-to-phoneme conversion for Korean TTS system without a morphological and syntactic analysis and device thereof |
KR20150056276A (en) * | 2013-11-15 | 2015-05-26 | 현대모비스 주식회사 | Pre-processing apparatus for speech recognition and method thereof |
US10475441B2 (en) | 2017-06-07 | 2019-11-12 | Hyundai Motor Company | Voice end-point detection device, system and method |
KR20220037094A (en) * | 2020-09-17 | 2022-03-24 | 주식회사 한글과컴퓨터 | Voice synthesis apparatus which processes spacing on reading for sentences and the operating method thereof |
KR20220072593A (en) * | 2020-11-25 | 2022-06-02 | 주식회사 자이냅스 | Method and tts system for generating speech data using unvoice mel-spectrogram |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101494700B1 (en) * | 2014-01-15 | 2015-02-23 | 주식회사 웰리스 | Apparatus for airborne disinfection, having a high efficiency |
-
1999
- 1999-08-17 KR KR10-1999-0033869A patent/KR100373329B1/en not_active IP Right Cessation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020081912A (en) * | 2001-04-20 | 2002-10-30 | 황규오 | A voice service method on the web |
KR100443247B1 (en) * | 2001-12-26 | 2004-08-04 | 주식회사 케이티 | Pronunciation modeling system and method of sonorants + /h/ sequences in Korean speech recognition |
KR100883649B1 (en) * | 2002-04-04 | 2009-02-18 | 삼성전자주식회사 | Text to speech conversion apparatus and method thereof |
KR100769032B1 (en) * | 2003-09-29 | 2007-10-22 | 모토로라 인코포레이티드 | Letter to sound conversion for synthesized pronounciation of a text segment |
KR100932643B1 (en) * | 2007-10-04 | 2009-12-21 | 포항공과대학교 산학협력단 | Method of grapheme-to-phoneme conversion for Korean TTS system without a morphological and syntactic analysis and device thereof |
KR20150056276A (en) * | 2013-11-15 | 2015-05-26 | 현대모비스 주식회사 | Pre-processing apparatus for speech recognition and method thereof |
US10475441B2 (en) | 2017-06-07 | 2019-11-12 | Hyundai Motor Company | Voice end-point detection device, system and method |
KR20220037094A (en) * | 2020-09-17 | 2022-03-24 | 주식회사 한글과컴퓨터 | Voice synthesis apparatus which processes spacing on reading for sentences and the operating method thereof |
KR20220072593A (en) * | 2020-11-25 | 2022-06-02 | 주식회사 자이냅스 | Method and tts system for generating speech data using unvoice mel-spectrogram |
Also Published As
Publication number | Publication date |
---|---|
KR100373329B1 (en) | 2003-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11443733B2 (en) | Contextual text-to-speech processing | |
US8566099B2 (en) | Tabulating triphone sequences by 5-phoneme contexts for speech synthesis | |
Huang et al. | Whistler: A trainable text-to-speech system | |
US7565291B2 (en) | Synthesis-based pre-selection of suitable units for concatenative speech | |
JP3587048B2 (en) | Prosody control method and speech synthesizer | |
Mache et al. | Review on text-to-speech synthesizer | |
KR100373329B1 (en) | Apparatus and method for text-to-speech conversion using phonetic environment and intervening pause duration | |
Stöber et al. | Speech synthesis using multilevel selection and concatenation of units from large speech corpora | |
HIROSE et al. | A system for the synthesis of high-quality speech from texts on general weather conditions | |
O'Shaughnessy | Modern methods of speech synthesis | |
Bonafonte et al. | The UPC TTS system description for the 2008 blizzard challenge | |
Kaur et al. | BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE | |
Sun et al. | Generation of fundamental frequency contours for Mandarin speech synthesis based on tone nucleus model. | |
Narupiyakul et al. | A stochastic knowledge-based Thai text-to-speech system | |
EP1640968A1 (en) | Method and device for speech synthesis | |
Lai | F0 control model for mandarin singing voice synthesis | |
Deng et al. | Speech Synthesis | |
Davaatsagaan et al. | Diphone-based concatenative speech synthesis system for mongolian | |
Fujisaki et al. | A System for synthesizing Japanese speech from orthographic text | |
Kula et al. | Prosody control in diphone-based speech synthesis system for Polish | |
Chowdhury | Concatenative Text-to-speech synthesis: A study on standard colloquial bengali | |
IMRAN | ADMAS UNIVERSITY SCHOOL OF POST GRADUATE STUDIES DEPARTMENT OF COMPUTER SCIENCE | |
Juergen | Text-to-Speech (TTS) Synthesis | |
Tian et al. | Modular design for Mandarin text-to-speech synthesis | |
Hirose et al. | Synthesis of fundamental frequency contours for Standard Chinese based on superpositional and tone nucleus models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20091228 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |