JPH0297999A - Speech synthesizer - Google Patents

Speech synthesizer

Info

Publication number
JPH0297999A
JPH0297999A JP63251504A JP25150488A JPH0297999A JP H0297999 A JPH0297999 A JP H0297999A JP 63251504 A JP63251504 A JP 63251504A JP 25150488 A JP25150488 A JP 25150488A JP H0297999 A JPH0297999 A JP H0297999A
Authority
JP
Japan
Prior art keywords
synthesis
speech
sentence
syntactic analysis
analysis results
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63251504A
Other languages
Japanese (ja)
Inventor
Toshinao Hotei
布袋 稔尚
Nobuyoshi Umiki
延佳 海木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP63251504A priority Critical patent/JPH0297999A/en
Publication of JPH0297999A publication Critical patent/JPH0297999A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PURPOSE:To obtain the effect of a rapid reading so that it can be easy to hear by referring to a syntax analysis result, extracting word and phrases to satisfy prescribed conditions and outputting the syntax analysis result of a configuration element related to the word and phrases to a speech synthesizing part. CONSTITUTION:The character string of a sentence is inputted to a syntax analyzing part I, a syntax analysis is executed, and the result is outputted to an analysis result control part 3. At such a time, when an ordinary synthesis command is inputted from a setting part 2, the syntax analysis results as to all character string inputted from the analyzing part I are outputted to a speech synthesizing part 5 as they are. When a rapid traverse synthesis command is inputted, the analysis results related to the word and phrases made into the subject, object and important modifier of each sentence are successively extracted from the result of the analyzing part I and outputted to the speech synthesizing part 5. The speech synthesizing part 5 generates the parameters of the pitch pattern, power, etc., of the subject, object and important modifier for each sentence at the time of the rapid traverse synthesis and synthesizes the speech. In such a way, the effect of the rapid reading can be obtained so that it can be easy to hear.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、規則合成音声を生成する音声合成装置に関
する。
DETAILED DESCRIPTION OF THE INVENTION <Industrial Application Field> The present invention relates to a speech synthesizer that generates rule-based synthesized speech.

〈従来の技術〉 従来、音声合成装置による音声の規則合成において、入
力された任意の文字列を合成音声によって早読みさせる
場合には、入力された総ての文字列に対して、生成する
音韻の継続時間長を短くすることによって行っている。
<Prior art> Conventionally, in the rule-based synthesis of speech using a speech synthesizer, when an arbitrary input character string is read quickly by synthesized speech, the phoneme to be generated is determined for all input character strings. This is done by shortening the duration of the .

〈発明が解決しようとする課題〉 しかしながら、従来の合成音声装置において規則合成に
よって早読みを実施する場合には、入力された文字列を
省略して操作者が必要とする語句のみを抽出せずに音韻
の継続時間長を短くすることによって行っているので、
出力される合成音声は早い口調になって自然性が減少す
る。したがって、早読みを実施した場合の合成音声は聞
き取りにくく、内容の理解が困難であるという問題があ
る。そのため、早読みの速度を上げて時間の短縮を行っ
ても、それに見合った効果が得られない。
<Problems to be Solved by the Invention> However, when performing fast reading using rule synthesis in conventional speech synthesis devices, it is necessary to omit input character strings and extract only the words and phrases required by the operator. This is done by shortening the duration of the phoneme, so
The synthesized speech that is output has a fast tone and is less natural. Therefore, there is a problem in that it is difficult to hear the synthesized speech when performing fast reading, and it is difficult to understand the content. Therefore, even if you increase the speed of quick reading to shorten the time, you will not get a commensurate effect.

そこで、この発明の目的は、聞き取りやすく内容を正し
く理解できる早読みを実施できる音声合成装置を提供す
ることにある。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a speech synthesis device that can perform fast reading that makes it easy to hear and understand the content correctly.

〈課題を解決するための手段〉 上記目的を達成するため、この発明は、入力された文字
列を構文解析部によって形態素に分割して構文解析を行
い、得られた構文解析結果に基づいて音声合成部で音声
合成に必要な合成パラメータを生成し、この合成パラメ
ータに従って音声を合成して出力する音声合成装置にお
いて、通常合成または早送合成を設定する設定部と、上
記構文解析部からの構文解析結果を取り込み、上記設定
部によって設定された通常合成または早送合成に従って
、通常合成の場合には、総ての形態素の構文解析結果を
そのまま上記音声合成部に出力する一方、早送合成の場
合には、上記構文解析結果を参照して所定の条件を満た
す語句を抽出し、この抽出された語句に関する形態素の
構文解析結果を上記音声合成部に出力する解析結果制御
部を備えたことを特徴としている。
<Means for Solving the Problems> In order to achieve the above object, the present invention divides an input character string into morphemes using a syntactic analysis unit, performs syntactic analysis, and generates speech based on the obtained syntactic analysis results. In a speech synthesizer that generates synthesis parameters necessary for speech synthesis in a synthesis section, and synthesizes and outputs speech according to these synthesis parameters, a setting section for setting normal synthesis or fast-forward synthesis, and a syntax from the above-mentioned syntax analysis section are used. The analysis results are taken in, and according to the normal synthesis or fast-forward synthesis set by the setting section, in the case of normal synthesis, the syntactic analysis results of all morphemes are output as they are to the speech synthesis section, while in the case of fast-forward synthesis, In this case, the speech synthesis unit includes an analysis result control unit that refers to the syntactic analysis results to extract words that satisfy a predetermined condition, and outputs the morpheme syntactic analysis results regarding the extracted words to the speech synthesis unit. It is a feature.

〈作用〉 文字列が構文解析部に入力されると、この構文解析部に
よって上記文字列が形態素に分割されて構文解析が行わ
れ、得られた構文解析結果が解析結果制御部に入力され
る。ここで、設定部によって通常合成または早送合成が
設定されると、通常合成が設定された場合には、上記解
析結果制御部によって総ての形態素の構文解析結果がそ
のまま音声合成部に出力される一方、早送合成が設定さ
れた場合には、上記解析結果制御部によって上記構文解
析結果を参照して所定の条件を満たす語句が抽出され、
この抽出された語句に関する形態素の構文解析結果が上
記音声合成部に出力される。
<Operation> When a character string is input to the syntax analysis unit, the character string is divided into morphemes and syntactically analyzed by this syntax analysis unit, and the obtained syntax analysis result is input to the analysis result control unit. . Here, when normal synthesis or fast-forward synthesis is set by the setting section, if normal synthesis is set, the analysis result control section outputs the syntactic analysis results of all morphemes as they are to the speech synthesis section. On the other hand, when fast-forward synthesis is set, the analysis result control section refers to the syntax analysis results and extracts words that meet predetermined conditions.
The results of syntactic analysis of morphemes related to the extracted words are output to the speech synthesis section.

そうすると、上記音声合成部は入力された形態素の構文
解析結果に基づいて音声合成に必要な合成パラメータを
生成し、この合成パラメータに従って音声が合成されて
出力される。
Then, the speech synthesis section generates synthesis parameters necessary for speech synthesis based on the syntactic analysis results of the input morphemes, and speech is synthesized and output according to the synthesis parameters.

したがって、通常合成の場合には入力された総ての文字
列による文章の合成音声が出力され、早送合成の場合に
は上記所定の条件を満たす語句のみによる文章の合成音
声が出力される。
Therefore, in the case of normal synthesis, a synthesized speech of a sentence using all input character strings is output, and in the case of fast-forward synthesis, a synthesized speech of a sentence only containing words satisfying the above-described predetermined conditions is output.

〈実施例〉 以下、この発明を図示の実施例により詳細に説明する。<Example> Hereinafter, the present invention will be explained in detail with reference to illustrated embodiments.

第1図はこの発明の一実施例である音声合成装置のブロ
ック図である。この音声合成装置は、入力された任意の
文章から各文の主語、述語および重要な修飾語を抽出し
、この抽出された主語、述語および重要な修飾語に基づ
いて合成音声を生成するものである。
FIG. 1 is a block diagram of a speech synthesizer which is an embodiment of the present invention. This speech synthesis device extracts the subject, predicate, and important modifiers of each sentence from any input sentence, and generates synthesized speech based on the extracted subject, predicate, and important modifiers. be.

構文解析部lに任意の文章の文字列が入力されると、構
文解析部lは入力された上記文章の構文解析を行い、そ
の構文解析結果を解析結果制御部3に出力する。そうす
ると、解析結果制御部3は、設定部2からの指令に従っ
て、上記構文解析結果を次のように制御して音声合成部
5に出力する。
When a character string of an arbitrary sentence is input to the syntactic analysis unit 1, the syntactic analysis unit 1 performs syntactic analysis of the input sentence and outputs the result of the syntactic analysis to the analysis result control unit 3. Then, the analysis result control section 3 controls the syntax analysis result as follows and outputs it to the speech synthesis section 5 according to the command from the setting section 2.

ケなわち、設定部2から通常合成指令が入力されると、
構文解析部lから入力される総ての入力文字列について
の構文解析結果をそのまま音声合成部5に出力する。ま
た、早送合成指令が入力されると、構文解析部lからの
構文解析結果から、各文の主語、述語および重要な修飾
語となる語句に関する構文解析結果を順次抽出して音声
合成部5に出力する。
That is, when a normal synthesis command is input from the setting section 2,
The syntax analysis results for all input character strings input from the syntax analysis section 1 are output as they are to the speech synthesis section 5. When a fast-forward synthesis command is input, the speech synthesis unit 5 sequentially extracts the syntactic analysis results regarding the subject, predicate, and important modifier words of each sentence from the syntactic analysis results from the syntactic analysis unit l. Output to.

上記音声合成部5は、解析結果制御部3から入力される
構文解析結果に基づいて、通常合成指令の場合には総て
の入力文字列について、早送合成指令の場合には各文毎
の主語、述語および重要な修飾語となる語句のみについ
て、ピッチパターン、パワー等の音声合成に必要なパラ
メータを生成し、このパラメータに基づいて音声を合成
して出力する。
Based on the syntax analysis result inputted from the analysis result control section 3, the speech synthesis section 5 performs a synthesis process for all input character strings in the case of a normal synthesis command, and for each sentence in the case of a fast-forward synthesis command. Parameters necessary for speech synthesis, such as pitch pattern and power, are generated only for words and phrases that are subjects, predicates, and important modifiers, and speech is synthesized and output based on these parameters.

次に、具体的な文章例によって上記構成の合成音声装置
の動作を説明する。その際に、入力文章例は「 」内に
記す。
Next, the operation of the synthesized speech apparatus having the above configuration will be explained using specific example sentences. In this case, input text examples are written in brackets.

まず、以下に示すような文章の文字列を構文解析部lに
入力する。
First, a character string of a sentence as shown below is input to the syntax analysis unit l.

「むかしむかし、あるところにおじいさんとおばあさん
が住んでいました。ある日のこと、おじいさんは山に柴
刈りに行きました。おばあさんは川に洗濯に行きました
。おばあさんが川で洗濯をしていると、用土から大きな
桃が流れてきました。おばあさんはその大きな桃を拾っ
て家にしって帰りました。」 そうすると、構文解析部lでは、入力された上述のよう
な文字列を構文解析して、その結果を解析結果制御部3
に出力する。この構文解析は例えば次のようにして実行
される。まず入力された文字列を辞書等を参照して単語
列等の形態素列に分割し、この形態素の読み3区分およ
び品詞等を得る形態素解析を行う。第2図(a)に上記
入力文字列の冒頭の部分の形態素解析結果を示す。次に
、上記形態素解析結果に基づいて、辞書と文法規則に従
って各形態素間の係り受は関係を決定する構文解析が行
われる。第2図(b)に第2図(a)に示した形態素解
析結果に基づいて得られた文節間の係り受けを示す。
“Once upon a time, there lived an old man and an old woman.One day, the old man went to the mountain to cut brushwood.The old woman went to the river to wash clothes.The old woman was washing clothes in the river. Then, a large peach came floating out of the field.The old woman picked up the large peach and took it home.''Then, the parser l parses the input string like the one above. and send the results to the analysis result control unit 3.
Output to. This syntax analysis is performed, for example, as follows. First, an input character string is divided into morpheme strings such as word strings with reference to a dictionary or the like, and morpheme analysis is performed to obtain the three pronunciations and part of speech of this morpheme. FIG. 2(a) shows the result of morphological analysis of the beginning part of the input character string. Next, based on the morphological analysis results, syntactic analysis is performed to determine the dependency relationship between each morpheme according to the dictionary and grammar rules. FIG. 2(b) shows the dependencies between clauses obtained based on the morphological analysis results shown in FIG. 2(a).

次に、設定部2から例えば通常合成指令を入力する。そ
うすると、この指令に基づいて入力文字列を語句の省略
なしに全部音声に規則合成して出力する。すなわち、解
析結果制御部3は入力された総ての文字列に対する上述
の構文解析結果をそのまま音声合成部5に出力する。そ
うすると、音声合成部5は入力された主語、述語および
重要な修飾語に関する構文解析結果に基づいてピッチパ
ターンおよびパワーパターン等の合成に必要なパラメー
タを生成し、このパラメータに従って以下に示すような
音声を合成して出力し始める。
Next, for example, a normal synthesis command is input from the setting section 2. Then, based on this command, the entire input character string is synthesized into speech without omission of words and output. That is, the analysis result control unit 3 outputs the above-mentioned syntactic analysis results for all input character strings as they are to the speech synthesis unit 5. Then, the speech synthesis unit 5 generates parameters necessary for synthesizing pitch patterns, power patterns, etc. based on the syntactic analysis results regarding the input subject, predicate, and important modifiers, and according to these parameters, the speech synthesizer 5 generates the following speech. Start composing and outputting.

「むかしむかし、あるところにおじいさんとおばあさん
が住んでいました。」 次に、例えば「・・・住んでいました。」まで音声を合
成して出力した時点で、設定部2から早送合成指令が入
力されたとする。
``Once upon a time, there lived an old man and an old woman in a certain place.'' Next, when the voice has been synthesized and outputted, for example, ``They lived...'', the setting section 2 commands a fast-forward synthesis command. Suppose that is input.

そうすると、解析結果制御部3は、構文解析部lにおけ
る上述の構文解析結果に基づいて、各文毎の主語、述語
および重要な修飾語となる語句を抽出し、この抽出され
た語句に関する構文解析結果を音声合成部5に出力する
。すなわち、第2図に示した構文解析結果の例において
、第2図(a)の形態素解析結果および第2図(b)の
形態素間の係り受けに基づいて、「おじいさんは」を主
語、「行きました」を述語、「山に」を重要な修飾語と
して抽出するのである。
Then, the analysis result control unit 3 extracts words that serve as subjects, predicates, and important modifiers for each sentence based on the above-mentioned syntactic analysis results in the syntactic analysis unit l, and performs syntactic analysis on the extracted words. The result is output to the speech synthesis section 5. That is, in the example of the syntactic analysis results shown in Figure 2, based on the morphological analysis results in Figure 2(a) and the dependencies between morphemes in Figure 2(b), ``Ojisanwa'' is the subject and ``Ojisanwa'' is the subject. ``I went to the mountain'' is extracted as a predicate, and ``to the mountain'' is extracted as an important modifier.

その際に、重要な修飾語の抽出は例えば次のようなルー
ルに従って行われる。すなわら、重要な修飾語は1文に
つき1g以下を選択する。その選択基qは付属語「を」
持つ修飾語を最優先して重要な修飾語として抽出し、次
に付属語「に」または付属語「へ」を持つ修飾語を優先
して抽出する。
At this time, important modifiers are extracted according to, for example, the following rules. In other words, select important modifiers of 1g or less per sentence. The selection group q is the attached word "wo"
The modifiers with the attached word "ni" or "he" are given priority and extracted as important modifiers, and the modifiers with the attached word "ni" or the attached word "he" are then extracted with priority.

そして、優先順位の同じものが複数個ある場合には最ら
文頭に近い修飾語を重要な修飾語として抽出するのであ
る。したがって、上述の入力文章例の場合には、F山に
」と「柴刈りに」が共に付属語「に」を持つため同じ優
先順位であり、文頭に近い「山に」を重要な修飾語とし
て抽出するのである。
If there are multiple modifiers with the same priority, the modifier closest to the beginning of the sentence is extracted as the important modifier. Therefore, in the case of the above input sentence example, "Fyama ni" and "Shibagari ni" both have the adjunct "ni", so they have the same priority, and "Yama ni" near the beginning of the sentence is considered an important modifier. Extract it.

そして、上記抽出された語句「おじいさんは」。And the word extracted above is "Ojisan wa".

1行きました」および「山に」に関する構文解析結果を
音声合成部5に出力する。
The syntactic analysis results regarding ``I went to the mountain'' and ``Yama ni'' are output to the speech synthesis unit 5.

そうすると、音声合成部5は入力された主語述語および
重要な修飾語に関する構文解析結果に従って、ピッチパ
ターンおよびパワーパターン等の合成に必要なパラメー
タを各音韻に対して通常の継続時間長で生成し、このパ
ラメータに従って音声を合成する。さらに、同様にして
次々に各文毎に主語、述語および重要な修飾語を抽出し
、この抽出された主語、述語および重要な修飾語に関す
る構文解析結果に従って次ぎのように音声を合成して出
力する。
Then, the speech synthesis unit 5 generates parameters necessary for synthesis such as a pitch pattern and a power pattern for each phoneme with a normal duration length according to the syntactic analysis results regarding the input subject predicate and important modifiers, Speech is synthesized according to this parameter. Furthermore, in the same way, the subject, predicate, and important modifiers are extracted for each sentence one after another, and the following speech is synthesized and output according to the syntactic analysis results regarding the extracted subject, predicate, and important modifiers. do.

rおじいさんは山に行きました。おばあさんは川に行き
ました。おばあさんが洗濯をしていると、桃が流れてき
ました。
r Grandpa went to the mountain. Grandma went to the river. When the old woman was washing clothes, peaches came flowing down.

おばあさんは桃を拾ってもって帰りました。」 したがって、上述の入力文章のうち主語、述語および重
要な修飾語以外の語句が省略されて、必要な語句だけで
早読みが実行されるのである。
The old woman picked up some peaches and brought them home. ” Therefore, words other than the subject, predicate, and important modifiers are omitted from the input text mentioned above, and quick reading is performed using only the necessary words.

このように、本実施例においては、早送合成が指令され
ると、入力された文字列の中から各文毎に主語、述語お
よび重要な修飾語を抽出し、この抽出された語句につい
て生成する音韻の継続時間長を短くすることなく音声を
合成する。したがって、早送合成時には、合成音声によ
って出力される文章は通常の速度で出力され、しかも、
その文章は重要な語句のみで構成されているので、聞き
取りやすく内容を正しく理解できる。
In this way, in this embodiment, when fast-forward synthesis is commanded, the subject, predicate, and important modifiers are extracted for each sentence from the input character string, and the generated words are generated based on the extracted words. To synthesize speech without shortening the duration of a phoneme. Therefore, during fast-forward synthesis, sentences output by synthesized speech are output at normal speed, and
The sentences are made up of only important words and phrases, so they are easy to listen to and understand the content correctly.

上記実施例においては、抽出する語句の条件として主語
、述語および重要な修飾語を設定している。しかしなが
ら、この発明はこれに限定されるものではなく、例えば
、所定の文字列を含む文あるいは各文の先頭と語尾を設
定してもよい。
In the above embodiment, the subject, predicate, and important modifier are set as conditions for words to be extracted. However, the present invention is not limited thereto; for example, a sentence including a predetermined character string or the beginning and end of each sentence may be set.

また、上述のようにして抽出された語句の語尾を、必要
に応じて適当な語尾に変換して音声に合成することも容
易に可能である。
Furthermore, it is also possible to easily convert the endings of the words extracted as described above into appropriate endings as needed and synthesize them into speech.

〈発明の効果〉 以上より明らかなように、この発明の音声合成装置は、
設定部によって通常合成または早送合成を設定し、通常
合成を設定した場合には、解析結果制御部は構文解析部
からの総ての形態素の構文解析結果を音声合成部に出力
して音声を合成する一方、早送合成を設定した場合には
、上記解析結果制御部は所定の条件を満たす語句に関す
る形態素の構文解析結果を上記音声合成部に出力して音
声を合成するので、操作者にとって重要でない35句を
省略して通常の速さの合成音声によって早送合成を実行
することができる。
<Effects of the Invention> As is clear from the above, the speech synthesis device of the present invention has the following effects:
Normal synthesis or fast-forward synthesis is set by the setting section, and when normal synthesis is set, the analysis result control section outputs the syntax analysis results of all morphemes from the syntax analysis section to the speech synthesis section to generate speech. On the other hand, when fast-forward synthesis is set, the analysis result control unit outputs the syntactic analysis results of morphemes related to words that meet predetermined conditions to the speech synthesis unit to synthesize speech, so it is easy for the operator to Fast-forward synthesis can be performed by omitting the 35 unimportant phrases and using synthesized speech at normal speed.

したがって、この発明の音声合成装置によって早読みを
実行した場合には、聞き取りやすく内容を正しく理解す
ることができ、十分に早読みの効果を得ることができる
Therefore, when fast reading is performed using the speech synthesis device of the present invention, the content can be easily heard and understood correctly, and the effects of fast reading can be sufficiently obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の音声合成装置の一実施例のブロック
図、第2図(a)は形態素解析結果の一例を示す図、第
2図(b)は文節間の係り受けの一例を示す図である。 1・・・構文解析部、    2・・・設定部、3・・
・解析結果制御部、  5・・・音声合成部。
FIG. 1 is a block diagram of an embodiment of the speech synthesis device of the present invention, FIG. 2(a) is a diagram showing an example of a morphological analysis result, and FIG. 2(b) is a diagram showing an example of dependencies between clauses. It is a diagram. 1...Syntax analysis section, 2...Setting section, 3...
-Analysis result control unit, 5...speech synthesis unit.

Claims (1)

【特許請求の範囲】[Claims] (1)入力された文字列を構文解析部によって形態素に
分割して構文解析を行い、得られた構文解析結果に基づ
いて音声合成部で音声合成に必要な合成パラメータを生
成し、この合成パラメータに従って音声を合成して出力
する音声合成装置において、 通常合成または早送合成を設定する設定部と、上記構文
解析部からの構文解析結果を取り込み、上記設定部によ
って設定された通常合成または早送合成に従って、通常
合成の場合には、総ての形態素の構文解析結果をそのま
ま上記音声合成部に出力する一方、早送合成の場合には
、上記構文解析結果を参照して所定の条件を満たす語句
を抽出し、この抽出された語句に関する形態素の構文解
析結果を上記音声合成部に出力する解析結果制御部を備
えたことを特徴とする音声合成装置。
(1) The input character string is divided into morphemes by the syntactic analysis unit, and syntactic analysis is performed. Based on the obtained syntactic analysis results, the speech synthesis unit generates synthesis parameters necessary for speech synthesis. In a speech synthesizer that synthesizes and outputs speech according to According to synthesis, in the case of normal synthesis, the syntactic analysis results of all morphemes are output as they are to the speech synthesis section, while in the case of fast-forward synthesis, the syntactic analysis results are referred to and a predetermined condition is satisfied. A speech synthesis device comprising: an analysis result control unit that extracts words and phrases and outputs a syntactic analysis result of morphemes related to the extracted words to the speech synthesis unit.
JP63251504A 1988-10-04 1988-10-04 Speech synthesizer Pending JPH0297999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63251504A JPH0297999A (en) 1988-10-04 1988-10-04 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63251504A JPH0297999A (en) 1988-10-04 1988-10-04 Speech synthesizer

Publications (1)

Publication Number Publication Date
JPH0297999A true JPH0297999A (en) 1990-04-10

Family

ID=17223792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63251504A Pending JPH0297999A (en) 1988-10-04 1988-10-04 Speech synthesizer

Country Status (1)

Country Link
JP (1) JPH0297999A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250047A (en) * 1994-03-09 1995-09-26 Keisatsu Daigakukouchiyou Hierarchical coding radio transmission method
WO2009107441A1 (en) * 2008-02-27 2009-09-03 日本電気株式会社 Speech synthesizer, text generator, and method and program therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250047A (en) * 1994-03-09 1995-09-26 Keisatsu Daigakukouchiyou Hierarchical coding radio transmission method
WO2009107441A1 (en) * 2008-02-27 2009-09-03 日本電気株式会社 Speech synthesizer, text generator, and method and program therefor
JPWO2009107441A1 (en) * 2008-02-27 2011-06-30 日本電気株式会社 Speech synthesis apparatus, text generation apparatus, method thereof, and program

Similar Documents

Publication Publication Date Title
JPH0833744B2 (en) Speech synthesizer
US6477495B1 (en) Speech synthesis system and prosodic control method in the speech synthesis system
JPH0335296A (en) Text voice synthesizing device
JPH0297999A (en) Speech synthesizer
JP2002358091A (en) Method and device for synthesizing voice
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
KR0180650B1 (en) Sentence analysis method for korean language in voice synthesis device
JPS62119591A (en) Sentence reciting apparatus
Dorffner et al. GRAPHON-the Vienna speech systhesis system for arbitrary German text
JPS6177897A (en) Sentence-voice converter
JPS63262696A (en) Japanese sentence-voice convertor
JPH0323500A (en) Text voice synthesizing device
JP2728440B2 (en) Audio output device
JPH08328578A (en) Text voice synthesizer
JPH04199421A (en) Document read-aloud device
JPH0313597B2 (en)
JPS63211463A (en) Natural language processor
Hallahan et al. Software text-to-speech
JPH06168265A (en) Language processor and speech synthesizer
JPH02130599A (en) Voice synthesizing device
JPS62293472A (en) Voice translator
JPH0518120B2 (en)
JPS58168096A (en) Multi-language voice synthesizer
JPH037994A (en) Generating device for singing voice synthetic data
JPH03236099A (en) Document read-aloud device