JPH04170599A - Text voice synthesizing device - Google Patents

Text voice synthesizing device

Info

Publication number
JPH04170599A
JPH04170599A JP2296584A JP29658490A JPH04170599A JP H04170599 A JPH04170599 A JP H04170599A JP 2296584 A JP2296584 A JP 2296584A JP 29658490 A JP29658490 A JP 29658490A JP H04170599 A JPH04170599 A JP H04170599A
Authority
JP
Japan
Prior art keywords
homophone
voice
speech
normal
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2296584A
Other languages
Japanese (ja)
Inventor
Junko Komatsu
小松 順子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2296584A priority Critical patent/JPH04170599A/en
Publication of JPH04170599A publication Critical patent/JPH04170599A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To transmit information accurately further plainly by providing a homophone discriminating mode select means having a normal mode of outputting a voice through normal read and a homophone disriminating mode of inserting read, for properly discriminating a part of a homophone in the case of providing the homophone, to output a voice. CONSTITUTION:There are provided a word processing part 1, voice synthesizing part 2 and a homophone discriminating mode select means having a normal mode of outputting a voice through normal read and a homophone discriminating mode of inserting read, for properly discriminating a part of a homophone in the case of providing the homophone, to output a voice. Thus by providing the homophone discriminating mode select means having the normal mode of outputting the voice through the normal read and the homophone discriminating mode of inserting the read, for properly discriminating the part of the homophone in the case of providing the homophone, to output the voice, information can be accurately further plainly transmitted even in the case of an information transmitting means by only a voice.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、発音記号列の編集を行うことが可能なテキス
ト音声合成装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a text-to-speech synthesis device capable of editing phonetic symbol strings.

従来の技術 従来、テキスト音声合成装置は、言語処理部がコード化
された文字列を言語解析して、読み、アクセント、イン
トネーション、その他の音声出力制御情報を含んだ「発
音記号列」を出力し、音声合成部がその発音記号列を解
釈して、合成音声に変換する装置である。従って、入力
としてコード化された文字列を与えてやれば、自動的に
音声で出力されるのが通常の使い方である。
Conventional technology Conventionally, in text-to-speech synthesis devices, a language processing unit performs linguistic analysis on a coded character string and outputs a "phonetic symbol string" that includes reading, accent, intonation, and other voice output control information. , a speech synthesis unit interprets the phonetic symbol string and converts it into synthesized speech. Therefore, if you give it a coded character string as input, it will automatically output it as voice.

発明が解決しようとする課題 しかし、上述したような従来のテキスト音声合成装置の
場合、デイスプレィなどを介して出力される文章を目で
見ながら音声を聞けるような場合は別として、音声だけ
を情報の伝達手段として利用する場合、通常の読みだけ
では同音語(=読みが同じで、表記や意味が異なる単語
)を正しく認識することはできない。
Problems to be Solved by the Invention However, in the case of the conventional text-to-speech synthesizer described above, apart from the case where the voice can be heard while visually viewing the text output through a display, only the voice is used as information. When using words as a means of communication, it is not possible to correctly recognize homophones (words that have the same pronunciation but different spellings and meanings) just by reading them normally.

従来、文章の校閲或いは盲人の方のために、そのような
同音語を識別して読むモードを備えたものがあるが、し
かし、このようなモードは、同音の漢字や記号を識別す
る目的であるため、一般のユーザがテキスト音声合成装
置を音声による情報伝達ツールとして使用する場合には
、かえって文章の内容がつかみにくくなってしまうとい
う問題がある。
Conventionally, there are devices that have a mode for identifying and reading such homophones for the purpose of proofreading texts or for blind people, but such modes are not designed for the purpose of identifying homophones or symbols. Therefore, when a general user uses the text-to-speech synthesizer as a voice information transmission tool, there is a problem in that it becomes difficult to grasp the content of the text.

課題を解決するための手段 そこで、このような問題点を解決するために、請求項1
記載の発明は、コード化された文字列を言語解析して、
通常の読み、同音語を識別するための読み、アクセント
、イントネーション等の音声出力制御情報を含んだ発音
記号列を出力する言語処理部と、前記発音記号列を合成
音声に変換する音声合成部と、通常読みで音声出力する
通常モードと同音語がある場合にその同音語の部分を正
しく識別するための読みを挿入して音声を出力する同音
語識別モードとを有する同音語識別モード選択手段を設
けた。
Means for Solving the Problem Therefore, in order to solve such problems, claim 1
The invention described linguistically analyzes a coded character string,
a language processing unit that outputs a phonetic symbol string containing voice output control information such as normal reading, reading for identifying homophones, accent, intonation, etc.; and a speech synthesis unit that converts the phonetic symbol string into synthesized speech. , a homophone identification mode selection means having a normal mode in which audio is output in the normal reading, and a homophone identification mode in which when there is a homophone, the audio is output by inserting a pronunciation for correctly identifying the part of the homophone. Established.

請求項2記載の発明は、請求項1記載の発明において、
音声合成部は、出力文章の位置をユーザが自由に指定で
きると共に、そのユーザから指定された所定の位置のみ
に同音語を識別するための読みを挿入して音声出力する
同音語識別音声出力制御手段を備えるようにした。
The invention according to claim 2 is the invention according to claim 1,
The speech synthesis unit allows the user to freely specify the position of the output sentence, and also performs homophone identification speech output control that inserts pronunciations for identifying homophones only at predetermined positions specified by the user and outputs the speech. I prepared the means.

作用 請求項1記載の発明は、通常読みで音声出力する通常モ
ードと同音語がある場合にその同音語の部分を正しく識
別するための読みを挿入して音声を出力する同音語識別
モードとを有する同音語識別モード選択手段を設けたこ
とによって、情報伝達手段が音声のみの場合でも、正確
、かつ、分かりやすく情報を伝達することが可能となる
The invention according to claim 1 provides a normal mode in which a voice is output in the normal reading, and a homophone identification mode in which when there is a homophone, a reading is inserted to correctly identify the part of the homophone and the voice is output. By providing the homophone identification mode selection means, it is possible to transmit information accurately and in an easy-to-understand manner even when the information transmission means is only audio.

請求項2記載の発明は、出力文章の位置をユーザが自由
に指定できると共にそのユーザから指定された所定の位
置のみに同音語を識別するための読みを挿入して音声出
力する同音語識別音声出力制御手段を設けたことによっ
て、文脈から識別できる同音語について、いちいち同音
語を識別する読みを挿入する煩わしさを回避することが
可能となる。
The invention as claimed in claim 2 provides a homophone identification voice in which a user can freely specify the position of an output sentence, and a pronunciation for identifying a homophone is inserted only at a predetermined position specified by the user and output as voice. By providing the output control means, it is possible to avoid the trouble of inserting pronunciations for identifying homophones one by one for homophones that can be identified from the context.

実施例 本発明の一実施例を第1図ないし第4図に基づいて説明
する。本装置は、第1図に示すように、言語処理部1と
、音声合成部2と、図示しない同音語識別モード選択手
段とよりなっている。この場合、前記言語処理部1は、
入力された文章aのコード化された文字列を言語解析し
て、通常の読み、同音語を識別するための読み、アクセ
ント、イントネーション等の音声出力制御情報を含んだ
発音記号列すを出力する働きがある。この言語処理部1
には、単語辞書3が接続されている。前記音声合成部2
は、前記発音記号列すを合成音声Cに変換する働きがあ
る。
Embodiment An embodiment of the present invention will be explained based on FIGS. 1 to 4. As shown in FIG. 1, this device includes a language processing section 1, a speech synthesis section 2, and homophone identification mode selection means (not shown). In this case, the language processing unit 1
Linguistically analyzes the coded character string of the input sentence a and outputs a phonetic symbol string containing audio output control information such as normal reading, reading for identifying homophones, accent, and intonation. There is work. This language processing unit 1
A word dictionary 3 is connected to. Said speech synthesis section 2
has the function of converting the phonetic symbol sequence into synthesized speech C.

前記同音語識別モード選択手段は、通常読みで音声出力
する「通常モードJと、同音語がある場合にその同音語
の部分を正しく識別するための読みを挿入して音声を出
力する「同音語識別モード」とを有している。
The homophone identification mode selection means has a "normal mode J" which outputs audio in normal pronunciation, and a "homonym J" which outputs audio by inserting a pronunciation for correctly identifying the homophone part when there is a homophone. identification mode.

また、前記音声合成部2には、図示しない同音語識別音
声出力制御手段が設けられている。この同音語識別音声
出力制御手段は、出力文章の位置をユーザが自由に指定
できると共に、そのユーザから指定された所定の位置の
みに同音語を識別するための読みを挿入して音声出力す
る働きがある。
Further, the speech synthesis section 2 is provided with homophone identification speech output control means (not shown). This homophone identification voice output control means allows the user to freely specify the position of the output sentence, and also has the function of inserting a pronunciation for identifying the homophone only at a predetermined position specified by the user and outputting the voice. There is.

このような構成において、以下、同音語識別モード選択
手段と同音語識別音声出力制御手段との働きを中心にし
て述べる。
In this configuration, the functions of the homophone identification mode selection means and the homophone identification voice output control means will be mainly described below.

言語処理部1に入力される文章aは日本語であるとする
。その言語処理部1では、単語辞書3を参照して、入力
された文章aを言語解析し、読み、アクセント、イント
ネーションなどを含んだ発音記号列すを出力する。この
時、同音語が存在単語については、単語辞書3中に同音
語を識別するための読みを登録しておき、言語解析の際
にその読みを通常の読みの中に挿入する。
It is assumed that a sentence a input to the language processing unit 1 is in Japanese. The language processing unit 1 refers to the word dictionary 3, performs linguistic analysis on the input sentence a, and outputs a string of pronunciation symbols including pronunciation, accent, intonation, etc. At this time, for words that have homophones, a pronunciation for identifying the homophone is registered in the word dictionary 3, and the pronunciation is inserted into the normal pronunciation during language analysis.

ここで、第2図の単語辞書3の一例、及び、第3図の言
語処理結果の一例をもとにして、同音語識別モード選択
手段の働きについて説明する。今、第3図(a)に示す
ような入力される「文章a」があるものとし、第3図(
b)に示すような「発音記号列b」になったものとする
。この時、発音記号列す中の全角のひらがなは、読みを
表し、半角の記号は、制御コードを表す。発音記号列す
の中の″〈′″、″〉”は、それぞれ同音語を識別する
ための読みの開始位置、終了位置を表しており、「通常
モード」の場合、音声合成部2はIf (II、+1 
> IIで囲まれた部分を無視して音声出力し、「同音
語識別モード」の場合は、II (TI、II > T
Iで囲まれた部分も音声出力する。第4図(a)は通常
モード、第4図(b)は同音語識別モードのそれぞれの
場合における出力音声の一例を示すものである。また、
ユーザが指定した部分のみ、同音語を識別する読みを挿
入したい場合は、ユーザが指定した部分のみ、“<″、
′〉″で囲まれた部分も音声出力するようにする。
Here, the function of the homophone identification mode selection means will be explained based on an example of the word dictionary 3 in FIG. 2 and an example of the language processing result in FIG. 3. Now, let us assume that there is an input "sentence a" as shown in Fig. 3(a), and as shown in Fig. 3(a),
Assume that a "phonetic symbol string b" as shown in b) is obtained. At this time, full-width hiragana characters in the phonetic symbol string represent readings, and half-width symbols represent control codes. ``〈''', ``〉'' in the phonetic symbol string represent the start and end positions of pronunciations to identify homophones, respectively.In the ``normal mode'', the speech synthesis unit 2 (II, +1
> II (TI, II > T
The part surrounded by I is also output as audio. FIG. 4(a) shows an example of the output audio in the normal mode, and FIG. 4(b) shows an example of the output audio in the homophone identification mode. Also,
If you want to insert a pronunciation that identifies homophones only in the part specified by the user, insert “<”,
The part surrounded by ``>'' should also be output as audio.

上述したように、通常読みで音声出力する通常モードと
同音語がある場合にその同音語の部分を正しく識別する
ための読みを挿入して音声を出力する同音語識別モード
とを有する同音語識別モード選択手段を設けたことによ
って、情報伝達手段が音声のみの場合であっても、正確
、かつ1分かりやすく情報を伝達することが可能となる
As mentioned above, homophone identification has two modes: a normal mode in which audio is output using the normal reading, and a homophone identification mode in which when there is a homophone, a reading is inserted to correctly identify the part of the homophone and the audio is output. By providing the mode selection means, even if the information transmission means is only audio, it becomes possible to transmit information accurately and in an easy-to-understand manner.

次に、音声合成部2の同音語識別音声出力制御手段の働
きについて説明する。前述したようにして言語処理部1
により言語処理され結果出力された発音記号列すは、図
示しない記録媒体に記憶される。そして、音声合成部2
では、その記憶媒体から発音記号列すを適宜、読み出し
て合成音声Cに変換していく。この時、音声合成部2が
読み出すのは、発音記号列すの読み出し開始位置を示す
「ポインタ」の位置からとし、このポインタは読み出さ
れた分だけインクリメントされるものとする。また、こ
のポインタの初期値は、文章aの先頭を示すようになっ
ているが、この位置はユーザが自由に変更することがで
きる。従って、このポインタを前方に動かせば、既に音
声出力された文章aを繰り返し出力することが可能とな
るし、また、そのポインタを後方に動かせば、文章aを
スキップして、先へ進めることができる。
Next, the function of the homophone identification speech output control means of the speech synthesis section 2 will be explained. As described above, the language processing unit 1
The phonetic symbol strings output as a result of language processing are stored in a recording medium (not shown). Then, the speech synthesis section 2
Then, the phonetic symbol sequence is read out from the storage medium as appropriate and converted into synthesized speech C. At this time, it is assumed that the speech synthesis unit 2 reads from the position of a "pointer" indicating the reading start position of the phonetic symbol string, and this pointer is incremented by the amount read. Furthermore, although the initial value of this pointer is set to indicate the beginning of sentence a, this position can be changed freely by the user. Therefore, by moving this pointer forward, it is possible to repeatedly output sentence a that has already been audio output, and by moving the pointer backward, it is possible to skip sentence a and proceed forward. can.

上述したように、出力文章の位置をユーザが自由に指定
できると共に、そのユーザから指定された所定の位置の
みに同音語を識別するための読みを挿入して音声出力す
る同音語識別音声出力制御手段を設けたことによって、
文脈から識別できる同音語について、いちいち同音語を
識別する読みを挿入する煩わしさを回避することが可能
となる。
As mentioned above, the user can freely specify the position of the output text, and the homophone identification voice output control inserts a pronunciation for identifying homophones only at the predetermined position specified by the user and outputs the voice. By providing means,
For homophones that can be identified from the context, it is possible to avoid the trouble of inserting pronunciations to identify each homophone.

発明の効果 請求項1記載の発明は、コード化された文字列を言語解
析して、通常の読み、同音語を識別するための読み、ア
クセント、イントネーション等の音声出力制御情報を含
んだ発音記号列を出力する言語処理部と、前記発音記号
列を合成音声に変換する音声合成部と、通常読みで音声
出力する通常モードと同音語がある場合にその同音語の
部分を正しく識別するための読みを挿入して音声を出力
する同音語識別モードとを有する同音語識別モード選択
手段を設けたので、情報伝達手段が音声のみの場合でも
、正確に、かつ、分かりやすく情報を伝達することがで
きるものである。
Effects of the Invention The invention as claimed in claim 1 analyzes coded character strings to produce phonetic symbols that include audio output control information such as normal pronunciation, pronunciation for identifying homophones, accent, and intonation. a language processing unit that outputs a string, a speech synthesis unit that converts the phonetic symbol string into synthesized speech, a normal mode that outputs speech in normal reading, and a normal mode that outputs speech in normal reading, and a system that correctly identifies the homophone part when there is a homophone. Since the homophone identification mode selection means has a homophone identification mode that inserts a pronunciation and outputs audio, it is possible to accurately and easily transmit information even when the information transmission means is audio only. It is possible.

請求項2記載の発明は、請求項1記載の発明において、
音声合成部は、出力文章の位置をユーザが自由に指定で
きると共に、そのユーザから指定された所定の位置のみ
に同音語を識別するための読みを挿入して音声出力する
同音語識別音声出力制御手段を備えるようにしたので、
文脈から識別できる同音語について、いちいち同音語を
識別する読みを挿入する煩わしさを回避することができ
るものである。
The invention according to claim 2 is the invention according to claim 1,
The speech synthesis unit allows the user to freely specify the position of the output sentence, and also performs homophone identification speech output control that inserts pronunciations for identifying homophones only at predetermined positions specified by the user and outputs the speech. I have prepared the means,
For homophones that can be identified from the context, it is possible to avoid the trouble of inserting pronunciations to identify each homophone.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示すブロック図、第2図は
その単語辞書の一例を示す説明図、第3図は入力文章と
発音記号列との言語処理結果の様子を示す説明図、第4
図は通常モードと同形語識別モードとにおける出力音声
の一例を示す説明図である。 1・・・発音記号列、2・・・音声合成部、b・・・発
音記号列 出 願 人    株式会社 リ コ −彼は、科学に
與味をもっていた。 (a)入力文章 (か)れはバか)が<<(δ)いせんすの(か)がく〉
にバきよ)−みを(もつ)でいた。 (b)発奮記号列 かれは かがくに きJ−み敬もっていた(a)通常モ
ード かれば かがく といえんすのかがくに きよ−みをも
っていた(b)同形1!識別モート
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is an explanatory diagram showing an example of the word dictionary, and FIG. 3 is an explanatory diagram showing the result of language processing between an input sentence and a string of phonetic symbols. , 4th
The figure is an explanatory diagram showing an example of output audio in the normal mode and the isomorphic identification mode. 1... Phonetic symbol string, 2... Speech synthesis section, b... Phonetic symbol string Applicant Rico Co., Ltd. - He had a taste for science. (a) The input sentence (is) is <<(δ)isense no (ka)gaku>
niba kiyo) - mio (motsu). (b) In the evocative symbol sequence, he had great respect for the light (a) In normal mode, he had great respect for the light of the light (b) Isomorphism 1! identification mote

Claims (1)

【特許請求の範囲】 1、コード化された文字列を言語解析して、通常の読み
、同音語を識別するための読み、アクセント、イントネ
ーシヨン等の音声出力制御情報を含んだ発音記号列を出
力する言語処理部と、前記発音記号列を合成音声に変換
する音声合成部と、通常読みで音声出力する通常モード
と同音語がある場合にその同音語の部分を正しく識別す
るための読みを挿入して音声を出力する同音語識別モー
ドとを有する同音語識別モード選択手段を設けたことを
特徴とするテキスト音声合成装置。 2、音声合成部は、出力文章の位置をユーザが自由に指
定できると共にそのユーザから指定された所定の位置の
みに同音語を識別するための読みを挿入して音声出力す
る同音語識別音声出力制御手段を備えたことを特徴とす
る請求項1記載のテキスト音声合成装置。
[Claims] 1. A phonetic symbol string containing speech output control information such as normal pronunciation, pronunciation for identifying homophones, accent, intonation, etc. by linguistically analyzing a coded character string. a language processing unit that outputs the phonetic symbol string, a speech synthesis unit that converts the phonetic symbol string into synthesized speech, a normal mode that outputs speech in normal reading, and a reading that correctly identifies the homophone when there is a homophone. 1. A text-to-speech synthesis device comprising: a homophone identification mode selection means having a homophone identification mode for inserting a ``phonetic word'' and outputting a voice. 2. The speech synthesis unit allows the user to freely specify the position of the output sentence, and outputs homophone identification speech by inserting pronunciations for identifying homophones only at predetermined positions specified by the user. The text-to-speech synthesis apparatus according to claim 1, further comprising a control means.
JP2296584A 1990-11-01 1990-11-01 Text voice synthesizing device Pending JPH04170599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2296584A JPH04170599A (en) 1990-11-01 1990-11-01 Text voice synthesizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2296584A JPH04170599A (en) 1990-11-01 1990-11-01 Text voice synthesizing device

Publications (1)

Publication Number Publication Date
JPH04170599A true JPH04170599A (en) 1992-06-18

Family

ID=17835442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2296584A Pending JPH04170599A (en) 1990-11-01 1990-11-01 Text voice synthesizing device

Country Status (1)

Country Link
JP (1) JPH04170599A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244672A (en) * 1994-03-04 1995-09-19 Sony Corp Electronic dictionary and natural language processor
JP2010181562A (en) * 2009-02-04 2010-08-19 Fujitsu Ltd Speech synthesis device, speech synthesis method and computer program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56103764A (en) * 1980-01-23 1981-08-19 Hitachi Ltd Word processor
JPS611771B2 (en) * 1982-12-29 1986-01-20 Fujitsu Ltd
JPS6160167A (en) * 1984-08-31 1986-03-27 Canon Inc Japanese word processor
JPS6288054A (en) * 1985-10-14 1987-04-22 Fujitsu Ltd text reading device
JPS6391736A (en) * 1986-10-06 1988-04-22 Matsushita Electric Ind Co Ltd Readout and collate device
JPS63163925A (en) * 1986-12-26 1988-07-07 Fujitsu Ltd Device for reading sentence aloud
JPS63221460A (en) * 1987-03-11 1988-09-14 Fujitsu Ltd Document reading proofreading device
JPS63301354A (en) * 1987-06-01 1988-12-08 Fujitsu Ltd Sentence reading proofreading device
JPS6414662A (en) * 1987-07-08 1989-01-18 Sharp Kk Japanese language document preparing device with voice reading
JPS6474666A (en) * 1987-09-16 1989-03-20 Fujitsu Ltd Sentence read-out/correction device
JPH01319098A (en) * 1988-06-20 1989-12-25 Fujitsu Ltd Device for reading sentence aloud
JPH0335296A (en) * 1989-06-30 1991-02-15 Sharp Corp Text voice synthesizing device
JPH0371198A (en) * 1989-08-10 1991-03-26 Sanyo Electric Co Ltd Rule synthesizer for sentence voice

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56103764A (en) * 1980-01-23 1981-08-19 Hitachi Ltd Word processor
JPS611771B2 (en) * 1982-12-29 1986-01-20 Fujitsu Ltd
JPS6160167A (en) * 1984-08-31 1986-03-27 Canon Inc Japanese word processor
JPS6288054A (en) * 1985-10-14 1987-04-22 Fujitsu Ltd text reading device
JPS6391736A (en) * 1986-10-06 1988-04-22 Matsushita Electric Ind Co Ltd Readout and collate device
JPS63163925A (en) * 1986-12-26 1988-07-07 Fujitsu Ltd Device for reading sentence aloud
JPS63221460A (en) * 1987-03-11 1988-09-14 Fujitsu Ltd Document reading proofreading device
JPS63301354A (en) * 1987-06-01 1988-12-08 Fujitsu Ltd Sentence reading proofreading device
JPS6414662A (en) * 1987-07-08 1989-01-18 Sharp Kk Japanese language document preparing device with voice reading
JPS6474666A (en) * 1987-09-16 1989-03-20 Fujitsu Ltd Sentence read-out/correction device
JPH01319098A (en) * 1988-06-20 1989-12-25 Fujitsu Ltd Device for reading sentence aloud
JPH0335296A (en) * 1989-06-30 1991-02-15 Sharp Corp Text voice synthesizing device
JPH0371198A (en) * 1989-08-10 1991-03-26 Sanyo Electric Co Ltd Rule synthesizer for sentence voice

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244672A (en) * 1994-03-04 1995-09-19 Sony Corp Electronic dictionary and natural language processor
JP2010181562A (en) * 2009-02-04 2010-08-19 Fujitsu Ltd Speech synthesis device, speech synthesis method and computer program

Similar Documents

Publication Publication Date Title
KR900009170B1 (en) Rule synthesis voice synthesis system
US6161093A (en) Information access system and recording medium
JP3142803B2 (en) A text-to-speech synthesizer
EP0327266A3 (en) Method for part-of-speech determination and usage
WO2004066271A1 (en) Speech synthesizing apparatus, speech synthesizing method, and speech synthesizing system
JPH05165486A (en) Text voice transforming device
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
US7451087B2 (en) System and method for converting text-to-voice
JPH04170599A (en) Text voice synthesizing device
JPH077335B2 (en) Conversational text-to-speech device
JP3060276B2 (en) Speech synthesizer
JP3201329B2 (en) Speech synthesizer
JPH04241399A (en) Text voice synthesizer
JPH01119822A (en) text reading device
JP2801622B2 (en) Text-to-speech synthesis method
JPH054676B2 (en)
JPH02251998A (en) Voice synthesizing device
JPH01300334A (en) text reading device
Kaur et al. BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE
JPH02308194A (en) foreign language learning device
JPH03236099A (en) text reading device
JPH0313598B2 (en)
JPH03215899A (en) Sentence voice converting device
JPH11288292A (en) Sound output device
JPH06168265A (en) Language processor and speech synthesizer