JPH06131148A - Speech synthesizing device - Google Patents

Speech synthesizing device

Info

Publication number
JPH06131148A
JPH06131148A JP4276900A JP27690092A JPH06131148A JP H06131148 A JPH06131148 A JP H06131148A JP 4276900 A JP4276900 A JP 4276900A JP 27690092 A JP27690092 A JP 27690092A JP H06131148 A JPH06131148 A JP H06131148A
Authority
JP
Japan
Prior art keywords
character string
voice
output
outputting
voice signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4276900A
Other languages
Japanese (ja)
Inventor
Mitsuko Kaseda
光子 加世田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4276900A priority Critical patent/JPH06131148A/en
Publication of JPH06131148A publication Critical patent/JPH06131148A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a speech synthesizing device in which time required for outputting a speech can be confirmed easily in respect of the speech synthesizing device to output an inputted sentence by making it into a voice. CONSTITUTION:A means 10 to generate a phonetic character string from the inputted sentence, the means 12 to generate a vocal sound string obtained by converting each phonetic character of the generated phonetic character string into a vocal sound, the means 14 to calculate total time required for the sound output of the generated vocal sound string, the means 16 to output the calculated total time, and the means 18 to output the generated vocal sound string by converting it into a voice signal are provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された文章を音声
化して出力する音声合成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice synthesizing device for converting input text into voice and outputting it.

【0002】この種の装置は、作成された文章の校正時
における読み合わせ,展示会や店頭における商品のプレ
ゼンテーション,各種の音声ガイダンス,教育などの分
野で使用されている。
This type of device is used in fields such as reading of prepared texts during proofreading, presentation of products at exhibitions and stores, various voice guidance, and education.

【0003】[0003]

【従来の技術】音声合成装置がそのホストとなるコンピ
ュータに接続され、音声合成装置に文章のデータがホス
ト側から与えられる。
2. Description of the Related Art A speech synthesizer is connected to a computer serving as its host, and text data is given to the speech synthesizer from the host side.

【0004】音声合成装置で音声信号出力の処理が開始
されると、ビジー信号が音声合成装置からコンピュータ
へ出力され、ビジー信号の出力停止から音声合成動作の
終了がホストコンピュータにおいて確認される。
When the voice signal output processing is started in the voice synthesizer, a busy signal is output from the voice synthesizer to the computer, and the termination of the voice synthesize operation is confirmed in the host computer from the output stop of the busy signal.

【0005】[0005]

【発明が解決しようとする課題】プレゼンテーションの
場合には、文章,グラフ,アニメーションの表示に合わ
せて音声出力を行なうべきであることから、実際の文書
データを音声合成装置に与えてビジー信号の出力が停止
するまでの時間を計測し、計測された時間を考慮して音
声出力の文章を編集したり音声出力の速度を変更する作
業が繰り返され、したがって、この作業に労力,時間が
費やされていた。
In the case of a presentation, since voice output should be performed in accordance with the display of sentences, graphs, and animations, actual document data is given to the voice synthesizer to output a busy signal. The time to stop the sound is measured, and the work of editing the text of the voice output and changing the speed of the voice output is repeated in consideration of the measured time. Therefore, this work requires labor and time. Was there.

【0006】本発明は上記従来の課題に鑑みて為された
ものであり、その目的は音声出力に要する時間を容易に
確認することが可能となる音声合成装置を提供すること
にある。
The present invention has been made in view of the above conventional problems, and an object thereof is to provide a voice synthesizing device capable of easily confirming the time required for voice output.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、第1発明にかかる装置は図1のように構成されてお
り、同図の装置は、入力された文章から発音文字列を生
成する発音文字列生成手段10と、生成された発音文字
列を解析する発音文字列解析手段12と、発音文字列の
音声出力に要する総時間を前記解析結果に基づいて算出
する文章読み上げ時間算出手段14と、算出された総時
間を出力する文章読み上げ時間出力手段16と、生成さ
れた発音文字列を音声信号に変換して出力する音声信号
出力手段18と、を有している。
In order to achieve the above object, the apparatus according to the first invention is configured as shown in FIG. 1, and the apparatus shown in the figure generates a phonetic character string from an input sentence. The pronunciation character string generating means 10, the pronunciation character string analyzing means 12 for analyzing the generated pronunciation character string, and the sentence reading time calculating means for calculating the total time required for voice output of the pronunciation character string based on the analysis result. 14, a sentence reading time output means 16 for outputting the calculated total time, and a voice signal output means 18 for converting the generated phonetic character string into a voice signal and outputting the voice signal.

【0008】また、第2発明にかかる装置は図2のよう
に構成されており、入力された文章から発音文字列を生
成する発音文字列生成手段10と、生成された発音文字
列を解析する発音文字列解析手段12と、前記解析結果
に基づき、発音文字列を音節列に変換して各音節の音声
出力に要する時間を算出する音節読み上げ時間算出手段
20と、算出された各時間を該当の音節に対応させて出
力する音節読み上げ時間出力手段22と、生成された音
節列を音声信号に変換して出力する音声信号出力手段1
8と、を有している。
The apparatus according to the second invention is configured as shown in FIG. 2, and has a pronunciation character string generating means 10 for generating a pronunciation character string from an input sentence and an analysis of the generated pronunciation character string. The pronunciation character string analysis means 12, the syllable reading time calculation means 20 for converting the pronunciation character string into a syllable string and calculating the time required for the voice output of each syllable based on the analysis result, and each calculated time correspond Syllable reading time output means 22 for outputting corresponding syllables, and voice signal output means 1 for converting the generated syllable string into a voice signal and outputting the voice signal.
8 and.

【0009】さらに、第3発明にかかる装置は図3のよ
うに構成されており、同図の装置は、入力された文章か
ら発音文字列を生成する発音文字列生成手段10と、生
成された発音文字列を解析する発音文字列解析手段12
と、発音文字列を音韻列に変換し、各発音の音声出力に
要する時間を前記解析結果に基づいて算出する音韻読み
上げ時間算出手段24と、算出された各時間を該当の音
韻に対応させて出力する音韻読み上げ時間出力手段26
と、生成された音韻列を音声信号に変換して出力する音
声信号出力手段18と、を有している。
Further, the apparatus according to the third invention is configured as shown in FIG. 3, and the apparatus shown in the figure has a sounding character string generating means 10 for generating a sounding character string from an inputted sentence, and the generated sound character string generating means 10. Pronunciation character string analysis means 12 for analyzing a pronunciation character string
And a phoneme reading time calculating means 24 for converting a phonetic character string into a phoneme string and calculating a time required for voice output of each pronunciation based on the analysis result, and each calculated time corresponding to a corresponding phoneme. Phonological reading time output means 26 for outputting
And a voice signal output means 18 for converting the generated phoneme sequence into a voice signal and outputting the voice signal.

【0010】そして、第4発明にかかる装置は図4のよ
うに構成されており、同図の装置は、入力された発音文
字列を解析する発音文字列解析手段12と、発音文字列
の音声出力に要する総時間を前記解析結果に基づいて算
出する文章読み上げ時間算出手段14と、算出された総
時間を出力する文章読み上げ時間出力手段16と、入力
された発音文字列を音声信号に変換して出力する音声信
号出力手段18と、を有している。
The apparatus according to the fourth aspect of the invention is configured as shown in FIG. 4, and the apparatus shown in the figure has a sounding character string analyzing means 12 for analyzing the inputted sounding character string and a sound of the sounding character string. Sentence reading time calculation means 14 for calculating the total time required for output based on the analysis result, sentence reading time output means 16 for outputting the calculated total time, and converting the input pronunciation character string into a voice signal. And an audio signal output means 18 for outputting the output.

【0011】また、第5発明にかかる装置は図5のよう
に構成されており、同図の装置は、入力された発音文字
列を解析する発音文字列解析手段12と、前記解析結果
に基づき、発音文字列を音節列に変換して各音節の音声
出力に要する時間を算出する音節読み上げ時間算出手段
20と、算出された各時間を該当の音節に対応させて出
力する音節読み上げ時間出力手段22と、生成された音
節列を音声信号に変換して出力する音声信号出力手段1
8と、を有している。
The apparatus according to the fifth aspect of the present invention is configured as shown in FIG. 5, and the apparatus shown in the figure is based on a pronunciation character string analysis means 12 for analyzing an inputted pronunciation character string and the analysis result. , A syllable reading time calculating means 20 for converting a pronunciation character string into a syllable string and calculating a time required for voice output of each syllable, and a syllable reading time outputting means for outputting each calculated time in association with the corresponding syllable. 22 and a voice signal output means 1 for converting the generated syllable string into a voice signal and outputting the voice signal.
8 and.

【0012】そして、第6発明にかかる装置は図6のよ
うに構成されており、同図の装置は、入力された発音文
字列を解析する発音文字列解析手段12と、発音文字列
を音韻列に変換し、各音韻の音声出力に要する時間を前
記解析結果に基づいて算出する音韻読み上げ時間算出手
段24と、算出された各時間を該当の音韻に対応させて
出力する音韻読み上げ時間出力手段26と、生成された
音韻列を音声信号に変換して出力する音声信号出力手段
18と、を有している。
The device according to the sixth aspect of the invention is configured as shown in FIG. 6, and the device shown in FIG. 6 has a phonetic character string analysis means 12 for analyzing the input phonetic character string and a phoneme for the phonetic character string. Phoneme reading time calculating means 24 for converting the time into a string and calculating the time required for outputting each phoneme based on the analysis result, and phoneme reading time outputting means for outputting each calculated time in association with the corresponding phoneme. 26, and a voice signal output means 18 for converting the generated phoneme sequence into a voice signal and outputting the voice signal.

【0013】[0013]

【作用】第1発明及び第4発明では音声出力に要する総
時間が出力され、第2発明及び第5発明では、各音節の
音声出力に要する時間が出力され、第3発明及び第6発
明では各音韻の音声出力に要する時間が出力される。
In the first and fourth inventions, the total time required for voice output is output, in the second and fifth inventions, the time required for voice output of each syllable is output, and in the third and sixth inventions. The time required for voice output of each phoneme is output.

【0014】ただし、第1発明,第2発明,第3発明に
おいては入力された漢字かな混じり文などの文章が入力
されて発音文字列が生成され、第4発明,第5発明,第
6発明においては発音文字列が入力される。
However, in the first invention, the second invention, and the third invention, the pronunciation character string is generated by inputting a sentence such as an input kanji / kana mixed sentence, and the fourth invention, the fifth invention, and the sixth invention. In, the phonetic character string is input.

【0015】なお、発音文字列は音に関する情報(音
素,音節など)、アクセントやイントネーションに関す
る情報(韻律情報)により構成でき、音韻は音素のみ又
は音素及び韻律を内容とする。
The pronunciation character string can be composed of information about phonemes (phonemes, syllables, etc.) and information about accents and intonations (prosodic information), and the phoneme contains only phonemes or phonemes and prosody.

【0016】[0016]

【実施例】図7にはプレゼンテーションで使用されるシ
ステムの構成が示されており、図8ではそのシステムの
使用例がフローチャートを用いて説明されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT FIG. 7 shows the configuration of a system used in a presentation, and FIG. 8 shows an example of the use of the system with a flowchart.

【0017】また、図9では音声合成の処理内容がフロ
ーチャートを用いて説明されており、図10では文章読
み上げ時間出力に関する処理の内容がフローチャートを
用いて説明されている。
Further, FIG. 9 describes the processing contents of the voice synthesis with the use of a flowchart, and FIG. 10 describes the processing contents with respect to the sentence reading time output using the flow chart.

【0018】さらに図11では、第2モードと第3モー
ドの所要時間出力動作が説明されており、ユーザは音声
出力に要する総時間を通知させる第1のモード,各音節
の音声出力に要する時間を通知させる第2のモード,各
音素(音韻)の音声出力に要する時間を通知させる第3
のモードを指定できる。
Further, FIG. 11 illustrates the required time output operation in the second mode and the third mode. In the first mode in which the user is notified of the total time required for voice output, the time required for voice output of each syllable. Second mode for notifying the user, and a third mode for notifying the time required for the voice output of each phoneme (phoneme)
You can specify the mode of.

【0019】図7において、ホスト側のコンピュータは
その本体40,キーボード42(音声出力の指示,発声
速度の指定,音声出力所要時間の通知指示,所要時間通
知のモード指定に使用),ディスプレイ44(音声出力
所要時間の表示に使用)で構成されている。
In FIG. 7, the host computer has a main body 40, a keyboard 42 (used for voice output instruction, voice output speed designation, voice output required time notification instruction, required time notification mode designation), display 44 ( It is used to display the time required for audio output).

【0020】そして、コンピュータの本体40から音声
出力すべき文章の内容,音声出力の指示,音声出力所要
時間の通知指示,所要時間通知のモード指定に関するデ
ータがキーボード操作に従って送出され、音声合成装置
のインタフェース部50に与えられる。
Then, the content of the sentence to be voice output, the voice output instruction, the voice output required time notification instruction, and the data regarding the mode designation of the required time notification are sent from the computer main body 40 in accordance with the keyboard operation, and the voice synthesizer operates. It is provided to the interface unit 50.

【0021】これらがインタフェース部50に与えられ
ると、音声出力すべき文の章データは文章解析部52に
入力され、単語辞書メモリ54の内容を用いて発音文字
列のデータに変換される。
When these are given to the interface section 50, the chapter data of the sentence to be output as voice is inputted to the sentence analysis section 52 and converted into pronunciation character string data using the contents of the word dictionary memory 54.

【0022】また音声処理部56の発声速度設定部58
では、発声速度をインタフェース部50に与えられたユ
ーザ指定のものに設定する処理が行なわれ、ユーザ指定
のない場合に、デフォルトの速度が選択される。
Further, the speech production speed setting unit 58 of the voice processing unit 56.
Then, the process of setting the utterance speed to the one specified by the user given to the interface unit 50 is performed, and the default speed is selected when the user does not specify.

【0023】さらに同音声処理部56の音韻長算出部6
0では、音声素片メモリ62の記憶内容及び発声速度選
択部58の出力(発声速度)を用いて発音文字列の各発
音文字が音韻に変換された音韻列を生成する処理と各音
韻の音声出力に要する時間の算出処理とが行なわれる。
Further, the phoneme length calculation unit 6 of the voice processing unit 56.
At 0, a process of generating a phoneme string in which each phonetic character of a phonetic character string is converted into a phoneme by using the stored contents of the voice unit memory 62 and the output (phonetic speed) of the phonetic speed selection unit 58, and the voice of each phoneme Calculation processing of the time required for output is performed.

【0024】その際に、ホスト側から音声出力の指示が
与えられていた場合には、音声処理部56のスペクトル
パラメータ生成部64,ピッチパラメータ生成部66,
波形合成部68が起動されて音韻長算出部60の音韻列
が音声信号に変換され、この音声信号がアンプ70を介
してスピーカ72へ出力される。
At this time, when the voice output instruction is given from the host side, the spectrum parameter generating unit 64, the pitch parameter generating unit 66 of the voice processing unit 56,
The waveform synthesizing unit 68 is activated to convert the phoneme sequence of the phoneme length calculating unit 60 into a voice signal, and the voice signal is output to the speaker 72 via the amplifier 70.

【0025】そして、音声出力所要時間の通知指示と所
要時間の通知モードを指定する指示がホスト側から与え
られていた場合には、音韻長算出部60の出力が読み上
げ時間算出部74に出力される。
When the host gives an instruction to notify the required time for voice output and an instruction to specify the required time notification mode, the output of the phoneme length calculator 60 is output to the reading time calculator 74. It

【0026】読み上げ時間算出部74では、第1のモー
ドが指定されたときに音声出力の総所要時間をホスト側
へ通知する処理,第2モードが指定されたときに各音節
とその音声出力の所要時間が対応した内容をホスト側へ
通知する処理,第3モードが指定されたときに各音韻と
その音声出力の所要時間が対応した内容をホスト側へ通
知する処理が行なわれる。
The reading time calculation unit 74 notifies the host of the total time required for voice output when the first mode is designated. When the second mode is designated, each syllable and its voice output are processed. A process of notifying the host side of the contents corresponding to the required time, and a process of notifying the host side of the contents corresponding to each phoneme and the required time of its voice output when the third mode is designated.

【0027】以上のシステムを学会などにおける発表に
使用する場合、予め、ユーザはホストコンピュータを操
作して原稿の文章データを編集し、これを音声合成装置
へ出力させる(図8 ステップ500)。
When the above system is used for presentations at academic conferences and the like, the user operates the host computer in advance to edit the text data of the manuscript, and outputs it to the speech synthesizer (step 500 in FIG. 8).

【0028】また、デフォルトの発声速度を選択しない
場合には発声速度を指定し(図8ステップ502,50
4)、音声出力所要時間の通知を指示し(図8 ステッ
プ506)、前述した第1モード,第2モード,第3モ
ードのいずれかを指示する(図8 ステップ508)。
If the default speaking rate is not selected, the speaking rate is designated (steps 502 and 50 in FIG. 8).
4) Instructing the notification of the voice output required time (step 506 in FIG. 8), and instructing any one of the above-described first mode, second mode, and third mode (step 508 in FIG. 8).

【0029】そして、音声合成装置から通知されてディ
スプレイ44に表示された内容を確認し(図8 ステッ
プ510),不満の場合には原稿を再編集し又は発声速
度を変更する(図8ステップ512,514)。
Then, the content notified by the voice synthesizer and displayed on the display 44 is confirmed (step 510 in FIG. 8), and if the content is not satisfactory, the original is reedited or the speaking speed is changed (step 512 in FIG. 8). , 514).

【0030】ここで、音声処理部56においては図9の
処理(ステップ600,602,604,606,60
8,610,612,614,616,618,62
0,622)が、読み上げ時間算出部74においては図
10の処理(ステップ700,702,704,70
6,708)が行なわれ、第1のモードを指定すると、
文章の音声出力に要する総時間が表示される(音声出力
の指示を与えた場合にはその文章を読み上げる音声出力
も行なわれる)。したがって、文章表示などの切換えに
合わせて適切なタイミングで文章の読み上げが終了する
ように音声出力時間を容易に調整することが可能とな
る。
Here, in the voice processing unit 56, the processing shown in FIG. 9 (steps 600, 602, 604, 606, 60) is performed.
8,610,612,614,616,618,62
0,622), but the reading time calculation unit 74 performs the processing of FIG. 10 (steps 700, 702, 704, 70).
6, 708) is performed and the first mode is designated,
The total time required for voice output of a sentence is displayed (when a voice output instruction is given, voice output of the sentence is also read out). Therefore, it is possible to easily adjust the voice output time so that the reading of the sentence ends at an appropriate timing in accordance with the switching of the sentence display and the like.

【0031】また第2又は第3のモードを指定すると、
図11のように音節とその出力時間を単語としたストリ
ング又は音素とその出力時間を単位としたストリングが
表示される。このため、アニメーションの動作(例え
ば、口の動き)に合わせて音声出力が行なわれるよう、
音声出力時間をきめ細かく調整することが可能となる。
When the second or third mode is designated,
As shown in FIG. 11, a string in which a syllable and its output time are words or a string in which a phoneme and its output time are units is displayed. Therefore, voice output should be performed in accordance with the motion of the animation (for example, the movement of the mouth).
It is possible to finely adjust the audio output time.

【0032】[0032]

【発明の効果】以上説明したように本発明によれば、音
声出力に要する総時間,各音節の出力に要する時間,各
音素の出力に要する時間を確認できるので、文章表示や
グラフ表示の切換え,アニメーションの動きに合わせて
音声出力時間やタイミングを容易に調整できる。
As described above, according to the present invention, the total time required for voice output, the time required for output of each syllable, and the time required for output of each phoneme can be confirmed. Therefore, switching between sentence display and graph display is possible. , You can easily adjust the audio output time and timing according to the movement of animation.

【0033】したがって、プレゼンテーションの準備作
業を極めて効率良く行なうことが可能となる。
Therefore, the preparation work for the presentation can be performed extremely efficiently.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the first invention.

【図2】第2発明の原理説明図である。FIG. 2 is a diagram illustrating the principle of the second invention.

【図3】第3発明の原理説明図である。FIG. 3 is a diagram illustrating the principle of the third invention.

【図4】第4発明の原理説明図である。FIG. 4 is an explanatory view of the principle of the fourth invention.

【図5】第5発明の原理説明図である。FIG. 5 is an explanatory view of the principle of the fifth invention.

【図6】第6発明の原理説明図である。FIG. 6 is a diagram illustrating the principle of the sixth invention.

【図7】実施例の構成説明図である。FIG. 7 is an explanatory diagram of the configuration of the embodiment.

【図8】ユーザによるシステムの使用例の構成説明図で
ある。
FIG. 8 is a diagram illustrating a configuration of a usage example of a system by a user.

【図9】音声処理部の処理内容を説明するフローチャー
トである。
FIG. 9 is a flowchart illustrating processing contents of a voice processing unit.

【図10】読み上げ時間算出部の処理内容を説明するフ
ローチャートである。
FIG. 10 is a flowchart illustrating processing contents of a reading time calculation unit.

【図11】第2モード及び第3モードの説明図である。FIG. 11 is an explanatory diagram of a second mode and a third mode.

【符号の説明】[Explanation of symbols]

40 コンピュータ本体 42 キーボード 44 ディスプレイ 50 インタフェース部 52 文章解析部 54 単語辞書メモリ 56 音声処理部 60 音韻長算出部 62 音声素片メモリ 64 スペクトルパラメータ生成部 66 ピッチパラメータ生成部 68 波形合成部 70 アンプ 72 スピーカ 74 読み上げ時間算出部 40 computer body 42 keyboard 44 display 50 interface unit 52 sentence analysis unit 54 word dictionary memory 56 speech processing unit 60 phoneme length calculation unit 62 speech unit memory 64 spectrum parameter generation unit 66 pitch parameter generation unit 68 waveform synthesis unit 70 amplifier 72 speaker 74 Reading time calculator

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力された文章から発音文字列を生成す
る発音文字列生成手段(10)と、 生成された発音文字列を解析する発音文字列解析手段
(12)と、 発音文字列の音声出力に要する総時間を前記解析結果に
基づいて算出する文章読み上げ時間算出手段(14)
と、 算出された総時間を出力する文章読み上げ時間出力手段
(16)と、 生成された発音文字列を音声信号に変換して出力する音
声信号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
1. A pronunciation character string generation means (10) for generating a pronunciation character string from an input sentence, a pronunciation character string analysis means (12) for analyzing the generated pronunciation character string, and a sound of the pronunciation character string. Sentence reading time calculating means (14) for calculating the total time required for output based on the analysis result
A text reading time output means (16) for outputting the calculated total time, and a voice signal output means (18) for converting the generated pronunciation character string into a voice signal and outputting the voice signal. Voice synthesizer.
【請求項2】 入力された文章から発音文字列を生成す
る発音文字列生成手段(10)と、 生成された発音文字列を解析する発音文字列解析手段
(12)と、 前記解析結果に基づき、発音文字列を音節列に変換して
各音節の音声出力に要する時間を算出する音節読み上げ
時間算出手段(20)と、 算出された各時間を該当の音節に対応させて出力する音
節読み上げ時間出力手段(22)と、 生成された音節列を音声信号に変換して出力する音声信
号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
2. A pronunciation character string generation means (10) for generating a pronunciation character string from an input sentence, a pronunciation character string analysis means (12) for analyzing the generated pronunciation character string, and based on the analysis result. , A syllable reading time calculating means (20) for converting a pronunciation character string into a syllable string and calculating a time required for voice output of each syllable, and a syllable reading time for outputting each calculated time in association with the corresponding syllable. A voice synthesizer comprising: an output unit (22); and a voice signal output unit (18) for converting the generated syllable string into a voice signal and outputting the voice signal.
【請求項3】 入力された文章から発音文字列を生成す
る発音文字列生成手段(10)と、 生成された発音文字列を解析する発音文字列解析手段
(12)と、 発音文字列を音韻列に変換し、各音韻の音声出力に要す
る時間を前記解析結果に基づいて算出する音韻読み上げ
時間算出手段(24)と、 算出された各時間を該当の音韻に対応させて出力する音
韻読み上げ時間出力手段(26)と、 生成された音韻列を音声信号に変換して出力する音声信
号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
3. A pronunciation character string generation means (10) for generating a pronunciation character string from an input sentence, a pronunciation character string analysis means (12) for analyzing the generated pronunciation character string, and a phoneme for a pronunciation character string. Phoneme reading time calculating means (24) for converting the time into a sequence and calculating the time required for the voice output of each phoneme based on the analysis result, and the phoneme reading time for outputting each calculated time in association with the corresponding phoneme. A voice synthesizer comprising: an output unit (26); and a voice signal output unit (18) for converting the generated phoneme sequence into a voice signal and outputting the voice signal.
【請求項4】 入力された発音文字列を解析する発音文
字列解析手段(12)と、 発音文字列の音声出力に要する総時間を前記解析結果に
基づいて算出する文章読み上げ時間算出手段(14)
と、 算出された総時間を出力する文章読み上げ時間出力手段
(16)と、 入力された発音文字列を音声信号に変換して出力する音
声信号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
4. A pronunciation character string analysis means (12) for analyzing an input pronunciation character string, and a sentence reading time calculation means (14) for calculating a total time required for voice output of the pronunciation character string based on the analysis result. )
A text reading time output means (16) for outputting the calculated total time, and a voice signal output means (18) for converting the input pronunciation character string into a voice signal and outputting the voice signal. Voice synthesizer.
【請求項5】 入力された発音文字列を解析する発音文
字列解析手段(12)と、 発音文字列を音節列に変換して各音節の音声出力に要す
る時間を前記解析結果に基づいて算出する音節読み上げ
時間算出手段(20)と、 算出された各時間を該当の音節に対応させて出力する音
節読み上げ時間出力手段(22)と、 生成された音節列を音声信号に変換して出力する音声信
号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
5. A phonetic character string analysis means (12) for analyzing an input phonetic character string, and a time required for converting the phonetic character string into a syllable string and outputting voice of each syllable based on the analysis result. Syllable reading time calculation means (20), syllable reading time output means (22) for outputting each calculated time in association with the corresponding syllable, and converting the generated syllable string into a voice signal for output. A voice synthesizer, comprising: a voice signal output means (18).
【請求項6】 入力された発音文字列を解析する発音文
字列解析手段(12)と、 発音文字列を音韻列に変換して各音韻の音声出力に要す
る時間を前記解析結果に基づいて算出する音韻読み上げ
時間算出手段(24)と、 算出された各時間を該当の音韻に対応させて出力する音
韻読み上げ時間出力手段(26)と、 生成された音韻列を音声信号に変換して出力する音声信
号出力手段(18)と、 を有する、ことを特徴とした音声合成装置。
6. A phonetic character string analysis means (12) for analyzing an input phonetic character string, and a time required for converting the phonetic character string into a phoneme string and outputting voice of each phoneme based on the analysis result. A phoneme reading time calculating means (24), a phoneme reading time outputting means (26) for outputting each calculated time in association with the corresponding phoneme, and a generated phoneme sequence converted to a voice signal for output. A voice synthesizer, comprising: a voice signal output means (18).
JP4276900A 1992-10-15 1992-10-15 Speech synthesizing device Pending JPH06131148A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4276900A JPH06131148A (en) 1992-10-15 1992-10-15 Speech synthesizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4276900A JPH06131148A (en) 1992-10-15 1992-10-15 Speech synthesizing device

Publications (1)

Publication Number Publication Date
JPH06131148A true JPH06131148A (en) 1994-05-13

Family

ID=17575955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4276900A Pending JPH06131148A (en) 1992-10-15 1992-10-15 Speech synthesizing device

Country Status (1)

Country Link
JP (1) JPH06131148A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8504368B2 (en) 2009-09-10 2013-08-06 Fujitsu Limited Synthetic speech text-input device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8504368B2 (en) 2009-09-10 2013-08-06 Fujitsu Limited Synthetic speech text-input device and program

Similar Documents

Publication Publication Date Title
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
EP2009621B1 (en) Adjustment of the pause length for text-to-speech synthesis
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
JPH08335096A (en) Text voice synthesizer
JPH06131148A (en) Speech synthesizing device
JPH1165597A (en) Voice compositing device, outputting device of voice compositing and cg synthesis, and conversation device
JP2703253B2 (en) Speech synthesizer
JP2680643B2 (en) Character display method of rule synthesizer
WO2023182291A1 (en) Speech synthesis device, speech synthesis method, and program
JP2658109B2 (en) Speech synthesizer
JPH113096A (en) Method and system of speech synthesis
JP2910587B2 (en) Speech synthesizer
JPH0990987A (en) Method and device for voice synthesis
JPH01321496A (en) Speech synthesizing device
JPH06149283A (en) Speech synthesizing device
JP2016122033A (en) Symbol string generation device, voice synthesizer, voice synthesis system, symbol string generation method, and program
JP2001236086A (en) Game device having text voice synthesis/output function
JP2573585B2 (en) Speech spectrum pattern generator
JPH01119822A (en) Sentence reader
JPH0667685A (en) Speech synthesizing device
JPH02234198A (en) Text voice synthesizing system
JPH08160990A (en) Speech synthesizing device
KADIAN MULTILINGUAL TEXT TO SPEECH ANALYSIS & SYNTHESIS
JPH06168265A (en) Language processor and speech synthesizer
JPH07140999A (en) Device and method for voice synthesis

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020806