JPH096377A - Voice synthesizer and its control method - Google Patents

Voice synthesizer and its control method

Info

Publication number
JPH096377A
JPH096377A JP7147290A JP14729095A JPH096377A JP H096377 A JPH096377 A JP H096377A JP 7147290 A JP7147290 A JP 7147290A JP 14729095 A JP14729095 A JP 14729095A JP H096377 A JPH096377 A JP H096377A
Authority
JP
Japan
Prior art keywords
phonetic
phonetic data
data
voice
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7147290A
Other languages
Japanese (ja)
Inventor
Keiichi Sakai
桂一 酒井
Yuji Ikeda
裕治 池田
Minoru Fujita
稔 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7147290A priority Critical patent/JPH096377A/en
Publication of JPH096377A publication Critical patent/JPH096377A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE: To make it possible to edit the phonetic data of the result of voice language processing and to realize various vocalization for an input sentence of the same character string. CONSTITUTION: A voice language processing part 103 voice-language processes for an inputted sentence from a sentence input part 101, and generates the phonetic data for voice synthesis to store them in a phonetic data hold part 104. A phonetic data hold part 105 displays the phonetic data, and a phonetic data correction part 106 performs the required correction of the displayed phonetic data. The corrected phonetic data are held at a phonetic data correction value hold part, and the voice is generated using the phonetic data after correction. In such a manner, since synthesized voice is outputted by a parameter based on the phonetic data after correction, a synthesized voice rich in variety can be generated by correcting the phonetic data even for the same character string.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声合成装置及びその
制御方法に関し、特に、アクセント句単位の情報に基づ
いて音声合成処理を行うのに好適な音声合成装置及びそ
の制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice synthesizing apparatus and a control method thereof, and more particularly to a voice synthesizing apparatus suitable for performing voice synthesizing processing based on accent phrase unit information and a control method thereof.

【0002】[0002]

【従来の技術】一般に、音声合成装置では、入力文を解
析してアクセント句単位に分割し、これにアクセントや
ポーズなどの情報を付与した音響情報をテキストやフレ
ームによって表したもの(以下表音データと呼ぶ)を音
響処理部へ入力する。
2. Description of the Related Art Generally, in a speech synthesizer, an input sentence is analyzed and divided into accent phrase units, and acoustic information in which information such as accent and pause is added is represented by text or a frame (hereinafter referred to as a phonetic symbol). (Referred to as data) is input to the sound processing unit.

【0003】この表音データは、形態素解析、句関係解
析などの文解析処理の結果に、ポーズ情報(一息に発生
する範囲(ポーズ句という)、ポーズ句とポーズ句の間
に置く無音時間の長さ)の生成、読み付け(読みの変化
に対応)、アクセントの生成(アクセントの結合)な
ど、言語解析から得られる情報をもとに合成音声を生成
するための音声言語処理を行って得られた結果である。
This phonetic data is based on the result of sentence analysis processing such as morphological analysis and phrase relation analysis, and includes pause information (a range that occurs at one breath (referred to as a pause phrase), silence periods placed between pause phrases). Length), reading (corresponding to changes in reading), accent generation (combination of accents), and other speech processing to generate synthetic speech based on information obtained from language analysis. Is the result of

【0004】「今日は良い天気です。」という入力文に
対する表音データの一例を図4に示す。同図の例では、
「今日は」の後に20ミリ秒のポーズを入れる以外は、
発声スピード,ピッチ,音量について、標準値「5」が
与えられている。
FIG. 4 shows an example of phonetic data for an input sentence "Today is good weather." In the example of FIG.
Except for the 20ms pause after "Today"
The standard value "5" is given for the speaking speed, pitch, and volume.

【0005】韻律制御部ではこの表音データを解析(解
釈)して、そこから韻律情報を生成するために必要なア
クセント情報,ポーズ情報,ピッチ周波数などの情報を
抽出し、ピッチパターンを生成する。更に、音声生成部
で、ピッチパターンから合成音声のパラメータを生成
し、DAコンバータにて、合成音声を発生する。
The prosody control section analyzes (interprets) this phonetic data, extracts information such as accent information, pause information, and pitch frequency necessary for generating prosody information therefrom, and generates a pitch pattern. . Further, the voice generation unit generates parameters of the synthetic voice from the pitch pattern, and the DA converter generates the synthetic voice.

【0006】このように表音データには、音素情報,ア
クセント情報,制御情報などの音響情報が記されてい
る。
As described above, the phonetic data includes acoustic information such as phoneme information, accent information, and control information.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記従
来の音声合成装置では、同じ字面の入力文に対して、一
通りの合成音声しか生成できないという欠点があった。
即ち、同じ字面の文に対して、特定の句(例えば図4で
は、「今日は」や「良い」)を強調したり、文全体を疑
間調(尻上がり)にしたりして発声させたい場合があ
る。一般に、ある特定の句を強調するには、音量を大き
くする、発声スピードを遅くする、ピッチを高くするな
ど、さまざまな修正要素があり、計算機で実現する決定
的な手法が存在するわけではない。
However, the above-mentioned conventional speech synthesizer has a drawback that it can generate only one kind of synthesized speech for an input sentence having the same face.
In other words, when you want to emphasize a specific phrase (for example, "Today" or "Good" in Fig. 4) or make the whole sentence into suspicious tone (upward) in a sentence of the same letter. There is. In general, to emphasize a particular phrase, there are various correction factors such as increasing the volume, slowing the speaking speed, increasing the pitch, etc.There is no definitive method to realize with a computer. .

【0008】本発明は上述の問題に鑑みてなされたもの
であり、音声言語処理の結果の表音データを編集するこ
とを可能とし、その編集した値を用いて韻律制御,音声
生成を行うことにより同じ字面の入力文に対して多様な
発声を実現する音声合成装置及びその制御方法を提供す
ることを目的とする。
The present invention has been made in view of the above problems, and makes it possible to edit phonetic data as a result of speech language processing, and to perform prosody control and speech generation using the edited values. It is an object of the present invention to provide a speech synthesizer and a control method thereof that realize various utterances for input sentences of the same character.

【0009】また、本発明の他の目的は、編集した表音
データの値の組を保持しておくことにより、これを再利
用可能とすることにある。
Another object of the present invention is to retain a set of edited phonetic data values so that they can be reused.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の音声合成装置は以下の構成を備える。即
ち、音声合成を行う文に対して音声言語処理を行って音
声合成のための表音データを生成する生成手段と、前記
生成手段で生成された表音データに所望の修正を行う修
正手段と、前記修正手段で修正された表音データに基づ
いて合成音声のパラメータを生成する生成手段とを備え
る。
A speech synthesis apparatus of the present invention for achieving the above object has the following configuration. That is, a generation unit that performs voice language processing on a sentence that performs voice synthesis to generate phonetic data for voice synthesis, and a correction unit that performs desired correction on the phonetic data generated by the generation unit. , Generating means for generating the parameters of the synthetic voice based on the phonetic data modified by the modifying means.

【0011】また、好ましくは、前記修正手段は、前記
生成手段で生成された表音データを表示する表示手段
と、該表示手段で表示された表音データに対して所望の
修正の指示を入力する入力手段とを含む。表音データを
表示し、表示された表音データを修正できるので、修正
作業が容易となるからである。
Further, preferably, the correction means inputs a display means for displaying the phonetic data generated by the generating means, and a desired correction instruction for the phonetic data displayed by the display means. Input means for This is because the phonetic data can be displayed and the displayed phonetic data can be modified, which facilitates the modification work.

【0012】また、好ましくは、前記生成手段は、音声
合成を行う文の表音データをポーズ句単位で生成する。
ポーズ句毎に表音データの修正が行え、多様な修正が可
能となるからである。
Further, preferably, the generating means generates phonetic data of a sentence for which voice synthesis is performed in units of pause phrases.
This is because the phonetic data can be modified for each pause phrase, and various modifications are possible.

【0013】また、好ましくは、前記修正手段で修正さ
れる表音データは、各ポーズ句について当該ポーズ句の
ポーズ長、発声スピード、ピッチ、音量、アクセント型
の夫々を決定する情報を含む。これらの情報は、所望の
ポーズ句を強調したり、文を質問調としたりするのに有
効な情報である。
Further, preferably, the phonetic data modified by the modifying means includes information for determining the pose length, vocalization speed, pitch, volume and accent type of each pause phrase. These pieces of information are effective in emphasizing a desired pause phrase and making a sentence into a question tone.

【0014】また、好ましくは、前記修正手段で修正さ
れた表音データの組を保持する保持手段を更に備え、前
記修正手段は、前記保持手段に保持された表音データの
組を読み出して前記生成手段で生成された表音データを
修正する手段を含む。過去に作成した修正値を再利用で
き、表音データの修正が容易となるからである。例えば
強調のための表音データの修正値の組みを保持しておけ
ば、以後はこの保持された修正値を用いることで、強調
のための表音データの修正を行うことができる。
Further, preferably, the apparatus further comprises holding means for holding the set of phonetic sound data corrected by the correcting means, and the correcting means reads out the set of phonetic data held by the holding means and stores the set. A means for correcting the phonetic data generated by the generating means is included. This is because the correction values created in the past can be reused and the phonetic data can be easily corrected. For example, if a set of correction values of phonetic data for emphasis is held, then the phonetic data for emphasis can be corrected by using the held correction values.

【0015】また、好ましくは、前記保持手段は、表音
データの組を固有のラベルを付与した状態で保持し、前
記修正手段は、ラベルを指定することで前記保持手段に
保持された表音データの組を獲得し、獲得された表音デ
ータの組によって前記生成手段で生成された表音データ
を修正する手段を含む。修正値の組にラベルを付与する
ことで、複数種類の修正値の組が保持された場合でも容
易に所望の修正値を指定することが可能となるからであ
る。
Further, preferably, the holding means holds a set of phonetic data in a state in which a unique label is provided, and the correcting means designates a label to hold the phonetic sound held in the holding means. Means for acquiring a set of data and modifying the phonetic data generated by the generating means by the acquired set of phonetic data. By adding a label to a set of correction values, it becomes possible to easily specify a desired correction value even when a plurality of sets of correction values are held.

【0016】また、上記の目的を達成するための本発明
の音声合成装置の制御方法は、入力された文に基づいて
音声合成を行う音声合成装置の制御方法であって、音声
合成を行う文に対して音声言語処理を行って音声合成の
ための表音データを生成する生成工程と、前記生成工程
で生成された表音データに所望の修正を行う修正工程
と、前記修正工程で修正された表音データに基づいて合
成音声のパラメータを生成する生成工程とを備える。
A method of controlling a speech synthesizer according to the present invention for achieving the above object is a method of controlling a speech synthesizer for performing speech synthesis based on an inputted sentence, wherein a sentence for speech synthesis is used. A generation step of performing speech language processing on the phonetic sound data to generate phonetic data for voice synthesis, a correction step of making desired corrections to the phonetic data generated in the generation step, and a correction step corrected by the correction step. And a generation step of generating a parameter of the synthetic voice based on the phonetic data.

【0017】[0017]

【作用】上記の構成によれば、入力された文に基づいて
音声合成を行う音声合成装置において、音声合成を行う
文に対して音声言語処理を行って音声合成のための表音
データが生成される。そして、この表音データに所望の
修正を行い、修正された表音データに基づいて合成音声
のパラメータが生成される。
According to the above construction, in the voice synthesizing device for synthesizing the voice based on the inputted sentence, the phonetic data for the voice synthesizing is generated by performing the voice language processing on the sentence for the voice synthesizing. To be done. Then, the phonetic data is modified as desired, and the parameters of the synthetic voice are generated based on the modified phonetic data.

【0018】以上のようにして生成されたパラメータに
よって合成音声が出力されることになるので、同じ字面
であってもその表音データを修正することでバラエティ
に富んだ合成音声の生成が可能となる。
Since the synthesized voice is output according to the parameters generated as described above, it is possible to generate a variety of synthetic voices by modifying the phonetic data even for the same character. Become.

【0019】[0019]

【実施例】以下、添付の図面を参照して本発明の実施例
を詳細に説明する。
Embodiments of the present invention will now be described in detail with reference to the accompanying drawings.

【0020】図1は本実施例の音声合成装置における概
略の構成を示すブロック図である。同図において、1は
CPUであり、本音声合成装置における各種制御を行
う。2はROMであり、CPU1が実行する制御プログ
ラムを格納する。ROM2には後述のフローチャートで
説明する制御を実行するための制御プログラムも格納さ
れている。3はRAMであり、CPU1が各種の制御を
実行するための作業領域を提供する。4は音声出力部で
あり、合成音声信号に基づいて、音声を生成し、出力す
る。
FIG. 1 is a block diagram showing the schematic arrangement of the speech synthesizer of this embodiment. In the figure, reference numeral 1 is a CPU, which performs various controls in the speech synthesizer. A ROM 2 stores a control program executed by the CPU 1. The ROM 2 also stores a control program for executing the control described in the flowchart described later. A RAM 3 provides a work area for the CPU 1 to execute various controls. A voice output unit 4 generates and outputs voice based on the synthesized voice signal.

【0021】5は外部メモリであり、音声合成処理のた
めの表音データの修正パターン等を格納する。6は入力
部であり、音声合成すべき文を入力したり、表音データ
の修正値を入力したりする。7は表示部であり、CR
T、液晶表示器等で構成され、表音データ等の表示を行
う。8はバスであり、上記の各構成を接続し、各構成間
におけるデータの授受を可能とする。
An external memory 5 stores a correction pattern of phonetic data for voice synthesis processing. An input unit 6 inputs a sentence to be voice-synthesized and a correction value of phonetic data. 7 is a display unit, CR
T, a liquid crystal display, etc., and displays phonetic data and the like. Reference numeral 8 denotes a bus, which connects the above-mentioned components to each other and enables data exchange between the components.

【0022】図2は、本実施例の音声合成装置の機能構
成を示すブロック図である。同図において、101は音
声合成を行う文を入力部6より入力する文入力部であ
る。102は文入力部101から入力された入力文をR
AM3に保持する入力文保持部(バッファ)である。
FIG. 2 is a block diagram showing the functional arrangement of the speech synthesizer of this embodiment. In the figure, reference numeral 101 denotes a sentence input unit for inputting a sentence for voice synthesis from the input unit 6. Reference numeral 102 denotes the input sentence input from the sentence input unit 101
It is an input sentence holding unit (buffer) held in AM3.

【0023】103は入力された文に対して音声言語処
理を行い、音声表記,アクセント型,ポーズ長,発声ス
ピード,音量などの表音データを生成する音声言語処理
部である。104は音声言語処理部103で生成された
表音データをRAM3に保持する表音データ保持部(バ
ッファ)である。
Reference numeral 103 denotes a speech language processing unit which performs speech language processing on the input sentence and generates phonetic data such as speech notation, accent type, pause length, utterance speed, and volume. Reference numeral 104 denotes a phonetic sound data holding unit (buffer) that holds the phonetic sound data generated by the voice language processing unit 103 in the RAM 3.

【0024】105は表音データ保持部104によって
保持された表音データの値を表示部7の画面上に表示す
る表音データ表示部である。106は表音データ表示部
105に表示された表音データの値を入力部6を用いて
修正入力する表音データ修正部である。107は表音デ
ータ修正部106から修正入力された値をRAM3に保
持する表音データ修正値保持部(バッファ)である。
Reference numeral 105 denotes a phonetic data display section for displaying the value of the phonetic data held by the phonetic data holding section 104 on the screen of the display section 7. Reference numeral 106 denotes a phonetic data correction unit for correcting and inputting the value of the phonetic data displayed on the phonetic data display unit 105 using the input unit 6. Reference numeral 107 denotes a phonetic data correction value holding unit (buffer) which holds the value corrected and input from the phonetic data correction unit 106 in the RAM 3.

【0025】108は表音データ修正値保持部107に
保持された値の組をパターンとして管理するためのラベ
ルを入力部6を用いて入力する修正パターンラベル入力
部である。109は修正パターンラベル入力部108か
ら入力されたパターンラベルをRAM3に保持する修正
パターンラベル保持部である。111は表音データ修正
値保持部107に保持された値と修正パターンラベル保
持部109に保持されたラベルとを対応させて外部メモ
リ5の修正パターン保持部110に保持する修正パター
ン保持実行部である。なお、修正パターン保持実行部は
入力部6よりの実行指示の入力によって起動される。
Reference numeral 108 denotes a correction pattern label input unit for inputting a label for managing the set of values held in the phonetic data correction value holding unit 107 as a pattern using the input unit 6. A correction pattern label holding unit 109 holds the pattern label input from the correction pattern label input unit 108 in the RAM 3. Reference numeral 111 denotes a correction pattern holding execution unit that holds the value held in the phonetic data correction value holding unit 107 and the label held in the correction pattern label holding unit 109 in the correction pattern holding unit 110 of the external memory 5 in association with each other. is there. The correction pattern holding execution unit is activated by inputting an execution instruction from the input unit 6.

【0026】112は使用する修正パターンのラベルを
入力部6より入力する使用パターンラベル入力部であ
る。113は使用パターンラベル入力部112から入力
された使用パターンのラベルをRAM3に保持する使用
パターンラベル保持部(バッファ)である。114は使
用パターンラベル保持部113に保持された使用パター
ンのラベルに対応する修正パターンを修正パターン保持
部110から読み込み、表音データ修正値保持部107
に保持する使用パターン読込実行部である。なお、使用
パターン読込実行部114は、入力部6よりの実行指示
の入力によって起動される。
Reference numeral 112 is a use pattern label input section for inputting the label of the correction pattern to be used from the input section 6. Reference numeral 113 is a use pattern label holding unit (buffer) that holds the use pattern label input from the use pattern label input unit 112 in the RAM 3. Reference numeral 114 reads the correction pattern corresponding to the label of the use pattern held in the use pattern label holding unit 113 from the correction pattern holding unit 110, and the phonetic data correction value holding unit 107.
It is a usage pattern reading execution unit held in. The usage pattern reading execution unit 114 is activated by inputting an execution instruction from the input unit 6.

【0027】115は表音データ修正値保持部107に
保持された値を参照して、ポーズ長,ピッチ,音量など
の韻律情報を制御する韻律制御部である。116は韻律
制御部115で得られた韻律情報をRAM3に保持する
韻律情報保持部(バッファ)である。117は韻律情報
保持部116に保持された値を参照して、韻律,パラメ
ータ接続,波形接続などの音声生成処理を行う音声生成
部である。118は音声生成部117で生成された合成
音声のパラメータをRAM3に保持する音声パラメータ
保持部(バッファ)である。119は音声パラメータ保
持部118に保持された音声パラメータを合成音声に変
換するDAコンバータである。また、120は入力部6
からの実行指示の入力により、韻律制御部115におけ
る韻律制御及び音声発声部117における音声生成の実
行開始を制御する。
Reference numeral 115 is a prosody control unit for controlling prosody information such as pause length, pitch, and volume by referring to the values held in the phonetic data correction value holding unit 107. A prosody information storage unit (buffer) 116 stores the prosody information obtained by the prosody control unit 115 in the RAM 3. Reference numeral 117 is a voice generation unit that performs voice generation processing such as prosody, parameter connection, and waveform connection by referring to the value stored in the prosody information storage unit 116. Reference numeral 118 is a voice parameter holding unit (buffer) that holds the parameters of the synthetic voice generated by the voice generating unit 117 in the RAM 3. A DA converter 119 converts the voice parameter held in the voice parameter holding unit 118 into synthetic voice. Also, 120 is the input unit 6
By inputting an execution instruction from, the prosody control unit 115 controls the prosody control and the voice utterance unit 117 controls the start of execution of voice generation.

【0028】次に、本音声合成装置の動作を説明する。
図3は本実施例の音声合成装置の動作手順を示すフロー
チャートである。
Next, the operation of this speech synthesizer will be described.
FIG. 3 is a flow chart showing the operation procedure of the speech synthesizer of this embodiment.

【0029】図3において、ステップS201〜S20
7は、入力待ちの状態である。入力待ちの状態は、文入
力,表音データ修正,修正パターンラベル入力,修正パ
ターン保持実行,使用パターンラベル入力,使用パター
ン読み込み実行,発声実行のいずれかの入力がなされる
まで繰り返される。
In FIG. 3, steps S201 to S20 are performed.
7 is a state of waiting for input. The state of waiting for input is repeated until one of sentence input, phonetic data correction, correction pattern label input, correction pattern holding execution, use pattern label input, use pattern reading execution, and utterance execution is input.

【0030】文入力部101に音声合成を行う文が入力
されると入力された文は入力文保持部102に保持さ
れ、処理はステップS201よりステップS208へ進
む。ステップS208では、音声言語処理部103が入
力文保持部102に保持された入力文に通常の音声言語
処理を行い、その結果である表音データを表音データ保
持部104に保持する。そして、ステップS209にで
は、表音データ保持部104に保持されたポーズ,ピッ
チ,パワーなどの表音データの値を表音データ表示部1
05によって表示する。その後、処理はステップS20
1に移り、入力待ちの状態に移行する。
When a sentence for speech synthesis is input to the sentence input unit 101, the input sentence is held in the input sentence holding unit 102, and the process proceeds from step S201 to step S208. In step S208, the speech language processing unit 103 performs normal speech language processing on the input sentence held in the input sentence holding unit 102, and holds the phonetic data as a result in the phonetic data holding unit 104. Then, in step S209, the values of the phonetic data such as the pause, pitch, and power held in the phonetic data holding unit 104 are displayed in the phonetic data display unit 1.
Indicated by 05. Then, the process is step S20.
Move to 1 and shift to the input waiting state.

【0031】表音データ修正部106から表音データの
修正値が入力された場合は、ステップS202からステ
ップS210に進む。ステップS210において、表音
データ保持部104に値が保持されている場合はステッ
プS211に進み、表音データ修正部106から入力さ
れた修正値を表音データ修正値保持部107に保持す
る。一方、ステップS210において表音データが保持
されていない場合はステップS222へ進み、例えば、
「文が入力されていません。入力してください。」とい
うエラーメッセージを出力(表示または音声出力)し、
ステップS201に戻る。
When the correction value of the phonetic sound data is input from the phonetic data correction unit 106, the process proceeds from step S202 to step S210. In step S210, when the value is held in the phonetic sound data holding unit 104, the process proceeds to step S211, and the correction value input from the phonetic data correction unit 106 is held in the phonetic data correction value holding unit 107. On the other hand, if the phonetic data is not held in step S210, the process proceeds to step S222, and, for example,
Output (display or voice output) the error message "The sentence has not been entered. Please enter it.",
It returns to step S201.

【0032】修正パターンラベル入力部108からラベ
ルが入力されると、ステップS203からステップS2
12に移る。ステップS212では、修正パターンラベ
ル入力部108から入力された修正パターンのラベルを
修正パターンラベル保持部109に保持し、ステップS
201に移る。
When a label is input from the correction pattern label input unit 108, steps S203 to S2 are performed.
Move to 12. In step S212, the label of the correction pattern input from the correction pattern label input unit 108 is held in the correction pattern label holding unit 109, and in Step S212.
Move to 201.

【0033】修正パターン保持実行部111から修正パ
ターンの保持実行の指示が入力されるとステップS20
4からステップS213に移る。ステップS213で
は、表音データ修正値保持部107及び修正パターンラ
ベル保持部109にそれぞれ修正値とラベルが保持され
ているかを調べる。修正値及びラベルが保持されている
場合にはステップS214に移り、表音データ修正値保
持部107に保持された修正値を修正パターンラベル保
持部109に保持されたラベルとともに修正パターン保
持部110に保持する。そして、ステップS201に戻
る。ステップS213において修正値もしくはラベルの
少なくとも一方が保持されていない場合には、ステップ
S223へ進み、例えば、「修正値かラベルが入力され
ていません。入力してください。」というエラーメッセ
ージを出力し、ステップS201に移る。
When a correction pattern holding execution instruction is input from the correction pattern holding execution unit 111, step S20 is executed.
Then, the process proceeds from step 4 to step S213. In step S213, it is checked whether the correction value and the label are held in the phonetic data correction value holding unit 107 and the correction pattern label holding unit 109, respectively. If the correction value and the label are held, the process proceeds to step S214, and the correction value held in the phonetic data correction value holding unit 107 is stored in the correction pattern holding unit 110 together with the label held in the correction pattern label holding unit 109. Hold. Then, the process returns to step S201. If at least one of the correction value and the label is not held in step S213, the process proceeds to step S223, and, for example, an error message "The correction value or label has not been entered. Please enter." Is output. , Go to step S201.

【0034】使用パターンラベル入力部112から、使
用すべきパターンのラベルが入力されると、ステップS
205からステップS215に移る。ステップS215
では、使用パターンラベル入力部112から入力された
ラベルを使用パターンラベル保持部113に保持し、ス
テップS201に移る。
When the label of the pattern to be used is input from the use pattern label input unit 112, step S
The procedure moves from 205 to step S215. Step S215
Then, the label input from the usage pattern label input unit 112 is held in the usage pattern label holding unit 113, and the process proceeds to step S201.

【0035】使用パターン読込実行部114において使
用するパターンの読み込み実行の指示が入力されると、
ステップS206からステップS216に移る。ステッ
プS216では、使用パターンラベル保持部113に使
用するラベルが保持されているか否かを判断し、保持さ
れていればステップS217へ進む。そしてステップS
217において、使用パターンラベル保持部113に保
持されたラベルに対応する修正パターンを修正パターン
保持部110から読み込み、これを表音データ修正値保
持部107に保持する。その後、ステップS201に戻
る。また、ステップS216において使用するラベルが
保持されていない場合には、ステップS224へ進み、
例えば、「ラベルが入力されていません。入力してくだ
さい。」というエラーメッセージを出力してステップS
201へ戻る。
When an instruction to read and execute a pattern to be used is input to the use pattern read execution unit 114,
The process moves from step S206 to step S216. In step S216, it is determined whether or not the label to be used is held in the use pattern label holding unit 113, and if held, the process proceeds to step S217. And step S
In 217, the correction pattern corresponding to the label held in the usage pattern label holding unit 113 is read from the correction pattern holding unit 110 and held in the phonetic data correction value holding unit 107. Then, it returns to step S201. If the label used in step S216 is not held, the process proceeds to step S224.
For example, output the error message "The label has not been entered. Please enter it."
Return to 201.

【0036】発声実行部120から発声実行の指示が入
力されると、ステップS207からステップS218へ
処理が移行する。ステップS218では、表音データ保
持部107に表音データが保持されているか否かを判断
し、保持されている場合にはステップS219に進む。
When the instruction to execute the utterance is input from the utterance executing unit 120, the process proceeds from step S207 to step S218. In step S218, it is determined whether or not the phonetic data holding unit 107 holds the phonetic data, and if the phonetic data is held, the process proceeds to step S219.

【0037】ステップS219では、韻律制御部115
において、表音データ保持部104に保持された表音デ
ータ及び表音データ修正値保持部107に保持された修
正値を参照して、ポーズ,ピッチ,パワーなどの韻律情
報の制御を行い、その韻律情報を韻律情報保持部116
に保持する。続いて、ステップS220で、音声生成部
117において、韻律情報保持部116に保持された値
を参照して、韻律,パラメータ接続,波形接続などの音
声生成処理を行い、その結果得られた音声パラメータを
音声パラメータ保持部118に保持する。最後に、ステ
ップS221において、DAコンバータ119が音声パ
ラメータ保持部118に保持された音声パラメータを合
成音声に変換し、合成音声を出力してステップS201
に戻る。一方、ステップS218において表音データ保
持部104にデータが保持されていない場合は、ステッ
プS225へ進み、例えば、「文が入力されていませ
ん。入力してください。」というエラーメッセージを出
力し、ステップS201に移る。
In step S219, the prosody control unit 115
In reference to the phonetic data held in the phonetic data holding unit 104 and the correction values held in the phonetic data correction value holding unit 107, prosody information such as pause, pitch, and power is controlled. The prosody information storage unit 116 stores the prosody information.
To hold. Subsequently, in step S220, the voice generation unit 117 performs voice generation processing such as prosody, parameter connection, and waveform connection with reference to the value held in the prosody information holding unit 116, and the resulting voice parameter is obtained. Is stored in the voice parameter storage unit 118. Finally, in step S221, the DA converter 119 converts the voice parameter held in the voice parameter holding unit 118 into a synthesized voice, outputs the synthesized voice, and then in step S201.
Return to On the other hand, if the data is not held in the phonetic data holding unit 104 in step S218, the process proceeds to step S225, for example, an error message "Sentence has not been entered. Please enter" is output, Then, the process proceeds to step S201.

【0038】以上のような制御手順によれば、入力され
た文に対して音声言語処理を施して得られた表音データ
に所望の修正を加えることが可能となる。このため、ポ
ーズ句単位で発声スピードや音量を変更できるようにな
る。以下に表音データの修正例を示す。
According to the control procedure as described above, it is possible to make desired corrections to the phonetic data obtained by performing the speech language processing on the input sentence. Therefore, it becomes possible to change the utterance speed and volume for each pause phrase. An example of correcting phonetic data is shown below.

【0039】図4は「今日は良い天気です。」という入
力文に対する表音データの一例を示す図である。図5
は、図4の入力文に対して、「今日は」というポーズ句
を強調する場合の表音データの修正例を示す図である。
ポーズ句を強調する典型的な修正方法としては、当該ポ
ーズ句のポーズ長を増やすこと(図では20から40へ
修正)、音量を大きくすること(図では5から7へ修
正)、発声スピードを遅くすること(図では5から3へ
修正)が挙げられる。図5の例では、「今日は」という
ポーズ句が発声時に強調されることになる。
FIG. 4 is a diagram showing an example of phonetic data for an input sentence "Today is a fine weather." FIG.
FIG. 5 is a diagram showing an example of correction of phonetic data in the case of emphasizing a pause phrase “today” in the input sentence of FIG. 4.
As a typical correction method for emphasizing a pause phrase, increase the pause length of the pause phrase (corrected from 20 to 40 in the figure), increase the volume (corrected from 5 to 7 in the figure), and increase the vocalization speed. It can be slowed down (corrected from 5 to 3 in the figure). In the example of FIG. 5, the pause phrase “today is” is emphasized when uttering.

【0040】また、図6は、図3の入力文に対して、
「良い」というポーズ句を強調する場合の表音データの
修正例を示す図である。図5の場合と同様に、「良い」
のポーズ句に対応する表音データにおけるポーズ長を増
やし、ピッチを高くし、発声スピードを遅くしている。
Further, FIG. 6 shows that for the input sentence of FIG.
It is a figure which shows the correction example of phonetic data in the case of emphasizing the pose phrase "good." As in the case of FIG. 5, “good”
In the phonetic data corresponding to the pause phrase, the pause length is increased, the pitch is increased, and the utterance speed is decreased.

【0041】また、図7は、図3の入力文を疑問調にす
る場合の表音データの修正例を示す図である。この場
合、最後のポーズ句(「天気です」)の表音データにつ
いて、アクセント型を6にして文末のピッチを上げるこ
とで疑問調の発声を行わせている。
Further, FIG. 7 is a diagram showing an example of correction of phonetic data when the input sentence of FIG. 3 is interrogated. In this case, with respect to the phonetic data of the last pause phrase (“weather”), the accent type is set to 6 and the pitch at the end of the sentence is raised to make the interrogative utterance.

【0042】以上で述べたように、音声言語処理の結果
の表音データを編集し、その編集した値を用いて、韻律
制御,音声生成を行うことにより、同じ字面の入力文に
対して、多様な発声を実現できる。また、編集した値を
パターンとしてラベルを付与し保持しておき、そのラベ
ルでもって所望の修正パターンを指定してパターンの読
み込みを行うことにより、編集した修正値の再利用を実
現できる。
As described above, the phonetic data resulting from the speech language processing is edited, and the edited values are used to perform prosody control and voice generation, whereby input sentences having the same character face are A variety of vocalizations can be realized. Further, the edited value is reused by designating and holding the edited value as a pattern and designating a desired modification pattern with the label to read the pattern.

【0043】なお、上記実施例では、説明を簡単化する
ため、必ず表音データを修正するよう説明しているが、
修正せずに合成音声を発生させることができるようにし
ても構わない。その場合、表音データ保持部104に保
持された値を直接指定して使用する方法、表音データ保
持部104に値を保持すると同時にその値を表音データ
修正値保持部107にも保持する方法、或は、韻律制御
部115が表音データ修正値保持部107に値が存在し
ない場合に表音データ保持部104に保持された値を使
用する方法などが考えられる。
Incidentally, in the above-mentioned embodiment, in order to simplify the explanation, it is explained that the phonetic data is always corrected.
The synthetic voice may be generated without modification. In that case, a method of directly designating and using the value held in the phonetic data holding unit 104, holding the value in the phonetic data holding unit 104 and holding the value in the phonetic data correction value holding unit 107 at the same time A method, or a method in which the prosody control unit 115 uses the value held in the phonetic sound data holding unit 104 when the phonetic data correction value holding unit 107 has no value, can be considered.

【0044】また、上記実施例において、表音データ修
正値保持部107に保持されるデータは修正後の全表音
データであっても、表音データ保持部104に保持され
た値との差分のみであっても構わない。
Further, in the above embodiment, even if the data held in the phonetic data correction value holding unit 107 is all the phonetic data after correction, the difference from the value held in the phonetic data holding unit 104. It is okay if only.

【0045】また、上記実施例では、表音データの修正
値の組を同時に1組のバッファに保持するように説明し
ているが、複数の値の組をバッファに保持し、切替える
ことができるようにしても構わない。
Further, in the above-mentioned embodiment, the description has been made such that the set of corrected values of the phonetic data is held in one set of buffers at the same time, but a set of a plurality of values can be held in the buffer and switched. You may do so.

【0046】また、上記実施例では、入力文保持部10
2に文が保持されると直ちに音声言語処理が行われるよ
うに説明しているが、音声言語処理の実行を別の入力指
示により行うようにしても構わない。
Further, in the above embodiment, the input sentence holding unit 10
Although it has been described that the speech language processing is performed immediately after the sentence is held in 2, the speech language processing may be executed by another input instruction.

【0047】また、上記実施例では、韻律情報保持部1
16に文が保持されると直ちに音声生成処理が行われる
ように説明しているが、音声生成処理の実行を別の入力
指示により行うようにしても構わない。
Further, in the above embodiment, the prosody information holding unit 1
Although it has been described that the voice generation process is performed as soon as the sentence is held in 16, the voice generation process may be executed by another input instruction.

【0048】また、上記実施例では、入力を全て人手で
行うような説明をしているが、他の例えば、自然言語生
成装置や自然言語対話装置の出力をそのまま入力として
用いても構わない。
Further, in the above-described embodiment, the description is made such that all the input is performed manually, but other outputs such as a natural language generation device or a natural language dialogue device may be used as the input as they are.

【0049】以上説明したように、本発明によれば、入
力された文に対し、音声言語処理部103によって音声
言語処理を行なった結果である表音データを表音データ
表示部105に表示し、この表音データを表音データ修
正部106によって編集した値を用いて、韻律制御部1
15による韻律制御、音声生成部117による音声生成
処理を行うので、表音データを修正することでさまざま
な合成音声の発声を実現できる効果がある。
As described above, according to the present invention, the phonetic data which is the result of the phonetic language processing unit 103 performing the phonetic language processing on the input sentence is displayed on the phonetic data display unit 105. , The prosody control unit 1 using the values edited by the phonetic data modification unit 106.
Since prosody control by 15 and voice generation processing by the voice generation unit 117 are performed, there is an effect that various synthetic voices can be uttered by correcting the phonetic data.

【0050】また、表音データ修正部106によって編
集した値の組をパターンとしてラベルをつけて修正パタ
ーン保持部110に保持し、また、使用パターンラベル
入力部112から入力されたラベルを用いて、編集した
表音データの値の組を読み込むことにより、過去に編集
した表音データの値の再利用を実現できる効果がある。
Further, the set of values edited by the phonetic data correction unit 106 is labeled as a pattern and held in the correction pattern holding unit 110, and the label input from the use pattern label input unit 112 is used to By reading the set of edited phonetic data values, there is an effect that the previously edited phonetic data values can be reused.

【0051】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or an apparatus.

【0052】[0052]

【発明の効果】以上説明したように、本発明によれば、
音声言語処理の結果の表音データを編集することが可能
となり、その編集した値を用いて韻律制御,音声生成を
行うことにより同じ字面の入力文に対して多様な発声が
実現される。
As described above, according to the present invention,
It is possible to edit the phonetic data as a result of the speech language processing, and by performing the prosody control and the voice generation using the edited values, various utterances can be realized for the input sentence of the same character.

【0053】また、本発明によれば、編集した表音デー
タの値の組を保持しておき、これを再利用することが可
能となり、表データの修正がより容易に行える。
Further, according to the present invention, a set of edited phonetic data values can be held and reused, and the table data can be corrected more easily.

【0054】[0054]

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例の音声合成装置における概略の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a speech synthesizer of this embodiment.

【図2】本実施例の音声合成装置の機能構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a functional configuration of a speech synthesizer of this embodiment.

【図3】本実施例の音声合成装置の動作手順を示すフロ
ーチャートである。
FIG. 3 is a flowchart showing an operation procedure of the speech synthesizer of this embodiment.

【図4】「今日は良い天気です。」という入力文に対す
る表音データの一例を示す図である。
FIG. 4 is a diagram showing an example of phonetic data for an input sentence “Today is a good weather”.

【図5】図4の入力文に対して、「今日は」というポー
ズ句を強調する場合の表音データの修正例を示す図であ
る。
5 is a diagram showing an example of correction of phonetic data in the case of emphasizing a pause phrase "today" in the input sentence of FIG.

【図6】図3の入力文に対して、「良い」というポーズ
句を強調する場合の表音データの修正例を示す図であ
る。
FIG. 6 is a diagram showing a correction example of phonetic data in the case of emphasizing a pause phrase of “good” with respect to the input sentence of FIG. 3;

【図7】図3の入力文を疑問調にする場合の表音データ
の修正例を示す図である。
FIG. 7 is a diagram showing an example of correction of phonetic data when the input sentence of FIG.

【符号の説明】[Explanation of symbols]

101 文入力部 102 入力文保持部 103 音声言語処理部 104 表音データ保持部 105 表音データ表示部 106 表音データ修正部 107 表音データ修正値保持部 108 修正パターンラベル入力部 109 修正パターンラベル保持部 110 修正パターン保持部 111 修正パターン保持実行部 112 使用パターンラベル入力部 113 使用パターンラベル保持部 114 修正パターン読込実行部 115 韻律制御部 116 韻律情報保持部 117 音声生成部 118 音声パラメータ保持部 119 DAコンバータ 120 発声実行部 101 sentence input unit 102 input sentence holding unit 103 speech language processing unit 104 phonetic data holding unit 105 phonetic data display unit 106 phonetic data correction unit 107 phonetic data correction value holding unit 108 correction pattern label input unit 109 correction pattern label Holding unit 110 Correction pattern holding unit 111 Correction pattern holding execution unit 112 Usage pattern label input unit 113 Usage pattern label holding unit 114 Correction pattern reading execution unit 115 Prosody control unit 116 Prosody information holding unit 117 Speech generation unit 118 Speech parameter holding unit 119 DA converter 120 Voice execution unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 音声合成を行う文に対して音声言語処理
を行って音声合成のための表音データを生成する生成手
段と、 前記生成手段で生成された表音データに所望の修正を行
う修正手段と、 前記修正手段で修正された表音データに基づいて合成音
声のパラメータを生成する生成手段とを備えることを特
徴とする音声合成装置。
1. A generating unit for performing phonetic language processing on a sentence to be subjected to voice synthesis to generate phonetic data for voice synthesis, and a desired modification to the phonetic data produced by the generating unit. A voice synthesizing apparatus comprising: a correction unit; and a generation unit that generates a parameter of a synthetic voice based on the phonetic data corrected by the correction unit.
【請求項2】 前記修正手段は、前記生成手段で生成さ
れた表音データを表示する表示手段と、該表示手段で表
示された表音データに対して所望の修正の指示を入力す
る入力手段とを含むことを特徴とする請求項1に記載の
音声合成装置。
2. The correction means includes display means for displaying the phonetic data generated by the generating means, and input means for inputting a desired correction instruction to the phonetic data displayed by the display means. The speech synthesis apparatus according to claim 1, further comprising:
【請求項3】 前記生成手段は、音声合成を行う文の表
音データをポーズ句単位で生成することを特徴とする請
求項1に記載の音声合成装置。
3. The voice synthesizing apparatus according to claim 1, wherein the generating unit generates phonetic data of a sentence for which voice synthesis is performed in units of pause phrases.
【請求項4】 前記修正手段で修正される表音データ
は、少なくとも各ポーズ句について当該ポーズ句のポー
ズ長、発声スピード、ピッチ、音量、アクセント型の夫
々を決定する情報を含むことを特徴とする請求項3に記
載の音声合成装置。
4. The phonetic data modified by the modifying means includes at least information for determining a pause length, a vocalization speed, a pitch, a volume, and an accent type of each pause phrase. The speech synthesizer according to claim 3.
【請求項5】 前記修正手段で修正された表音データの
組を保持する保持手段を更に備え、 前記修正手段は、前記保持手段に保持された表音データ
の組を読み出して前記生成手段で生成された表音データ
を修正する手段を含むことを特徴とする請求項1に記載
の音声合成装置。
5. The storage device further comprises holding means for holding a set of phonetic sound data corrected by the correcting means, wherein the correcting means reads the set of phonetic data held by the holding means and causes the generating means to read the set. The speech synthesizer according to claim 1, further comprising means for correcting the generated phonetic data.
【請求項6】 前記保持手段は、表音データの組を固有
のラベルを付与した状態で保持し、 前記修正手段は、ラベルを指定することで前記保持手段
に保持された表音データの組を獲得し、獲得された表音
データの組によって前記生成手段で生成された表音デー
タを修正する手段を含むことを特徴とする請求項5に記
載の音声合成装置。
6. The holding means holds a set of phonetic data with a unique label attached, and the correcting means sets the phonetic data set held by the holding means by designating a label. 6. The speech synthesis apparatus according to claim 5, further comprising means for correcting the phonetic sound data generated by the generating means according to a set of the acquired phonetic sound data.
【請求項7】 入力された文に基づいて音声合成を行う
音声合成装置の制御方法であって、 音声合成を行う文に対して音声言語処理を行って音声合
成のための表音データを生成する生成工程と、 前記生成工程で生成された表音データに所望の修正を行
う修正工程と、 前記修正工程で修正された表音データに基づいて合成音
声のパラメータを生成する生成工程とを備えることを特
徴とする制御方法。
7. A method of controlling a speech synthesizer for synthesizing a voice based on an inputted sentence, wherein speech linguistic processing is performed on a sentence to be speech-synthesized to generate phonetic data for speech synthesis. A generating step for performing a desired correction on the phonetic sound data generated in the generating step, and a generating step for generating a parameter of the synthetic voice based on the phonetic sound data corrected in the correcting step. A control method characterized by the above.
【請求項8】 前記修正工程は、前記生成工程で生成さ
れた表音データを表示する表示工程と、該表示工程で表
示された表音データに対して所望の修正の指示を入力す
る入力工程とを含むことを特徴とする請求項7に記載の
制御方法。
8. The correction step includes a display step of displaying the phonetic sound data generated in the generating step, and an input step of inputting a desired correction instruction to the phonetic sound data displayed in the display step. The control method according to claim 7, further comprising:
【請求項9】 前記生成工程は、音声合成を行う文の表
音データをポーズ句単位で生成することを特徴とする請
求項7に記載の制御方法。
9. The control method according to claim 7, wherein the generating step generates phonetic data of a sentence for which voice synthesis is performed in units of pause phrases.
【請求項10】 前記修正工程で修正される表音データ
は、各ポーズ句について少なくとも当該ポーズ句のポー
ズ長、発声スピード、ピッチ、音量、アクセント型の夫
々を決定する情報を含むことを特徴とする請求項9に記
載の制御方法。
10. The phonetic data modified in the modifying step includes, for each pose phrase, at least information for determining the pose length, vocal speed, pitch, volume, and accent type of the pose phrase. The control method according to claim 9.
【請求項11】 前記修正工程で修正された表音データ
の組を保持する保持工程を更に備え、 前記修正工程は、前記保持工程に保持された表音データ
の組を読み出して前記生成工程で生成された表音データ
を修正する工程を含むことを特徴とする請求項7に記載
の制御方法。
11. A holding step of holding a set of phonetic sound data corrected in the correcting step, wherein the correcting step reads out the set of phonetic data held in the holding step to generate in the generating step. The control method according to claim 7, further comprising a step of correcting the generated phonetic data.
【請求項12】 前記保持工程は、表音データの組を固
有のラベルを付与した状態で保持し、 前記修正工程は、ラベルを指定することで前記保持工程
に保持された表音データの組を獲得し、獲得された表音
データの組によって前記生成工程で生成された表音デー
タを修正する工程を含むことを特徴とする請求項11に
記載の制御方法。
12. The holding step holds a phonetic data set with a unique label attached, and the correcting step sets a phonetic data set held in the holding process by designating a label. 12. The control method according to claim 11, further comprising the step of: acquiring the phonetic sound data and modifying the phonetic sound data generated in the generating step by the acquired phonetic sound data set.
JP7147290A 1995-06-14 1995-06-14 Voice synthesizer and its control method Withdrawn JPH096377A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7147290A JPH096377A (en) 1995-06-14 1995-06-14 Voice synthesizer and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7147290A JPH096377A (en) 1995-06-14 1995-06-14 Voice synthesizer and its control method

Publications (1)

Publication Number Publication Date
JPH096377A true JPH096377A (en) 1997-01-10

Family

ID=15426870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7147290A Withdrawn JPH096377A (en) 1995-06-14 1995-06-14 Voice synthesizer and its control method

Country Status (1)

Country Link
JP (1) JPH096377A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175082A (en) * 1997-12-10 1999-07-02 Toshiba Corp Voice interaction device and voice synthesizing method for voice interaction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175082A (en) * 1997-12-10 1999-07-02 Toshiba Corp Voice interaction device and voice synthesizing method for voice interaction

Similar Documents

Publication Publication Date Title
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
US6470316B1 (en) Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing
US7979274B2 (en) Method and system for preventing speech comprehension by interactive voice response systems
US7010489B1 (en) Method for guiding text-to-speech output timing using speech recognition markers
Sproat et al. Text‐to‐Speech Synthesis
JPH0632020B2 (en) Speech synthesis method and apparatus
JP2003271194A (en) Voice interaction device and controlling method thereof
Lobanov et al. Language-and speaker specific implementation of intonation contours in multilingual TTS synthesis
van Rijnsoever A multilingual text-to-speech system
JPH096377A (en) Voice synthesizer and its control method
Javkin et al. A multilingual text-to-speech system
JPH0580791A (en) Device and method for speech rule synthesis
JPH09160583A (en) Method and device for processing voice information
JPH07200554A (en) Sentence read-aloud device
KR20040015605A (en) Method and apparatus for synthesizing virtual song
JPH1063287A (en) Pronunciation trainer
JPH09292897A (en) Voice synthesizing device
JP3862300B2 (en) Information processing method and apparatus for use in speech synthesis
JPH04199421A (en) Document read-aloud device
JPH07140999A (en) Device and method for voice synthesis
JPH08160990A (en) Speech synthesizing device
JPH11352997A (en) Voice synthesizing device and control method thereof
JPH07134713A (en) Speech synthesizer
Morton The British Telecom Research Laboratories Text-to-Speech Synthesis System-1984-1986
JPH06138894A (en) Device and method for voice synthesis

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020903