JP3432336B2 - Speech synthesizer - Google Patents

Speech synthesizer

Info

Publication number
JP3432336B2
JP3432336B2 JP20121795A JP20121795A JP3432336B2 JP 3432336 B2 JP3432336 B2 JP 3432336B2 JP 20121795 A JP20121795 A JP 20121795A JP 20121795 A JP20121795 A JP 20121795A JP 3432336 B2 JP3432336 B2 JP 3432336B2
Authority
JP
Japan
Prior art keywords
synthesis
sentence example
sentence
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20121795A
Other languages
Japanese (ja)
Other versions
JPH0950296A (en
Inventor
博之 藤本
和也 佐古
俊孝 大和
伸之 片江
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Fujitsu Ltd
Original Assignee
Denso Ten Ltd
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Fujitsu Ltd filed Critical Denso Ten Ltd
Priority to JP20121795A priority Critical patent/JP3432336B2/en
Publication of JPH0950296A publication Critical patent/JPH0950296A/en
Application granted granted Critical
Publication of JP3432336B2 publication Critical patent/JP3432336B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はVICS(Vehicle
Information and Communication System) に使用される
音声合成装置に関し、特にテキスト合成で滑らかな音声
案内を可能にする音声合成装置に関する。
TECHNICAL FIELD The present invention relates to a VICS (Vehicle)
The present invention relates to a speech synthesizer used for Information and Communication System), and particularly to a speech synthesizer that enables smooth voice guidance in text synthesis.

【0002】[0002]

【従来の技術】図9はVICSにおいて車両に転送され
る表示用のデータを説明する図である。図9(a)に示
すように、VICSでは、現在、表示用のデータが、1
5.5文字×2行で転送されている。
2. Description of the Related Art FIG. 9 is a view for explaining display data transferred to a vehicle in VICS. As shown in FIG. 9A, in the VICS, the display data is currently 1
Transferred in 5.5 characters x 2 lines.

【0003】[0003]

【発明が解決しようとする課題】VICSでは、表示用
データに加え、音声用のデータが転送されていないの
で、図9(a)に示す表示用のデータを用いて、音声合
成しようとすると、図9(b)に示すように、「東名高
速道路西行き事故豊田→岡崎渋滞7km」のように、断
片的な単語羅列の合成となり、滑らかな音声案内ができ
ず、非常に理解しにくいとの問題がある。
In VICS, since voice data is not transferred in addition to display data, when voice synthesis is attempted using the display data shown in FIG. 9A, As shown in Fig. 9 (b), fragmentary vocabulary synthesizing is used as in "Tomei Expressway Westbound accident Toyota → Okazaki traffic jam 7km", and smooth voice guidance cannot be provided, which is very difficult to understand. I have a problem.

【0004】また、上記音声合成装置には、書かれた文
章からなる任意文を音声に変換して合成するテキスト合
成と音声波形を符号化(及び圧縮)して合成音声を得る
録音再生系合成がある。テキスト合成は、任意文を合成
できるが、処理が非常に複雑で大きなCPU(Central P
rocessing Unit) パワーが必要であるとともに、言語処
理部でのミス発生により音質面にあるとの問題がある。
Further, in the above speech synthesizing apparatus, text synthesis for converting an arbitrary sentence composed of written sentences into speech and synthesizing it, and recording / reproducing system synthesis for coding (and compressing) a speech waveform to obtain a synthesized speech. There is. In text synthesis, arbitrary sentences can be synthesized, but the processing is extremely complicated and requires a large CPU (Central P
rocessing Unit) Power is required and there is a problem in sound quality due to an error in the language processing unit.

【0005】一方、録音再生合成系合成は、音声波形デ
ータをそのままメモリ等に保持するため音質はよいが、
非常に多くのメモリを要するため合成語数が非常に制限
されるという問題がある。したがって、本発明は、上記
問題点に鑑み、理解が容易で、処理上ミスがなくかつ多
くのメモリが必要とされない音声合成装置を提供するこ
とを目的とする。
On the other hand, the sound quality of the recording / playback synthesis system synthesis is good because the voice waveform data is held as it is in the memory or the like.
There is a problem that the number of synthesized words is very limited because it requires a very large amount of memory. Therefore, in view of the above problems, it is an object of the present invention to provide a speech synthesizer that is easy to understand, has no processing error, and does not require a large amount of memory.

【0006】[0006]

【課題を解決するための手段】本発明は、前記問題点を
解決するために、次の構成を有する音声合成装置を提供
する。すなわち、センタから送出される表示情報を音声
に合成する音声合成装置において、固定部分と可変部分
で構成される複数の合成文例から前記表示情報を基に適
合する合成文例を選択し該選択された合成文例の可変部
分に前記センタから送出される表示情報をはめ込んで合
成文例を決定する合成文例決定部(12)と、固定部分
の音響パラメータと前記可変部分の音響パラメータとを
結合して最終的に合成する文の音響パラメータ列を生成
する音響パラメータ生成部(6)と、可変部分について
読みを保持し決定された合成文例に対して検索して読み
を音響パラメータ生成部(6)に与える単語辞書部
(7)と、音響パラメータ生成部(6)から出力される
音響パラメータ列と音素の音声波形データとを基に出力
文の合成音声を得る音響処理部(8)と、音素の音声波
形データを保持する音素辞書部(9)とを備える。
In order to solve the above problems, the present invention provides a speech synthesizer having the following configuration. That is, in the voice synthesizer that synthesizes the display information sent from the center into voice, the fixed part and the variable part
Applicable based on the above display information from multiple example sentences composed of
A variable part of the selected combined sentence example is selected.
The display information sent from the center.
A synthetic sentence example determination unit (12) that determines a sentence example, and an acoustic parameter generation unit (6) that combines the acoustic parameters of the fixed part and the acoustic parameters of the variable part to generate an acoustic parameter sequence of a sentence to be finally synthesized. ), And the word dictionary part (7) which holds the reading for the variable part and searches the determined synthetic sentence example for giving the reading to the acoustic parameter generating part (6) and the acoustic parameter generating part (6). An acoustic processing unit (8) that obtains a synthesized voice of an output sentence based on an acoustic parameter sequence and a phoneme voice waveform data, and a phoneme dictionary unit (9) that holds the phoneme voice waveform data.

【0007】前記合成文例決定部は、前記表示情報の種
類によって、合成文例を決定してもよい。前記合成文例
決定部は、前記表示情報のパラメータ数によって、合成
文例を決定してもよい。前記合成文例決定部は、前記表
示情報の種類及びパラメータ数によって、合成文例を決
定してもよい。
The composite sentence example determination unit may determine the composite sentence example according to the type of the display information. The composite sentence example determination unit may determine the composite sentence example based on the number of parameters of the display information. The composite sentence example determination unit may determine a composite sentence example based on the type of display information and the number of parameters.

【0008】前記合成文例決定部は、前記表示情報に含
まれる交通情報の区間情報の地名数によって、合成文例
を決定してもよい。前記合成文例決定部は、前記表示情
報に含まれる語句で話言葉として適しない語句につい
て、音声合成用に用意した語句に変換して音声合成を行
ってもよい。前記合成文例決定部は、前記表示情報に含
まれる交通情報の距離情報について、距離数に応じて合
成時の単位を変化させてもよい。
The composite sentence example determination unit may determine the composite sentence example based on the number of place names in the section information of the traffic information included in the display information. The synthesized sentence example determination unit may convert a phrase included in the display information that is not suitable as a spoken word into a phrase prepared for voice synthesis to perform voice synthesis. The composition sentence example determination unit may change the unit of composition for the distance information of the traffic information included in the display information according to the number of distances.

【0009】前記合成文例決定部は、前記表示情報に含
まれる交通情報の時間情報について、分単位の情報を時
間と分に変化させてもよい。前記合成文例決定部は、V
ICSからの道路交通情報を系統立てていくつかのパタ
ーンに分類して音声合成に用いてもよい。前記合成文例
決定部は、VICSからの道路交案内情報を系統立てて
いくつかのパターンに分類して音声合成に用いてもよ
い。
The composite sentence example determination unit may change the information on a minute-by-minute basis for the time information of the traffic information included in the display information into hours and minutes. The composite sentence example determination unit is V
The road traffic information from the ICS may be systematically classified into some patterns and used for voice synthesis. The synthetic sentence example determination unit may systematically classify the road guidance information from the VICS into several patterns and use them for voice synthesis.

【0010】前記合成文例決定部は、分類されたパター
ンのそれぞれに番号又はコードを付加して管理してもよ
い。前記合成文例決定部は、分類されたパターンのそれ
ぞれに音声合成に適する合成文例を設定してもよい。前
記合成文例決定部は、同一のパターンの前記合成文例に
複数の文例を設定してもよい。
The composite sentence example determination unit may add a number or code to each of the classified patterns for management. The synthesis sentence example determination unit may set a synthesis sentence example suitable for speech synthesis for each of the classified patterns. The composite sentence example determination unit may set a plurality of sentence examples to the composite sentence example of the same pattern.

【0011】前記合成文例決定部は、前記表示情報の可
変部分を、該可変部分を基に音声合成に適する固定部分
にはめ込む合成文例を選択する合成文章選択部と、複数
の前記固定部分の音響パラメータを格納した定型文テー
ブル部とを備える。前記定型文テーブル部は、前記合成
文例の前記固定部分に関して、予め読み、韻律情報及び
ポーズを含む音響的特徴パラメータを保持してもよい。
The synthesis sentence example determining unit selects a synthesis sentence example in which the variable portion of the display information is fitted into a fixed portion suitable for voice synthesis based on the variable portion, and a sound of the plurality of fixed portions. A fixed phrase table unit storing parameters is provided. The fixed phrase table unit may hold, in advance, acoustic characteristic parameters including prosodic information and a pause for the fixed portion of the synthetic sentence example.

【0012】前記定型部テーブル部は、前記音響的特徴
パラメータについて、前記合成文例をアナウンサに発声
させ、この発声データから抽出した自然発声音声パラメ
ータを音響パラメータとして保持してもよい。前記単語
辞書部は前記可変部分について読み及びアクセントを保
持し、可変単語に対して、検索して読みとアクセントを
音響パラメータ生成部に与えてもよい。
The fixed part table unit may cause the announcer to utter the synthetic sentence example with respect to the acoustic feature parameter, and hold the spontaneously uttered voice parameter extracted from the utterance data as an acoustic parameter. The word dictionary unit may store readings and accents for the variable portion, retrieve the variable words, and give the readings and accents to the acoustic parameter generation unit.

【0013】本発明の音声合成装置によれば、前記表示
情報の可変部分を、該可変部分を基に選択される音声合
成に適する固定部分にはめ込んで合成文例を決定し、前
記固定部分の音響パラメータと前記可変部分の音響パラ
メータとを結合して、最終的に合成する文の音響パラメ
ータ列を生成することにより、表示用の断片的な単語列
を変換して、自然な文章で音声合成を実現することが可
能になる。また、可変部分の入れ換えにより、合成文例
のバリエーションが増加する。このため、VICSの道
路情報、道路案内情報を高品質で合成するはめ込み合成
が実現できる。前記表示情報に含まれる語句で話言葉と
して適しない語句について、音声合成用に用意した語句
に変換して音声合成を行うことにより、話言葉として違
和感のない音声合成を実現することが可能になる。
According to the voice synthesizing apparatus of the present invention, the variable portion of the display information is fitted into the fixed portion suitable for voice synthesis selected based on the variable portion to determine the synthesized sentence example, and the sound of the fixed portion is determined. By combining the parameter and the acoustic parameter of the variable part to generate an acoustic parameter string of a sentence to be finally synthesized, a fragmentary word string for display is converted to synthesize a speech with a natural sentence. Can be realized. Also, by exchanging the variable part, the variation of the composite sentence example increases. Therefore, it is possible to realize the inset combining for combining the VICS road information and the road guidance information with high quality. By converting a phrase included in the display information that is not suitable as a spoken language into a phrase prepared for voice synthesis and performing voice synthesis, it is possible to realize voice synthesis without discomfort as a spoken language. .

【0014】VICSからの道路交通情報を系統立てて
いくつかのパターンに分類して音声合成に用い、道路案
内情報を系統立てていくつかのパターンに分類して音声
合成に用いることにより、パターンを限定することがで
き、合成文例数を減らし、はめ込み合成に対応できるよ
うにするとともに、メモリ容量の削減を実現できる。分
類されたパターンのそぞれに番号又はコードを付加して
管理することにより、文例管理、文例選択処理の簡素化
を実現できる。分類されたパターンのそれぞれに音声合
成に適する合成文例を設定し、同一のパターンの前記合
成文例に複数の文例を設定することにより、各情報に対
して最適な文章での音声合成を可能にする。
The road traffic information from the VICS is systematically classified into several patterns and used for speech synthesis, and the road guidance information is systematically classified into several patterns and used for speech synthesis, thereby It is possible to limit the number, and it is possible to reduce the number of synthetic sentence examples, to accommodate inset synthesis, and to reduce the memory capacity. By adding numbers or codes to the classified patterns and managing them, it is possible to realize simplification of sentence example management and sentence example selection processing. By setting a synthesized sentence example suitable for speech synthesis for each of the classified patterns and setting a plurality of sentence examples for the same sentence of the same pattern, it is possible to perform speech synthesis with an optimal sentence for each information. .

【0015】前記定型文テーブル部は、前記合成文例の
前記固定部分に関して、予め読み、韻律情報及びポーズ
を含む音響的特徴パラメータを保持し、さらに、前記音
響的特徴パラメータについて、前記合成文例をアナウン
サに発声させ、この発声データから抽出した自然発声音
声パラメータを音響パラメータとして保持することによ
り、自然で違和感のない音声合成が可能になる。
The fixed phrase table section holds acoustic characteristic parameters including pre-reading, prosodic information and poses for the fixed part of the synthetic sentence example, and further announces the synthetic sentence example for the acoustic characteristic parameters. By uttering the voices and holding the natural voiced voice parameters extracted from the voiced voice data as acoustic parameters, natural and natural voice synthesis can be performed.

【0016】前記単語辞書部は前記可変部分について読
み及びアクセントを保持し、合成する可変単語に対し
て、検索して読みとアクセントを音響パラメータ生成部
に与えることにより、さらに自然で違和感のない音声合
成が可能になる。
The word dictionary section holds readings and accents for the variable parts, retrieves the variable words to be synthesized, and gives the readings and accents to the acoustic parameter generating section, thereby providing a more natural and comfortable voice. Synthesis is possible.

【0017】[0017]

【発明の実施の形態】以下本発明の実施例について図面
を参照して説明する。図1は本発明の実施例に係る音声
合成装置であってはめ込み合成を行う場合の例を示す図
である。本図に示すように、音声合成装置は、VICS
1から送信される交通情報を受信する情報受信部2と、
交通情報を表示する表示部3と、受信した交通情報に適
した合成文例を決定する合成文例決定部12とを具備す
る。以下に合成文例決定部12について詳細に説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of a case where the voice synthesis apparatus according to the embodiment of the present invention performs inset synthesis. As shown in the figure, the voice synthesizer is a VICS.
An information receiving unit 2 for receiving traffic information transmitted from 1;
A display unit 3 for displaying traffic information and a composite sentence example determination unit 12 for determining a composite sentence example suitable for the received traffic information are provided. The composite sentence example determination unit 12 will be described in detail below.

【0018】図2は図1のVICS1のセンタから送信
される表示情報例であって(自然)渋滞に係るものの例
を示す図である。本図に示すように、15.5文字×2
行の表示用のデータにおいて、渋滞の表示情報は、路線
名情報、方向情報、区間情報、渋滞程度情報、距離情報
からなる。図3は(自然)渋滞の表示情報を入力する場
合の図1の合成文例決定部12によるはめ込み合成を説
明する図である。情報受信部2から表示情報があると、
表示情報の種類を基に、本図(a)に示すように、合成
文例決定部12は、はめ込み用の固定部分に、可変部分
の(自然)渋滞の表示情報を、本図(b)に示すよう
に、はめ込む。なお、区間情報が「岡崎」だけの場合に
は、「岡崎を先頭に」、または「岡崎付近で」のよう
に、固定部分にはめ込む。
FIG. 2 is a diagram showing an example of display information transmitted from the center of VICS 1 in FIG. 1 relating to (natural) traffic congestion. As shown in this figure, 15.5 characters x 2
In the line display data, the traffic jam display information includes route name information, direction information, section information, traffic jam level information, and distance information. FIG. 3 is a diagram for explaining inset combining by the combined sentence example determination unit 12 of FIG. 1 when inputting (natural) congestion display information. If there is display information from the information receiving unit 2,
Based on the type of display information, as shown in this figure (a), the composite sentence example determination unit 12 displays the display information of the (natural) traffic jam of the variable part in the fixed part for inset in this figure (b). Inset as shown. If the section information is only "Okazaki", it is fitted into a fixed part such as "Okazaki at the beginning" or "near Okazaki".

【0019】図4は図2の表示情報例のパラメータ数を
説明する図である。本図に示すように、表示情報例のパ
ラメータ数は、路線名、区間、方向、渋滞程度、距離の
5つである。合成文例決定部12は、表示情報例のパラ
メータ数5を基に、この表示情報例を(自然)渋滞の表
示情報と判断して、正しい文例を選択するようにしても
よい。
FIG. 4 is a diagram for explaining the number of parameters of the display information example of FIG. As shown in the figure, the number of parameters of the display information example is five, that is, a route name, a section, a direction, a degree of traffic jam, and a distance. Based on the parameter number 5 of the display information example, the composite sentence example determination unit 12 may determine that the display information example is (natural) traffic congestion display information and select the correct sentence example.

【0020】図5は図1のVICS1から送信される表
示情報例であって事故渋滞に係るものの例を示す図であ
る。本図に示すように、事故渋滞の表示情報は、路線名
情報、方向情報、事象情報、区間情報、渋滞程度情報、
距離情報からなる。図6は事故渋滞の表示情報を入力す
る場合の図1の合成文例決定部12によるはめ込み合成
を説明する図である。情報受信部2から表示情報がある
と、表示情報の種類を基に、本図(a)に示すように、
合成文例決定部12は、はめ込み用の固定部分に、可変
部分の自然渋滞の表示情報を、本図(b)に示すよう
に、はめ込む。
FIG. 5 is a diagram showing an example of display information transmitted from the VICS 1 shown in FIG. 1 and related to accident traffic congestion. As shown in this figure, the display information of accident traffic congestion includes route name information, direction information, event information, section information, traffic congestion degree information,
It consists of distance information. FIG. 6 is a diagram for explaining inset combining by the combined sentence example determination unit 12 in FIG. 1 when inputting display information of accident traffic jam. When there is display information from the information receiving unit 2, as shown in FIG.
The composite sentence example determining unit 12 fits the display information of the natural congestion in the variable portion into the fixed portion for fitting as shown in FIG.

【0021】図7は図5の表示情報例のパラメータ数を
説明する図である。本図に示すように、表示情報例のパ
ラメータ数は、路線名、区間、方向、事象、渋滞程度、
距離の5つである。合成文例決定部12は、表示情報例
のパラメータ数6を基に、この表示情報例を事故渋滞の
表示情報と判断して、文例テーブルの中から正しい文例
を選択するようにしてもよい。
FIG. 7 is a diagram for explaining the number of parameters in the display information example of FIG. As shown in this figure, the number of parameters in the display information example is the route name, section, direction, event, congestion degree,
There are five distances. The composite sentence example determination unit 12 may determine that this display information example is the display information of the accident congestion based on the parameter number 6 of the display information example and select the correct sentence example from the sentence example table.

【0022】このようにして、表示用の断片的な単語列
を変換して、自然な文章で音声合成することが可能にな
る。なお、表示情報例の種類及びパラメータ数の双方を
基に合成例を決定してもよい。類似する表示情報例を識
別容易にするためである。以上の説明では、VICS1
から送信される表示情報に一例について説明したが、実
際に多くの情報が送信されてくる。合成文例決定部12
は、合成文例数を減らしてはめ込み合成ができるように
するためVICS1からの道路交通情報を系統立てて、
以下のように、いくつかのパターンに分類する。
In this way, it becomes possible to convert a fragmentary word string for display and synthesize speech with a natural sentence. Note that the synthesis example may be determined based on both the type of display information example and the number of parameters. This is to facilitate identification of similar display information examples. In the above description, VICS1
Although an example has been described as the display information transmitted from, a lot of information is actually transmitted. Composite sentence example determination unit 12
Systematizes the road traffic information from VICS1 in order to reduce the number of composite sentence examples and enable embedded composition.
It is classified into several patterns as follows.

【0023】[0023]

【表1】 [Table 1]

【0024】[0024]

【表2】 [Table 2]

【0025】[0025]

【表3】 [Table 3]

【0026】さらに、VICS1からの道路案内情報を
系統立てていくつかのパターンに、以下のように、分類
してもよい。
Further, the road guidance information from the VICS 1 may be systematically classified into several patterns as follows.

【0027】[0027]

【表4】 [Table 4]

【0028】このように、パターンを限定することによ
り、合成文例数を減らし、はめ込み合成に対応できるよ
うにするとともにメモリ容量の削減を実現できる。以上
のように分類したパターンをそれぞれ番号A1 〜A50、
B1〜B27、その他のコードで管理してもよい。この
ようにして、文例管理、文例選択処理の簡素化を実現で
きる。
As described above, by limiting the pattern, it is possible to reduce the number of composite sentence examples, to accommodate inset composition, and to reduce the memory capacity. The patterns classified as above are numbered A1 to A50,
You may manage by B1-B27 and other codes. In this manner, sentence example management and sentence example selection processing can be simplified.

【0029】合成文例決定部12は、以上のように分類
された各パターン毎にそれぞれ音声合成用の文例を、以
下のように、設定する。
The synthesis sentence example determination unit 12 sets a sentence example for speech synthesis for each of the patterns classified as described above, as follows.

【0030】[0030]

【表5】 [Table 5]

【0031】[0031]

【表6】 [Table 6]

【0032】[0032]

【表7】 [Table 7]

【0033】次に、表5において、同一の情報に対し
て、文例A1と文例A5又はA2、A3、A6、A7の
ように複数の文例パターンを設定してもよい。実際に使
用する時は、これらの文例のうち最も気に入ったものを
ユーザに選択させるためである。このようにして、各情
報に対して最適な文章での音声合成を可能にする。
Next, in Table 5, a plurality of sentence example patterns may be set for the same information, such as sentence example A1 and sentence example A5 or A2, A3, A6, A7. In actual use, this is to let the user select the most favorite of these sentence examples. In this way, it is possible to synthesize a speech with an optimum sentence for each information.

【0034】ここで、合成文例決定部12は合成文章選
択部4と定型部テーブル部5とで構成され、合成文章選
択部4は、表5〜7の編みかけ部分から可変部分の表示
情報の種類、パラメータ数を判断し、定型部テーブル部
5は、表5〜7の編みかけ部分を除いた固定部分のはめ
込み部分を格納し、合成文章選択部4は、定型部テーブ
ル部5から最適な文例を選択してこれに表示情報をはめ
込む。
Here, the composite sentence example determining unit 12 is composed of the composite sentence selecting unit 4 and the fixed form table unit 5, and the composite sentence selecting unit 4 displays the display information of the knitted portion to the variable portion in Tables 5 to 7. The type and the number of parameters are determined, the fixed part table part 5 stores the inset part of the fixed part excluding the knitted parts of Tables 5 to 7, and the synthetic text selection part 4 selects the optimum part from the fixed part table part 5. Select an example sentence and insert the display information into it.

【0035】なお、定型文テーブル部5は、上記固定の
はめ込み部分に関して、予め読み、韻律情報(アクセン
ト・イントネーション)およびポーズ長等を付与する為
の音響的特徴パラメータをメモリ等に保持する。すなわ
ち、上記固定部分に関し、自然性の高い音声合成を行う
ために、文例の読みと音響的特徴パラメータを予め保持
するようにしてもよい。この音響的特徴パラメータは、
後述する音響処理過程において合成時にイントネーショ
ン・アクセント等を与えるための情報で、例えばポーズ
位置、呼気段落やアクセント句等の切り目等である。上
記固定部分の音響パラメータについて、上記分類された
各パラメータ毎にそれぞれ音声合成用として設定された
文例、同一パターンに対して設定された複数の文例を、
例えばアナウンサ等に発声してもらい、この発声データ
から抽出した自然発声音声パラメータを音響パラメータ
として保持してもよい。
The fixed phrase table section 5 holds acoustic characteristic parameters for reading the fixed inset portion in advance and giving prosody information (accent / intonation), pause length and the like in a memory or the like. That is, with respect to the fixed portion, the reading of the sentence example and the acoustic characteristic parameter may be held in advance in order to perform highly natural speech synthesis. This acoustic feature parameter is
Information for giving intonation, accent, etc. at the time of synthesis in a sound processing process described later, such as a pause position, a cut of a breath paragraph, an accent phrase, etc. Regarding the acoustic parameter of the fixed part, a sentence example set for speech synthesis for each of the classified parameters, a plurality of sentence examples set for the same pattern,
For example, an announcer or the like may be uttered and the spontaneously uttered voice parameter extracted from the utterance data may be held as an acoustic parameter.

【0036】このようにして、自然で違和感のない音声
合成が可能となる。次に、合成文例決定部12では、表
示情報の中に話言葉として適しない語句に関しては用意
した語句に変換して、以下のように、合成する。図8は
表示情報の一部を変換する音声合成例を説明する図であ
る。本図(a)は表示情報を示し、本図(b)は音声合
成情報を示す。本図に示すように、方向情報の表示につ
いては、音声合成の場合には、「両方向」についての
み、良く使用されている『上下線』に変更してもよい。
具体的には、下表のように、変更する。
In this way, natural and natural voice synthesis can be achieved. Next, the composite sentence example determining unit 12 converts words that are not suitable as spoken words in the display information into prepared words and combines them as follows. FIG. 8 is a diagram illustrating an example of voice synthesis in which a part of display information is converted. This figure (a) shows the display information and this figure (b) shows the speech synthesis information. As shown in the figure, in the case of voice synthesis, the display of the directional information may be changed to the “upper and lower lines” which is often used only for “both directions”.
Specifically, change as shown in the table below.

【0037】[0037]

【表8】 [Table 8]

【0038】渋滞距離の情報表示については、下表のよ
うに、音声合成の場合には距離数に応じて単位を変更す
る。小数点の数値は、音声では聴きにくいからである。
Regarding the information display of the congestion distance, the unit is changed according to the number of distances in the case of voice synthesis, as shown in the table below. This is because the decimal value is difficult to hear with voice.

【0039】[0039]

【表9】 [Table 9]

【0040】簡易旅行時間について、下表のように、音
声合成の場合には変更する。分単位だけでは、音声で聴
きにくいからである。例として、×××分の表示を○○
時間△△分のように音声合成する。
The simple travel time is changed in the case of voice synthesis as shown in the table below. This is because it is difficult to hear the voice only by the minute unit. For example, XX
Voice synthesis is performed as in time ΔΔ minutes.

【0041】[0041]

【表10】 [Table 10]

【0042】さらに、VICS1からの渋滞時、事故時
情報は整理して表示されるが、音声合成も、下表のよう
に、整理して行う。
Further, information on traffic accidents and accidents from the VICS 1 is organized and displayed, and voice synthesis is also organized as shown in the table below.

【0043】[0043]

【表11】 [Table 11]

【0044】[0044]

【表12】 [Table 12]

【0045】このようにして、話言葉として違和感のな
い音声合成を実現できる。図1に戻り、合成文例決定部
12の後段には、合成文章選択部4から出力される固定
部分(文全体)の音響パラメータと後述の単語辞書から
得られる可変単語の音響パラメータを結合して、最終的
に合成する文の音響パラメータ列を生成する音響パラメ
ータ生成部6と、固定部分と可変部分に分けられた文例
のうち可変部分については読みを保持し、入力テキスト
・データに対して、検索して読みを音響パラメータ生成
部6に与える単語辞書部7とが設けられる。単語辞書部
7は、前記可変部分について、読み及びアクセント(ア
クセントパターンやアクセント核の指定等)を保持し入
力テキスト・データに対して検索して音響パラメータ生
成部6に与えるようにしてもよい。
In this way, it is possible to realize speech synthesis without any discomfort as a spoken word. Returning to FIG. 1, in the subsequent stage of the synthetic sentence example determining unit 12, the acoustic parameters of the fixed part (entire sentence) output from the synthetic sentence selecting unit 4 and the acoustic parameters of the variable words obtained from the word dictionary described later are combined. , The acoustic parameter generation unit 6 that finally generates an acoustic parameter sequence of a sentence to be synthesized, and holds the reading for the variable portion of the sentence example divided into the fixed portion and the variable portion, and for the input text data, A word dictionary unit 7 for searching and giving a reading to the acoustic parameter generating unit 6 is provided. The word dictionary unit 7 may retain readings and accents (designation of accent patterns and accent kernels, etc.) with respect to the variable portion, retrieve the input text data, and give it to the acoustic parameter generation unit 6.

【0046】このようにして、可変部分の入れ換えによ
り、合成文のバリエーションが増加する。さらに、音声
合成装置には、音響パラメータ生成部6から出力される
音響パラメータ列と音素の音声波形データとを基に出力
文の合成音声を得る音響処理部8と、前記音素の音声波
形データを保持する音素辞書部9と、音響処理部8に接
続されるアンプ10と、これに接続されるスピーカ11
とが設けられる。
In this way, by exchanging the variable part, the variation of the composite sentence increases. Further, the speech synthesizer includes an acoustic processing unit 8 that obtains a synthetic speech of an output sentence based on the acoustic parameter string output from the acoustic parameter generation unit 6 and the phoneme speech waveform data, and the phoneme speech waveform data. The phoneme dictionary unit 9 held, the amplifier 10 connected to the sound processing unit 8, and the speaker 11 connected thereto.
And are provided.

【0047】このようにして、VICS1の道路交通情
報、道路案内情報を高品質で合成するはめ込み合成が実
現できる。
In this way, the inset synthesis for synthesizing the road traffic information and the road guidance information of VICS1 with high quality can be realized.

【0048】[0048]

【発明の効果】以上説明したように本発明によれば、表
示情報の可変部分を、可変部分を基に音声合成に適する
固定部分にはめ込んで合成文例を決定し、固定部分の音
響パラメータと可変部分の音響パラメータとを結合し
て、最終的に合成する文の音響パラメータ列を生成する
ので、表示用の断片的な単語列を変換して、自然な文章
で音声合成を実現することが可能になる。また、可変部
分の入れ換えにより、合成文例のバリエーションが増加
する。このため、VICSの道路情報、道路案内情報を
高品質で合成するはめ込み合成が実現できる。表示情報
に含まれる語句で話言葉として適しない語句について、
音声合成用に用意した語句に変換して音声合成を行うの
で、話言葉として違和感のない音声合成を実現すること
が可能になる。VICSからの道路交通情報を系統立て
ていくつかのパターンに分類して音声合成に用い、道路
案内情報を系統立てていくつかのパターンに分類して音
声合成に用いるので、パターンを限定することができ、
合成文例数を減らし、はめ込み合成に対応できるように
するとともに、メモリ容量の削減を実現できる。分類さ
れたパターンのそれぞれに番号又はコードを付加して管
理するので、文例管理、文例選択処理の簡素化を実現で
きる。分類されたパターンのそれぞれに音声合成に適す
る合成文例を設定し、同一のパターンの合成文例に複数
の文例を設定するので、各情報に対して最適な文章での
音声合成を可能にする。定型部テーブル部は、合成文例
の固定部分に関して、予め読み、韻律情報及びポーズを
含む音響的特徴パラメータを保持し、さらに、音響的特
徴パラメータについて、合成文例をアナウンサに発声さ
せ、この発声データから抽出した自然発声音声パラメー
タを音響パラメータとして保持するので、自然で違和感
のない音声合成が可能になる。単語辞書部は可変部分に
ついて読み及びアクセントを保持し、決定された合成文
例に対して、検索して読みとアクセントを音響パラメー
タ生成部に与えるので、さらに自然で違和感のない音声
合成が可能になる。
As described above, according to the present invention, the variable portion of the display information is fitted to the fixed portion suitable for speech synthesis based on the variable portion to determine the synthesized sentence example, and the acoustic parameter and the variable of the fixed portion are changed. Since the acoustic parameter string of the sentence to be finally synthesized is generated by combining with the acoustic parameter of the part, it is possible to convert a fragmentary word string for display and realize speech synthesis with a natural sentence. become. Also, by exchanging the variable part, the variation of the composite sentence example increases. Therefore, it is possible to realize the inset combining for combining the VICS road information and the road guidance information with high quality. Regarding words and phrases included in the display information that are not suitable as spoken words,
Since the speech synthesis is performed by converting the words and phrases prepared for speech synthesis, it is possible to realize speech synthesis without discomfort as a spoken word. Since the road traffic information from the VICS is systematically classified into several patterns and used for voice synthesis, and the road guidance information is systematically classified into several patterns and used for voice synthesis, the patterns can be limited. You can
It is possible to reduce the number of combined sentence examples, to accommodate embedded composition, and to reduce the memory capacity. Since a number or code is added to each of the classified patterns for management, simplification of sentence example management and sentence example selection processing can be realized. Since a synthesized sentence example suitable for voice synthesis is set for each of the classified patterns and a plurality of sentence examples are set for the synthesized sentence example of the same pattern, it is possible to perform voice synthesis with an optimal sentence for each information. The fixed part table part holds acoustic characteristic parameters including pre-reading, prosody information and poses for a fixed part of the synthetic sentence example, and further causes the announcer to utter the synthetic sentence example for the acoustic characteristic parameter. Since the extracted spontaneously uttered voice parameters are held as acoustic parameters, natural and natural voice synthesis can be performed. The word dictionary unit holds readings and accents for variable parts, searches the determined synthesized sentence examples, and gives the readings and accents to the acoustic parameter generation unit, which enables more natural and comfortable speech synthesis. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係る音声合成装置であっては
め込み合成を行うものの例を示す図である。
FIG. 1 is a diagram showing an example of a voice synthesizing apparatus according to an embodiment of the present invention, which performs inset synthesis.

【図2】図1のVICS1から送信される表示情報例で
あって自然渋滞に係るものの例を示す図である。
FIG. 2 is a diagram showing an example of display information transmitted from VICS 1 of FIG. 1 relating to natural congestion.

【図3】自然渋滞の表示情報を入力する場合の図1の合
成文例決定部12によるはめ込み合成を説明する図であ
る。
FIG. 3 is a diagram illustrating inset combining by the combined sentence example determination unit 12 in FIG. 1 when inputting display information of natural traffic.

【図4】図2の表示情報例のパラメータ数を説明する図
である。
FIG. 4 is a diagram illustrating the number of parameters of the display information example of FIG.

【図5】図1のVICS1から送信される表示情報例で
あって事故渋滞に係るものの例を示す図である。
5 is a diagram showing an example of display information transmitted from the VICS 1 of FIG. 1, which is related to an accident traffic jam.

【図6】図1のVICS1から送信される表示情報例で
あって事故渋滞に係るものの例を示す図である。
6 is a diagram showing an example of display information transmitted from the VICS 1 of FIG. 1, which is related to an accident traffic jam.

【図7】図5の表示情報例のパラメータ数を説明する図
である。
7 is a diagram illustrating the number of parameters of the display information example of FIG.

【図8】表示情報の一部を変換する音声合成例を説明す
る図である。
FIG. 8 is a diagram illustrating an example of voice synthesis in which a part of display information is converted.

【図9】VICSにおいて車両に転送される表示用のデ
ータを説明する図である。
FIG. 9 is a diagram illustrating display data transferred to a vehicle in VICS.

【符号の説明】[Explanation of symbols]

1…VICS(送信側システム) 4…合成文章選択部 5…定型文テーブル部 6…音響パラメータ生成部 7…単語辞書部 8…音響処理部 9…音素辞書部 12…合成文例決定部 1 ... VICS (sender system) 4 ... Synthetic sentence selection section 5: Fixed phrase table section 6 ... Acoustic parameter generation unit 7 ... Word dictionary 8 ... Sound processing unit 9 ... Phoneme dictionary 12 ... Synthetic sentence example determination unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐古 和也 兵庫県神戸市兵庫区御所通1丁目2番28 号 富士通テン株式会社内 (72)発明者 大和 俊孝 兵庫県神戸市兵庫区御所通1丁目2番28 号 富士通テン株式会社内 (72)発明者 片江 伸之 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 木村 晋太 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 平3−213075(JP,A) 特開 平5−334292(JP,A) 特開 昭63−47798(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 13/04 ─────────────────────────────────────────────────── --- Continuation of the front page (72) Inventor Kazuya Sako 1-2-2 Gosho-dori, Hyogo-ku, Kobe-shi, Hyogo Prefecture Fujitsu Ten Limited (72) Inventor Toshitaka Yamato 1 Gosho-dori, Hyogo-ku, Kobe-shi, Hyogo No. 2-28 Fujitsu Ten Limited (72) Inventor Nobuyuki Katae 1015 Kamitadanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Incorporated (72) Shinta Kimura 1015 Kamitadanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Incorporated (56) Reference JP-A-3-213075 (JP, A) JP-A-5-334292 (JP, A) JP-A-63-47798 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 13/04

Claims (17)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 センタから送出される表示情報を音声に
合成する音声合成装置において、固定部分と可変部分で構成される複数の合成文例から、
前記表示情報を基に適合する合成文例を選択し、該選択
された合成文例の可変部分に前記センタから送出される
表示情報をはめ込んで合成文例を決定する 合成文例決定
部(12)と、 前記固定部分の音響パラメータと前記可変部分の音響パ
ラメータとを結合して、最終的に合成する文の音響パラ
メータ列を生成する音響パラメータ生成部(6)と、 前記可変部分について読みを保持し、決定された合成文
例に対して、検索して読みを音響パラメータ生成部
(6)に与える単語辞書部(7)と、 前記音響パラメータ生成部(6)から出力される音響パ
ラメータ列と音素の音声波形データとを基に出力文の合
成音声を得る音響処理部(8)と、 前記音素の音声波形データを保持する音素辞書部(9)
とを備えることを特徴とする音声合成装置。
1. A voice synthesizing apparatus for synthesizing display information sent from a center into a voice , comprising a plurality of synthetic sentence examples each including a fixed part and a variable part.
Select a suitable synthetic sentence example based on the display information, and select
Sent from the center to the variable part of the synthesized sentence example
A synthesis sentence example determination unit (12) that fits display information to determine a synthesis sentence example, and an acoustic parameter string of the sentence to be finally synthesized by combining the acoustic parameter of the fixed portion and the acoustic parameter of the variable portion. An acoustic parameter generation unit (6), a word dictionary unit (7) that retains readings for the variable portion, searches the determined synthesized sentence example, and gives the readings to the acoustic parameter generation unit (6). An acoustic processing unit (8) that obtains a synthetic speech of an output sentence based on an acoustic parameter string output from the acoustic parameter generation unit (6) and phoneme speech waveform data; and a phoneme that holds the speech waveform data of the phoneme. Dictionary section (9)
A voice synthesizer comprising:
【請求項2】 前記合成文例決定部(12)は、前記表
示情報の種類によって、合成文例を決定することを特徴
とする、請求項1に記載の音声合成装置。
2. The speech synthesis apparatus according to claim 1, wherein the synthesis sentence example determination unit (12) determines a synthesis sentence example according to the type of the display information.
【請求項3】 前記合成文例決定部(12)は、前記表
示情報のパラメータ数によって、合成文例を決定するこ
とを特徴とする、請求項1に記載の音声合成装置。
3. The speech synthesis apparatus according to claim 1, wherein the synthesis sentence example determination unit (12) determines a synthesis sentence example according to the number of parameters of the display information.
【請求項4】 前記合成文例決定部(12)は、前記表
示情報の種類及びパラメータ数によって、合成文例を決
定することを特徴とする、請求項1に記載の音声合成装
置。
4. The speech synthesis apparatus according to claim 1, wherein the synthesis sentence example determination unit (12) determines a synthesis sentence example based on the type of the display information and the number of parameters.
【請求項5】 前記合成文例決定部(12)は、前記表
示情報に含まれる交通情報の区間情報の地名数によっ
て、合成文例を決定することを特徴とする、請求項1に
記載の音声合成装置。
5. The speech synthesis according to claim 1, wherein the synthesis sentence example determination unit (12) determines the synthesis sentence example based on the number of place names of the section information of the traffic information included in the display information. apparatus.
【請求項6】 前記合成文例決定部(12)は、前記表
示情報に含まれる語句で話言葉として適しない語句につ
いて、音声合成用に用意した語句に変換して音声合成を
行うことを特徴とする、請求項1に記載の音声合成装
置。
6. The synthesis sentence example determining unit (12) converts a phrase included in the display information that is not suitable as a spoken word into a phrase prepared for voice synthesis to perform voice synthesis. The voice synthesizer according to claim 1.
【請求項7】 前記合成文例決定部(12)は、前記表
示情報に含まれる交通情報の距離情報について、距離数
に応じて合成時の単位を変化させることを特徴とする、
請求項1に記載の音声合成装置。
7. The composition sentence example determining unit (12) changes the unit at the time of composition of the distance information of the traffic information included in the display information according to the number of distances.
The speech synthesizer according to claim 1.
【請求項8】 前記合成文例決定部(12)は、前記表
示情報に含まれる交通情報の時間情報について、分単位
の情報を時間と分に変化させることを特徴とする、請求
項1に記載の音声合成装置。
8. The composite sentence example determining unit (12) according to claim 1, wherein the time information of the traffic information included in the display information is changed from minute-by-minute information to hour and minute. Speech synthesizer.
【請求項9】 前記合成文例決定部(12)は、VIC
S(1)からの道路交通情報を系統立てていくつかのパ
ターンに分類して音声合成に用いることを特徴とする、
請求項1に記載の音声合成装置。
9. The composite sentence example determining unit (12) is a VIC.
Characterized in that road traffic information from S (1) is systematically classified into several patterns and used for voice synthesis.
The speech synthesizer according to claim 1.
【請求項10】 前記合成文例決定部(12)は、VI
CS(1)からの道路交案内情報を系統立てていくつか
のパターンに分類して音声合成に用いることを特徴とす
る、請求項1に記載の音声合成装置。
10. The composite sentence example determination unit (12) is
The speech synthesizer according to claim 1, wherein the road guidance information from the CS (1) is systematically classified and used for speech synthesis.
【請求項11】 前記合成文例決定部(12)は、分類
されたパターンのそぞれに番号又はコードを付加して管
理することを特徴とする、請求項9又は10に記載の音
声合成装置。
11. The voice synthesizing apparatus according to claim 9, wherein the synthesis sentence example determining unit (12) manages each of the classified patterns by adding a number or a code. .
【請求項12】 前記合成文例決定部(12)は、分類
されたパターンのそぞれに音声合成に適する合成文例を
設定することを特徴とする、請求項9又は10に記載の
音声合成装置。
12. The voice synthesizing apparatus according to claim 9, wherein the synthesis sentence example determining unit (12) sets a synthesis sentence example suitable for voice synthesis for each of the classified patterns. .
【請求項13】 前記合成文例決定部(12)は、同一
のパターンの前記合成文例に複数の文例を設定すること
を特徴とする、請求項12に記載の音声合成装置。
13. The voice synthesizing apparatus according to claim 12, wherein the synthesis sentence example determination unit (12) sets a plurality of sentence examples in the same sentence example of the same pattern.
【請求項14】 前記合成文例決定部(12)は、 前記表示情報の可変部分を、該可変部分を基に音声合成
に適する固定部分にはめ込む合成文例を選択する合成文
章選択部(4)と、 複数の前記固定部分のはめ込み部分を格納し、これを合
成文章選択部4に、合成文例の選択可能にするために、
与える定型文テーブル部(5)とを備えることを特徴と
する、請求項1に記載の音声合成装置。
14. The synthetic sentence example determining unit (12) includes: a synthetic sentence selecting unit (4) for selecting a synthetic sentence example in which a variable portion of the display information is fitted into a fixed portion suitable for voice synthesis based on the variable portion. To store a plurality of embedded parts of the fixed parts and to allow the composite sentence selection unit 4 to select a composite sentence example,
The speech synthesis apparatus according to claim 1, further comprising: a given fixed phrase table unit (5).
【請求項15】 前記定型部テーブル部(5)は、前記
合成文例の前記固定部分に関して、予め読みと韻律情報
及びポーズを付与する為の音響的特徴パラメータを保持
することを特徴とする、請求項14に記載の音声合成装
置。
15. The fixed-form part table part (5) holds acoustic feature parameters for giving reading and prosody information and a pause in advance for the fixed part of the composite sentence example. Item 14. The speech synthesizer according to item 14.
【請求項16】 前記定型部テーブル部(5)は、前記
音響的特徴パラメータについて、前記合成文例をアナウ
ンサに発声させ、この発声データから抽出した自然発声
音声パラメータを音響パラメータとして保持することを
特徴とする、請求項15に記載の音声合成装置。
16. The fixed part table unit (5) causes an announcer to utter the synthetic sentence example for the acoustic feature parameter, and holds a spontaneously uttered voice parameter extracted from the utterance data as an acoustic parameter. The speech synthesizer according to claim 15, wherein
【請求項17】 前記単語辞書部(7)は前記可変部分
の単語について読み及びアクセントを保持し、合成する
可変単語に対して、検索して読みとアクセントを音響パ
ラメータ生成部(6)に与えることを特徴とする、請求
項1に記載の音声合成装置。
17. The word dictionary section (7) retains readings and accents of the words of the variable portion, retrieves the variable words to be synthesized, and gives the readings and accents to the acoustic parameter generating section (6). The voice synthesizing apparatus according to claim 1, wherein
JP20121795A 1995-08-07 1995-08-07 Speech synthesizer Expired - Fee Related JP3432336B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20121795A JP3432336B2 (en) 1995-08-07 1995-08-07 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20121795A JP3432336B2 (en) 1995-08-07 1995-08-07 Speech synthesizer

Publications (2)

Publication Number Publication Date
JPH0950296A JPH0950296A (en) 1997-02-18
JP3432336B2 true JP3432336B2 (en) 2003-08-04

Family

ID=16437291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20121795A Expired - Fee Related JP3432336B2 (en) 1995-08-07 1995-08-07 Speech synthesizer

Country Status (1)

Country Link
JP (1) JP3432336B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138989A (en) 1997-07-14 1999-02-12 Toshiba Corp Device and method for voice synthesis
WO2010109575A1 (en) * 2009-03-23 2010-09-30 パイオニア株式会社 Voice information outputting apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0118986Y2 (en) * 1984-10-31 1989-06-02
JPH074448Y2 (en) * 1988-07-27 1995-02-01 東芝機器株式会社 Water heater drainage system
JP2003336907A (en) * 2002-05-20 2003-11-28 Toto Ltd Instantaneous water heater
JP5614719B2 (en) * 2010-11-26 2014-10-29 Toto株式会社 Hot water storage type electric water heater

Also Published As

Publication number Publication date
JPH0950296A (en) 1997-02-18

Similar Documents

Publication Publication Date Title
US10991360B2 (en) System and method for generating customized text-to-speech voices
US7565291B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
Yi Natural-sounding speech synthesis using variable-length units
US20040093213A1 (en) Method and system for preselection of suitable units for concatenative speech
CN1675681A (en) Client-server voice customization
JP2006501509A (en) Speech synthesizer with personal adaptive speech segment
US10699695B1 (en) Text-to-speech (TTS) processing
JP4586615B2 (en) Speech synthesis apparatus, speech synthesis method, and computer program
TW200901161A (en) Speech synthesizer generating system and method
JPH1138989A (en) Device and method for voice synthesis
JPH05165486A (en) Text voice transforming device
JP3518898B2 (en) Speech synthesizer
JP3432336B2 (en) Speech synthesizer
JP3513988B2 (en) Navigation system
JP3576066B2 (en) Speech synthesis system and speech synthesis method
JPH0950286A (en) Voice synthesizer and recording medium used for it
JPH07200554A (en) Sentence read-aloud device
JP2894447B2 (en) Speech synthesizer using complex speech units
JP3192981B2 (en) Text-to-speech synthesizer
JP4056647B2 (en) Waveform connection type speech synthesis apparatus and method
JP3171775B2 (en) Speech synthesizer
Van Coile et al. Speech synthesis for the new Pan-European traffic message control system RDS-TMC
JP2006330486A (en) Speech synthesizer, navigation device with same speech synthesizer, speech synthesizing program, and information storage medium stored with same program
JP4603290B2 (en) Speech synthesis apparatus and speech synthesis program
JP2977473B2 (en) Speech synthesizer

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees