JP2001337690A - Information playback equipment, information playback method, and memory medium - Google Patents

Information playback equipment, information playback method, and memory medium

Info

Publication number
JP2001337690A
JP2001337690A JP2000158908A JP2000158908A JP2001337690A JP 2001337690 A JP2001337690 A JP 2001337690A JP 2000158908 A JP2000158908 A JP 2000158908A JP 2000158908 A JP2000158908 A JP 2000158908A JP 2001337690 A JP2001337690 A JP 2001337690A
Authority
JP
Japan
Prior art keywords
text
vehicle
information reproducing
reproducing apparatus
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000158908A
Other languages
Japanese (ja)
Other versions
JP3862478B2 (en
Inventor
Kenichiro Nakagawa
賢一郎 中川
Takashi Aso
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000158908A priority Critical patent/JP3862478B2/en
Publication of JP2001337690A publication Critical patent/JP2001337690A/en
Application granted granted Critical
Publication of JP3862478B2 publication Critical patent/JP3862478B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide information playback equipment with which listening comprehension of synthetic voice is made possible to those who are in vehicles by controlling the parameter about a synthetic voice according to the situation of vehicles or the circumstance. SOLUTION: The text data which should be uttered is first chosen and is taken in from the utterance contents storing memory 101 by the utterance contents selection part 102 (S201). Based on the taken-in text, a default rhythm parameter is created by the rhythm parameter generation part 103 (S202). The present own vehicle speed (speed per hour) S is acquired from the own vehicle speed measurement part 109 (S203). Based on the value S, the default rhythm parameter is updated (S204-S209). By sticking the phoneme data gained according to the text sentence which the utterance contents selection part 102 chooses from the phoneme piece dictionary 106 on the updated rhythm parameter, a synthetic sound is generated (S210). A synthetic sound is outputted from the voice output unit 108 (S211).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載し、テ
キストに基づいて音声合成を行う情報再生装置及び情報
再生方法並びに記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information reproducing apparatus, an information reproducing method, and a storage medium mounted on a vehicle and performing voice synthesis based on text.

【0002】[0002]

【従来の技術】従来のカーナビゲーション装置は、自車
内のディスプレイに映し出された地図上に自車位置を表
示させるものである。また、走行前、または走行中に目
的地を設定することにより、目的地までの経路を検索
し、ディスプレイ上の経路表示や音声案内により目的地
までの経路を運転手に誘導することができる。
2. Description of the Related Art A conventional car navigation system displays a position of a vehicle on a map displayed on a display in the vehicle. In addition, by setting a destination before or during traveling, a route to the destination can be searched, and a route to the destination can be guided to the driver by displaying a route on a display or voice guidance.

【0003】カーナビゲーション装置の音声案内は、実
際の人間の案内音声を収録したものを再生する方式や、
規則音声合成技術を用いたものもある。また、自車が曲
がるべき交差点に近づくにつれ、自車の速度、道路の混
雑状況を考慮し、経路案内のタイミングを変化させ、運
転手への経路誘導の確実性を向上させたものもある。
[0003] The voice guidance of the car navigation system is based on a method of reproducing an actual guidance voice of a person,
Some use rules speech synthesis technology. Further, as the vehicle approaches an intersection to be turned, the timing of route guidance is changed in consideration of the speed of the vehicle and the congestion of the road to improve the reliability of route guidance to the driver.

【0004】[0004]

【発明が解決しようとする課題】音声案内で規則音声合
成を用いている場合、音声を録音するよりも記憶領域が
少なくてすむメリットがあるが、現状では人間の肉声に
比べて聞き取りやすさが劣っており、車速が上がり、周
囲の雑音が大きくなったときには、なおさら聞き取りに
くくなる。しかし従来の合成音声生成部は、自車の周囲
状況まで考慮して合成波形を作成することはなかったた
め、周囲状況にあった合成音声を生成することができな
かった。
The use of rule-based speech synthesis for voice guidance has the advantage of requiring less storage space than recording voice, but at present it is less audible than human voice. Inferior, when the vehicle speed increases and the surrounding noise increases, it becomes even more difficult to hear. However, the conventional synthesized voice generation unit did not create a synthesized waveform in consideration of the surrounding conditions of the own vehicle, and thus could not generate a synthesized voice suitable for the surrounding conditions.

【0005】本発明は上述の問題点に対して鑑みたもの
であり、車両や周囲の状況に応じて合成音声に関するパ
ラメータを制御することで、音声合成結果を車両に乗車
している人に聞き取り可能にすることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and controls a parameter relating to a synthesized voice according to a vehicle or a surrounding situation, so that a person occupying the vehicle can hear a voice synthesis result. The purpose is to make it possible.

【0006】[0006]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の情報再生装置は以下の構成を備
える。すなわち、車両に搭載し、テキストに基づいて音
声合成を行う情報再生装置であって、当該車両の状況を
取得する取得手段と、当該テキストを発声する際に用い
る合成音声パラメータを当該車両の状況に応じて制御す
る制御手段とを備える。
In order to achieve the object of the present invention, for example, an information reproducing apparatus of the present invention has the following arrangement. That is, an information reproducing apparatus mounted on a vehicle and performing speech synthesis based on a text, comprising: an acquisition unit configured to acquire a situation of the vehicle; and a synthesized speech parameter used when uttering the text is adapted to the situation of the vehicle. And control means for performing control in accordance therewith.

【0007】[0007]

【発明の実施の形態】以下添付図面に従って、本発明を
好適な実施形態に従って詳細に説明する。なお、以下の
実施形態では情報再生装置としてカーナビゲーション装
置を用いた場合について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail according to preferred embodiments with reference to the accompanying drawings. In the following embodiment, a case where a car navigation device is used as an information reproducing device will be described.

【0008】[第1の実施形態]図1に本実施形態にお
けるカーナビゲーション装置の概略構成を示す。
[First Embodiment] FIG. 1 shows a schematic configuration of a car navigation device according to the present embodiment.

【0009】101はカーナビゲーション装置が発声す
る内容のテキスト文である発声内容テキストを格納して
いる発声内容格納メモリである。カーナビゲーション装
置がアナウンスをする場合は、発声内容選択部102が
この発声内容格納メモリ101を参照し、発声すべき内
容に該当する発声内容テキストを選択する。場合によ
り、この発声内容は、カーナビゲーション装置が無線や
携帯電話を通して接続された情報発信サーバからダウン
ロードした運転手へのメールや、ニュースなどでもよ
い。
Reference numeral 101 denotes an utterance content storage memory for storing utterance content texts, which are text sentences of contents uttered by the car navigation device. When the car navigation device makes an announcement, the utterance content selection unit 102 refers to the utterance content storage memory 101 and selects an utterance content text corresponding to the content to be uttered. In some cases, the content of the utterance may be an e-mail to the driver downloaded from an information transmission server connected to the car navigation device via a wireless or mobile phone, news, or the like.

【0010】発声内容選択部102で選択された発声内
容テキストは、カーナビゲーション装置内の韻律パラメ
ータ生成部103に送られる。
The utterance content text selected by the utterance content selection unit 102 is sent to a prosody parameter generation unit 103 in the car navigation device.

【0011】韻律パラメータ生成部103では発声内容
が書かれたテキストから、音パワー(声の大きさ)、ピ
ッチ周波数(声の高さ)、音韻時間長(声の速度)とい
った韻律パラメータ(合成音声パラメータ)を生成す
る。本来、これらのパラメータはアクセントの位置や強
さが付加された発声内容テキストから生成することが可
能であるが、本実施形態では、走行状態情報取得部10
5を介して得られた後述の情報も反映する。走行状態情
報取得部105は、音声合成装置107外の自車速度測
定部109、自車位置測定部110、混雑状況取得部1
11と接続している。
A prosody parameter generation unit 103 converts prosody parameters (synthetic speech) such as sound power (loudness of voice), pitch frequency (voice pitch), and phoneme duration (voice speed) from the text in which the utterance content is written. Parameter). Originally, these parameters can be generated from the utterance content text to which the position and strength of the accent are added, but in the present embodiment, the running state information acquisition unit 10
5 also reflects the below-mentioned information obtained through. The traveling state information acquisition unit 105 includes a vehicle speed measurement unit 109, a vehicle position measurement unit 110, and a congestion state acquisition unit 1 outside the voice synthesizer 107.
11 is connected.

【0012】韻律パラメータ生成部103において作成
された韻律パラメータは音素片接続部104に送られ、
音素片接続部104はその韻律パラメータ通りに規則合
成音の元となる音素データを、この音素データを格納し
ている音素片辞書106から獲得し、獲得した音素デー
タを接続していくことで、合成音声を生成する。
The prosody parameters created by the prosody parameter generation unit 103 are sent to the phoneme segment connection unit 104,
The phoneme unit connection unit 104 obtains phoneme data as a source of the ruled synthesized sound from the phoneme unit dictionary 106 storing the phoneme data according to the prosodic parameters, and connects the obtained phoneme data. Generate synthesized speech.

【0013】また、走行状態情報取得部105は音素片
接続部104も制御しており、用いる音素データなどを
変更する場合もある。音素データが変わることで、合成
音の話者が変わったようになる。
The running state information acquisition unit 105 also controls the phoneme segment connection unit 104, and may change phoneme data to be used. When the phoneme data changes, the speaker of the synthesized sound changes.

【0014】音声合成装置107で合成音声が作成され
ると、そのデータはスピーカなどの音声出力装置108
に送られて、音声出力される。
When the synthesized speech is generated by the speech synthesis device 107, the data is transmitted to a speech output device 108 such as a speaker.
To be output as voice.

【0015】図2は、本実施形態におけるカーナビゲー
ション装置が上述の処理を行う際のフローチャートであ
る。なお、同図に示したフローチャートに従ったプログ
ラムコードは、本実施形態におけるカーナビゲーション
装置内の不図示のROMやRAMなどのメモリ内に格納
され、CPUにより読み出され、実行される。その結
果、本実施形態のカーナビゲーション装置は後述する各
処理を行うことができる。
FIG. 2 is a flowchart when the above-described processing is performed by the car navigation device in the present embodiment. Note that the program code according to the flowchart shown in the figure is stored in a memory such as a ROM or a RAM (not shown) in the car navigation device in the present embodiment, and is read and executed by the CPU. As a result, the car navigation device according to the present embodiment can perform each process described below.

【0016】なお、ここでは例として、自車速度により
韻律パラメータを変え、自車速度が早くなるに従って、
大きく、はっきり、ゆっくりと発声する合成音を作成す
る処理について説明する。又、本フローチャートに従っ
た処理が実行される前に、カーナビゲーション装置が発
声すべき内容は決定しているものとする。
Here, as an example, the prosody parameter is changed according to the own vehicle speed, and as the own vehicle speed increases,
The process of creating a loud, clear, and slowly uttered synthesized sound will be described. Further, it is assumed that the content to be uttered by the car navigation device has been determined before the processing according to this flowchart is executed.

【0017】まず発声内容格納メモリ101から、発声
内容選択部102により発声すべき内容に該当するテキ
ストデータを選択、取り込む(ステップS201)。取
り込んだテキストに基づいて韻律パラメータ生成部10
3によりデフォルトの韻律パラメータを作成する(ステ
ップS202)。ここでの処理は一般の規則音声合成処
理と同様である。
First, text data corresponding to the content to be uttered is selected and taken in from the utterance content storage memory 101 by the utterance content selection unit 102 (step S201). Prosody parameter generation unit 10 based on the fetched text
3, a default prosody parameter is created (step S202). The processing here is the same as the general rule speech synthesis processing.

【0018】次に、自車速度測定部109から現在の自
車速度(時速)Sを取得する(ステップS203)。こ
のSの値をもとに、先ほど決定したデフォルトの韻律パ
ラメータを更新する(ステップS204〜ステップS2
09)。同図の例では、自車速度Sが上がるに連れて、
大きく、ゆっくりとした合成音を出力する処理になって
いる。また、この例では、自車速度Sが80Km、50
km、20kmで階段状の制御を行っているが、 韻律パラメータ=α×S+β (α,βは定数) のように自車速度Sを変数とする関数で算出してもよ
い。
Next, the current vehicle speed (speed) S is obtained from the vehicle speed measurement unit 109 (step S203). Based on the value of S, the default prosody parameter determined earlier is updated (steps S204 to S2).
09). In the example shown in the drawing, as the vehicle speed S increases,
The process is to output a large, slow synthesized sound. In this example, the own vehicle speed S is 80 km, 50 km.
Although stepwise control is performed at km and 20 km, the control may be performed using a function using the own vehicle speed S as a variable, such as prosody parameter = α × S + β (α and β are constants).

【0019】次に、音素片接続部104は発声内容選択
部102が選択したテキスト文に従って音素片辞書10
6から必要な音素データを獲得し、自車速度Sに基づい
て更新された上述の韻律パラメータ上に獲得した音素デ
ータを貼り付け、合成音声を生成する(ステップS21
0)。そして生成された合成音声は音声出力装置108
に出力され、音声出力装置108から合成音声を出力す
る(ステップS211)。
Next, the phoneme unit connection unit 104 operates in accordance with the text sentence selected by the utterance content selection unit 102.
6 is obtained, and the obtained phoneme data is pasted on the above-described prosody parameter updated based on the own vehicle speed S to generate a synthesized voice (step S21).
0). The generated synthesized voice is output to the voice output device 108.
Is output from the audio output device 108 (step S211).

【0020】以上の説明により、本実施形態におけるカ
ーナビゲーション装置は、自車速度に基づいて合成音声
パラメータとしての韻律パラメータを制御することが可
能である。その結果、自車速度の増加に起因する例えば
エンジン音の音量の増加により、アナウンスが聞こえに
くい場合にでも、例えば合成音声の音量を増加させるこ
とで、よりアナウンスの内容が聞き取りやすくなる。
As described above, the car navigation device according to the present embodiment can control the prosody parameter as the synthesized speech parameter based on the own vehicle speed. As a result, even if the announcement is hard to hear due to an increase in the volume of the engine sound due to an increase in the vehicle speed, the content of the announcement can be more easily heard by increasing the volume of the synthesized voice, for example.

【0021】[第2の実施形態]第1の実施形態では自
車速度を、合成音声パラメータを制御するパラメータと
して用いたが、本実施形態では、自車の周囲の状況(道
路の混雑状況)を韻律パラメータを制御するパラメータ
として用いる場合を説明する。なお本実施形態で用いる
カーナビゲーション装置の構成は第1の実施形態で用い
たものと同じものとする。
[Second Embodiment] In the first embodiment, the own vehicle speed is used as a parameter for controlling the synthesized voice parameter. In the present embodiment, the situation around the own vehicle (road congestion situation). Is used as a parameter for controlling the prosodic parameter. Note that the configuration of the car navigation device used in the present embodiment is the same as that used in the first embodiment.

【0022】図3は、本実施形態におけるカーナビゲー
ション装置が行う処理のフローチャートである。なお、
同図に示したフローチャートに従ったプログラムコード
は、本実施形態におけるカーナビゲーション装置内の不
図示のROMやRAMなどのメモリ内に格納され、CP
Uにより読み出され、実行される。その結果、本実施形
態のカーナビゲーション装置は後述する各処理を行うこ
とができる。
FIG. 3 is a flowchart of a process performed by the car navigation device according to the present embodiment. In addition,
The program code according to the flowchart shown in the figure is stored in a memory such as a ROM or a RAM (not shown) in the car navigation device in the present embodiment,
U reads and executes. As a result, the car navigation device according to the present embodiment can perform each process described below.

【0023】なお、ここでは例として、デフォルトで男
性音声の合成音が、道路の混雑状況によって落ち着いた
合成音(女性音声の合成音)になる例を示す。又、第1
の実施形態と同様、本フローチャートに従った処理が実
行される前に、カーナビゲーション装置が発声すべき内
容は決定しているものとする。
Here, as an example, there is shown an example in which the synthetic voice of the male voice is a synthetic voice calm due to the traffic congestion state (the synthetic voice of the female voice) by default. Also, the first
As in the first embodiment, it is assumed that the content to be uttered by the car navigation device has been determined before the processing according to this flowchart is executed.

【0024】まず発声内容格納メモリ101から、発声
内容選択部102により発声すべき内容に該当するテキ
ストデータを選択、取り込む(ステップS301)。ま
た、デフォルトの音素片辞書を男性のものに設定し(ス
テップS302)、発声内容選択部102が取り込んだ
テキストを用いて、韻律パラメータ生成部103により
デフォルトの韻律パラメータを作成する(ステップS3
03)。
First, text data corresponding to the content to be uttered is selected from the utterance content storage memory 101 by the utterance content selection unit 102 (step S301). The default phoneme segment dictionary is set to that of a male (step S302), and the prosody parameter generation unit 103 creates default prosody parameters using the text captured by the utterance content selection unit 102 (step S3).
03).

【0025】次に、走行状態情報取得部105は、混雑
状況取得部111により測定された現在の自車がいる道
路の混雑状況を取得する(ステップS304)。ここで
道路が渋滞していると判断された場合(ステップS30
5)、運転手の気持ちを解きほぐすためにデフォルト話
者が女性の音声になるように、韻律パラメータ生成部1
03は上述のデフォルトの韻律パラメータを更新する
(ステップS307)。具体的には、ピッチ周波数をあ
げることで、より女性らしい音声にする。
Next, the traveling state information acquisition section 105 acquires the current congestion state of the road where the own vehicle is measured by the congestion state acquisition section 111 (step S304). Here, when it is determined that the road is congested (step S30)
5) Prosody parameter generation unit 1 so that the default speaker is a female voice in order to unravel the driver's feelings
03 updates the above-mentioned default prosody parameters (step S307). Specifically, by raising the pitch frequency, the voice becomes more feminine.

【0026】一般に男性の音声のピッチ周波数の帯域は
大まかには80から160Hz程度で、女性の音声のピ
ッチ周波数の帯域は大まかには120〜250Hz程度
で、平均的に見て、女性の音声のピッチ周波数は男性の
それよりも高い。よってデフォルトでは男性の話者の音
声データなので、デフォルトのピッチ周波数を例えば1
20Hzと設定すると、ステップS307で、女性の音
声にするためには、ピッチ周波数を200Hzにあげる
処理を行う。
Generally, the pitch frequency band of a male voice is approximately 80 to 160 Hz, and the pitch frequency band of a female voice is approximately 120 to 250 Hz. The pitch frequency is higher than that of men. Therefore, since the default is the voice data of a male speaker, the default pitch frequency is set to, for example, 1
When the frequency is set to 20 Hz, a process of increasing the pitch frequency to 200 Hz is performed in step S307 to make the voice of a woman.

【0027】また、道路が渋滞とまではいかなくても混
雑していると判断された場合(ステップS306)、デ
フォルトの韻律パラメータを操作し(ステップS30
8)、更新する。本フローチャートの例では、ピッチ周
波数を下げることで低い音声にし、音韻時間長を長くす
ることでゆっくりとアナウンスを行うようにし、音パワ
ーを下げることで音量を下げる。その結果、ゆったりと
落ち着いた音声に更新している。
If it is determined that the road is congested even if it is not congested (step S306), the default prosody parameters are operated (step S30).
8) Update. In the example of this flowchart, a low voice is produced by lowering the pitch frequency, a slow announcement is made by increasing the phoneme time length, and the volume is lowered by lowering the sound power. As a result, the sound is updated to a calm sound.

【0028】次に、音素片接続部104は発声内容選択
部102が選択したテキスト文に従って音素片辞書10
6から必要な音素データを獲得し、上述の通り更新され
た韻律パラメータ上に獲得した音素データを貼り付け、
合成音声を生成する(ステップS309)。そして生成
された合成音声は音声出力装置108に出力され、音声
出力装置108から合成音声を出力する(ステップS3
10)。
Next, the phoneme unit connection unit 104 operates the phoneme unit dictionary 10 according to the text sentence selected by the utterance content selection unit 102.
6, the necessary phoneme data is obtained, and the obtained phoneme data is pasted on the updated prosody parameters as described above,
A synthesized speech is generated (step S309). The generated synthesized voice is output to the voice output device 108, and the synthesized voice is output from the voice output device 108 (step S3).
10).

【0029】以上の説明により、本実施形態におけるカ
ーナビゲーション装置は、自車の周囲の状況に応じて韻
律パラメータを変更することができる。その結果、自車
が混雑した道路を運転している場合には、落ち着いた音
声を、渋滞した道路では女性の音声を聞かせることが可
能となる。
As described above, the car navigation device according to the present embodiment can change the prosody parameters according to the situation around the own vehicle. As a result, when the own vehicle is driving on a congested road, it is possible to hear a calm voice and a female voice on a congested road.

【0030】[第3の実施形態]本実施形態では、次の
経路案内をしなければならない地点への到達時間を考慮
し、その時間内にテキストの読み上げが終わるように、
韻律パラメータを更新する場合について説明する。なお
本実施形態で用いるカーナビゲーション装置は第1の実
施形態で用いたものと同じものとする。
[Third Embodiment] In the present embodiment, taking into account the arrival time at the point where the next route guidance is required, the reading of the text is completed within that time.
A case where the prosody parameter is updated will be described. Note that the car navigation device used in this embodiment is the same as that used in the first embodiment.

【0031】本実施形態のカーナビゲーション装置が動
作する状況を図5に示す。501は自車で、同図の時点
では速度vの速度で走っているものとする。502は上
述の次の経路案内をしなければならない地点で、自車5
01は地点502に着くまでに、後述するテキスト文を
読み終えなければいけない。なお同図で示した時点では
自車501の位置から地点502まではLの距離がある
ものとする。
FIG. 5 shows a situation in which the car navigation system of the present embodiment operates. Reference numeral 501 denotes the own vehicle, which is running at the speed v at the time shown in FIG. Reference numeral 502 denotes a point at which the next route guidance described above must be provided.
01 needs to finish reading a text sentence to be described later before reaching the point 502. It is assumed that there is a distance L from the position of the vehicle 501 to the point 502 at the time shown in FIG.

【0032】図4は、本実施形態におけるカーナビゲー
ション装置が行う処理のフローチャートである。なお、
同図に示したフローチャートに従ったプログラムコード
は、本実施形態におけるカーナビゲーション装置内の不
図示のROMやRAMなどのメモリ内に格納され、CP
Uにより読み出され、実行される。その結果、本実施形
態のカーナビゲーション装置は後述する各処理を行うこ
とができる。
FIG. 4 is a flowchart of a process performed by the car navigation device according to the present embodiment. In addition,
The program code according to the flowchart shown in the figure is stored in a memory such as a ROM or a RAM (not shown) in the car navigation device in the present embodiment,
U reads and executes. As a result, the car navigation device according to the present embodiment can perform each process described below.

【0033】又本フローチャートに従った処理は、ある
一つの経路案内文発声(例えば「その交差点を右に曲が
ってください」など)が終了した時点で呼び出される。
まず、自車速度測定部109,自車位置測定部110に
より夫々自車速度、自車位置が測定され、走行状態情報
取得部105によりこの自車速度、自車位置を取得する
(ステップS401)。その結果、走行状態情報取得部
105は次の経路案内を行う地点(例えば図5における
地点502)に自車が到着するまでの時間Tを推定する
(ステップS402)。時間Tは、次の式で推定可能で
ある。
The process according to this flowchart is called when a certain route guidance sentence is uttered (for example, "turn right at the intersection").
First, the own vehicle speed and the own vehicle position are measured by the own vehicle speed measuring unit 109 and the own vehicle position measuring unit 110, respectively, and the own vehicle speed and the own vehicle position are acquired by the traveling state information acquiring unit 105 (step S401). . As a result, the traveling state information acquisition unit 105 estimates the time T until the vehicle arrives at the point where the next route guidance is to be performed (for example, the point 502 in FIG. 5) (step S402). The time T can be estimated by the following equation.

【0034】 T=次の経路案内をする地点までの距離 / 自車速度 さらに現在の自車速度ではなく、現在までの数分間の自
車速度の平均値を用いることで、更に信頼度の高い時間
Tの推定値となる。
T = distance to the next route guidance point / vehicle speed Further reliability is higher by using the average value of the vehicle speed for several minutes up to the present time instead of the current vehicle speed. This is an estimated value of the time T.

【0035】ここで時間Tの値が十分に大きくなければ
(例では時間Tが10分以下であれば)、本処理を終了
する(ステップS403)。一方、時間Tの値が10分
以上であれば、発声内容選択部102は時間T以内に読
み上げ可能な未読の運転手へのメールやニュース(のテ
キスト文)を選択する(ステップS404)。つまり、
カーナビゲーション装置(の発声内容格納メモリ10
1)と無線ネットワークでつながった情報発信サーバに
格納した上述のメールやニュースのテキスト文を参照
し、選択してもよいし、既にこの情報発信サーバにアク
セスして、カーナビゲーション装置内の発声内容格納メ
モリ101にダウンロードした上述のメールやニュース
のテキスト文を参照し、選択してもよい。また、時間T
以内に読み上げ可能かどうかは、テキスト文を構成する
音節数と各音節を発声する際に要する時間とを獲得し、
そのテキスト文を読み上げる時間を(音節数×各音節を
発声する際に要する時間)と演算し、その結果が時間T
以内か否かを判定する必要がある。
Here, if the value of the time T is not sufficiently large (if the time T is 10 minutes or less in the example), the present process is terminated (step S403). On the other hand, if the value of the time T is 10 minutes or more, the utterance content selection unit 102 selects an unread driver's mail or news (a text sentence) that can be read out within the time T (step S404). That is,
Voice storage memory 10 for car navigation system
The text sentence of the above-mentioned mail or news stored in the information transmission server connected to 1) through the wireless network may be referred to and selected, or the content of the utterance in the car navigation device may be accessed by already accessing this information transmission server. The text sentence of the above-mentioned mail or news downloaded to the storage memory 101 may be referred to and selected. Also, the time T
To determine whether or not a text can be read aloud, we obtain the number of syllables that make up the text sentence and the time required to utter each syllable,
The time to read out the text sentence is calculated as (the number of syllables x the time required to produce each syllable), and the result is calculated as time T
It is necessary to determine whether it is within.

【0036】テキスト全体の音節数については、上述の
情報発信サーバ内で格納しているメールやニュースのテ
キスト文を構成している音節の数を予め測定しておき、
測定した音節数をこのテキストに添付しておいて、カー
ナビゲーション装置でこのテキストを参照もしくはダウ
ンロードする際に、この音節数を獲得する。その他に
も、発声内容選択部102において、形態素解析などを
用いてテキスト文の読み方を決定し、この読み方から音
節数を数えてもよい。又、各音節を発声する際の要する
時間は一定とする。
Regarding the number of syllables in the entire text, the number of syllables constituting the text sentence of the mail or news stored in the above-mentioned information transmission server is measured in advance,
The measured number of syllables is attached to this text, and the number of syllables is obtained when the text is referred to or downloaded by the car navigation device. Alternatively, the utterance content selection unit 102 may determine how to read a text sentence using morphological analysis or the like, and count the number of syllables from this reading. The time required to produce each syllable is constant.

【0037】図6に、発声すべき内容を発声する際に要
する時間の算出方法を示す。
FIG. 6 shows a method of calculating the time required for uttering the content to be uttered.

【0038】601は発声すべき内容で、ここでは例と
して「あかさか」という言葉を用いる。601a〜60
1dは発声すべき内容701を構成する各音節である。
各音節を発声する際に要する時間は夫々t1,t2,t
3,t4であり、夫々の時間(t1、t2、t3、t4)は、
予め測定された厳密な値であってもよいし、全て同じ平
均的な値であってもよい。そしてその結果、発声すべき
内容601を発声する際に要する(推定)時間は(t1
+t2+t3+t4)となる。
Reference numeral 601 denotes the content to be uttered, and here, for example, the word "Akasaka" is used. 601a-60
1d is each syllable constituting the content 701 to be uttered.
The time required to produce each syllable is t1, t2, t, respectively.
3, t4, and respective times (t1, t2, t3, t4) are
It may be an exact value measured in advance, or the same average value. As a result, the (estimated) time required to utter the content 601 to be uttered is (t1
+ T2 + t3 + t4).

【0039】また、上述の参照したメールやニュースが
未読か否かを判断するには、各メールやニュースに未読
フラグを添付することで判断可能である。図7にメール
を例として、各メールにこの未読フラグを添付したテー
ブルの構成を示す。701は各メールに添付された未読
フラグの項目で、この未読フラグが0のメールはすでに
読んだメールで、未読フラグが1のメールは未読である
ことを示す。702は各メールの内容が記載されている
項目である。なおこのテーブルは、上述の情報発信サー
バに格納しておき、カーナビゲーション装置が情報発信
サーバ内のメールを参照する際にはこのテーブルを参照
することになる。なお、この未読フラグはメールが情報
発信サーバに到着したときに1に設定され、メールの内
容と共にこのテーブルに付け加える。
Further, in order to determine whether or not the above-mentioned mail or news referred to is unread, it can be determined by attaching an unread flag to each mail or news. FIG. 7 shows a configuration of a table in which the unread flag is attached to each mail, using a mail as an example. Reference numeral 701 denotes an unread flag item attached to each mail, and indicates that a mail whose unread flag is 0 is a mail that has already been read, and a mail whose unread flag is 1 is unread. Reference numeral 702 denotes an item in which the contents of each mail are described. This table is stored in the above-mentioned information transmission server, and this table is referred to when the car navigation device refers to the mail in the information transmission server. The unread flag is set to 1 when the mail arrives at the information transmission server, and is added to this table together with the contents of the mail.

【0040】以上のテーブルの構成はメールを例として
説明したが、ニュースであってもそのテーブルの構成は
同じで、項目702の部分をニュースの内容が記載され
た項目とすることでニュースを例とするテーブルとする
ことができる。なお、ステップS404において、選択
した(メールの内容の、もしくはニュースの内容の)テ
キスト文に対応する未読フラグを0に設定する。
Although the above table has been described using mail as an example, the structure of the table is the same even for news, and the news is described by setting the item 702 as an item in which the content of the news is described. Can be set as a table. In step S404, the unread flag corresponding to the selected text (contents of mail or content of news) is set to 0.

【0041】次に、読み上げようとするテキスト文(文
章)がまだあるか否かを判断し(ステップS405)、
読み上げるテキスト文がもう無ければ、本フローチャー
トに従った処理を終了する。一方、読み上げるテキスト
文がまだある場合、韻律パラメータ生成部103は発声
内容選択部101が上述の通り選択したテキスト文から
1文を取り込み(ステップS406)、また再び自車速
度測定部109,自車位置測定部110より夫々自車速
度、自車位置を測定、走行状態情報取得部105で取得
し(ステップS407)、走行状態情報取得部105に
おいて次の経路案内までの時間Tを再推定する(ステッ
プS408)。ここでも自車速度のかわりに、現在まで
数分間の自車速度の平均値を用いることで、Tの精度が
向上する。また、1文を読み上げるごとにこの再推定を
繰り返すことにより、文章を読み上げ始めてから車速が
急に変化した場合にも対応が可能である。
Next, it is determined whether or not there is still a text sentence (sentence) to be read out (step S405).
If there are no more text sentences to be read, the processing according to this flowchart ends. On the other hand, when there is a text sentence to be read, the prosody parameter generation unit 103 takes in one sentence from the text sentence selected by the utterance content selection unit 101 as described above (step S406), and returns to the own vehicle speed measurement unit 109 and the own vehicle again. The own vehicle speed and the own vehicle position are measured by the position measuring unit 110, respectively, and acquired by the traveling state information acquiring unit 105 (step S407), and the traveling state information acquiring unit 105 re-estimates the time T until the next route guidance ( Step S408). Also in this case, the accuracy of T is improved by using the average value of the vehicle speed for several minutes until now instead of the vehicle speed. Further, by repeating this re-estimation every time one sentence is read out, it is possible to cope with a case where the vehicle speed suddenly changes after the start of reading out the sentence.

【0042】韻律パラメータ生成部103は取り込んだ
1文のテキストに、デフォルトの韻律パラメータを設定
し(ステップS409)、設定した韻律パラメータを、
Tの値に応じて更新する(ステップS410〜ステップ
S413)。同図の例では、音韻時間長を操作している
が、これは次の経路案内までの時間が少ないときに、な
るべく早口になることに相当する。
The prosody parameter generation unit 103 sets default prosody parameters in the fetched text of one sentence (step S 409), and
Update is performed according to the value of T (steps S410 to S413). In the example shown in the figure, the phoneme duration is manipulated, which corresponds to the quickest possible speech when the time until the next route guidance is short.

【0043】音素片接続部104では韻律パラメータ生
成部103において得られた韻律パラメータを用いて、
第1,2の実施形態と同じようにして合成音声を生成
し、この合成音声は音声出力装置108で出力される
(ステップS414)。
The phoneme segment connection unit 104 uses the prosody parameters obtained in the prosody parameter generation unit 103 to calculate
Synthesized speech is generated in the same manner as in the first and second embodiments, and this synthesized speech is output from the speech output device 108 (step S414).

【0044】以上の説明により、本実施形態におけるカ
ーナビゲーション装置は、次の経路案内をしなければな
らない地点への到達時間を考慮して、その時間内にテキ
ストを読み上げ終わるように合成音声パラメータとして
韻律パラメータを更新する。その結果、テキストを読み
上げる速度を上述の到着時間に応じて変更することがで
き、上述の到着時間内にこのテキストを読み上げること
が可能である。
As described above, the car navigation device according to the present embodiment takes into account the arrival time at the point where the next route guidance must be provided, and sets the synthesized speech parameters so that the text is read out within that time. Update prosodic parameters. As a result, the speed of reading out the text can be changed according to the above-mentioned arrival time, and the text can be read out within the above-mentioned arrival time.

【0045】[他の実施形態]なお、本発明は、複数の
機器(例えばホストコンピュータ、インタフェイス機
器、リーダ、プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機、ファクシミリ装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (one device) For example, the present invention may be applied to a copying machine, a facsimile machine, and the like.

【0046】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to provide a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or apparatus. Or a CPU or MPU) reads out and executes the program code stored in the storage medium,
Needless to say, this is achieved. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
In addition, by the computer executing the readout program code, not only the functions of the above-described embodiments are realized, but also based on the instructions of the program code,
The operating system (OS) running on the computer performs part or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.

【0047】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the program code is read based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs part or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.

【0048】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2又は3又は4に示
す)フローチャートに対応するプログラムコードが格納
されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts (shown in FIG. 2, 3 or 4).

【0049】[0049]

【発明の効果】車両や周囲の状況に応じて合成音声に関
するパラメータを制御することで、音声合成結果を車両
に乗車している人に聞き取り可能にする効果がある。
By controlling the parameters relating to the synthesized speech in accordance with the vehicle and surrounding conditions, the result of the speech synthesis can be heard by a person riding the vehicle.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態におけるカーナビゲー
ション装置の概略構成を示す図である。
FIG. 1 is a diagram illustrating a schematic configuration of a car navigation device according to a first embodiment of the present invention.

【図2】本発明の第1の実施形態におけるカーナビゲー
ション装置が行う処理のフローチャートである。
FIG. 2 is a flowchart of a process performed by the car navigation device according to the first embodiment of the present invention.

【図3】本発明の第2の実施形態におけるカーナビゲー
ション装置が行う処理のフローチャートである。
FIG. 3 is a flowchart of a process performed by a car navigation device according to a second embodiment of the present invention.

【図4】本発明の第3の実施形態におけるカーナビゲー
ション装置が行う処理のフローチャートである。
FIG. 4 is a flowchart of a process performed by a car navigation device according to a third embodiment of the present invention.

【図5】本発明の第3の実施形態におけるカーナビゲー
ション装置が動作する状況を示す図である。
FIG. 5 is a diagram illustrating a situation in which a car navigation device according to a third embodiment of the present invention operates.

【図6】発声すべき内容を発声する際に要する時間の算
出方法を示す図である。
FIG. 6 is a diagram illustrating a method of calculating a time required to utter the content to be uttered.

【図7】メールを例として、各メールに未読フラグを添
付したテーブルの構成を示す図である。
FIG. 7 is a diagram illustrating a configuration of a table in which an unread flag is attached to each mail, using a mail as an example.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G10L 3/00 H // G01C 21/00 Q ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 13/00 G10L 3 / 00H // G01C 21/00 Q

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載し、テキストに基づいて音声
合成を行う情報再生装置であって、 当該車両の状況を取得する取得手段と、 当該テキストを発声する際に用いる合成音声パラメータ
を当該車両の状況に応じて制御する制御手段とを備える
ことを特徴とする情報再生装置。
1. An information reproducing apparatus mounted on a vehicle and performing speech synthesis based on a text, comprising: an acquiring unit for acquiring a situation of the vehicle; and a synthetic speech parameter used for uttering the text. An information reproducing apparatus, comprising: a control unit that performs control according to the situation of (1).
【請求項2】 前記車両の状況には、当該車両の速度、
位置、車両の周囲の混雑状況のうち少なくとも一つを含
むことを特徴とする請求項1に記載の情報再生装置。
2. The condition of the vehicle includes a speed of the vehicle,
The information reproducing apparatus according to claim 1, wherein the information reproducing apparatus includes at least one of a position and a congestion state around the vehicle.
【請求項3】 前記制御手段は、前記合成音声パラメー
タとして韻律パラメータを制御することを特徴とする請
求項1に記載の情報再生装置。
3. The information reproducing apparatus according to claim 1, wherein the control unit controls a prosodic parameter as the synthesized speech parameter.
【請求項4】 前記韻律パラメータは音パワー、ピッチ
周波数、音韻時間長のうち少なくとも一つを含むことを
特徴とする請求項3に記載の情報再生装置。
4. The information reproducing apparatus according to claim 3, wherein the prosody parameter includes at least one of a sound power, a pitch frequency, and a phoneme time length.
【請求項5】 更に、次の経路案内開始地点までの到着
時間を前記取得手段による前記車両の状況に応じて推定
する推定手段と、 当該推定手段により推定された当該到着時間に応じて、
所定の格納手段に格納されている複数のテキストから読
み上げるテキストを選択する選択手段とを備えることを
特徴とする請求項1に記載の情報再生装置。
5. An estimating means for estimating an arrival time to a next route guidance start point in accordance with a situation of the vehicle by the obtaining means, and in accordance with the arrival time estimated by the estimating means,
2. The information reproducing apparatus according to claim 1, further comprising: selecting means for selecting a text to be read out from a plurality of texts stored in a predetermined storage means.
【請求項6】 前記選択手段は、前記到着時間内に読み
上げ可能なテキストを選択することを特徴とする請求項
5に記載の情報再生装置。
6. The information reproducing apparatus according to claim 5, wherein the selection unit selects a text that can be read aloud within the arrival time.
【請求項7】 前記制御手段は前記到着時間に応じて前
記合成音声パラメータを制御することを特徴とする請求
項5に記載の情報再生装置。
7. The information reproducing apparatus according to claim 5, wherein said control means controls said synthesized voice parameter according to said arrival time.
【請求項8】 前記所定の格納手段には前記複数のテキ
ストが未読であるか否かを表すフラグが、各テキストに
添付されていることを特徴とする請求項5に記載の情報
再生装置。
8. The information reproducing apparatus according to claim 5, wherein a flag indicating whether or not the plurality of texts is unread is attached to each of the plurality of texts in the predetermined storage unit.
【請求項9】 前記推定手段は、所定の期間毎に前記推
定を行うことを特徴とする請求項5に記載の情報再生装
置。
9. The information reproducing apparatus according to claim 5, wherein the estimating unit performs the estimation every predetermined period.
【請求項10】 前記制御手段により制御された前記合
成音声パラメータに基づいて、合成音声に変換する変換
手段を更に備えることを特徴とする請求項1又は5に記
載の情報再生装置。
10. The information reproducing apparatus according to claim 1, further comprising a conversion unit configured to convert the synthesized voice parameter into a synthesized voice based on the synthesized voice parameter controlled by the control unit.
【請求項11】 情報を発信する情報発信サーバと無線
ネットワークで接続され、前記テキストは当該情報発信
サーバより取得することを特徴とする請求項1又は5に
記載の情報再生装置。
11. The information reproducing apparatus according to claim 1, wherein the information reproducing apparatus is connected to an information transmitting server that transmits information via a wireless network, and the text is obtained from the information transmitting server.
【請求項12】 車両に搭載し、テキストに基づいて音
声合成を行う情報再生方法であって、 当該車両の状況を取得する取得工程と、 当該テキストを発声する際に用いる合成音声パラメータ
を当該車両の状況に応じて制御する制御工程とを備える
ことを特徴とする情報再生方法。
12. An information reproducing method mounted on a vehicle and performing speech synthesis based on a text, comprising: an acquiring step of acquiring a situation of the vehicle; and a synthetic speech parameter used when uttering the text. And a control step of performing control according to the situation described above.
【請求項13】 更に、次の経路案内開始地点までの到
着時間を前記取得工程による前記車両の状況に応じて推
定する推定工程と、 当該推定工程で推定された当該到着時間に応じて、所定
の格納手段に格納されている複数のテキストから読み上
げるテキストを選択する選択工程とを備えることを特徴
とする請求項12に記載の情報再生方法。
13. An estimating step of estimating an arrival time to a next route guidance start point in accordance with a condition of the vehicle in the obtaining step, and a predetermined time in accordance with the arrival time estimated in the estimating step. 13. The information reproducing method according to claim 12, further comprising a selecting step of selecting a text to be read out from a plurality of texts stored in the storage means.
【請求項14】 車両に搭載し、テキストに基づいて音
声合成を行う情報再生装置として機能するプログラムコ
ードを格納する記憶媒体であって、 当該車両の状況を取得する取得工程のプログラムコード
と、 当該テキストを発声する際に用いる合成音声パラメータ
を当該車両の状況に応じて制御する制御工程のプログラ
ムコード手段とを備えることを特徴とする記憶媒体。
14. A storage medium for storing a program code mounted on a vehicle and functioning as an information reproducing apparatus for performing speech synthesis based on text, wherein a program code for an acquisition step for acquiring a situation of the vehicle is provided. A storage medium comprising: program code means for a control step of controlling a synthesized speech parameter used when uttering a text according to a situation of the vehicle.
【請求項15】 更に、次の経路案内開始地点までの到
着時間を前記取得工程による前記車両の状況に応じて推
定する推定工程のプログラムコードと、 当該推定工程で推定された当該到着時間に応じて、所定
の格納手段に格納されている複数のテキストから読み上
げるテキストを選択する選択工程のプログラムコードと
を備えることを特徴とする請求項14に記載の記憶媒
体。
15. A program code for an estimating step of estimating an arrival time to a next route guidance start point according to the situation of the vehicle in the obtaining step, and the arrival time estimated in the estimating step. 15. The storage medium according to claim 14, further comprising: a program code for a selection step of selecting a text to be read out from a plurality of texts stored in a predetermined storage unit.
JP2000158908A 2000-05-29 2000-05-29 Speech synthesis apparatus and speech synthesis method Expired - Fee Related JP3862478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000158908A JP3862478B2 (en) 2000-05-29 2000-05-29 Speech synthesis apparatus and speech synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000158908A JP3862478B2 (en) 2000-05-29 2000-05-29 Speech synthesis apparatus and speech synthesis method

Publications (2)

Publication Number Publication Date
JP2001337690A true JP2001337690A (en) 2001-12-07
JP3862478B2 JP3862478B2 (en) 2006-12-27

Family

ID=18663308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000158908A Expired - Fee Related JP3862478B2 (en) 2000-05-29 2000-05-29 Speech synthesis apparatus and speech synthesis method

Country Status (1)

Country Link
JP (1) JP3862478B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348367A (en) * 2003-05-21 2004-12-09 Nissan Motor Co Ltd In-vehicle information providing device
JP2005308536A (en) * 2004-04-21 2005-11-04 Pioneer Electronic Corp Information processing device, guidance conducting device, information processing method, its program, and recording medium for recording program
JP2007206522A (en) * 2006-02-03 2007-08-16 Toyota Motor Corp Voice output apparatus
JP2008026621A (en) * 2006-07-21 2008-02-07 Fujitsu Ltd Information processor with speech interaction function
JP2008039623A (en) * 2006-08-08 2008-02-21 Xanavi Informatics Corp Navigation device
JP2010055096A (en) * 2008-08-29 2010-03-11 Honda Motor Co Ltd System and method for variable text-to-speech with minimized distraction to operator of automotive vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348367A (en) * 2003-05-21 2004-12-09 Nissan Motor Co Ltd In-vehicle information providing device
JP2005308536A (en) * 2004-04-21 2005-11-04 Pioneer Electronic Corp Information processing device, guidance conducting device, information processing method, its program, and recording medium for recording program
JP2007206522A (en) * 2006-02-03 2007-08-16 Toyota Motor Corp Voice output apparatus
JP2008026621A (en) * 2006-07-21 2008-02-07 Fujitsu Ltd Information processor with speech interaction function
JP2008039623A (en) * 2006-08-08 2008-02-21 Xanavi Informatics Corp Navigation device
JP4747052B2 (en) * 2006-08-08 2011-08-10 クラリオン株式会社 Navigation device
JP2010055096A (en) * 2008-08-29 2010-03-11 Honda Motor Co Ltd System and method for variable text-to-speech with minimized distraction to operator of automotive vehicle

Also Published As

Publication number Publication date
JP3862478B2 (en) 2006-12-27

Similar Documents

Publication Publication Date Title
EP2137723B1 (en) Apparatus for text-to-speech delivery and method therefor
JP5029167B2 (en) Apparatus, program and method for reading aloud
US8315873B2 (en) Sentence reading aloud apparatus, control method for controlling the same, and control program for controlling the same
JPWO2005093713A1 (en) Speech synthesizer
JP2000267687A (en) Audio response apparatus
CN103020232A (en) Method for recording individual characters into navigation system
JP3862478B2 (en) Speech synthesis apparatus and speech synthesis method
JP4784156B2 (en) Speech synthesizer for performing voice guidance by a plurality of characters, speech synthesis method, program thereof, and information recording medium on which the program is recorded
JP2001272991A (en) Voice interacting method and voice interacting device
KR20200069264A (en) System for outputing User-Customizable voice and Driving Method thereof
JP2008116643A (en) Audio generation apparatus
JPH0876796A (en) Voice synthesizer
JP2002169582A (en) Voice synthesizing device and its control method, and computer-readable memory
JPH11133989A (en) Karaoke device
JP2003202233A (en) Information regeneration device, information regeneration method, and storage medium
JP4684609B2 (en) Speech synthesizer, control method, control program, and recording medium
JP3685648B2 (en) Speech synthesis method, speech synthesizer, and telephone equipped with speech synthesizer
JP2003029774A (en) Voice waveform dictionary distribution system, voice waveform dictionary preparing device, and voice synthesizing terminal equipment
JP2004516515A (en) Apparatus and method for differentiated audio output
JPH0934490A (en) Method and device for voice synthetization, navigation system, and recording medium
JP3805065B2 (en) In-car speech synthesizer
JP3432336B2 (en) Speech synthesizer
JP3263572B2 (en) Audio output device
JP2004294813A (en) Speech synthesizer, control method, control program, and recording medium
Van Coile et al. Speech synthesis for the new Pan-European traffic message control system RDS-TMC

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060926

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees