JP2003202233A - Information regeneration device, information regeneration method, and storage medium - Google Patents

Information regeneration device, information regeneration method, and storage medium

Info

Publication number
JP2003202233A
JP2003202233A JP2002000685A JP2002000685A JP2003202233A JP 2003202233 A JP2003202233 A JP 2003202233A JP 2002000685 A JP2002000685 A JP 2002000685A JP 2002000685 A JP2002000685 A JP 2002000685A JP 2003202233 A JP2003202233 A JP 2003202233A
Authority
JP
Japan
Prior art keywords
vehicle
contents
text
information reproducing
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002000685A
Other languages
Japanese (ja)
Inventor
Kenichiro Nakagawa
賢一郎 中川
Takashi Aso
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002000685A priority Critical patent/JP2003202233A/en
Publication of JP2003202233A publication Critical patent/JP2003202233A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To announce the contents of utterance within a time based on a situation of an own vehicle by selecting the contents of utterance in accordance with the situation of the own vehicle. <P>SOLUTION: Own vehicle speed and own vehicle position are obtained (step S301). The time T till the completion of announcement is inferred using these data (step S302). When T is inferred in this way, the contents of announcement indicating the contents to be newly announced and having the highest point among the contents of announcement utterable within the time T are selected (step S303). By the way, it is necessary to obtain the number of phonemes of the whole sentence and utterance time for each phoneme, and the number of mora is calculated in a car navigation device using a selected table for reading the contents of announcement when the tables for reading the contents of announcement are added to the contents of each announcement in advance in a pair and the contents of announcement are selected. Utterance time of each phoneme is fixed and is stored in an utterance content storage memory 201 in advance. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、設定されたコース
に従って、走行経路案内情報を再生する情報再生装置及
び情報再生方法並びに記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information reproducing apparatus and information reproducing method for reproducing traveling route guidance information according to a set course, and a storage medium.

【0002】[0002]

【従来の技術】従来のカーナビゲーション装置は、自車
(車両)内のディスプレイに映し出された地図上に自車
位置を表示させるものである。また、走行前、または走
行中に目的地を設定することにより、目的地までの経路
を検索し、ディスプレイ上の経路表示や音声案内により
目的地までの経路を運転手に誘導することができる。
2. Description of the Related Art A conventional car navigation system displays the position of the vehicle on a map displayed on a display in the vehicle. Further, by setting a destination before or during traveling, it is possible to search for a route to the destination, and guide the driver to the route by displaying the route on the display or voice guidance.

【0003】カーナビゲーション装置の音声案内は、実
際の人間の案内音声を収録したものを再生する方式や、
音声合成技術を用いたものもある。また、自車が曲がる
べき交差点に近づくにつれ、自車の速度、道路の混雑状
況を考慮し、経路案内のタイミングを変化させ、運転手
への経路誘導の確実性を向上させたものもある。
The voice guidance of the car navigation system includes a method of reproducing what actually recorded the guidance voice of a human being,
Some use speech synthesis technology. In addition, as the vehicle approaches an intersection where it should turn, the timing of route guidance is changed in consideration of the speed of the vehicle and the traffic congestion on the road to improve the certainty of route guidance to the driver.

【0004】[0004]

【発明が解決しようとする課題】交差点を曲がる指示を
運転手に経路案内をする時に、曲がり角からの距離を経
路案内開始のキーとする場合、その道路がスムーズに流
れている場合と渋滞している場合とで、実際に目当ての
交差点に到達する時間がかわってしまう。そのため、運
転手が曲がることを忘れてしまったり、交差点直前の車
線変更を余儀なくされることもありうる。
[Problems to be Solved by the Invention] When a driver is instructed to turn around an intersection by using a distance from a corner as a key for starting route guidance, when the road is flowing smoothly and traffic jams occur. The time it takes to actually reach the intended intersection will change depending on whether you are there or not. As a result, the driver may forget to turn or be forced to change lanes just before the intersection.

【0005】これを避けるために、自車の速度、道路の
混雑状況を考慮し、経路案内のタイミングを変化させる
ことも考えられるが、交差点を連続して曲がらなければ
ならない場合などは、経路案内発声のタイミングを変化
させるだけでは対処できないこともある。
In order to avoid this, it is possible to change the timing of route guidance in consideration of the speed of the own vehicle and the congestion situation of the road, but when it is necessary to continuously turn at an intersection, the route guidance Sometimes it is not possible to deal with it simply by changing the timing of vocalization.

【0006】本発明は、上述の問題点に対して鑑みたも
のであり、自車の状況に応じて発声内容を選択すること
で、自車の状況に基づいた時間内で発声内容をアナウン
スすることを目的とする。
The present invention has been made in view of the above-mentioned problems, and by selecting the utterance content according to the situation of the own vehicle, the utterance content is announced within the time based on the situation of the own vehicle. The purpose is to

【0007】[0007]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の情報再生装置は以下の構成を備
える。すなわち、車両に搭載され、テキスト文の内容に
基づいて音声合成を行う情報再生装置であって、車両の
状態情報を取得する取得手段と、当該取得手段により取
得した当該車両の状態情報に基づいて、制限時間を算出
する算出手段と、発声すべき内容のテキスト文のうち、
当該制限時間以内で発声可能なテキスト文を、複数の発
声内容のテキスト文を格納した所定の格納手段から選択
する選択手段と、当該選択手段により選択されたテキス
ト文から音声合成パラメータを生成する生成手段とを備
える。
In order to achieve the object of the present invention, for example, an information reproducing apparatus of the present invention has the following configuration. That is, an information reproducing apparatus that is installed in a vehicle and performs voice synthesis based on the content of a text sentence, based on an acquisition unit that acquires state information of the vehicle and state information of the vehicle acquired by the acquisition unit. , Of the calculation means for calculating the time limit and the text sentence of the content to be uttered,
Selection means for selecting a text sentence that can be uttered within the time limit from a predetermined storage means that stores text sentences of a plurality of utterance contents, and generation for generating a speech synthesis parameter from the text sentence selected by the selection means. And means.

【0008】更に、例えば本発明の情報再生装置は、以
下の構成を備える。すなわち、前記生成手段により生成
された前記音声合成パラメータに基づいて合成音声に変
換する変換手段を更に有する。
Further, for example, the information reproducing apparatus of the present invention has the following configuration. That is, it further has a conversion means for converting into a synthesized voice based on the voice synthesis parameter generated by the generation means.

【0009】[0009]

【発明の実施の形態】以下添付図面に従って、本発明を
好適な実施形態に従って詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below with reference to the accompanying drawings with reference to the accompanying drawings.

【0010】[第1の実施形態]図2は本実施形態にお
けるカーナビゲーション装置としての情報再生装置の概
略構成を示す図である。以下、同図を用いて本実施形態
におけるカーナビゲーション装置の概略構成について説
明する。
[First Embodiment] FIG. 2 is a diagram showing a schematic configuration of an information reproducing apparatus as a car navigation apparatus in the present embodiment. Hereinafter, the schematic configuration of the car navigation device according to the present embodiment will be described with reference to FIG.

【0011】201は複数の発声内容テキストが格納さ
れた発声内容格納メモリである。発声内容格納メモリ2
01の内容については後述する。カーナビゲーション装
置がある発声内容に従ってアナウンスをする場合は、発
声内容選択部202がこの発声内容格納メモリ201内
を参照し、発声すべき内容のテキストを後述の方法で選
択する。場合により、この発声内容は、カーナビ本体が
無線で接続された情報サーバからダウンロードした運転
手へのメールや、ニュースなどでもよい。
Reference numeral 201 denotes an utterance content storage memory in which a plurality of utterance content texts are stored. Speech content storage memory 2
The contents of 01 will be described later. When the car navigation device makes an announcement according to a certain utterance content, the utterance content selection unit 202 refers to the inside of the utterance content storage memory 201 and selects the text of the content to be uttered by a method described later. In some cases, the utterance content may be an e-mail to the driver downloaded from the information server wirelessly connected to the car navigation main body, news, or the like.

【0012】アナウンス完了時間推定部205は、音声
合成装置208外の自車速度測定部210、自車位置測
定部211、混雑状況取得部212と走行状態情報取得
部206を介して接続しており、これらの測定結果か
ら、現在からアナウンス完了点に到達するまでの時間
(アナウンス完了時間)を推定する。この推定結果は、
先の発声内容選択部202に送られ、その時間にあった
テキストが後述の方法で選択される。
The announcement completion time estimation unit 205 is connected via a vehicle speed measurement unit 210, a vehicle position measurement unit 211, a congestion state acquisition unit 212 and a running state information acquisition unit 206 outside the voice synthesizer 208. From these measurement results, the time from the present time to reach the announcement completion point (announcement completion time) is estimated. This estimation result is
The text is sent to the utterance content selection unit 202, and the text at that time is selected by the method described below.

【0013】こうして選択された発声内容テキストは、
カーナビゲーション装置内の韻律パラメータ生成部20
3に送られる。送られた発声内容テキストに従って韻律
パラメータ生成部203において作成された韻律パラメ
ータは音素片接続部204に送られ、音素片接続部20
4は送られた韻律パラメータに従って音素片辞書207
に格納された音素データを接続する事で、発声すべき合
成音声を生成する。なお、発声内容テキストデータに従
った韻律パラメータの生成方法については本実施形態の
説明においては特には限定しないために、ここでは説明
は省く。
The utterance content text thus selected is
Prosody parameter generation unit 20 in the car navigation device
Sent to 3. The prosody parameter created by the prosody parameter generation unit 203 according to the sent utterance content text is sent to the phoneme unit connection unit 204, and the phoneme unit connection unit 20.
4 is a phoneme piece dictionary 207 according to the transmitted prosodic parameters.
By connecting the phoneme data stored in, the synthetic speech to be uttered is generated. The method of generating the prosody parameters according to the utterance content text data is not particularly limited in the description of the present embodiment, and thus the description thereof is omitted here.

【0014】音声合成装置208から合成音声が作成さ
れると、そのデータはスピーカなどの音声出力装置20
9に送られて、音声出力される。
When a synthesized voice is created by the voice synthesizer 208, the data is stored in the voice output device 20 such as a speaker.
It is sent to 9 and is output as voice.

【0015】図3は本実施形態におけるカーナビゲーシ
ョン装置の音声合成装置208における処理のフローチ
ャートである。ここでは例として、交差点を右左折する
指示を合成音声で経路案内する場合の処理を示す。又、
図3に示したフローチャートに従ったプログラムコード
は、本実施形態におけるカーナビゲーション装置内の不
図示のROMやRAMなどのメモリに格納され、同装置
内のCPUにより読み出されて実行されることで、本実
施形態のカーナビゲーション装置は後述の処理を行う。
FIG. 3 is a flow chart of processing in the voice synthesizer 208 of the car navigation system in this embodiment. Here, as an example, a process in which a route guidance for turning right or left at an intersection is guided by a synthetic voice is shown. or,
The program code according to the flowchart shown in FIG. 3 is stored in a memory such as a ROM or a RAM (not shown) in the car navigation device according to the present embodiment, and is read and executed by the CPU in the device. The car navigation device of this embodiment performs the processing described below.

【0016】経路案内の要請を所定の指示部から受ける
と、まず、自車速度測定部210,自車位置測定部21
1によりそれぞれ計測された自車速度、自車位置を、走
行状態情報取得部206を介して取得する(ステップS
301)。これらのデータを用いて、アナウンス完了時
間推定部205はアナウンス完了点までの時間Tを推定
する(ステップS302)。つまり、アナウンスをする
際の制限時間を推定する。Tは、次の式で推定可能であ
る。
When a request for route guidance is received from a predetermined instruction unit, first, the vehicle speed measuring unit 210 and the vehicle position measuring unit 21.
The own vehicle speed and the own vehicle position respectively measured by 1 are acquired via the traveling state information acquisition unit 206 (step S
301). Using these data, the announcement completion time estimation unit 205 estimates the time T to the announcement completion point (step S302). That is, the time limit for making an announcement is estimated. T can be estimated by the following equation.

【0017】 T=アナウンス完了点までの距離 / 自車速度 さらに現在の自車速度ではなく、現在までの数分間の自
車速度を測定し、測定したデータの平均値を用いること
で、より信頼度の高い推定値となる。
T = distance to announcement completion point / own vehicle speed Further, not the current own vehicle speed, but the own vehicle speed for a few minutes until now is measured, and the average value of the measured data is used to obtain more reliability. It is a highly estimated value.

【0018】こうしてTが推定されると、発声内容選択
部202は図4に示すような発声内容格納メモリ201
を参照し、これからアナウンスする内容を表し、かつ、
時間T以内で発声可能なアナウンス内容の内、もっとも
ポイントの高いものを選択する(ステップS303)。
なお、このポイントはアナウンス内容が丁寧であればあ
る程、高い数値となっている。表中の「アナウンスの内
容」の項目において、()は具体的な名称が入る場所で
ある。時間T以内で発声可能かを判断するには、その文
章全体のモーラ数(音素数)と、各音素の発声時間を獲
得する必要がある。
When T is estimated in this way, the utterance content selection unit 202 causes the utterance content storage memory 201 as shown in FIG.
Refers to the content to be announced, and
Among the announcement contents that can be uttered within the time T, the one with the highest point is selected (step S303).
In addition, the more carefully the announcement content is, the higher this point is. In the "Announcement Content" item in the table, () is a place where a specific name is entered. In order to determine whether or not utterance is possible within the time T, it is necessary to acquire the number of mora (number of phonemes) of the entire sentence and the utterance time of each phoneme.

【0019】モーラ数は、予め各アナウンス内容にそれ
らの読み方のテーブルを対にして添付し、アナウンスの
内容を選択する際に、選択されたアナウンスの内容の読
み方のテーブルを用いてカーナビゲーション装置内で数
えてもよいし、予め数えておいて、アナウンスの内容と
対で発声内容格納メモリ201内に格納しておいてもよ
い。
The number of mora is attached in advance to each announcement content in pairs with their reading tables, and when selecting the announcement content, the reading table of the selected announcement content is used in the car navigation system. May be counted in advance, or may be counted in advance and stored in the utterance content storage memory 201 as a pair with the content of the announcement.

【0020】なお、図4に示したアナウンス内容の読み
方において、()以外の部分は変更されない文章である
ために、この文章のモーラ数は予め決まっているはずで
ある。よって、このモーラ数は予め発声内容格納メモリ
201内に格納しておいた方が、モーラ数を数える処理
に要する時間が短縮される。
In the reading of the announcement content shown in FIG. 4, since the part other than () is a sentence which is not changed, the number of mora of this sentence should be predetermined. Therefore, if this mora number is stored in advance in the utterance content storage memory 201, the time required for the process of counting the mora number is shortened.

【0021】又、各音素の発声時間は一定として予め発
声内容格納メモリ201内に格納しておいてもよいし、
各音素の発声時間を予め厳密に測定し、その測定した発
声時間を各音素と対で音素片辞書207に格納しておい
てもよい。
Further, the utterance time of each phoneme may be fixed and stored in advance in the utterance content storage memory 201.
The utterance time of each phoneme may be strictly measured beforehand, and the measured utterance time may be stored in the phoneme piece dictionary 207 in pairs with each phoneme.

【0022】以上の結果、発声すべき内容を発声する際
に要する時間が算出可能となる。図7に、発声すべき内
容を発声する際に要する時間の算出方法を示す。
As a result, it becomes possible to calculate the time required for uttering the contents to be uttered. FIG. 7 shows a method of calculating the time required for uttering the contents to be uttered.

【0023】701は発声すべき内容で、ここでは例と
して「あかさか」という言葉を用いる。701a〜70
1dは発声すべき内容701を構成する各音素である。
各音素を発声する際に要する時間は夫々t1,t2,t
3,t4であり、夫々の時間(t1、t2、t3、t4)は上
述の通り、予め測定された厳密な値であってもよいし、
全て同じ平均的な値であってもよい。そしてその結果、
発声すべき内容701を発声する際に要する時間は(t
1+t2+t3+t4)となる。
Reference numeral 701 denotes a content to be uttered, and here, the word "akasaka" is used as an example. 701a-70
1d is each phoneme that constitutes the content 701 to be uttered.
The time required to utter each phoneme is t1, t2, t, respectively.
3, t4, and the respective times (t1, t2, t3, t4) may be exact values measured in advance as described above,
All may have the same average value. And as a result,
The time required to utter the content 701 to be uttered is (t
1 + t2 + t3 + t4).

【0024】発声内容選択部202によって発声すべき
アナウンス内容を示すテキストが選択されると、そのテ
キストから韻律パラメータを生成し(ステップS30
4)、その韻律パラメータ通りに音素片を接続していく
ことで合成波形を生成し、スピーカなどの音声出力装置
209から出力する(ステップS305)。
When the text indicating the announcement content to be uttered is selected by the utterance content selection unit 202, a prosody parameter is generated from the text (step S30).
4), a phoneme piece is connected according to the prosody parameter to generate a synthetic waveform, which is output from the voice output device 209 such as a speaker (step S305).

【0025】以上の構成により、自車の位置と速度に応
じて算出される時間内で発声することができるアナウン
ス内容を、異なる発声時間に応じた複数のアナウンス内
容から一つ選択することができた。
With the above configuration, one announcement content that can be uttered within the time calculated according to the position and speed of the vehicle can be selected from a plurality of announcement contents corresponding to different utterance times. It was

【0026】また、例えば図1に示すとおり、アナウン
ス完了点102を、これから行うアナウンスが完了して
いなければならない地点と定義すると、自車101がそ
こまでに到達する時間を距離Lと自車速度Vにより推定
し、その時間内で発声可能なアナウンステキストを発声
内容格納メモリから選択する。これにより、例えば交差
点を連続して曲がるような場合でも、経路案内を続ける
ことが可能となる。
Further, for example, as shown in FIG. 1, when the announcement completion point 102 is defined as a point at which an announcement to be made from now on must be completed, the time required for the vehicle 101 to reach there is the distance L and the vehicle speed. Estimated by V, the announcement text that can be uttered within that time is selected from the utterance content storage memory. As a result, it becomes possible to continue the route guidance even when the vehicle continuously turns at an intersection, for example.

【0027】[第2の実施形態]本実施形態では、第1
の実施形態のカーナビゲーション装置において、経路案
内を行っていない間に、ニュースを読み上げる音声合成
装置208における処理について説明する。なお、次に
経路案内を行うまでの時間は分かっているものとし、現
時点から次に交差点などの角にさしかかるまでに要する
時間とする。
[Second Embodiment] In the present embodiment, the first embodiment
In the car navigation device of the above embodiment, a process in the voice synthesizing device 208 that reads out news while route guidance is not performed will be described. It is assumed that the time until the next route guidance is known is the time required from the present time to the next corner such as an intersection.

【0028】図5は、本実施形態における音声合成装置
208における処理のフローチャートである。このカー
ナビゲーション装置はニュースサーバと無線ネットワー
クで接続されており、リアルタイムまたは、一定時間ご
とに、ニュースサーバからニューステキストをカーナビ
ゲーション装置内の所定のメモリバッファ内にダウンロ
ードする。運転手は前もって自分の興味のあるニュース
ジャンルを登録しておき、カーナビゲーション装置は、
登録されたニュースジャンルのニュースを音声合成す
る。なお、図5に示したフローチャートに従ったプログ
ラムコードは、第1の実施形態において説明したとおり
格納され、実行され、その結果、本実施形態におけるカ
ーナビゲーション装置は後述の処理を行う。
FIG. 5 is a flow chart of the processing in the speech synthesizer 208 in this embodiment. This car navigation device is connected to a news server via a wireless network, and downloads news text from a news server into a predetermined memory buffer in the car navigation device in real time or at regular time intervals. The driver has registered the news genre of interest in advance, and the car navigation system
Speech synthesis is performed for news in the registered news genre. The program code according to the flowchart shown in FIG. 5 is stored and executed as described in the first embodiment, and as a result, the car navigation device in this embodiment performs the processing described below.

【0029】図6Aはカーナビゲーション装置内に登録
されたニュースデータベースの例を示す図である。この
ニュースデータベースをカーナビゲーション装置に登録
した運転手は、臨時ニュース(ポイント3)とスポーツ
関連(ポイント2)のニュースに興味があり、政治、経
済関連のニュース(ポイント0)は読み上げて欲しくな
いと考えて上述の通り、各ジャンルの読み上げの登録を
行った。なお、各ジャンルに添付された各ポイントにつ
いては後述するが、本実施形態ではポイントを運転手が
各ニュースに対する興味度の意味で使用している。
FIG. 6A is a diagram showing an example of a news database registered in the car navigation system. A driver who has registered this news database in a car navigation system is interested in temporary news (point 3) and sports-related (point 2) news, and must read aloud political and economic news (point 0). Considering the above, I registered the reading of each genre as described above. Each point attached to each genre will be described later, but in the present embodiment, the driver uses the point to mean the degree of interest in each news item.

【0030】発声内容格納メモリ201には、このニュ
ースデータベースを表したテーブルの他に、具体的なニ
ュースの内容と、そのモーラ(音素)数が添付されたテ
ーブルも格納している(図6B)。モーラ数は、ニュー
スが送られて来たときにカーナビゲーション装置内部で
数えてもよいし、ニュースサーバが送る前に数えてお
き、ニュース内容とそのモーラ数の対を送る形式でもよ
い。このモーラ数は、ニュースの文章を読み上げた場合
のおよその読み上げ時間を推定するのに用いる。未読フ
ラグは、そのニュースをカーナビゲーション装置が読み
上げたことがある場合は0、未読の場合は1が立ってい
る。新しいニュースを取り込んだ場合、このフラグに1
をセットしておく。
In addition to the table representing this news database, the voicing content storage memory 201 also stores a table to which specific news contents and their mora (phoneme) numbers are attached (FIG. 6B). . The number of mora may be counted inside the car navigation device when the news is sent, or may be counted before being sent by the news server and the pair of news content and the number of mora may be sent. This mora number is used to estimate the approximate reading time when reading a news sentence. The unread flag is set to 0 when the car navigation device has read the news, and set to 1 when it is unread. 1 for this flag when new news is captured
Set.

【0031】ニュースを読み上げる指示が所定の指示部
から入力されると、音声合成装置208は、自車速度測
定部210,自車位置測定部211によりそれぞれ計測
された自車速度、自車位置を、走行状態情報取得部20
6を介して取得する(ステップS501)。これらのデ
ータを用いて、アナウンス完了時間推定部205は次の
経路案内開始点までの時間Tを推定する(ステップS5
02)。次の経路案内開始点は、ニュースの読み上げを
終わっていなければならない地点と同一である。
When an instruction to read the news is input from a predetermined instruction section, the voice synthesizer 208 displays the vehicle speed and the vehicle position measured by the vehicle speed measuring section 210 and the vehicle position measuring section 211, respectively. , Running state information acquisition unit 20
6 through step 6 (step S501). Using these data, the announcement completion time estimation unit 205 estimates the time T to the next route guidance start point (step S5).
02). The next route guidance start point is the same as the point where the reading of the news must be finished.

【0032】次に、以下で用いる変数PBとIBを0で
クリアする(ステップS503)。PBはニュースジャ
ンルの最高ポイントを保持する変数であり、IBは最高
ポイントを指すニュースの番号(図不示)を保持する変
数である。
Next, variables PB and IB used below are cleared to 0 (step S503). PB is a variable that holds the highest point of the news genre, and IB is a variable that holds the number of the news (not shown) that points to the highest point.

【0033】ダウンロードした全てのニュース文を検索
し、未読であり(ステップS505)、読み上げ時間が
Tより短いもの(ステップS507)の中から最もポイ
ントの高いニュースジャンルに含まれるものを一つ選択
する(ステップS508〜ステップS510)。このと
き、ニュース文の読み上げ時間を推定する必要がある
が、 推定読み上げ時間T’=モーラ数×α (αは音声合成
の設定により変化する) といった式で算出可能である(ステップS506)。
又、第1の実施形態と同様に、図7に示した方法によ
り、推定読み上げ時間T’を算出してもよい。
All the downloaded news sentences are searched, and one that is not read (step S505) and has a reading time shorter than T (step S507) is selected from the news genres with the highest points. (Step S508 to step S510). At this time, it is necessary to estimate the reading time of the news sentence, but it can be calculated by an equation such as the estimated reading time T ′ = the number of mora × α (α changes depending on the voice synthesis setting) (step S506).
Further, the estimated reading time T ′ may be calculated by the method shown in FIG. 7 as in the first embodiment.

【0034】もし、全てのニュース文中に適当なものが
無かった場合(ステップS512)、本処理はなにも合
成せずに終了する。適当なものが見つかった場合、その
ニュース文を合成を用いて読み上げ(ステップS51
3)、そのニュース文の未読フラグに0をセットする
(ステップS514)。
If there is no appropriate one in all the news sentences (step S512), this process ends without combining anything. When an appropriate one is found, the news sentence is read aloud using composition (step S51).
3), 0 is set to the unread flag of the news sentence (step S514).

【0035】以上の処理により、運転手の興味のあるニ
ュース文の内、次の経路案内の妨げにならない長さのも
のを選択し、読み上げることが可能となる。
By the above processing, it is possible to select and read out a news sentence of a length that does not hinder the next route guidance from among the news sentences that the driver is interested in.

【0036】[他の実施形態]なお、本発明は、複数の
機器(例えばホストコンピュータ、インタフェイス機
器、リーダ、プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機、ファクシミリ装置など)に適用してもよい。
[Other Embodiments] Incidentally, even when the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), a device consisting of one device ( For example, it may be applied to a copying machine, a facsimile machine, etc.).

【0037】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) recording a program code of software for realizing the functions of the above-described embodiment to a system or apparatus, and to supply a computer of the system or apparatus ( Alternatively, by the CPU or MPU) reading and executing the program code stored in the storage medium,
It goes without saying that it will be achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instruction of the program code,
An operating system (OS) running on the computer does some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0038】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Furthermore, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0039】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2又は5に示す)フ
ローチャートに対応するプログラムコードが格納される
ことになる。
When the present invention is applied to the above storage medium, the storage medium stores the program code corresponding to the above-described flowchart (shown in FIG. 2 or 5).

【0040】[0040]

【発明の効果】自車の状況に応じて発声内容を選択する
ことで、自車の状況に基づいた時間内で発声内容をアナ
ウンスすることができる。
By selecting the utterance content according to the situation of the vehicle, it is possible to announce the utterance content within the time based on the situation of the vehicle.

【図面の簡単な説明】[Brief description of drawings]

【図1】自車101と交差点との関係図である。FIG. 1 is a diagram showing the relationship between a vehicle 101 and an intersection.

【図2】本発明の第1の実施形態におけるカーナビゲー
ション装置としての情報再生装置の概略構成を示す図で
ある。
FIG. 2 is a diagram showing a schematic configuration of an information reproducing device as a car navigation device according to the first embodiment of the present invention.

【図3】本発明の第1の実施形態におけるカーナビゲー
ション装置の音声合成装置208における処理のフロー
チャートである。
FIG. 3 is a flowchart of a process in a voice synthesis device 208 of the car navigation device according to the first embodiment of the present invention.

【図4】発声内容格納メモリ201の内容を示す図であ
る。
FIG. 4 is a diagram showing the contents of an utterance content storage memory 201.

【図5】本発明の第2の実施形態におけるカーナビゲー
ション装置の音声合成装置208における処理のフロー
チャートである。
FIG. 5 is a flowchart of a process in a voice synthesizer 208 of the car navigation system according to the second embodiment of the present invention.

【図6A】カーナビゲーション装置内に登録されたニュ
ースデータベースの例を示す図である。
FIG. 6A is a diagram showing an example of a news database registered in the car navigation device.

【図6B】発声内容格納メモリ201に格納された具体
的なニュースの内容と、そのモーラ数が添付されたテー
ブルを示す図である。
FIG. 6B is a diagram showing a table to which specific news content stored in the utterance content storage memory 201 and its mora number are attached.

【図7】発声すべき内容を発声する際に要する時間の算
出方法を示す図である。
FIG. 7 is a diagram showing a method of calculating a time required for uttering contents to be uttered.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F029 AA02 AC02 AC06 AC18 5D045 AA20 5H180 AA01 BB15 DD04 FF04 FF12 FF14 FF25 FF32    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F029 AA02 AC02 AC06 AC18                 5D045 AA20                 5H180 AA01 BB15 DD04 FF04 FF12                       FF14 FF25 FF32

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され、テキスト文の内容に基
づいて音声合成を行う情報再生装置であって、 車両の状態情報を取得する取得手段と、 当該取得手段により取得した当該車両の状態情報に基づ
いて、制限時間を算出する算出手段と、 発声すべき内容のテキスト文のうち、当該制限時間以内
で発声可能なテキスト文を、複数の発声内容のテキスト
文を格納した所定の格納手段から選択する選択手段と、 当該選択手段により選択されたテキスト文から音声合成
パラメータを生成する生成手段とを備えることを特徴と
する情報再生装置。
1. An information reproducing apparatus which is mounted on a vehicle and performs voice synthesis based on the content of a text sentence, comprising: acquisition means for acquiring vehicle status information; and status information of the vehicle acquired by the acquisition means. Based on the above, the calculation means for calculating the time limit, and the text sentences that can be uttered within the time limit, out of the text sentences of the contents to be uttered, are stored in a predetermined storage means that stores the text sentences of a plurality of utterance contents. An information reproducing apparatus comprising: a selecting unit for selecting and a generating unit for generating a voice synthesis parameter from a text sentence selected by the selecting unit.
【請求項2】 前記車両の状態情報は、当該車両の速
度、位置、当該車両の存在している道路の混雑状況を含
むことを特徴とする請求項1に記載の情報再生装置。
2. The information reproducing apparatus according to claim 1, wherein the status information of the vehicle includes a speed and a position of the vehicle, and a congestion status of a road on which the vehicle exists.
【請求項3】 前記選択手段は更に、前記格納手段に格
納されている各テキスト文に基づいて発声した際の各音
素数と、各音素を発声した際に要する時間とを取得する
ことを特徴とする請求項1に記載の情報再生装置。
3. The selecting means further acquires the number of each phoneme when uttered based on each text sentence stored in the storage means and the time required for uttering each phoneme. The information reproducing device according to claim 1.
【請求項4】 前記選択手段は更に、前記音素数と前記
各音素を発声する際に要する時間とを用いて、前記各テ
キスト文を発声した際に要する時間を算出し、当該時間
と前記制限時間とを比較することで、前記制限時間内で
発声可能なテキスト文を選択することを特徴とする請求
項1乃至3のいずれか1項に記載の情報再生装置。
4. The selecting means further calculates a time required for uttering each of the text sentences by using the number of phonemes and a time required for uttering each of the phonemes, and the time and the limit. The information reproducing apparatus according to any one of claims 1 to 3, wherein a text sentence that can be spoken within the time limit is selected by comparing with time.
【請求項5】 前記選択手段は更に、前記制限時間内で
発声可能なテキスト文のうち、各テキスト文に予め添付
されたポイントが最も高いテキスト文を選択することを
特徴とする請求項1乃至4のいずれか1項に記載の情報
再生装置。
5. The selection means further selects, from among the text sentences that can be uttered within the time limit, a text sentence having a highest point attached in advance to each text sentence. 4. The information reproducing device according to any one of 4 above.
【請求項6】 前記ポイントはテキスト文の内容が丁寧
であるほど高く設定されていることを特徴とする請求項
5に記載の情報再生装置。
6. The information reproducing apparatus according to claim 5, wherein the point is set higher as the content of the text sentence is more careful.
【請求項7】 前記ポイントはユーザの興味度が高けれ
ば、高く設定されることを特徴とする請求項5に記載の
情報再生装置。
7. The information reproducing apparatus according to claim 5, wherein the points are set to be high if the degree of interest of the user is high.
【請求項8】 前記ポイントはユーザは書き換え可能で
あることを特徴とする請求項7に記載の情報再生装置。
8. The information reproducing apparatus according to claim 7, wherein the points are rewritable by a user.
【請求項9】 前記所定の格納手段には経路指示の内
容、ニュースの内容、個人宛の電子メールの内容のうち
の少なくとも一つが格納されていることを特徴とする請
求項1に記載の情報再生装置。
9. The information according to claim 1, wherein at least one of contents of a route instruction, contents of news, and contents of an electronic mail addressed to an individual is stored in the predetermined storage means. Playback device.
【請求項10】 前記所定の格納手段には前記ニュース
の内容、もしくは前記個人宛の電子メールの内容のうち
の少なくとも一つが未読であるか否かを表すフラグが格
納されていることを特徴とする請求項9に記載の情報再
生装置。
10. The predetermined storage means stores a flag indicating whether or not at least one of the content of the news or the content of the electronic mail addressed to the individual is unread. The information reproducing apparatus according to claim 9,
【請求項11】 前記生成手段により生成された前記音
声合成パラメータに基づいて合成音声に変換する変換手
段を更に有することを特徴とする請求項1に記載の情報
再生装置。
11. The information reproducing apparatus according to claim 1, further comprising conversion means for converting to a synthesized voice based on the voice synthesis parameter generated by the generation means.
【請求項12】 前記音声合成パラメータは韻律パラメ
ータであることを特徴とする請求項11に記載の情報再
生装置。
12. The information reproducing apparatus according to claim 11, wherein the voice synthesis parameter is a prosody parameter.
【請求項13】 車両に搭載され、テキスト文の内容に
基づいて音声合成を行う情報再生方法であって、 車両の状態情報を取得する取得工程と、 当該取得工程で取得した当該車両の状態情報に基づい
て、制限時間を算出する算出工程と、 発声すべき内容のテキスト文のうち、当該制限時間以内
で発声可能なテキスト文を、複数の発声内容のテキスト
文を格納した所定の格納手段から選択する選択工程と、 当該選択工程で選択されたテキスト文から音声合成パラ
メータを生成する生成工程とを備えることを特徴とする
情報再生方法。
13. An information reproducing method, which is installed in a vehicle and performs voice synthesis based on the content of a text sentence, comprising: an acquisition step of acquiring vehicle status information; and a status information of the vehicle acquired in the acquisition step. Based on the above, a calculation process for calculating the time limit, and among the text sentences of the contents to be uttered, the text sentences that can be uttered within the time limit are stored in a predetermined storage means that stores the text sentences of the plurality of utterance contents. An information reproducing method comprising: a selecting step of selecting and a generating step of generating a voice synthesis parameter from the text sentence selected in the selecting step.
【請求項14】 車両に搭載され、テキスト文の内容に
基づいて音声合成を行う情報再生装置として機能するプ
ログラムを格納する記憶媒体であって、 車両の状態情報を取得する取得工程のプログラムと、 当該取得工程で取得した当該車両の状態情報に基づい
て、制限時間を算出する算出工程のプログラムと、 発声すべき内容のテキスト文のうち、当該制限時間以内
で発声可能なテキスト文を、複数の発声内容のテキスト
文を格納した所定の格納手段から選択する選択工程のプ
ログラムと、 当該選択工程で選択されたテキスト文から音声合成パラ
メータを生成する生成工程のプログラムとを備えること
を特徴とする記憶媒体。
14. A storage medium, which is installed in a vehicle and stores a program that functions as an information reproducing device that performs voice synthesis based on the content of a text sentence, comprising: a program of an acquisition step for acquiring state information of the vehicle; Based on the state information of the vehicle acquired in the acquisition process, a calculation process program for calculating the time limit, and a plurality of text sentences that can be uttered within the time limit out of the text sentences of the content to be uttered Storage comprising a program of a selection step for selecting from a predetermined storage means storing a text sentence of utterance content and a program of a generation step for generating a speech synthesis parameter from the text sentence selected in the selection step Medium.
JP2002000685A 2002-01-07 2002-01-07 Information regeneration device, information regeneration method, and storage medium Withdrawn JP2003202233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002000685A JP2003202233A (en) 2002-01-07 2002-01-07 Information regeneration device, information regeneration method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002000685A JP2003202233A (en) 2002-01-07 2002-01-07 Information regeneration device, information regeneration method, and storage medium

Publications (1)

Publication Number Publication Date
JP2003202233A true JP2003202233A (en) 2003-07-18

Family

ID=27641001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002000685A Withdrawn JP2003202233A (en) 2002-01-07 2002-01-07 Information regeneration device, information regeneration method, and storage medium

Country Status (1)

Country Link
JP (1) JP2003202233A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208793A (en) * 2005-01-28 2006-08-10 Alpine Electronics Inc Speech processor, speech processing method, and program
JP2008026621A (en) * 2006-07-21 2008-02-07 Fujitsu Ltd Information processor with speech interaction function
JP2010079091A (en) * 2008-09-26 2010-04-08 Toshiba Corp Sound output device, method and program for outputting sound
JP2010128099A (en) * 2008-11-26 2010-06-10 Toyota Infotechnology Center Co Ltd In-vehicle voice information providing system
JP2016153842A (en) * 2015-02-20 2016-08-25 株式会社第一興商 Karaoke device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208793A (en) * 2005-01-28 2006-08-10 Alpine Electronics Inc Speech processor, speech processing method, and program
JP2008026621A (en) * 2006-07-21 2008-02-07 Fujitsu Ltd Information processor with speech interaction function
JP2010079091A (en) * 2008-09-26 2010-04-08 Toshiba Corp Sound output device, method and program for outputting sound
JP2010128099A (en) * 2008-11-26 2010-06-10 Toyota Infotechnology Center Co Ltd In-vehicle voice information providing system
JP2016153842A (en) * 2015-02-20 2016-08-25 株式会社第一興商 Karaoke device

Similar Documents

Publication Publication Date Title
US8027837B2 (en) Using non-speech sounds during text-to-speech synthesis
EP3387646B1 (en) Text-to-speech processing system and method
JP3955881B2 (en) Speech synthesis method and information providing apparatus
JP4785381B2 (en) Speech synthesis (TTS) for handheld devices
US8386166B2 (en) Apparatus for text-to-speech delivery and method therefor
JP2007086316A (en) Speech synthesizer, speech synthesizing method, speech synthesizing program, and computer readable recording medium with speech synthesizing program stored therein
US10431188B1 (en) Organization of personalized content
JP6111802B2 (en) Spoken dialogue apparatus and dialogue control method
JP2006012081A (en) Content output device, navigation device, content output program and content output method
CN105788588A (en) Navigation voice broadcasting method and apparatus
JP2003202233A (en) Information regeneration device, information regeneration method, and storage medium
US20230360633A1 (en) Speech processing techniques
JP2001272991A (en) Voice interacting method and voice interacting device
CN1331113C (en) Speech synthesizer,method and recording medium for speech recording synthetic program
JP4524634B2 (en) Singing voice rating device and program
US10884700B2 (en) Sound outputting device, sound outputting method, and sound outputting program storage medium
JP4744338B2 (en) Synthetic speech generator
JP3862478B2 (en) Speech synthesis apparatus and speech synthesis method
JP3094622B2 (en) Text-to-speech synthesizer
WO2020110744A1 (en) Information processing device, information processing method, and program
JP2006337403A (en) Voice guidance device and voice guidance program
JPH1165597A (en) Voice compositing device, outputting device of voice compositing and cg synthesis, and conversation device
JP2008299183A (en) Onboard wireless device
JP2005283646A (en) Speech recognition rate estimating apparatus
JPH07210194A (en) Device for outputting sound

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050405