JP2003005794A - Voice output device - Google Patents

Voice output device

Info

Publication number
JP2003005794A
JP2003005794A JP2001191295A JP2001191295A JP2003005794A JP 2003005794 A JP2003005794 A JP 2003005794A JP 2001191295 A JP2001191295 A JP 2001191295A JP 2001191295 A JP2001191295 A JP 2001191295A JP 2003005794 A JP2003005794 A JP 2003005794A
Authority
JP
Japan
Prior art keywords
data
voice
time
voice output
access
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001191295A
Other languages
Japanese (ja)
Inventor
Hiroshige Arao
浩成 新穂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2001191295A priority Critical patent/JP2003005794A/en
Publication of JP2003005794A publication Critical patent/JP2003005794A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a voice output device which outputs a voice for a voice output point at an accurate timing without generating an error between a voice output completion point and the voice output point on an actual map when outputting the voice to the voice output point. SOLUTION: In the voice output device provided with a voice output control means which transfers voice data from a storage medium to a voice output means to output the voice for the voice output point, the voice output control means is provided with a voice output point confirmation means which confirms the voice output point, a voice output time calculation means which calculates the time from the start of read control of voice output data at the voice output point to the completion of voice output from the voice output means, a vehicle speed information fetching means which fetches vehicle speed information of a vehicle, and a voice output start point determination means which obtains the voice output start point on the basis of vehicle speed information fetched by the vehicle speed information fetching means and the voice output time calculated by the voice output time calculation means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は音声出力装置に関
し、より詳細には音声出力地点に対して、音声出力する
タイミングに誤差を生じさせない音声出力が行える音声
出力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice output device, and more particularly to a voice output device capable of performing voice output to a voice output point without causing an error in timing of voice output.

【0002】[0002]

【従来の技術】最近では、多くの電子機器において音声
出力装置が装備され、操作等の案内が音声で行われるこ
とが多くなってきている。特に、自動車に搭載されるナ
ビゲ−ションシステムでは、走行中に画面を見ることが
困難であるため、通常音声出力装置を用いて誘導経路に
対する音声案内が行われるようになっている。
2. Description of the Related Art Recently, many electronic devices are equipped with a voice output device, and guidance for operations and the like is often performed by voice. In particular, in a navigation system mounted on an automobile, it is difficult to see the screen while traveling, and therefore, a voice guidance is usually provided to the guide route using a voice output device.

【0003】このような音声案内に使用される音声は、
通常音声合成により生成され、ナビゲ−ションシステム
では、音質が良好な音声波形デ−タ自体を用いた音声合
成方式が広く採用されている。これは、音声の合成に都
合の良い単位に分割された多くの単位音声デ−タを作成
し、これらの単位音声デ−タをその単位音声デ−タ毎に
読み出し可能な状態に記憶媒体に書き込んでおき、音声
再生の際には再生する文章に必要な複数の単位音声デ−
タを前記記憶媒体から読み出し、これらを組み合わせて
再生用の文章音声デ−タを生成するもので、この生成さ
れたデジタル信号からなる文章音声デ−タをアナログ信
号からなる音声信号に変換した後、増幅してスピ−カか
ら出力させることにより音声として出力している。
The voice used for such voice guidance is
In a navigation system, a speech synthesis method using speech waveform data itself, which is normally generated by speech synthesis and has good sound quality, is widely adopted. This is to create many unit voice data divided into units convenient for voice synthesis, and store these unit voice data in a storage medium in a readable state for each unit voice data. Write it down and, when playing back the voice, write multiple unit voice data necessary for the sentence to be played back.
Data is read out from the storage medium, and text voice data for reproduction is generated by combining these data, and after the generated text voice data consisting of digital signals is converted into a voice signal consisting of analog signals. , Amplified and output from the speaker to output as voice.

【0004】図6は、従来における音声出力装置が装備
されたナビゲ−ションシステムの要部を概略的に示した
ブロック図である。
FIG. 6 is a block diagram schematically showing a main part of a navigation system equipped with a conventional audio output device.

【0005】図中21はマイコンを示しており、マイコ
ン21には、速度や走行距離を取得するための車速セン
サ2、進行方向を取得するためのジャイロセンサ3、ア
ンテナ4aを介して衛星からのGPS信号を受信するた
めのGPS受信機4、電子地図デ−タや音声案内のため
の単位音声デ−タ等が記憶されたCD−ROM6から電
子地図デ−タや単位音声デ−タなどを取り込むためのC
Dドライブ5、操作手段としてのリモコン7、表示パネ
ル8aを有した表示装置8、CD−ROM6から読み出
した単位音声デ−タを組み合わせて作成した出力用の文
章音声デ−タをデジタル信号からアナログ信号に変換す
るデジタル/アナログ変換器(以下D/A変換器と記
す)9が接続されている。D/A変換器9には、アナロ
グ信号を増幅するための増幅器10を介して音声を出力
するためスピ−カ11が接続されている。
Reference numeral 21 in the figure denotes a microcomputer. The microcomputer 21 has a vehicle speed sensor 2 for acquiring a speed and a traveling distance, a gyro sensor 3 for acquiring a traveling direction, and an antenna 4a for transmitting a signal from a satellite. A GPS receiver 4 for receiving GPS signals, a CD-ROM 6 in which electronic map data and unit voice data for voice guidance are stored, and electronic map data and unit voice data are stored in the CD-ROM 6. C to import
D drive 5, remote controller 7 as operation means, display device 8 having display panel 8a, and unit voice data read from CD-ROM 6 are combined to output text voice data for output from digital signals and analog signals. A digital / analog converter (hereinafter referred to as a D / A converter) 9 for converting into a signal is connected. A speaker 11 is connected to the D / A converter 9 for outputting sound through an amplifier 10 for amplifying an analog signal.

【0006】マイコン21は取得した速度や走行距離、
進行方向、GPS信号等の情報に基づいて自車位置を割
り出し、割り出した自車位置と電子地図デ−タとを合わ
せる(いわゆる、マップマッチング処理を行う)ことに
よって、自車位置が正確に示された地図を表示パネル8
aへ表示するようになっている。
The microcomputer 21 obtains the acquired speed and mileage,
The own vehicle position is accurately indicated by calculating the own vehicle position based on the information such as the traveling direction and the GPS signal and matching the calculated own vehicle position with the electronic map data (so-called map matching processing). Displayed map 8
It is designed to be displayed on a.

【0007】また、マイコン21は、交差点等に接近す
るなどして音声による経路案内を行う必要が生じた場
合、その際の案内内容(再生文章)から音声合成に必要
な単位音声デ−タを求め、該単位音声デ−タをCD−R
OM6から読み出すようにCDドライブ5に指示信号を
出力する。そして、マイコン21は、CD−ROM6か
ら読み出された複数の単位音声デ−タを文章を構成する
ように組み合わせて文章音声デ−タを生成し、D/A変
換器9に出力する。D/A変換器9ではデジタル信号が
アナログ信号に変換され、アナログ信号に変換された音
声信号(文章)が増幅器10で増幅され、スピ−カ11
から音声として出力されるようになっている。
Further, when it becomes necessary to provide voice route guidance by approaching an intersection or the like, the microcomputer 21 obtains unit voice data required for voice synthesis from the guide content (reproduced text) at that time. Then, the unit voice data is obtained on a CD-R.
An instruction signal is output to the CD drive 5 so that it is read from the OM 6. Then, the microcomputer 21 combines a plurality of unit voice data read from the CD-ROM 6 so as to form a sentence, generates sentence voice data, and outputs the sentence voice data to the D / A converter 9. In the D / A converter 9, the digital signal is converted into an analog signal, the voice signal (text) converted into the analog signal is amplified by the amplifier 10, and the speaker 11 is converted.
It is designed to be output as audio from.

【0008】[0008]

【発明が解決しようとする課題】従来のナビゲ−ション
システムに装備された音声出力装置では、音声出力地点
の案内内容に応じて組み立てられる文章音声デ−タのデ
−タサイズから概算される音声再生時間に基づいて、自
車位置が、前記音声出力地点までに音声再生を完了する
のに必要な所定距離だけ手前に到達したか否かを、GP
S受信機4等で測位した地図の位置上から判断し、自車
位置が前記音声出力地点より前記所定距離だけ手前に到
達したら、音声出力のための制御を開始して、前記音声
出力地点を通過するまでに音声出力を完了させるように
なっている。
In the voice output device equipped in the conventional navigation system, the voice reproduction estimated from the data size of the text voice data assembled according to the guidance contents of the voice output point. Based on the time, it is determined whether or not the own vehicle position has reached the front by a predetermined distance required to complete the voice reproduction up to the voice output point by GP.
Judging from the position of the map measured by the S receiver 4 or the like, and when the position of the own vehicle reaches the audio output point by the predetermined distance, the control for audio output is started to determine the audio output point. The audio output is completed by the time it passes.

【0009】しかしながら、実際に音声出力制御によっ
て音声出力が完了するまでには、前記音声再生時間の他
にも、装置内部における機械的な処理動作やデ−タ処理
にかかる時間、例えばCD−ROM6から前記単位音声
デ−タを読み出すために、読み取り用のピックアップを
各単位音声デ−タが記憶されたCD−ROM6上の所定
位置まで移動させて、単位音声デ−タを読み出すまでの
アクセス・読出時間や、CD−ROM6から読み出した
前記単位音声デ−タを一旦メモリ上に格納し、これら単
位音声デ−タを組み合わせて文章音声デ−タを生成し、
該文章音声デ−タをD/A変換器9に転送するまでのデ
−タ合成・転送時間等が必要となる。
However, in addition to the voice reproduction time, the time required for mechanical processing operation and data processing in the apparatus, for example, the CD-ROM 6 until the voice output is actually completed by the voice output control. In order to read out the unit audio data from the above, the reading pickup is moved to a predetermined position on the CD-ROM 6 in which each unit audio data is stored, and the access until the unit audio data is read out. The reading time or the unit voice data read from the CD-ROM 6 is temporarily stored in the memory, and the unit voice data is combined to generate sentence voice data,
Data composition / transfer time, etc. until the sentence voice data is transferred to the D / A converter 9 are required.

【0010】従来は、CD−ROM6から読み出す単位
音声デ−タの数によって変化する前記アクセス・読出時
間や、前記文章音声デ−タのデ−タサイズによって変化
する前記デ−タ合成・転送時間を考慮せずに、音声出力
制御のための音声出力開始地点を決めていたため、音声
出力の完了地点と音声案内された実際の地図上の位置と
に誤差を生じ、音声案内のタイミングがずれてしまうな
ど、音声出力地点に対して正確なタイミングで音声出力
を行うことが困難であるといった課題があった。
Conventionally, the access / read time which changes depending on the number of unit voice data read from the CD-ROM 6 and the data synthesis / transfer time which changes depending on the data size of the text voice data are used. Since the voice output start point for voice output control was decided without considering it, an error occurs between the voice output completion point and the actual voice-guided position on the map, and the voice guidance timing shifts. As described above, there is a problem that it is difficult to output voice to the voice output point at an accurate timing.

【0011】本発明は上記課題に鑑みなされたものであ
って、音声出力地点に対する音声出力を行う際に、音声
出力の完了地点と実際の地図上の音声出力地点とに誤差
の生じない、正確なタイミングで音声出力地点に対する
音声出力を行うことのできる音声出力装置を提供するこ
とを目的としている。
The present invention has been made in view of the above-mentioned problems, and when performing voice output to a voice output point, an error does not occur between a voice output completion point and an actual voice output point on a map. An object of the present invention is to provide a voice output device capable of performing voice output to a voice output point at various timings.

【0012】[0012]

【課題を解決するための手段及びその効果】上記目的を
達成するために本発明に係る音声出力装置(1)は、記
憶媒体から音声デ−タを音声出力手段に転送し、音声出
力地点に対する音声出力を行うための音声出力制御手段
を備えた音声出力装置において、前記音声出力制御手段
が、前記音声出力地点の確認を行う音声出力地点確認手
段と、音声出力地点における音声出力デ−タの読み出し
制御の開始から、前記音声出力手段からの音声出力が完
了するまでの時間を算出する音声出力時間算出手段と、
車両の車速情報を取り込む車速情報取込手段と、該車速
情報取込手段により取り込まれた車速情報と前記音声出
力時間算出手段により算出された音声出力時間とに基づ
いて、音声出力開始地点を求める音声出力開始地点決定
手段とを備えていることを特徴としている。
In order to achieve the above object, a voice output device (1) according to the present invention transfers voice data from a storage medium to a voice output means, and outputs the voice data to a voice output point. In a voice output device provided with a voice output control means for performing voice output, the voice output control means confirms the voice output point, a voice output point confirmation means, and voice output data at the voice output point. Audio output time calculating means for calculating the time from the start of the read control to the completion of the audio output from the audio output means,
A vehicle speed information fetching means for fetching vehicle speed information of the vehicle, and a voice output start point is obtained based on the vehicle speed information fetched by the vehicle speed information fetching means and the voice output time calculated by the voice output time calculating means. The audio output start point determining means is provided.

【0013】上記音声出力装置(1)によれば、前記音
声出力地点の確認に基づいて、該音声出力地点に対する
前記音声出力時間が算出されるので、前記記憶媒体への
前記単位音声デ−タの読み取り制御から音声出力が完了
するまでに要する時間を把握することができ、音声出力
制御に関する正確な時間を把握することができる。ま
た、車速情報から前記音声出力時間内に走行する距離を
求めて、音声出力開始地点を決定することができ、自車
の走行状態を加味した音声出力のための正確なタイミン
グを計ることができ、音声出力地点に対して音声案内の
タイミングのずれることのない、実際の音声出力の完了
地点と目標とする地図上の音声出力地点とに誤差を生じ
させない正確な音声出力を行うことができる。
According to the audio output device (1), the audio output time for the audio output point is calculated based on the confirmation of the audio output point. Therefore, the unit audio data to the storage medium is calculated. It is possible to grasp the time required from the reading control to the completion of the voice output, and to grasp the accurate time regarding the voice output control. Further, it is possible to determine the voice output start point by obtaining the distance traveled within the voice output time from the vehicle speed information, and it is possible to measure an accurate timing for voice output in consideration of the traveling state of the own vehicle. It is possible to perform accurate voice output that does not cause an error between the actual voice output completion point and the target voice output point on the map, without the timing of voice guidance being shifted from the voice output point.

【0014】また本発明に係る音声出力装置(2)は、
上記音声出力装置(1)において、前記音声出力開始地
点決定手段が、前記車速情報取込手段が取り込んだ車速
情報と前記音声出力時間とから、該音声出力時間内に車
両が進む距離を算出する走行距離算出手段と、前記音声
出力地点よりも前記走行距離算出手段で求めた距離だけ
手前に現在位置が位置するか否かを判断する音声出力タ
イミング判断手段とを備えていることを特徴としてい
る。
The audio output device (2) according to the present invention is
In the audio output device (1), the audio output start point determining means calculates the distance traveled by the vehicle within the audio output time from the vehicle speed information captured by the vehicle speed information capturing means and the audio output time. And a voice output timing determining means for determining whether or not the current position is located in front of the voice output point by the distance calculated by the travel distance calculating means. .

【0015】上記音声出力装置(2)によれば、前記音
声出力地点までの距離を把握し、前記音声出力時間内に
車両が進む距離だけ前記音声出力地点よりも手前に現在
位置が位置するか否かを判断して前記音声出力開始地点
を決定することができる。したがって、自車の走行状態
を加味した音声出力のための正確なタイミングを計るこ
とができ、前記音声出力地点に対して音声案内のタイミ
ングのずれることのない、実際の音声出力の完了地点と
目標とする地図上の音声出力地点とに誤差を生じさせな
い正確な音声出力を行うことができる。
According to the voice output device (2), the distance to the voice output point is grasped, and whether the current position is located in front of the voice output point by the distance traveled by the vehicle within the voice output time. The voice output start point can be determined by determining whether or not the voice output start point is determined. Therefore, it is possible to measure an accurate timing for voice output in consideration of the running state of the own vehicle, and the actual voice output completion point and the target point without deviation of the voice guidance timing from the voice output point. It is possible to perform accurate voice output without causing an error with the voice output point on the map.

【0016】また本発明に係る音声出力装置(3)は、
上記音声出力装置(1)又は(2)において、前記音声
出力時間算出手段が、前記記憶媒体から単位音声デ−タ
のアクセス・読み出しするのに必要なアクセス・読出時
間を算出するアクセス・読出時間算出手段と、前記記憶
媒体から読み出された前記単位音声デ−タを合成し、前
記音声出力手段への文章音声デ−タの転送が完了するま
でに要するデ−タ合成・転送時間を算出するデ−タ合成
・転送時間算出手段と、前記文章音声デ−タのデ−タサ
イズを算出する音声サイズ算出手段と、該音声サイズ算
出手段により算出されたデ−タサイズから前記文章音声
デ−タの再生に要する時間を算出する文章音声デ−タ再
生時間算出手段とを備えていることを特徴としている。
The audio output device (3) according to the present invention is
In the audio output device (1) or (2), the audio output time calculating means calculates an access / read time necessary for accessing / reading the unit audio data from the storage medium. The calculation unit and the unit voice data read from the storage medium are combined to calculate the data combination / transfer time required for completing the transfer of the text voice data to the voice output unit. Data synthesizing / transfer time calculating means, a voice size calculating means for calculating the data size of the text voice data, and the text voice data from the data size calculated by the voice size calculating means. And a sentence voice data reproduction time calculation means for calculating the time required for reproduction of the.

【0017】上記音声出力装置(3)によれば、前記文
章音声デ−タの構成、例えば、単位音声デ−タ数やデ−
タサイズ等によって変化する前記アクセス・読出時間、
前記デ−タ合成・転送時間、及び前記文章音声デ−タの
再生に要する時間をそれぞれ算出し、音声出力制御の際
に誤差の生じやすい処理時間を考慮して、前記音声出力
デ−タの出力時間を算出するので、時間的な誤差の少な
い正確な前記音声出力デ−タの出力時間を算出すること
ができる。したがって、前記音声出力地点に対して音声
案内のタイミングのずれることのない、実際の音声出力
の完了地点と目標とする地図上の音声出力地点とに誤差
を生じさせない正確な音声出力を行うことができる。
According to the voice output device (3), the structure of the sentence voice data, for example, the number of unit voice data and the data.
Access / reading time, which varies depending on the size,
The data synthesizing / transferring time and the time required to reproduce the text voice data are calculated respectively, and in consideration of the processing time in which an error is likely to occur during voice output control, the voice output data Since the output time is calculated, it is possible to calculate the accurate output time of the audio output data with little time error. Therefore, it is possible to perform accurate voice output that does not cause a difference between the actual voice output completion point and the target voice output point on the map without shifting the timing of voice guidance with respect to the voice output point. it can.

【0018】また本発明に係る音声出力装置(4)は、
上記音声出力装置(3)において、前記アクセス・読出
時間算出手段が、前記記憶媒体から前記単位音声デ−タ
を読み出すためのアクセス毎にアクセス・読出時間を計
測し、該計測されたアクセス・読出時間と過去の平均ア
クセス・読出時間とから最新の平均アクセス・読出時間
を算出し、該最新の平均アクセス・読出時間が記憶され
ているアクセス・読出時間記憶手段から前記最新の平均
アクセス・読出時間を読み出して前記文章音声デ−タの
アクセス・読出時間を算出するものであることを特徴と
している。
The audio output device (4) according to the present invention is
In the audio output device (3), the access / readout time calculating means measures an access / readout time for each access for reading out the unit audio data from the storage medium, and the measured access / readout is measured. The latest average access / read time is calculated from the time and the past average access / read time, and the latest average access / read time is stored from the access / read time storage means in which the latest average access / read time is stored. Is read out to calculate the access / readout time of the text voice data.

【0019】上記音声出力装置(4)によれば、前記ア
クセス・読出時間算出手段が、前記最新の平均アクセス
・読出時間を読み出して前記文章音声デ−タのアクセス
・読出時間を算出するものであるので、前記文章音声デ
−タを構成する単位音声デ−タ数に前記最新の平均アク
セス・読出時間を掛け合わせて算出されるアクセス・読
出時間を利用して、実際のアクセス・読出時間に近く、
精度の高いアクセス・読出時間を容易に算出することが
でき、前記音声出力時間の誤差をより一層小さくするこ
とができる。
According to the voice output device (4), the access / readout time calculating means reads out the latest average access / readout time and calculates the access / readout time of the text voice data. Therefore, the access / read time calculated by multiplying the number of unit voice data constituting the text voice data by the latest average access / read time is used to calculate the actual access / read time. near,
A highly accurate access / readout time can be easily calculated, and the error in the audio output time can be further reduced.

【0020】また本発明に係る音声出力装置(5)は、
上記音声出力装置(3)又は(4)において、前記デ−
タ合成・転送時間算出手段が、前記デ−タ合成・転送時
間を音声出力毎に計測し、計測された前記デ−タ合成・
転送時間と転送される前記文章音声デ−タのデ−タサイ
ズとから単位サイズ当たりのデ−タ合成・転送時間を算
出し、算出された前記単位サイズ当たりのデ−タ合成・
転送時間と過去の単位サイズ当たりの平均デ−タ合成・
転送時間とから最新の単位サイズ当たりの平均デ−タ合
成・転送時間を算出し、該最新の単位サイズ当たりの平
均デ−タ合成・転送時間が記憶されているデ−タ合成・
転送時間記憶手段から前記最新の前記単位サイズ当たり
の平均デ−タ合成・転送時間を読み出して前記文章音声
デ−タのデ−タ合成・転送時間を算出するものであるこ
とを特徴としている。
The audio output device (5) according to the present invention is
In the audio output device (3) or (4), the data
A data synthesizing / transferring time calculating means measures the data synthesizing / transferring time for each voice output, and measures the measured data synthesizing / transferring time.
Data composition per unit size is calculated from the transfer time and the data size of the text voice data to be transferred. Transfer time is calculated, and the calculated data composition per unit size is calculated.
Transfer time and average data composition per unit size in the past
The latest average data composition / transfer time per unit size is calculated from the transfer time, and the latest average data composition / transfer time per unit size is stored.
It is characterized in that the latest average data composition / transfer time per unit size is read out from the transfer time storage means to calculate the data composition / transfer time of the text voice data.

【0021】上記音声出力装置(5)によれば、前記デ
−タ合成・転送時間算出手段が、前記最新の単位サイズ
当たりの平均デ−タ合成・転送時間を読み出して前記文
章音声デ−タのデ−タ合成・転送時間を算出するもので
あるので、前記最新の単位サイズ当たりの平均デ−タ合
成・転送時間を利用することで、前記文章音声デ−タの
デ−タサイズが分かれば、より実際のデ−タ合成・転送
時間に近い、精度の高いデ−タ合成・転送時間を容易に
算出することができ、前記音声出力時間の誤差をより一
層小さくすることができる。
According to the voice output device (5), the data synthesizing / transferring time calculating means reads out the latest average data synthesizing / transferring time per unit size and outputs the sentence voiced data. Since the data synthesizing / transferring time of the sentence voice data is calculated by using the average data synthesizing / transferring time per the latest unit size, It is possible to easily calculate a highly accurate data synthesis / transfer time that is closer to the actual data synthesis / transfer time, and further reduce the error in the audio output time.

【0022】また本発明に係る音声出力装置(6)は、
上記音声出力装置(1)又は(2)において、前記音声
出力時間算出手段が、前記記憶媒体への前記単位音声デ
−タのアクセス開始から前記文章音声デ−タの転送完了
までのアクセス・読出・合成・転送に要する音声デ−タ
処理時間を算出する音声デ−タ処理時間算出手段を含ん
でいることを特徴としている。
The audio output device (6) according to the present invention is
In the voice output device (1) or (2), the voice output time calculating means performs access / reading from the start of access of the unit voice data to the storage medium to the completion of transfer of the text voice data. It is characterized in that it includes a voice data processing time calculating means for calculating a voice data processing time required for synthesis and transfer.

【0023】上記音声出力装置(6)によれば、前記文
章音声デ−タの構成、例えば、単位音声デ−タ数やデ−
タサイズ等によって変化する前記アクセス・読出時間と
前記デ−タ合成・転送時間とを含む一連の処理時間を音
声デ−タ処理時間として算出するので、より簡単に音声
出力時間を算出することができ、前記音声出力開始地点
を早く正確に検出することができる。したがって、音声
出力開始地点までの音声出力時間の算出にも余裕がで
き、デ−タの処理効率を高めることができる。
According to the voice output device (6), the structure of the sentence voice data, for example, the number of unit voice data and the data.
Since a series of processing times including the access / reading time and the data composition / transfer time that vary depending on the data size and the like are calculated as the audio data processing time, the audio output time can be calculated more easily. The voice output start point can be detected quickly and accurately. Therefore, the calculation of the voice output time up to the voice output start point has a margin, and the data processing efficiency can be improved.

【0024】また本発明に係る音声出力装置(7)は、
上記音声出力装置(6)において、前記音声デ−タ処理
時間算出手段が、前記音声デ−タ処理時間を音声出力毎
に計測し、計測された前記音声デ−タ処理時間と出力さ
れる前記文章音声デ−タの単位デ−タサイズ数とから単
位デ−タサイズ当たりの音声デ−タ処理時間を算出し、
算出された前記単位デ−タサイズ当たりの音声デ−タ処
理時間と過去の単位デ−タサイズ当たりの平均音声デ−
タ処理時間とから最新の単位デ−タサイズ当たりの平均
音声デ−タ処理時間を算出し、該最新の単位デ−タサイ
ズ当たりの平均音声デ−タ処理時間が記憶されている音
声デ−タ処理時間記憶手段から前記最新の単位デ−タサ
イズ当たりの平均音声デ−タ処理時間を読み出して前記
文章音声デ−タの音声デ−タ処理時間を算出するもので
あることを特徴としている。
The voice output device (7) according to the present invention is
In the voice output device (6), the voice data processing time calculating means measures the voice data processing time for each voice output, and outputs the measured voice data processing time. Calculate the voice data processing time per unit data size from the unit data size number of the text voice data,
The calculated voice data processing time per unit data size and the average voice data per unit data size in the past.
An audio data processing in which the latest average audio data processing time per unit data size is calculated from the data processing time and the latest average audio data processing time per unit data size is stored. It is characterized in that the latest average voice data processing time per unit data size is read from the time storage means to calculate the voice data processing time of the text voice data.

【0025】上記音声出力装置(7)によれば、前記音
声デ−タ処理時間算出手段が、前記最新の単位デ−タサ
イズ当たりのアクセス・読出・合成・転送に要する平均
音声デ−タ処理時間を読み出して前記文章音声デ−タの
音声デ−タ処理時間を算出するものであるので、前記最
新の単位デ−タサイズ当たりの平均音声デ−タ処理時間
を利用することで、前記文章音声デ−タの単位デ−タサ
イズ数が分かれば、実際の音声デ−タ処理時間に近い、
精度の高い音声デ−タ処理時間を容易に算出することが
でき、前記音声出力時間の誤差をより一層少なくするこ
とができる。
According to the audio output device (7), the audio data processing time calculating means calculates the average audio data processing time required for access, reading, synthesis and transfer per the latest unit data size. Is read out to calculate the voice data processing time of the text voice data. Therefore, by using the average voice data processing time per the latest unit data size, the text voice data is processed. -If the number of unit data sizes of data is known, it is close to the actual audio data processing time,
A highly accurate voice data processing time can be easily calculated, and the error in the voice output time can be further reduced.

【0026】また本発明に係る音声出力装置(8)は、
上記音声出力装置(4)において、前記記憶媒体から前
記単位音声デ−タを読み出すためのアクセス毎にアクセ
ス・読出時間を計測し、計測された前記アクセス・読出
時間と過去に計測された平均アクセス・読出時間とから
最新の平均アクセス・読出時間を算出し、該最新の平均
アクセス・読出時間を、アクセス毎に更新して、前記ア
クセス・読出時間記憶手段に記憶させていく第1の学習
手段を備えていることを特徴としている。
The audio output device (8) according to the present invention is
In the audio output device (4), an access / read time is measured for each access for reading the unit audio data from the storage medium, and the measured access / read time and the average access measured in the past. First learning means for calculating the latest average access / read time from the read time, updating the latest average access / read time for each access, and storing it in the access / read time storage means It is characterized by having.

【0027】上記音声出力装置(8)によれば、前記平
均アクセス・読出時間が前記記録媒体へのアクセス毎に
更新記憶されて行くので、アクセス・読出時間の算出時
において、過去のアクセス・読出時間が考慮された、よ
り精度の高い平均アクセス・読出時間を用いることがで
き、より一層誤差の少ないアクセス・読出時間を算出す
ることができる。
According to the audio output device (8), the average access / readout time is updated and stored for each access to the recording medium. Therefore, when the access / readout time is calculated, the past access / readout is calculated. A more accurate average access / read time in consideration of time can be used, and an access / read time with a smaller error can be calculated.

【0028】また本発明に係る音声出力装置(9)は、
上記音声出力装置(5)において、前記デ−タ合成・転
送時間を音声出力毎に計測し、計測された前記デ−タ合
成・転送時間と転送される前記文章音声デ−タのデ−タ
サイズとから単位サイズ当たりのデ−タ合成・転送時間
を算出し、算出された前記単位サイズ当たりのデ−タ合
成・転送時間と過去の単位サイズ当たりの平均デ−タ合
成・転送時間とから最新の単位サイズ当たりの平均デ−
タ合成・転送時間を算出し、該最新の単位サイズ当たり
の平均デ−タ合成・転送時間を、音声出力処理毎に更新
して、前記デ−タ合成・転送時間記憶手段に記憶させて
いく第2の学習手段を備えていることを特徴としてい
る。
The voice output device (9) according to the present invention is
In the voice output device (5), the data synthesizing / transferring time is measured for each voice output, and the measured data synthesizing / transferring time and the data size of the sentence voice data transferred. The data composition / transfer time per unit size is calculated from and the latest data composition / transfer time is calculated from the calculated data composition / transfer time per unit size and the past average data composition / transfer time per unit size. Average data per unit size of
The data synthesizing / transferring time is calculated, the latest average data synthesizing / transferring time per unit size is updated for each audio output process, and stored in the data synthesizing / transferring time storage means. It is characterized in that a second learning means is provided.

【0029】上記音声出力装置(9)によれば、前記単
位サイズ当たりの平均デ−タ合成・転送時間が、音声出
力処理毎に更新記憶されて行くので、デ−タ合成・転送
時間の算出時において、過去のデ−タ合成・転送時間が
考慮された、より精度の高い単位サイズ当たりの平均デ
−タ合成・転送時間を用いることができ、より一層誤差
の少ないデ−タ合成・転送時間を算出することができ
る。
According to the audio output device (9), the average data composition / transfer time per unit size is updated and stored for each audio output process. Therefore, the data composition / transfer time is calculated. In some cases, a more accurate average data composition / transfer time per unit size that takes into account past data composition / transfer time can be used, and data composition / transfer with less error can be used. The time can be calculated.

【0030】また本発明に係る音声出力装置(10)
は、上記音声出力装置(7)において、前記音声デ−タ
処理時間を音声出力処理毎に計測し、計測された前記音
声デ−タ処理時間と転送される前記文章音声デ−タの単
位デ−タサイズ数とから単位デ−タサイズ当たりのアク
セス・読出・合成・転送に要する音声デ−タ処理時間を
算出し、該単位デ−タサイズ当たりの音声デ−タ処理時
間を、音声出力処理毎に更新して、前記音声デ−タ処理
時間記憶手段に記憶させていく第3の学習手段を備えて
いることを特徴としている。
A voice output device (10) according to the present invention.
The voice output device (7) measures the voice data processing time for each voice output process, and the measured voice data processing time and the unit data of the sentence voice data transferred. -Calculate the audio data processing time required for access / reading / synthesis / transfer per unit data size from the number of data sizes, and calculate the audio data processing time per unit data size for each audio output process. A third learning means for updating and storing in the voice data processing time storage means is provided.

【0031】上記音声出力装置(10)によれば、前記
単位デ−タサイズ当たりの平均音声デ−タ処理時間が、
音声出力処理毎に更新記憶されて行くので、文章音声デ
−タの音声デ−タ処理時間の算出時において、過去の音
声デ−タ処理時間が考慮された、より精度の高い単位デ
−タサイズ当たりの音声デ−タ処理時間を用いることが
でき、より一層誤差の少ない文章音声デ−タの音声デ−
タ処理時間を算出することができる。
According to the audio output device (10), the average audio data processing time per unit data size is
Since it is updated and stored for each voice output process, a more accurate unit data size in consideration of past voice data processing time when calculating the voice data processing time of text voice data. The voice data processing time per hit can be used, and the voice data of the sentence voice data with less error can be used.
Processing time can be calculated.

【0032】[0032]

【発明の実施の形態】以下、本発明に係る音声出力装置
の実施の形態を図面に基づいて説明する。図1は、本発
明の実施の形態に係る音声出力装置を備えたナビゲ−シ
ョンシステムの要部を概略的に示したブロック図であ
る。但し、ここでは図6に示したナビゲ−ションシステ
ムと同様の構成部分については、同符号を付し、その説
明を省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a voice output device according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of a navigation system including a voice output device according to an embodiment of the present invention. However, here, the same components as those in the navigation system shown in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted.

【0033】図1に示したナビゲ−ションシステムにお
いては、車速センサ2とジャイロセンサ3とがマイコン
1に接続されており、マイコン1は演算した走行距離、
及び進行方向に基づいて自車位置を割り出すようになっ
ている(自立航法)。また、GPS受信機4がマイコン
1に接続されており、マイコン1はGPS信号に基づい
て自車位置を割り出すようになっている(GPS航
法)。
In the navigation system shown in FIG. 1, a vehicle speed sensor 2 and a gyro sensor 3 are connected to a microcomputer 1, and the microcomputer 1 calculates a traveled distance,
Also, the vehicle position is determined based on the traveling direction (self-contained navigation). Further, the GPS receiver 4 is connected to the microcomputer 1, and the microcomputer 1 is adapted to determine the vehicle position based on the GPS signal (GPS navigation).

【0034】CDドライブ5がマイコン1に接続されて
おり、CDドライブ5は、マイコン1からの制御信号に
応じて、地図デ−タや音声デ−タ等が記憶されたCD−
ROM6にアクセスして必要なデ−タを読み出し、読み
出したデ−タ信号をマイコン1に出力するようになって
いる。
A CD drive 5 is connected to the microcomputer 1, and the CD drive 5 stores a CD-data in which map data, voice data and the like are stored according to a control signal from the microcomputer 1.
The ROM 6 is accessed to read necessary data, and the read data signal is output to the microcomputer 1.

【0035】CD−ROM6には音声デ−タ(波形デ−
タ)が、ナビゲ−ションの音声案内に適した単位(単位
音声デ−タ)で読み出し可能に記憶されている。例え
ば、「およそ、」、「300」、「m先」、「右方
向」、「です。」等といった単位で記憶され、これらを
読み出し組み合わせて「およそ、300m先右方向で
す。」といった具合に音声案内するようになっている。
The CD-ROM 6 has voice data (waveform data).
Data) is readable and stored in units suitable for voice guidance of navigation (unit voice data). For example, it is stored in units such as "approx.", "300", "m ahead", "right direction", "is.", Etc., and these are read out and combined, and "about 300 m ahead right direction." Voice guidance is provided.

【0036】また、リモコン7に設けられたジョイステ
ィック7aやボタンスイッチ7bから入力されたスイッ
チ信号や、表示装置8に設けられたボタンスイッチ8b
から入力されたスイッチ信号がマイコン1に入力され、
これらスイッチ信号に応じた処理がマイコン1で行われ
るようになっている。
The switch signal input from the joystick 7a and the button switch 7b provided on the remote controller 7 and the button switch 8b provided on the display device 8 are also provided.
The switch signal input from is input to the microcomputer 1,
Processing according to these switch signals is performed by the microcomputer 1.

【0037】例えば、マイコン1はこれらスイッチから
移動目的地の情報を取り込むと、自車位置から目的地ま
での最適ル−トを探索し、これを誘導ル−トとして地図
と共に表示パネル8a上に表示するようになっている。
For example, when the microcomputer 1 fetches the information of the moving destination from these switches, it searches for the optimum route from the vehicle position to the destination and uses it as a guide route on the display panel 8a together with the map. It is supposed to be displayed.

【0038】マイコン1には、各種デ−タ、プログラム
の記憶、また演算処理のために用いられるメモリ12が
接続されており、メモリ12は、電源がオフされても記
憶内容が保持されているROM12a、及びバックアッ
プ電源が供給されるRAM12bを含んで構成されてい
る。また、学習値等のデ−タの書き込みが可能なEEP
ROM13がマイコン1に接続されている。
A memory 12 used for storing various data and programs and for arithmetic processing is connected to the microcomputer 1. The memory 12 retains the stored contents even when the power is turned off. It is configured to include a ROM 12a and a RAM 12b to which backup power is supplied. In addition, the EEP is capable of writing data such as learning values.
The ROM 13 is connected to the microcomputer 1.

【0039】CD−ROM6の音声デ−タ記憶領域に
は、各単位音声デ−タ毎のデ−タサイズが一覧となった
音声デ−タサイズテ−ブルが記憶されている。マイコン
1からの制御信号に応じてCD−ROM6から読み取ら
れた音声デ−タサイズテ−ブルがメモリ12のRAM1
2bの一部領域に記憶されるようになっている。そし
て、音声デ−タサイズテ−ブルのデ−タを利用して、案
内内容に応じて構成される文章音声デ−タのデ−タサイ
ズを求めることができるようになっている。
The audio data storage area of the CD-ROM 6 stores an audio data size table in which the data size of each unit audio data is listed. The voice data size table read from the CD-ROM 6 according to the control signal from the microcomputer 1 is the RAM 1 of the memory 12.
The data is stored in a partial area of 2b. Then, by using the data of the voice data size table, the data size of the sentence voice data composed according to the contents of the guidance can be obtained.

【0040】EEPROM13には、CD−ROM6か
ら単位音声デ−タを読み出すためのアクセス毎にアクセ
ス・読出時間が計測、更新され、最新の平均アクセス・
読出時間が記憶される領域が設けられている。平均アク
セス・読出時間が記憶されるアクセス・読出時間テ−ブ
ルには、マイコン1からの制御信号により読み取り用の
ピックアップが移動されるサ−チシ−ク時間と、CD−
ROM6の所定位置から単位音声デ−タが読み出される
までの時間とがアクセス・読出時間として単位音声デ−
タが読み出される毎に計測され、アクセス毎に新たに計
測されたアクセス・読出時間と前回までの平均アクセス
・読出時間とから算出される最新の平均アクセス・読出
時間が更新記憶されるようになっている。
In the EEPROM 13, the access / reading time is measured and updated for each access for reading the unit voice data from the CD-ROM 6, and the latest average access
An area for storing the read time is provided. In the access / read time table in which the average access / read time is stored, the search time for moving the read pickup by the control signal from the microcomputer 1 and the CD-
The time from the predetermined position of the ROM 6 until the unit voice data is read is the unit voice data as the access / read time.
Data is measured each time it is read, and the latest average access / read time calculated from the access / read time newly measured for each access and the average access / read time up to the previous time is updated and stored. ing.

【0041】またEEPROM13には、単位サイズ当
たりの平均デ−タ合成・転送時間が音声出力処理毎に更
新記憶される領域が設けられている。単位サイズ当たり
の平均デ−タ転送時間が記憶されるデ−タ合成・転送時
間テ−ブルには、CD−ROM6から読み出された単位
音声デ−タが一旦RAM12a上に格納され、RAM1
2aから所定の順番で単位音声デ−タが読み出され組み
立てられて文章音声デ−タが生成され、該文章音声デ−
タがD/A変換器9からの出力フォ−マットに変換さ
れ、D/A変換器9への転送が完了するまでのデ−タ合
成・転送時間が、音声出力処理毎に計測され、計測され
た前記デ−タ合成・転送時間と転送された前記文章音声
デ−タのデ−タサイズとから単位サイズ当たりのデ−タ
合成・転送時間が音声出力処理毎に算出され、音声出力
処理毎に新たに算出された単位サイズ当たりのデ−タ合
成・転送時間と前回までの単位サイズ当たりの平均デ−
タ合成・転送時間とから算出される最新の単位サイズ当
たりの平均デ−タ合成・転送時間が更新記憶されるよう
になっている。
Further, the EEPROM 13 is provided with an area where the average data composition / transfer time per unit size is updated and stored for each audio output process. In the data synthesis / transfer time table in which the average data transfer time per unit size is stored, the unit voice data read from the CD-ROM 6 is temporarily stored in the RAM 12a and the RAM 1
2a, unit voice data is read out in a predetermined order and assembled to generate sentence voice data, and the sentence voice data is generated.
Data is converted into an output format from the D / A converter 9, and data composition / transfer time until transfer to the D / A converter 9 is completed is measured and measured for each audio output process. The data synthesis / transfer time per unit size is calculated for each voice output process from the data synthesis / transfer time that has been transferred and the data size of the transferred text voice data, and for each voice output process. Newly calculated data composition / transfer time per unit size and average data per unit size up to the previous time.
The latest average data composition / transfer time per unit size calculated from the data composition / transfer time is updated and stored.

【0042】また、マイコン1は単位音声デ−タの組み
合わせにより構成された文章音声デ−タをD/A変換器
9に出力し、D/A変換器9は文章音声デ−タのデジタ
ル信号をアナログ信号に変換して増幅器10に出力す
る。そして増幅器10はアナログ信号に変換された音声
信号を増幅して車室内に設けられたスピ−カ11から音
声として出力するようになっている。
Further, the microcomputer 1 outputs the sentence voice data composed of a combination of unit voice data to the D / A converter 9, and the D / A converter 9 outputs a digital signal of the sentence voice data. Is converted into an analog signal and output to the amplifier 10. The amplifier 10 amplifies the audio signal converted into an analog signal and outputs it as a sound from a speaker 11 provided in the vehicle compartment.

【0043】音声出力の際のマイコン1の行う動作を簡
単に説明すると次のようになる。マイコン1は、交差点
等に接近する等して音声による経路案内を行う必要が生
じた場合、その際の案内内容(再生文章)から音声合成
に必要な単位音声デ−タを求め、CDドライブ5に、該
当する単位音声デ−タをCD−ROM6から読み出すよ
うに制御信号を出力する。そして、CD−ROM6から
読み出させた複数の単位音声デ−タを一旦RAM12b
に格納し、格納された前記単位音声デ−タを文章となる
ように組み合わせて文章音声デ−タを生成し、D/A変
換器9に出力する。この後、D/A変換器9で文章音声
デ−タを構成するデジタル信号がアナログ信号に変換さ
れ、アナログ信号に変換された音声信号(文章)が増幅
器10で増幅され、スピ−カ11から音声として出力さ
れるようになっている。
The operation performed by the microcomputer 1 at the time of voice output will be briefly described as follows. When it becomes necessary to provide route guidance by voice when approaching an intersection or the like, the microcomputer 1 obtains unit voice data required for voice synthesis from the guide content (playback sentence) at that time, and the CD drive 5 Then, a control signal is output so that the corresponding unit audio data is read from the CD-ROM 6. Then, the plurality of unit voice data read from the CD-ROM 6 is temporarily stored in the RAM 12b.
The unit voice data stored therein are combined so as to form a sentence to generate sentence voice data, and the sentence voice data is output to the D / A converter 9. After that, the digital signal forming the sentence voice data is converted into an analog signal by the D / A converter 9, and the voice signal (sentence) converted into the analog signal is amplified by the amplifier 10 and is output from the speaker 11. It is designed to be output as voice.

【0044】次にマイコン1の行う音声出力処理動作に
ついて説明する。図2は、マイコン1の行う第1の音声
出力処理例を示すフロ−チャ−トであり、音声出力要求
があるときに実行される。図3はマイコン1の音声出力
処理動作を説明するためのル−ト案内図を示しており、
実線により誘導経路が示されている。
Next, the voice output processing operation performed by the microcomputer 1 will be described. FIG. 2 is a flowchart showing a first audio output processing example performed by the microcomputer 1, which is executed when an audio output request is made. FIG. 3 shows a route guide diagram for explaining the voice output processing operation of the microcomputer 1.
The solid line indicates the guide route.

【0045】まず、ステップS1では、音声出力地点を
確認したか否かを判断する。自車の現在位置が誘導経路
に従って交差点Aを左折した位置にあるとすると、まず
マイコン1は、誘導経路上の次のル−ト変更地点である
交差点Bを検出して、交差点Bまでの距離が700m以
上あるか否かを判断し、700m以上あると判断すれ
ば、交差点Bの手前700m地点を次の音声出力地点と
して確認する。なお、本ナビゲ−ションシステムでは、
ル−ト変更地点の700m、300m、100m手前で
音声案内が行われるものとする。
First, in step S1, it is determined whether or not the voice output point has been confirmed. Assuming that the current position of the vehicle is at the position where the intersection A is turned left according to the guide route, the microcomputer 1 first detects the intersection B, which is the next route change point on the guide route, and detects the distance to the intersection B. Is 700 m or more, and if it is 700 m or more, the 700 m point before the intersection B is confirmed as the next audio output point. In this navigation system,
It is assumed that voice guidance is provided 700 m, 300 m, and 100 m before the route change point.

【0046】ステップS1において、音声出力地点を確
認していないと判断すれば、ステップS1に戻り、次の
音声出力地点を確認するまで処理を繰り返す。一方、ス
テップS1において、音声出力地点を確認したと判断す
れば、ステップS2に進み、音声出力時間が算出済か否
かを判断する。
If it is determined in step S1 that the voice output point is not confirmed, the process returns to step S1 and the process is repeated until the next voice output point is confirmed. On the other hand, if it is determined in step S1 that the voice output point has been confirmed, the process proceeds to step S2, and it is determined whether the voice output time has been calculated.

【0047】例えば、図3に示したル−ト案内において
は、交差点Bの手前700m地点の音声案内を行うため
の音声出力時間が算出済であるか否かを判断する。なお
図4に、音声出力時間の構成を示している。音声出力時
間は、以下のステップS3〜ステップS7で算出するア
クセス・読出時間とデ−タ合成・転送時間と音声再生時
間とにより構成されている。
For example, in the route guidance shown in FIG. 3, it is determined whether or not the voice output time for performing the voice guidance at a point 700 m before the intersection B has been calculated. Note that FIG. 4 shows the structure of the audio output time. The audio output time is composed of an access / readout time, data synthesis / transfer time, and audio reproduction time calculated in steps S3 to S7 below.

【0048】ステップS2における判断で、次の音声出
力地点に対する音声出力時間が算出済であると判断すれ
ば、ステップS8に進む。一方、ステップ2における判
断で、音声出力時間が算出済ではないと判断すれば、ス
テップS3に進み、単位音声デ−タ1個当たりのアクセ
ス・読出に要する平均アクセス・読出時間が格納されて
いるアクセス・読出時間テ−ブルから最新の平均アクセ
ス・読出時間を読み出し、今回の音声案内で再生される
文章を構成する単位音声デ−タ数に基づいて、全ての単
位音声デ−タをCD−ROM6から読み出すためのアク
セス・読出時間を算出して、ステップS4に進む。
If it is determined in step S2 that the voice output time for the next voice output point has been calculated, the process proceeds to step S8. On the other hand, if it is determined in step 2 that the voice output time has not been calculated, the process proceeds to step S3, and the average access / read time required for access / read per unit voice data is stored. The latest average access / readout time is read out from the access / readout time table, and all unit voice data are CD-based on the basis of the number of unit voice data forming the sentence reproduced in this voice guidance. The access / read time for reading from the ROM 6 is calculated, and the process proceeds to step S4.

【0049】図3に示したル−ト案内において、交差点
Bの手前700m地点で音声再生される文章が、例え
ば、「およそ、」、「700」、「m先」、「右方
向」、「です。」の5つの単位音声デ−タで構成されて
いるとすると、アクセス・読出時間テ−ブルに記憶され
ている最新の平均アクセス・読出時間が、例えば、0.
30sec/個であるとすると、今回音声再生される文
章音声デ−タのアクセス・読出時間は0.30(sec
/個)×5(個)=1.50(sec)として算出され
る。
In the route guidance shown in FIG. 3, the text reproduced at 700 m before the intersection B is, for example, "about", "700", "m ahead", "right direction", " 5 unit voice data, the latest average access / read time stored in the access / read time table is, for example, 0.
If it is 30 sec / piece, the access / reading time of the text voice data reproduced by voice this time is 0.30 (sec).
/ Piece) × 5 (piece) = 1.50 (sec).

【0050】ステップS4では、再生文章を構成する単
位音声デ−タのIDに基づいて単位音声デ−タのデ−タ
サイズが格納されている単位音声デ−タサイズテ−ブル
から該当する単位音声デ−タのサイズを読み出して、文
書音声デ−タのデ−タサイズを算出して、ステップS5
に進む。
In step S4, the corresponding unit voice data is selected from the unit voice data size table in which the data size of the unit voice data is stored based on the ID of the unit voice data forming the reproduced sentence. The size of the data is read out, the data size of the document voice data is calculated, and step S5
Proceed to.

【0051】図3に示したル−ト案内において、例え
ば、交差点Bの手前700m地点における音声案内のた
めの文章音声デ−タが、「およそ、」、「700」、
「m先」、「右方向」、「です。」といった5つの単位
音声デ−タから構成されているとすれば、これら5つの
単位音声デ−タのデ−タサイズを単位音声デ−タサイズ
テ−ブルから読み出して、各単位音声デ−タのデ−タサ
イズを合計し、文章音声デ−タのデ−タサイズを算出す
る。
In the route guidance shown in FIG. 3, for example, the text voice data for voice guidance at a point 700 m before the intersection B is "approximately", "700",
If it is composed of five unit voice data such as “m ahead”, “to the right”, and “is.”, The data size of these five unit voice data is the unit voice data size data. Then, the data size of each unit voice data is summed up and the data size of the sentence voice data is calculated.

【0052】ステップS5では、ステップS4で算出し
た文章音声デ−タのデ−タサイズから文章音声デ−タの
音声再生時間を算出して、ステップS6に進む。音声再
生時間は、CD−ROM6のデ−タ圧縮方式に基づいて
文章音声デ−タのデ−タサイズから算出することができ
る。
In step S5, the voice reproduction time of the text voice data is calculated from the data size of the text voice data calculated in step S4, and the flow advances to step S6. The voice reproduction time can be calculated from the data size of the text voice data based on the data compression method of the CD-ROM 6.

【0053】図3に示したル−ト案内において、交差点
Bの手前700m地点における音声再生される文章「お
よそ、700m先右方向です。」の再生時間は、例えば
3secと算出される。
In the route guidance shown in FIG. 3, the reproduction time of the sentence "about 700 m ahead in the right direction" which is reproduced by voice at a point 700 m before the intersection B is calculated to be, for example, 3 sec.

【0054】ステップS6では、デ−タ合成・転送時間
テ−ブルから最新の単位サイズ当たりの平均デ−タ合成
・転送時間を読み出し、ステップS4で算出した文章音
声デ−タのデ−タサイズから今回の文章音声デ−タのデ
−タ合成・転送時間を算出する。
In step S6, the latest average data composition / transfer time per unit size is read from the data composition / transfer time table, and is read from the data size of the text voice data calculated in step S4. The data synthesis / transfer time of the sentence voice data this time is calculated.

【0055】図3に示したル−ト案内において、例え
ば、デ−タ合成・転送時間テ−ブルに記憶されている単
位サイズ当たりのデ−タ合成・転送時間が、0.36m
sec/kbitであるとすると、ステップS4で算出
した文章音声デ−タのデ−タサイズが801.5kbi
tであるので、今回の文章音声デ−タのデ−タ合成・転
送時間は、例えば0.29secと算出される。
In the route guidance shown in FIG. 3, for example, the data composition / transfer time per unit size stored in the data composition / transfer time table is 0.36 m.
If it is sec / kbit, the data size of the text voice data calculated in step S4 is 801.5 kbi.
Since it is t, the data synthesis / transfer time of the text voice data this time is calculated to be 0.29 sec, for example.

【0056】ステップS7では、ステップS3で算出し
たアクセス・読出時間とステップS5で算出した文章音
声デ−タの音声再生時間とステップS6で算出した文章
音声デ−タのデ−タ合成・転送時間とを加算して音声出
力時間を算出して、ステップS8に進む。図3に示した
ル−ト案内においては、アクセス・読出時間に1.5s
ec、音声再生時間に3sec、デ−タ合成・転送時間
に0.29sec要し、これらを加算した4.79se
cが音声出力時間として算出される。
In step S7, the access / readout time calculated in step S3, the voice reproduction time of the text voice data calculated in step S5, and the data synthesis / transfer time of the text voice data calculated in step S6. Is added to calculate the voice output time, and the process proceeds to step S8. In the route guidance shown in FIG. 3, the access / readout time is 1.5 seconds.
ec, 3 seconds for voice reproduction time, 0.29 seconds for data synthesis / transfer time, and 4.79se
c is calculated as the voice output time.

【0057】ステップS8では、車両に装備された車速
センサ2から車速デ−タを取得してステップS9に進
む。ステップS9では、取得した車速デ−タからステッ
プS7で算出した音声出力時間内に走行する距離を算出
し、ステップS10に進む。この場合、例えば、取得し
た車速デ−タが、50km/hであったとすると、ステ
ップS7で算出された音声出力時間が4.79secで
あるので、この間に走行する距離は、約67mと算出さ
れ、音声出力地点から約67m手前の地点が音声出力開
始地点に設定される。
In step S8, vehicle speed data is acquired from the vehicle speed sensor 2 mounted on the vehicle, and the process proceeds to step S9. In step S9, the distance traveled within the voice output time calculated in step S7 is calculated from the acquired vehicle speed data, and the process proceeds to step S10. In this case, for example, if the acquired vehicle speed data is 50 km / h, the voice output time calculated in step S7 is 4.79 sec, so the distance traveled during this period is calculated to be about 67 m. The point about 67 m before the audio output point is set as the audio output start point.

【0058】ステップS10では、現在位置が音声出力
地点に対する音声出力開始地点Cに到達したか否かを判
断し、音声出力制御を開始するタイミングであるか否か
を判断する。図3に示したル−ト案内の場合、現在位置
が次の音声出力地点である交差点Bの700m手前の地
点から、ステップS9で算出した距離、約67mほど手
前の位置(音声出力開始地点C)に到達したか否かを判
断する。
In step S10, it is determined whether or not the current position has reached the voice output start point C with respect to the voice output point, and whether or not it is time to start the voice output control. In the case of the route guidance shown in FIG. 3, the distance calculated in step S9 from the point where the current position is 700 m before the next voice output point, the intersection B, is about 67 m before (the voice output start point C). ) Has been reached.

【0059】ステップS10における判断で、現在位置
が音声出力開始地点Cに到達したと判断すれば、ステッ
プS11以降の実際の音声出力制御のステップに進み、
現在位置が音声出力開始地点Cに到達していないと判断
すれば、ステップS1に戻る。
If it is determined in step S10 that the current position has reached the voice output start point C, the process proceeds to the actual voice output control step after step S11.
If it is determined that the current position has not reached the audio output start point C, the process returns to step S1.

【0060】ステップS11では、音声出力地点で音声
案内される文章を構成する単位音声デ−タの読み出し指
示を行って、CD−ROM6にアクセスして単位音声デ
−タを読み出すとともに、CD−ROM6に記憶されて
いる各単位音声デ−タを読み出すまでのアクセス・読出
時間を計測して、計測したアクセス・読出時間の平均ア
クセス・読出時間を算出し、アクセス・読出時間テ−ブ
ルに格納されている前回までの平均アクセス・読出時間
を読み出して、今回の計測結果を踏まえて、最新の平均
アクセス・読出時間を算出し、アクセス・読出時間テ−
ブルに格納し、ステップS12に進む。
In step S11, an instruction to read out the unit voice data forming the text to be voice-guided at the voice output point is issued, the CD-ROM 6 is accessed to read out the unit voice data, and the CD-ROM 6 is read. The access / reading time until each unit voice data stored in is read is measured, the average access / reading time of the measured access / reading times is calculated, and stored in the access / reading time table. The average access / read time up to the previous time is read, and the latest average access / read time is calculated based on the measurement result of this time.
It is stored in the bull and the process proceeds to step S12.

【0061】図3に示したル−ト案内の場合、アクセス
する単位音声デ−タの数が5つで、計測したアクセス・
読出時間の合計が1.8secであったとすると、今回
の平均アクセス・読出時間は、0.36sec/個とな
る。このデ−タと、アクセス・読出時間テ−ブルに格納
されている前回までの平均アクセス・読出時間(0.3
0sec/個)とから最新の平均アクセス・読出時間
(0.33sec/個)を算出してアクセス・読出時間
テ−ブルに格納して、デ−タの更新を行う。
In the case of the route guidance shown in FIG. 3, the number of unit voice data to be accessed is 5, and the measured access
If the total read time is 1.8 sec, the average access / read time this time is 0.36 sec / piece. This data and the average access / read time up to the previous time stored in the access / read time table (0.3
The latest average access / read time (0.33 sec / piece) is calculated from 0 sec / piece and stored in the access / read time table, and the data is updated.

【0062】ステップS12では、音声出力するための
出力要求を行って、CD−ROM6から読み出した単位
音声デ−タを組み合わせて合成した文章音声デ−タをD
/A変換器9へ転送し、文章音声デ−タの転送が完了す
るまでのデ−タ合成・転送時間を計測し、ステップS1
3に進む。
In step S12, an output request for voice output is made, and the sentence voice data synthesized by combining the unit voice data read from the CD-ROM 6 is D.
Data is transferred to the A / A converter 9, and the data synthesis / transfer time until the transfer of the text voice data is completed is measured, and step S1
Go to 3.

【0063】ステップS13では、ステップS12で計
測したデ−タ合成・転送時間(0.32sec)と転送
された文章音声デ−タのデ−タサイズ(ステップS4で
算出したもの)とから単位サイズ当たりのデ−タ合成・
転送時間(0.40msec/kbit)を算出し、デ
−タ合成・転送時間テ−ブルに格納されている前回まで
の単位サイズ当たりの平均デ−タ合成・転送時間(0.
36msec/kbit)と今回算出した単位サイズ当
たりのデ−タ合成・転送時間(0.40msec/kb
it)とから最新の単位サイズ当たりの平均デ−タ合成
・転送時間(0.38msec/kbit)を算出して
デ−タ合成・転送時間テ−ブルに格納して、デ−タの更
新を行いステップS1に戻り、音声出力のための処理を
繰り返す。
In step S13, per unit size is calculated from the data synthesis / transfer time (0.32 sec) measured in step S12 and the data size of the transferred text voice data (calculated in step S4). Data synthesis
The transfer time (0.40 msec / kbit) is calculated, and the average data composition / transfer time per unit size up to the previous time stored in the data composition / transfer time table (0.
36 msec / kbit) and data composition / transfer time per unit size calculated this time (0.40 msec / kb
It) and the latest average data composition / transfer time per unit size (0.38 msec / kbit) is calculated and stored in the data composition / transfer time table to update the data. Then, the process returns to step S1 to repeat the process for voice output.

【0064】このように、第1の音声出力処理例によれ
ば、音声出力地点の確認に基づいて、音声出力地点に対
する音声出力時間が算出されるので、CD−ROM6へ
の単位音声デ−タの読み取り制御の開始からD/A変換
器9を介してスピ−カ11からの音声出力が完了するま
でに要する時間を把握することができ、音声出力制御に
関する正確な時間を把握することができる。また、車速
から音声出力時間内に走行する距離を求めて、音声出力
開始地点を決定することができ、自車の走行状態を加味
した音声出力のための正確なタイミングを計ることがで
き、音声出力地点に対して音声案内のタイミングのずれ
ることのない、実際の音声出力の完了地点と地図上の音
声出力地点とにほとんど誤差を生じさせることのない正
確な音声出力を行うことができる。
As described above, according to the first audio output processing example, since the audio output time for the audio output point is calculated based on the confirmation of the audio output point, the unit audio data to the CD-ROM 6 is calculated. It is possible to grasp the time required from the start of the reading control to the completion of the voice output from the speaker 11 through the D / A converter 9, and the accurate time relating to the voice output control can be grasped. . In addition, it is possible to determine the audio output start point by obtaining the distance traveled within the audio output time from the vehicle speed, and it is possible to measure the accurate timing for audio output in consideration of the running state of the own vehicle. It is possible to perform accurate voice output that does not cause a difference between the actual voice output completion point and the voice output point on the map without shifting the timing of voice guidance with respect to the output point.

【0065】また、文章音声デ−タの構成、例えば、単
位音声デ−タ数やデ−タサイズ等によって変化するアク
セス・読出時間、デ−タ合成・転送時間、及び文章音声
デ−タの再生に要する時間をそれぞれ算出し、音声出力
制御の際に誤差の生じやすい、これらの処理時間を考慮
して、音声出力時間を算出するので、時間的な誤差の少
ない正確な音声出力時間を算出することができる。
Further, the structure of the text voice data, for example, the access / read time, the data synthesis / transfer time, and the reproduction of the text voice data, which change depending on the number of unit voice data and the data size, etc. The time required to calculate the voice output time is calculated, and the voice output time is calculated in consideration of these processing times in which an error is likely to occur during voice output control. Therefore, an accurate voice output time with little time error is calculated. be able to.

【0066】また、ステップS3におけるアクセス・読
出時間の算出が、アクセス・読出時間テ−ブルに格納さ
れている最新の平均アクセス・読出時間を読み出して文
章音声デ−タのアクセス・読出時間を算出することによ
り行われるので、文章音声デ−タを構成する単位音声デ
−タ数に最新の平均アクセス・読出時間を掛け合わせて
算出されるアクセス・読出時間を利用して、実際のアク
セス・読出時間に近い、精度の高いアクセス・読出時間
を容易に算出することができ、音声出力時間の誤差をよ
り一層小さくすることができる。
In the calculation of the access / read time in step S3, the latest average access / read time stored in the access / read time table is read to calculate the access / read time of the text voice data. The actual access / read time is calculated by using the access / read time calculated by multiplying the number of unit voice data constituting the text voice data by the latest average access / read time. A highly accurate access / readout time close to time can be easily calculated, and the error in the audio output time can be further reduced.

【0067】また、ステップS6におけるデ−タ合成・
転送時間の算出が、デ−タ合成・転送時間テ−ブルに格
納されている最新の単位サイズ当たりの平均デ−タ合成
・転送時間を読み出して文章音声デ−タのデ−タ合成・
転送時間を算出することにより行われるので、実際のデ
−タ合成・転送時間に近い、精度の高いデ−タ合成・転
送時間を容易に算出することができ、音声出力時間の誤
差を小さくすることができる。
In addition, the data composition in step S6
The transfer time is calculated by combining the latest average data size per unit size stored in the data composition / transfer time table. Read the transfer time to synthesize the text / speech data.
Since it is performed by calculating the transfer time, it is possible to easily calculate the highly accurate data combining / transfer time close to the actual data combining / transfer time, and reduce the error in the audio output time. be able to.

【0068】また、ステップS11において平均アクセ
ス・読出時間がCD−ROM6へのアクセス毎に更新記
憶されて行くので、ステップS3におけるアクセス・読
出時間の算出時に、過去のアクセス・読出時間が考慮さ
れた、より精度の高い平均アクセス・読出時間を用いる
ことができ、誤差の少ないアクセス・読出時間を算出す
ることができる。
Further, since the average access / readout time is updated and stored every time the CD-ROM 6 is accessed in step S11, the past access / readout time is taken into consideration when calculating the access / readout time in step S3. , The more accurate average access / read time can be used, and the access / read time with less error can be calculated.

【0069】また、ステップS13において単位サイズ
当たりの平均デ−タ合成・転送時間が、音声出力処理毎
に更新記憶されて行くので、ステップS6におけるデ−
タ合成・転送時間の算出時に、過去のデ−タ合成・転送
時間が考慮された、精度の高い単位サイズ当たりの平均
デ−タ合成・転送時間を用いることができる。
In step S13, the average data composition / transfer time per unit size is updated and stored for each voice output process.
When calculating the data composition / transfer time, it is possible to use the highly accurate average data composition / transfer time per unit size in consideration of the past data composition / transfer time.

【0070】次に、音声出力地点に対する音声出力時に
マイコン1の行う第2の音声出力処理例を説明する。図
5は、第2の音声出力処理例を示すフロ−チャ−トであ
り、第1の音声出力処理例と同じ処理については、同一
符号を付し、その説明を省略する。
Next, a second voice output processing example performed by the microcomputer 1 when voice is output to the voice output point will be described. FIG. 5 is a flow chart showing a second audio output processing example, and the same processing as that of the first audio output processing example is denoted by the same reference numeral and its description is omitted.

【0071】本第2の音声出力処理例は、第1の音声出
力処理例におけるステップS3〜S7の処理をステップ
S21〜S24に代え、ステップS11〜S13の処理
をステップS25〜S28に代えた構成となっている。
In this second audio output processing example, the processing of steps S3 to S7 in the first audio output processing example is replaced with steps S21 to S24, and the processing of steps S11 to S13 is replaced with steps S25 to S28. Has become.

【0072】またEEPROM13には、単位デ−タサ
イズ当たりのアクセス・読出・合成・転送に要する平均
音声デ−タ処理時間が音声出力処理毎に更新記憶される
領域が設けられている。なお、本処理例における単位デ
−タとは、CD−ROM6に格納されている単位音声デ
−タのことを示すこととする。
Further, the EEPROM 13 is provided with an area in which the average voice data processing time required for access, reading, synthesis and transfer per unit data size is updated and stored for each voice output process. The unit data in this processing example means unit audio data stored in the CD-ROM 6.

【0073】この単位デ−タサイズ当たりのアクセス・
読出・合成・転送に要する平均音声デ−タ処理時間が記
憶される音声デ−タ処理時間テ−ブルには、CD−RO
M6からの単位音声デ−タの読み出し制御の開始から、
読み出された単位音声デ−タを一旦RAM12aに格納
して、RAM12aから所定の順番で単位音声デ−タを
読み出し合成して文章音声デ−タを生成し、D/A変換
器9への転送が完了するまでの一連の音声デ−タ処理時
間が単位デ−タサイズと対応づけて格納されるようにな
っている。したがって、単位デ−タサイズから単位音声
デ−タのアクセス・読出・合計・転送に要する平均音声
デ−タ処理時間が容易に求められることとなる。
Access per unit data size
The audio data processing time table in which the average audio data processing time required for reading, synthesizing and transferring is stored in the CD-RO.
From the start of the unit audio data read control from M6,
The read unit voice data is temporarily stored in the RAM 12a, the unit voice data is read from the RAM 12a in a predetermined order and synthesized to generate text voice data, and the text voice data is sent to the D / A converter 9. A series of audio data processing time until the transfer is completed is stored in association with the unit data size. Therefore, the average voice data processing time required for accessing, reading, summing and transferring the unit voice data can be easily obtained from the unit data size.

【0074】また、音声出力処理毎に計測される音声デ
−タ処理時間と、転送される文章音声デ−タを構成する
単位音声デ−タの各デ−タサイズと単位デ−タサイズ数
(単位音声デ−タ数)とから単位デ−タサイズ当たりの
アクセス・読出・合成・転送に要する音声デ−タ処理時
間が音声出力処理毎に算出され、音声出力処理毎に新た
に算出された単位デ−タサイズ当たりのアクセス・読出
・合成・転送に要する音声デ−タ処理時間と前回の音声
出力処理までの単位デ−タサイズ当たりの平均音声デ−
タ処理時間とから算出される最新の単位デ−タサイズ当
たりのアクセス・読出・合成・転送に要する平均音声デ
−タ処理時間が、音声デ−タ処理時間テ−ブルに更新記
憶されるようになっている。
Also, the voice data processing time measured for each voice output process, each data size of the unit voice data constituting the transferred document voice data, and the unit data size number (unit: The number of voice data) and the voice data processing time required for access / reading / synthesis / transfer per unit data size are calculated for each voice output process, and the newly calculated unit data for each voice output process. -Voice data processing time required for access / reading / synthesis / transfer per data size and average audio data per unit data size up to the previous audio output process.
The average voice data processing time required for access / reading / synthesis / transfer per latest unit data size calculated from the data processing time is updated and stored in the voice data processing time table. Has become.

【0075】図5のステップS2における判断で、音声
出力時間が算出済でないと判断すれば、ステップS21
に進み、ステップS21では、再生文章を構成する単位
音声デ−タのIDに基づいて単位音声デ−タサイズテ−
ブルから該当する単位音声デ−タのサイズを読み出し
て、文章音声デ−タの全体サイズを算出して、ステップ
S22に進む。ステップS22では、ステップS21で
算出した文章音声デ−タのデ−タサイズから文章音声デ
−タの音声再生時間を算出して、ステップS23に進
む。
If it is determined in step S2 in FIG. 5 that the voice output time has not been calculated, step S21
In step S21, the unit voice data size data is determined based on the ID of the unit voice data forming the reproduced sentence.
The size of the corresponding unit voice data is read from the blue, the overall size of the sentence voice data is calculated, and the process proceeds to step S22. In step S22, the voice reproduction time of the text voice data is calculated from the data size of the text voice data calculated in step S21, and the process proceeds to step S23.

【0076】ステップS23では、ステップS21で読
み出された文章音声デ−タを構成する単位音声デ−タの
各デ−タサイズに基づいて、音声デ−タ処理時間テ−ブ
ルから最新の単位デ−タサイズ当たりのアクセス・読出
・合成・転送に要する平均音声デ−タ処理時間を各単位
音声デ−タ毎に読み出し、読み出された各単位音声デ−
タの平均音声デ−タ処理時間を合計して、今回音声出力
する文章音声デ−タの音声デ−タ処理時間を算出して、
ステップS24に進む。
In step S23, the latest unit data is read from the voice data processing time table on the basis of each data size of the unit voice data constituting the text voice data read in step S21. -The average voice data processing time required for access / reading / synthesis / transfer per data size is read for each unit voice data, and the read unit voice data is read.
The average voice data processing time of the data is summed up to calculate the voice data processing time of the sentence voice data output this time,
It proceeds to step S24.

【0077】ステップS24では、ステップS22で算
出した文章音声デ−タの音声出力時間とステップS23
で算出した文章音声デ−タの音声デ−タ処理時間とを加
算して音声出力時間を算出して、ステップS8に進む。
In step S24, the voice output time of the sentence voice data calculated in step S22 and step S23.
The voice output time is calculated by adding the voice data processing time of the sentence voice data calculated in step S8, and the process proceeds to step S8.

【0078】また、ステップS10における判断で、現
在位置が音声出力地点に対する音声出力開始地点に到達
したと判断すれば、ステップS25以降の実際の音声出
力制御のステップに進み、現在位置が音声出力開始地点
に到達していないと判断すれば、ステップS1に戻る。
If it is determined in step S10 that the current position has reached the voice output start point with respect to the voice output point, the process proceeds to the actual voice output control step after step S25 to start the voice output. If it is determined that the point has not been reached, the process returns to step S1.

【0079】ステップS25では、音声出力要求に基づ
いて、アクセス・読出・合成・転送に要する音声デ−タ
処理時間を計測するためのカウントアップを単位音声デ
−タの読出指示と同時に開始してステップS26に進
み、ステップS26では、音声出力地点で音声案内され
る再生文章を構成する単位音声デ−タの読出指示に基づ
いて、CD−ROM6にアクセスして単位音声デ−タを
読み出し、読み出した単位音声デ−タを合成して文章音
声デ−タを生成し、文章音声デ−タをD/A変換器9に
転送する。
In step S25, based on the voice output request, a count-up for measuring the voice data processing time required for access / reading / synthesis / transfer is started at the same time as the unit voice data read instruction. Proceeding to step S26, in step S26, the CD-ROM 6 is accessed to read out and read out the unit voice data based on the instruction to read out the unit voice data forming the reproduced sentence voiced at the voice output point. The unit voice data is synthesized to generate sentence voice data, and the sentence voice data is transferred to the D / A converter 9.

【0080】ステップS27では、文章音声デ−タのD
/A変換器9への転送が完了すると音声デ−タ処理時間
のカウントアップを終了し、その後ステップS28に進
んで、カウントアップにより計測された一連の音声デ−
タ処理時間と、転送された文章音声デ−タを構成する単
位音声デ−タの各デ−タサイズと個数とから、単位デ−
タサイズ当たりのアクセス・読出・合成・転送に要した
音声デ−タ処理時間を算出し、音声デ−タ処理時間テ−
ブルに格納されている前回までの単位デ−タサイズ当た
りのアクセス・読出・合成・転送に要する平均音声デ−
タ処理時間と今回算出した単位デ−タサイズ当たりのア
クセス・読出・合成・転送に要した音声デ−タ処理時間
とから最新の単位デ−タサイズ当たりのアクセス・読出
・合成・転送に要する平均音声デ−タ処理時間を算出
し、音声デ−タ処理時間テ−ブルに格納し、デ−タの更
新を行った後ステップS1に戻り、音声出力のための処
理を繰り返す。
At step S27, the text voice data D
When the transfer to the A / A converter 9 is completed, the count-up of the voice data processing time is finished, and then the process proceeds to step S28, where a series of voice data measured by the count-up is finished.
Based on the data processing time and each data size and number of the unit voice data constituting the transferred text voice data, the unit data
Calculates the audio data processing time required for access / reading / synthesis / transfer for each data size, and calculates the audio data processing time data.
Average audio data required for access / reading / synthesis / transfer per unit data size up to the previous time stored in the
From the data processing time and the audio data processing time required for access / reading / synthesis / transfer per unit data size calculated this time, the average voice required for access / reading / synthesis / transfer per latest unit data size. The data processing time is calculated, stored in the audio data processing time table, and after updating the data, the process returns to step S1 to repeat the processing for audio output.

【0081】上記した第2の音声出力処理例によれば、
音声デ−タ処理時間テ−ブルに格納されている単位デ−
タサイズ当たりのアクセス・読出・合成・転送に要する
平均音声デ−タ処理時間を用いることで、音声出力地点
に対する音声出力時間をより簡単に算出することがで
き、音声出力開始地点を早く検出することができる。し
たがって、音声出力開始地点までの音声出力時間の算出
にも余裕ができ、デ−タの処理効率を高めることができ
る。
According to the second audio output processing example described above,
Unit data stored in the audio data processing time table
By using the average voice data processing time required for access / reading / synthesis / transfer per data size, the voice output time for the voice output point can be calculated more easily, and the voice output start point can be detected earlier. You can Therefore, the calculation of the voice output time up to the voice output start point has a margin, and the data processing efficiency can be improved.

【0082】また、単位デ−タサイズ当たりのアクセス
・読出・合成・転送に要する平均音声デ−タ処理時間
が、音声出力処理毎に更新記憶されて行くので、ステッ
プS23における文章音声デ−タの音声デ−タ処理時間
の算出時において、過去の音声デ−タ処理時間を反映さ
せた精度の高い単位デ−タサイズ当たりのアクセス・読
出・合成・転送に要する平均デ−タ処理時間を用いて、
誤差の少ない文章音声デ−タの音声デ−タ処理時間を算
出することができる。
Further, since the average voice data processing time required for access / reading / synthesizing / transferring per unit data size is updated and stored for each voice output process, the text voice data in step S23 is stored. When calculating the audio data processing time, use the average data processing time required for access / reading / synthesis / transfer with high accuracy per unit data size reflecting the past audio data processing time. ,
It is possible to calculate the voice data processing time for sentence voice data having a small error.

【0083】なお、上記第2の音声出力処理例において
は、記憶媒体から単位音声デ−タを読み出すものであっ
たが、他の処理例として、記録媒体に単位音声デ−タの
単位ではなく、文章音声デ−タの単位で格納されている
ものを読み出す場合にも適用することができる。この場
合、前記単位デ−タとして文章音声デ−タを用い、単位
デ−タサイズ当たりのアクセス・読出・合成・転送に要
する時間を文章音声デ−タに対応づけてデ−タ処理時間
テ−ブルに格納する。そして、文章音声デ−タのIDに
基づいて、記録媒体から文章音声デ−タを読み出し、単
位デ−タサイズ当たりの音声デ−タ処理時間に基づい
て、文章音声デ−タの音声デ−タ処理時間を算出するこ
ともできる。
In the second audio output processing example, the unit audio data is read from the storage medium. However, as another processing example, the unit audio data is not recorded in the recording medium. The present invention can also be applied to the case of reading out what is stored in the unit of sentence voice data. In this case, text voice data is used as the unit data, and the time required for access / reading / synthesis / transfer per unit data size is associated with the text voice data to process the data processing time. Store in Bull. Then, the sentence voice data is read from the recording medium based on the sentence voice data ID, and the voice data of the voice voice data is read based on the voice data processing time per unit data size. The processing time can also be calculated.

【0084】また、上記実施の形態においては、音声デ
−タ等が記憶される記憶媒体としてCD−ROM6を例
に挙げて説明を行ったが、記録媒体はこれに限定される
ものではなく、DVD−ROM等の光ディスク、ハ−ド
ディスク、半導体メモリ等の記憶媒体であってもよく、
また、ハ−ドディスクや半導体メモリ等の書き込み可能
な記憶媒体に通信手段を介して音声デ−タを含む地図情
報、例えば、インタ−ネット配信される地図情報等をダ
ウンロ−ドすることにより最新の地図情報を取得し、ダ
ウンロ−ドしたこれらの地図情報を使用して、音声出力
地点に対する音声案内を行うために、これらの記憶媒体
に音声デ−タを記憶させて音声再生を行ってもよい。
In the above embodiment, the CD-ROM 6 has been described as an example of a storage medium for storing audio data, but the recording medium is not limited to this. It may be an optical disc such as a DVD-ROM, a hard disc, a storage medium such as a semiconductor memory,
Also, by downloading map information including voice data to a writable storage medium such as a hard disk or a semiconductor memory via communication means, for example, map information distributed via the Internet, the latest information can be obtained. In order to provide the voice guidance to the voice output point by using the downloaded map information of these, even if the voice data is stored in these storage media and the voice is reproduced. Good.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係る音声出力装置を備え
たナビゲ−ションシステムの要部を概略的に示したブロ
ック図である。
FIG. 1 is a block diagram schematically showing a main part of a navigation system including a voice output device according to an embodiment of the present invention.

【図2】マイコンの行う第1の音声出力処理例を示すフ
ロ−チャ−トである。
FIG. 2 is a flowchart showing a first audio output processing example performed by a microcomputer.

【図3】マイコンの行う第1の音声出力処理動作を説明
するためのル−ト案内図である。
FIG. 3 is a route guide diagram for explaining a first voice output processing operation performed by a microcomputer.

【図4】マイコンの行う第1の音声出力処理動作により
算出される音声出力時間の構成を示す図である。
FIG. 4 is a diagram showing a configuration of a voice output time calculated by a first voice output processing operation performed by a microcomputer.

【図5】マイコンの行う第2の音声出力処理例を示すフ
ロ−チャ−トである。
FIG. 5 is a flowchart showing a second audio output processing example performed by a microcomputer.

【図6】従来の音声出力装置を備えたナビゲ−ションシ
ステムの要部を概略的に示したブロック図である。
FIG. 6 is a block diagram schematically showing a main part of a navigation system including a conventional audio output device.

【符号の説明】 1 マイコン 2 車速センサ 3 ジャイロセンサ 4 GPS受信機 5 CDドライブ 6 CD−ROM 7 リモコン 8 表示装置 9 D/A変換器 10 増幅器 11 スピ−カ 12 メモリ 12a ROM 12b RAM 13 EEPROM[Explanation of symbols] 1 Microcomputer 2 vehicle speed sensor 3 gyro sensor 4 GPS receiver 5 CD drive 6 CD-ROM 7 remote control 8 display devices 9 D / A converter 10 amplifier 11 Speaker 12 memories 12a ROM 12b RAM 13 EEPROM

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/0969 G10L 9/18 J G10L 13/00 3/00 Q Fターム(参考) 2F029 AA02 AB03 AB07 AC02 AC08 AC14 AC18 AD01 5D045 AA01 AB17 5H180 AA01 BB13 FF04 FF05 FF22 FF25 FF27 5J062 BB01 CC07 FF04 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G08G 1/0969 G10L 9/18 J G10L 13/00 3/00 Q F term (reference) 2F029 AA02 AB03 AB07 AC02 AC08 AC14 AC18 AD01 5D045 AA01 AB17 5H180 AA01 BB13 FF04 FF05 FF22 FF25 FF27 5J062 BB01 CC07 FF04

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 記憶媒体から音声デ−タを音声出力手段
に転送し、音声出力地点に対する音声出力を行うための
音声出力制御手段を備えた音声出力装置において、 前記音声出力制御手段が、 前記音声出力地点の確認を行う音声出力地点確認手段
と、 音声出力地点における音声出力デ−タの読み出し制御の
開始から、前記音声出力手段からの音声出力が完了する
までの時間を算出する音声出力時間算出手段と、 車両の車速情報を取り込む車速情報取込手段と、 該車速情報取込手段により取り込まれた車速情報と前記
音声出力時間算出手段により算出された音声出力時間と
に基づいて、音声出力開始地点を求める音声出力開始地
点決定手段とを備えていることを特徴とする音声出力装
置。
1. An audio output device comprising audio output control means for transferring audio data from a storage medium to audio output means and outputting audio to an audio output point, wherein the audio output control means comprises: A voice output point confirmation means for confirming the voice output point, and a voice output time for calculating a time from the start of read control of the voice output data at the voice output point to the completion of the voice output from the voice output means. Calculating means, vehicle speed information taking means for taking in vehicle speed information of the vehicle, and voice output based on the vehicle speed information taken in by the vehicle speed information taking means and the voice output time calculated by the voice output time calculating means. A voice output device comprising: a voice output start point determining means for determining a start point.
【請求項2】 前記音声出力開始地点決定手段が、 前記車速情報取込手段が取り込んだ車速情報と前記音声
出力時間とから、該音声出力時間内に車両が進む距離を
算出する走行距離算出手段と、 前記音声出力地点よりも前記走行距離算出手段で求めた
距離だけ手前に現在位置が位置するか否かを判断する音
声出力タイミング判断手段とを備えていることを特徴と
する請求項1記載の音声出力装置。
2. The travel distance calculation means for calculating the distance traveled by the vehicle within the voice output time from the vehicle speed information captured by the vehicle speed information capture means and the voice output time, by the voice output start point determination means. And a voice output timing determining means for determining whether or not the current position is located in front of the voice output point by the distance calculated by the traveling distance calculating means. Audio output device.
【請求項3】 前記音声出力時間算出手段が、 前記記憶媒体から単位音声デ−タのアクセス・読み出し
するのに必要なアクセス・読出時間を算出するアクセス
・読出時間算出手段と、 前記記憶媒体から読み出された前記単位音声デ−タを合
成し、前記音声出力手段への文章音声デ−タの転送が完
了するまでに要するデ−タ合成・転送時間を算出するデ
−タ合成・転送時間算出手段と、 前記文章音声デ−タのデ−タサイズを算出する音声サイ
ズ算出手段と、 該音声サイズ算出手段により算出されたデ−タサイズか
ら前記文章音声デ−タの再生に要する時間を算出する文
章音声デ−タ再生時間算出手段とを備えていることを特
徴とする請求項1又は請求項2記載の音声出力装置。
3. The audio output time calculating means, the access / reading time calculating means for calculating an access / reading time required for accessing / reading the unit audio data from the storage medium, and the storage medium. A data synthesis / transfer time for synthesizing the read unit voice data and calculating a data synthesis / transfer time required to complete the transfer of the text voice data to the voice output means. A calculation unit, a voice size calculation unit for calculating the data size of the text voice data, and a time required for reproducing the text voice data from the data size calculated by the voice size calculation unit. 3. The voice output device according to claim 1, further comprising a sentence voice data reproduction time calculation means.
【請求項4】 前記アクセス・読出時間算出手段が、 前記記憶媒体から前記単位音声デ−タを読み出すための
アクセス毎にアクセス・読出時間を計測し、該計測され
たアクセス・読出時間と過去の平均アクセス・読出時間
とから最新の平均アクセス・読出時間を算出し、該最新
の平均アクセス・読出時間が記憶されているアクセス・
読出時間記憶手段から前記最新の平均アクセス・読出時
間を読み出して前記文章音声デ−タのアクセス・読出時
間を算出するものであることを特徴とする請求項3記載
の音声出力装置。
4. The access / readout time calculating means measures the access / readout time for each access for reading the unit audio data from the storage medium, and the measured access / readout time and past The latest average access / read time is calculated from the average access / read time, and the latest average access / read time is stored.
4. The voice output device according to claim 3, wherein the latest average access / read time is read from the read time storage means to calculate the access / read time of the text voice data.
【請求項5】 前記デ−タ合成・転送時間算出手段が、 前記デ−タ合成・転送時間を音声出力毎に計測し、計測
された前記デ−タ合成・転送時間と転送される前記文章
音声デ−タのデ−タサイズとから単位サイズ当たりのデ
−タ合成・転送時間を算出し、算出された前記単位サイ
ズ当たりのデ−タ合成・転送時間と過去の単位サイズ当
たりの平均デ−タ合成・転送時間とから最新の単位サイ
ズ当たりの平均デ−タ合成・転送時間を算出し、該最新
の単位サイズ当たりの平均デ−タ合成・転送時間が記憶
されているデ−タ合成・転送時間記憶手段から前記最新
の前記単位サイズ当たりの平均デ−タ合成・転送時間を
読み出して前記文章音声デ−タのデ−タ合成・転送時間
を算出するものであることを特徴とする請求項3又は請
求項4記載の音声出力装置。
5. The data composition / transfer time calculation means measures the data composition / transfer time for each voice output, and the measured data composition / transfer time and the text to be transferred. The data composition / transfer time per unit size is calculated from the data size of the voice data, and the calculated data composition / transfer time per unit size and the average data per unit size in the past. The latest average data composition / transfer time per unit size is calculated from the data composition / transfer time, and the latest average data composition / transfer time per unit size is stored. It is characterized in that the latest average data composition / transfer time per unit size is read out from the transfer time storage means to calculate the data composition / transfer time of the text voice data. Speech according to claim 3 or claim 4 Power equipment.
【請求項6】 前記音声出力時間算出手段が、 前記記憶媒体への前記単位音声デ−タのアクセス開始か
ら前記文章音声デ−タの転送完了までのアクセス・読出
・合成・転送に要する音声デ−タ処理時間を算出する音
声デ−タ処理時間算出手段を含んでいることを特徴とす
る請求項1又は請求項2記載の音声出力装置。
6. The voice output time calculation means is a voice data required for access, reading, synthesizing and transferring from the start of access of the unit voice data to the storage medium to the completion of transfer of the text voice data. The audio output device according to claim 1 or 2, further comprising audio data processing time calculating means for calculating a data processing time.
【請求項7】 前記音声デ−タ処理時間算出手段が、 前記音声デ−タ処理時間を音声出力毎に計測し、計測さ
れた前記音声デ−タ処理時間と出力される前記文章音声
デ−タの単位デ−タサイズ数とから単位デ−タサイズ当
たりの音声デ−タ処理時間を算出し、算出された前記単
位デ−タサイズ当たりの音声デ−タ処理時間と過去の単
位デ−タサイズ当たりの平均音声デ−タ処理時間とから
最新の単位デ−タサイズ当たりの平均音声デ−タ処理時
間を算出し、該最新の単位デ−タサイズ当たりの平均音
声デ−タ処理時間が記憶されている音声デ−タ処理時間
記憶手段から前記最新の単位デ−タサイズ当たりの平均
音声デ−タ処理時間を読み出して前記文章音声デ−タの
音声デ−タ処理時間を算出するものであることを特徴と
する請求項6記載の音声出力装置。
7. The voice data processing time calculating means measures the voice data processing time for each voice output, and the measured voice data processing time and the sentence voice data output. The audio data processing time per unit data size is calculated from the unit data size number of the data, and the calculated audio data processing time per unit data size and the past unit data size per unit data size. A voice in which the latest average voice data processing time per unit data size is calculated from the average voice data processing time, and the average voice data processing time per latest unit data size is stored. The voice data processing time of the sentence voice data is calculated by reading out the average voice data processing time per the latest unit data size from the data processing time storage means. According to claim 6, Voice output device.
【請求項8】 前記記憶媒体から前記単位音声デ−タを
読み出すためのアクセス毎にアクセス・読出時間を計測
し、計測された前記アクセス・読出時間と過去に計測さ
れた平均アクセス・読出時間とから最新の平均アクセス
・読出時間を算出し、該最新の平均アクセス・読出時間
を、アクセス毎に更新して、前記アクセス・読出時間記
憶手段に記憶させていく第1の学習手段を備えているこ
とを特徴とする請求項4記載の音声出力装置。
8. An access / read time is measured for each access for reading the unit audio data from the storage medium, and the measured access / read time and the average access / read time measured in the past. A first learning means for calculating the latest average access / readout time from the above, updating the latest average access / readout time for each access, and storing it in the access / readout time storage means. The audio output device according to claim 4, wherein
【請求項9】 前記デ−タ合成・転送時間を音声出力毎
に計測し、計測された前記デ−タ合成・転送時間と転送
される前記文章音声デ−タのデ−タサイズとから単位サ
イズ当たりのデ−タ合成・転送時間を算出し、算出され
た前記単位サイズ当たりのデ−タ合成・転送時間と過去
の単位サイズ当たりの平均デ−タ合成・転送時間とから
最新の単位サイズ当たりの平均デ−タ合成・転送時間を
算出し、該最新の単位サイズ当たりの平均デ−タ合成・
転送時間を、音声出力処理毎に更新して、前記デ−タ合
成・転送時間記憶手段に記憶させていく第2の学習手段
を備えていることを特徴とする請求項5記載の音声出力
装置。
9. The unit size based on the measured data synthesis / transfer time and the data size of the text voice data to be transferred, which is obtained by measuring the data synthesis / transfer time for each voice output. Per unit size calculated from the calculated data composition / transfer time per unit size and the past average data composition / transfer time per unit size. Of the average data composition / transfer time of the latest unit size
6. The audio output device according to claim 5, further comprising a second learning unit that updates the transfer time for each audio output process and stores the updated data in the data synthesis / transfer time storage unit. .
【請求項10】 前記音声デ−タ処理時間を音声出力処
理毎に計測し、計測された前記音声デ−タ処理時間と転
送される前記文章音声デ−タの単位デ−タサイズ数とか
ら単位デ−タサイズ当たりのアクセス・読出・合成・転
送に要する音声デ−タ処理時間を算出し、該単位デ−タ
サイズ当たりの音声デ−タ処理時間を、音声出力処理毎
に更新して、前記音声デ−タ処理時間記憶手段に記憶さ
せていく第3の学習手段を備えていることを特徴とする
請求項7記載の音声出力装置。
10. The voice data processing time is measured for each voice output process, and a unit is calculated from the measured voice data processing time and the unit data size number of the text voice data transferred. The voice data processing time required for access / reading / synthesis / transfer per data size is calculated, and the voice data processing time per unit data size is updated for each voice output process, 8. The audio output device according to claim 7, further comprising a third learning means for storing the data in the data processing time storage means.
JP2001191295A 2001-06-25 2001-06-25 Voice output device Withdrawn JP2003005794A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001191295A JP2003005794A (en) 2001-06-25 2001-06-25 Voice output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001191295A JP2003005794A (en) 2001-06-25 2001-06-25 Voice output device

Publications (1)

Publication Number Publication Date
JP2003005794A true JP2003005794A (en) 2003-01-08

Family

ID=19029942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001191295A Withdrawn JP2003005794A (en) 2001-06-25 2001-06-25 Voice output device

Country Status (1)

Country Link
JP (1) JP2003005794A (en)

Similar Documents

Publication Publication Date Title
JP4563106B2 (en) In-vehicle device and audio output method thereof
US7194322B2 (en) Audio information reproducing apparatus, movable body, and audio information reproduction controlling system
US5592389A (en) Navigation system utilizing audio CD player for data storage
JP2001183158A (en) Automobile navigation system
JP2003028663A (en) Navigation system and control program
JPH11248478A (en) Position recognition system
JP2004294262A (en) Vehicle mounted information apparatus, creation method for pathway music information database, retrieval method for music information, method for information processing and computer program
JP2003005794A (en) Voice output device
JP2006010509A (en) Navigation system
EP0959462A2 (en) Recording medium on which navigation information is recorded and information reproducing apparatus therefor
JPH11271071A (en) Navigation system
JP2005196918A (en) Recording apparatus, on-vehicle apparatus, and program
JPH11304506A (en) Navigation device
JPH11325943A (en) Navigation system
JPH0269616A (en) Car navigation system
JP3082623B2 (en) Voice guidance device
JP3996368B2 (en) Audio navigation apparatus, audio apparatus, and audio control method using navigation information
JPH06187593A (en) Method and device for guiding route of vehicle by voice message
JP4353994B2 (en) Sound reproduction device, navigation device, sound reproduction system
JP4573877B2 (en) NAVIGATION DEVICE, NAVIGATION METHOD, NAVIGATION PROGRAM, AND ITS RECORDING MEDIUM
JPH0949739A (en) On-vehicle route-guiding apparatus
JPH06215481A (en) Device and system for recording and reproducing digital data
JPH08145711A (en) Travel position display device
JP2003014468A (en) Information processing device and method, recording medium, and program
WO1995033249A1 (en) Device for displaying map information, device for displaying path of traveling vehicle, and speech outputting device for route guiding device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902