JP3693326B2 - Map display system, voice guidance support device, map display device - Google Patents

Map display system, voice guidance support device, map display device Download PDF

Info

Publication number
JP3693326B2
JP3693326B2 JP2001379201A JP2001379201A JP3693326B2 JP 3693326 B2 JP3693326 B2 JP 3693326B2 JP 2001379201 A JP2001379201 A JP 2001379201A JP 2001379201 A JP2001379201 A JP 2001379201A JP 3693326 B2 JP3693326 B2 JP 3693326B2
Authority
JP
Japan
Prior art keywords
voice
voice data
guidance
message
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001379201A
Other languages
Japanese (ja)
Other versions
JP2003177029A (en
Inventor
高幸 松永
祐介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Navitime Japan Co Ltd
Original Assignee
Navitime Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Navitime Japan Co Ltd filed Critical Navitime Japan Co Ltd
Priority to JP2001379201A priority Critical patent/JP3693326B2/en
Publication of JP2003177029A publication Critical patent/JP2003177029A/en
Application granted granted Critical
Publication of JP3693326B2 publication Critical patent/JP3693326B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change the voice quality of a voice message for voice guidance to one desired by a user. <P>SOLUTION: A group or a plurality of sets of groups of voice data having a voice quality which the user desires are received by a communication portion 6 from a voice guidance supporter provided on the Internet, and are added to a voice data storage portion 10 by a voice data acquisition processing portion 15. Any user can designate a voice quality which he or she desires, out of the groups of voice data having different voice qualities stored in the storage 10, collectively for all messages or for each message. The designated voice quality is stored in the storage 10, corresponding to each message. A voice guidance portion 12 outputs a message being an object of guidance with voice having a voice quality registered beforehand, when operation to an operation portion 5 is interlocked with voice guidance, or voice guidance is registered by a specific processing which is executed by a car navigation apparatus 1. <P>COPYRIGHT: (C)2003,JPO

Description

【0001】
【発明の属する技術分野】
本発明は地図表示システム、音声案内支援装置、地図表示装置に係り、特に地図表示装置のユーザに対する種々のメッセージを音声で案内し、この際、案内に用いる音声の声質をユーザの好みに合わせることを可能とした地図表示システム、音声案内支援装置、地図表示装置に関する。
【0002】
【従来の技術】
車載用ナビゲーション装置で用いられる地図描画用の地図データは、全国を所定の経度幅と所定の緯度幅でマス目状の地理的領域に分割したメッシュと呼ばれる単位で構成されている。地図データはデータ量が膨大なため、車載用ナビゲーション装置では一般に、CD−ROM等の大容量の記憶媒体にエリア別に地図データを記憶しておき、現在位置周辺の地図データをCD−ROM等から読み出し、該読み出した地図データを用いて現在位置周辺の地図画像を現在位置マークとともに描画し、液晶ドットマトリクス式表示パネル等の表示部に表示させるようにしている(図12(1)参照)。
【0003】
この車載用ナビゲーション装置の中には、音声案内機能を有するものがある。音声案内機能は、ユーザに音声でメッセージを通知する機能であり、車載用ナビゲーション装置に対する特定の操作がなされたときあるいはいろいろな機能の実行中に音声案内が実行される。例えば、車載用ナビゲーション装置には、交差点案内機能を有するものがあり、この交差点案内の途中で音声案内を実行するものもある。交差点案内では、現在位置が走行予定ルート(あらかじめユーザが経由地交差点を順に設定したルート)上の次の経由地交差点まで所定の基準距離内に近づいたとき、一時的に交差点案内モードとなり、地図表示制御部はCD−ROM等に記憶された地図データのうち、当該或る経由地交差点の形状データ又は当該或る経由地交差点近傍の一番詳細な地図データを用いて、現在位置マークを含む所定の縮尺の地図画像の上に当該或る経由地交差点の拡大画像を重ねて表示する(図12(2)参照)。ユーザは拡大画像を見て、当該或る経由地交差点の構成が判り、どの方向へ進めば間違いなく目的地に到達できるか容易に判断できる。
【0004】
また、交差点案内の途中で音声案内を行う機能を有する車載用ナビゲーション装置では、現在位置が走行予定ルート(あらかじめユーザが経由地交差点を順に設定したルート)上の次の経由地交差点まで所定の基準距離に達したとき、音声案内部が交差点案内を開始し、例えば、基準距離が600mであれば、最初に「次の経由地交差点まであと600メートルです。そこを左折してください。」の音声を流し、その後、次の経由地交差点まで400m、200m、0mに達する度に、「次の経由地交差点まであと400メートルです。そこを左折して下さい。」、「次の経由地交差点まであと200メートルです。そこを左折して下さい。」、「次の経由地交差点まであと0メートルです。そこを左折して下さい。」という音声を流す。これにより、ユーザは次の経由地交差点までの接近状況と当該経由地交差点での進路が判り、当該経由地交差点で間違いなく所望の進路へ進むことができる。
【0005】
音声案内は、ユーザが車載用ナビゲーション装置を操作ボタン等により操作したときに、その操作に連動して実行されることがある。例えば、ユーザが車載用ナビゲーション装置の電源ボタンをオンしたときに「おはようございます」あるいは「こんにちは」等の簡単な挨拶メッセージをユーザに音声で伝えるものもある。あるいは、ユーザが、車載用ナビゲーション装置に対して、音声案内機能を有効にする操作をしたときには、「音声案内を開始します」という音声メッセージが出力される。音声案内を利用することにより、ユーザは、前方に注意したまま、車載用ナビゲーション装置が出力するメッセージを知ることができる。
【0006】
【発明が解決しようとする課題】
ところで、従来の車載ナビゲーション装置においては、音声メッセージとして、装置固有の単一の声質の音声メッセージしか出力されない場合が多い。しかし、ユーザによっては、他の声質の音声メッセージを利用したいと思うことがありうる。例えば、ユーザが男性の場合には、女性の声を用いた音声メッセージを好むかもしれない。逆に、ユーザが女性の場合には、男性の声を用いた音声メッセージを好むかもしれない。更には、ユーザの好みの歌手、俳優等の有名人の声を用いた音声メッセージを好むかもしれない。あるいは子供が同乗しているときには、ユーザは、その子供のために、有名なアニメーションの主人公の声を用いた音声メッセージを利用することを望むかもしれない。あるいは長距離ドライブの場合には、気分転換のために、ドライブの途中で音声メッセージの声質を変えたいと望む望む場合もあり得る。
しかし、上記従来の車載用ナビゲーション装置では、出力される音声メッセージの声質は固定されていて、ユーザは音声メッセージの声質を自分の好みの声質に変えることが出来ないという問題があった。
【0007】
本発明は上記した従来技術の問題に鑑み、音声案内用の音声メッセージの声質をユーザの好みの声質に変更可能にする地図表示システム、音声案内支援装置、地図表示装置を提供することを、その目的とする。
【0008】
【課題を解決するための手段】
本願の請求項1に記載の地図表示システムは、
ネットワークを介して接続される地図表示装置と音声案内支援装置とから成り、
音声案内支援装置は、
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備え、
地図表示装置は、
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えることを特徴とする地図表示システム。
また、本願の請求項2に記載の地図表示システムは、請求項1に記載の地図表示システムにおいて、
地図表示装置は、更に、任意の声質を特定して前記音声データ記憶手段に記憶された異なる声質の複数組の音声データから対応する1組の音声データまたは単位音声メッセージ毎の音声データの選択操作をする声質選択操作手段を備え、
前記音声案内手段は、前記音声データ記憶手段に記憶された音声データのうち、前記声質選択操作手段によって選択された任意の声質に対応する1組の音声データまたは単位音声メッセージ毎の音声データを用いて直接音声メッセージを生成することを特徴とする。
本願の請求項3に記載の音声案内支援装置は、
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えた地図表示装置にネットワークを介して接続される音声案内支援装置であって、
前記音声案内支援装置は、
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備えたことを特徴とする。
本願の請求項4に記載の地図表示装置は、
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備えた音声案内支援装置にネットワークを介して接続される地図表示装置であって、
前記地図表示装置は、
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えることを特徴とする。
また、本願の請求項5に記載の地図表示装置は、請求項4に記載の地図表示装置において、 地図表示装置は、更に、任意の声質を特定して前記音声データ記憶手段に記憶された異なる声質の複数組の音声データから対応する1組の音声データまたは単位音声メッセージ毎の音声データの選択操作をする声質選択操作手段を備え、
前記音声案内手段は、前記音声データ記憶手段に記憶された音声データのうち、前記声質選択操作手段によって選択された任意の声質に対応する1組の音声データまたは単位音声メッセージの音声データを用いて直接音声メッセージを生成することを特徴とする。
【0009】
【発明の実施の形態】
次に、本発明の一つの実施の形態を図1を参照して説明する。図1は本発明に係る車載用ナビゲーション装置の構成図である。
1は地図表示装置の一例としての車載用ナビゲーション装置であり、CD−ROMから現在位置周辺の地図画像の表示に必要な地図データを読み出し、該読みだした地図データを用いて、現在位置を含む一定範囲の地図画像を描画し、画面表示する。
【0010】
車載用ナビゲーション装置1のうち、2は衛星航法により定期的に現在位置と現在方位を検出するGPS受信部、3は液晶ドットマトリクス式の表示部、4はエリア別に地図描画用の地図データと経路探索用の道路データと、1組の案内用音声メッセージである案内用音声メッセージ群を生成するための標準の声質での1組の音声データである音声データ群が記憶されたCD−ROM4aから所望の地図データ、道路データあるいは音声データ群の読み取りを行うCD−ROM読取部である。5は操作部であり、電源オン・オフ操作をしたり、交差点案内の要求をオン・オフしたり、音声案内の要求をオン・オフしたり、走行予定ルート上の経由地交差点の位置(経緯度)と、それぞれの経由地交差点での左折、右折あるいは直進等の進路を経由順に入力したり、外部の音声案内支援装置に用意されている音声メッセージ生成用の声質の異なる複数組の音声データのうち所望の声質を有する1組又は複数組の音声データの転送要求操作をしたり、後述する可搬型外部記憶部に記憶された音声メッセージ生成用の1組又は複数組の音声データの転送要求操作をしたり、車載用ナビゲーション装置の音声データ記憶部に記憶された声質の異なる複数組の音声データの内ユーザに案内する1組の音声メッセージを生成するのに使用する所望の声質を有する1組の音声データの選択操作をしたり、前記1組の音声メッセージの各々について、当該音声メッセージの生成に使用する音声データとして所望の声質を有する音声データの選択操作をさせたりするのに使用する。
【0011】
6は通信部であり、所要時に無線通信でインターネット40(図13参照)と接続するとともに、インターネット40の上に存在する音声案内支援装置に対して所望の声質の1組又は所望の複数種の声質に対応する複数組の音声データの要求信号を送信したり、音声案内支援装置からインターネット40経由で送信された音声メッセージ生成用の1組又は複数組の音声データを受信したりする。7はマイコン構成の本体制御部であり、このうち、8は登録部であり、ユーザが操作部5で入力した経由地交差点の位置と進路を入力順(すなわち、経由順)に走行予定ルート記憶部9に記憶させたり、ユーザが操作部5で指定した、声質を変更すべきメッセージに対して変更後の声質を音声データ記憶部10に登録したりする。走行予定ルート記憶部9は、アドレスAD1〜ADNまでN個の記憶領域を有し、ユーザが順に入力した経由地交差点CPの位置とその交差点での右折、左折、直進等の進路との組がアドレス順に各記憶領域に記憶される(図2参照)。
【0012】
音声データ記憶部10は、特定の声質を有する複数の案内用の音声メッセージを生成するための1組の音声データを声質毎に複数のN組(Nは例えば2〜10の整数)記憶可能であり、更に、それぞれの音声データの使用を管理するためのデータを記憶可能になっている。音声データ記憶部10は、書き換え可能なメモリであり、フラッシュメモリ等の不揮発性メモリであることが望ましい。音声データ記憶部10に記憶されるデータの詳細は後に説明する。
【0013】
11は、交差点案内部であり、交差点案内部11は、操作部5による操作で交差点案内要求がオンにされると起動され、走行予定ルート記憶部9に記憶された経由地交差点の内、次の案内対象交差点を定めるとともに、当該次の案内対象交差点と現在位置との距離L(m)とあらかじめ定められた基準距離L(m)とを比較し、LがLより大きい間は交差点案内モードをオフし、LがLに一致すると交差点案内モードをオンし、かつ、次の案内対象交差点と現在位置との距離がL、(L−200)、・・、0となる度に案内対象交差点との距離とそこでの進路を案内する一つ又は複数のメッセージの番号を含む音声案内指令を後述する音声案内部12へ出力する。音声案内指令は、例えば、「次の経由地交差点まであと600メートルです。そこで左折して下さい。」という音声出力を得るために使用する一つ又は複数のメッセージの番号を指定する。交差点案内部11は、Lが0になると一定時間後に交差点案内モードをオフし、次の経由地交差点に接近すると、以上の動作を繰り返す。
【0014】
12は音声案内部であり、操作部5において音声案内モードがオンにされ、音声案内モードになっているときに起動される。起動されると、操作部5に対して成されたいずれかの操作に音声案内が連動するときには、その連動する音声案内のための音声メッセージを出力する。音声案内部12は、音声案内モードオン下で本体制御部7で実行中の処理により音声案内が指示されたときにも音声案内を実行する。例えば、交差点案内部11により交差点案内モードがオンにされていて交差点案内が実行されている状態で、交差点案内部11から次の案内対象交差点に関する音声案内指令が音声案内部12に入力される度に、音声案内部12は、その音声案内指令により指定された番号のメッセージを示す交差点案内音声信号を、音声データ記憶部10に記憶された音声データを用いて生成して出力する。例えば「次の経由地交差点まであと600メートルです。そこで左折して下さい。」という交差点案内音声信号が生成される。13は交差点案内音声信号を電力増幅するアンプ、14はアンプ13の出力で駆動されるスピーカである。
【0015】
15は音声データ取得処理部であり、本体制御部7の入出力端子CT及び本体制御部の外部に設けられた通信部6とに接続されている。音声データ取得処理部15は操作部5で入出力端子CTに直接接続された外部の音声案内支援装置(図14、図15参照)に対する音声メッセージ群を生成するための所望の声質を有する1組又は所望の複数種の声質に対応する複数組の音声データの要求操作がされると、音声データ要求信号を作成して当該音声案内支援装置に出力し、当該音声案内支援装置から音声メッセージ群生成用の1組又は複数組の音声データが転送されると、音声データ記憶部10に追加する。
【0016】
また、音声データ取得処理部15は、本体制御部7の入出力端子CTに直接接続された図示しない外部の音声案内支援装置(図14、図15参照)から音声メッセージ群生成用の1組又は複数組の音声データを入力すると音声データ記憶部10に追加する。更に、操作部5でインターネット40(図13参照)の上に構築された外部の音声案内支援装置50(図13参照)に対する所望の声質を有する音声メッセージ群生成用の所望の声質の1組又は所望の複数種の声質に対応する複数組の音声データの要求操作がされると、通信部6を制御し、インターネット40と無線接続させるとともに、音声メッセージ群生成用の音声データ要求信号をインターネット40経由で当該音声案内支援装置50に送信させ、当該音声案内支援装置50から転送された音声メッセージ群生成用の1組又は複数組の音声データが通信部6で受信されると、当該受信された音声メッセージ群生成用の1組又は複数組の音声データを入力し、音声データ記憶部10に追加する。
【0017】
16はメスコネクタであり、可搬型外部記憶部30のオスコネクタ31と着脱自在に接続可能である。可搬型外部記憶部30は、音声メッセージ群生成用の音声データの組を複数のM組記憶可能な音声データ記憶部であり、音声メッセージ群生成用の音声データの組に対応付けて名称及びフォーマット種別も記憶可能になっている。17はメスコネクタ16と接続された読取部であり、操作部5で可搬型外部記憶部30からの転送要求操作がされると、可搬型外部記憶部30から音声メッセージ群生成用の音声データの組を全て読み出し音声データ記憶部10に追加する。
【0018】
18は地図表示制御部であり、このうち、19は画像メモリ部であり、表示部3の1画面分の画像データを記憶するための第1画像記憶領域19aと、交差点の拡大画像を記憶するための第2画像記憶領域19bとを有する。20は描画部であり、現在位置データと現在方位データに基づき、現在位置を含み、あらかじめ操作部5による操作により指定された縮尺の地図データをCD−ROM4aから読み出し、読みだされた地図データを用いて現在位置を中心とし、北を上向きとした地図画像を画像メモリ部19の第1画像記憶領域19aに描画し、地図画像の真ん中に現在方位に相当する向きの自車位置マーク(図12(1)の符号V参照)を重ねて描画する。更に、走行予定ルート記憶部9のうち、当該地図画像の示す地図領域に入っている経由地交差点につき、地図画像上の対応する箇所に地図画像に重ねて経由地交差点マーク(図12(1)の符号Q参照)を描画する。
【0019】
描画部20は、交差点案内モードオン時は、更に走行予定ルート記憶部9のうち、交差点案内部11が決定した次の案内対象交差点について、CD−ROM4aから当該次の案内対象交差点の形状データ又は当該次の案内対象交差点近傍の一番詳細な地図データを読み出し、所定のサイズの交差点拡大画像を北を上向きにして、画像メモリ部19の第2画像記憶領域19bのうち、所定の位置に描画する。
【0020】
21は合成部であり、交差点案内モードオフ時は、第1画像記憶領域19aに記憶された地図画像を単独で映像信号に変換して表示部3へ出力し、地図画像を画面3aに表示させる(図12(1)参照)。合成部21は、交差点案内モードオン時には、第1画像記憶領域19aに記憶された地図画像の上に第2画像記憶領域19bに記憶された交差点拡大画像を重ねながら(第1画像記憶領域19aの地図画像のうち、第2画像記憶領域19bで交差点拡大画像が描画されたピクセル位置の範囲を当該交差点画像で置き換える)、映像信号に変換して表示部3へ出力し、地図画像に交差点拡大画像を重ねた画像を画面3aに表示させる(図12(2)参照)。
【0021】
音声データ記憶部10には、図3に示すように、音声データ記憶領域110と管理データ記憶領域120とが設けられている。音声データ記憶領域110には、それぞれ特定の声質を有する音声メッセージ群を生成するための音声データ群111、112、113、114、…が記憶される。本発明では、音声案内で使用する実質的に同じ内容のメッセージを伝えるための音声からユーザが受ける感じが他と異なるとき、これらの音声は声質が異なると呼ぶ。例えば、異なる話者の音声、女性の音声と男性の音声、標準語を話す音声と方言を話す音声など、ユーザが受け取る感じがいろいろな意味で互いに異なる音声を広く声質が異なると呼ぶ。
【0022】
111は、CD−ROM4aから読み込まれて音声データ記憶部10にあらかじめ記憶されている1組の標準的な声質の音声データであり、以下では音声データ群111を標準の音声データ群と呼ぶことがある。112から114は、それぞれユーザが外部の地図支援装置等から読み出して音声データ記憶部10に追加した、他の声質を有する音声メッセージ群を生成するため音声データ群の例である。例えば、112は、ユーザが好きな歌手Aの音声から生成された、音声メッセージ群生成用の1組の音声データである。同様に、113は、ユーザが好きな他の歌手Bの音声により生成された、音声メッセージ群生成用の1組の音声データである。114は、ユーザが好きな方言としての関西弁の音声から生成された音声メッセージ群生成用の1組の音声データである。
【0023】
各音声データ群は、本車載用ナビゲーション装置1で利用可能な複数の案内用の音声メッセージを生成するための複数の音声データからなる。各メッセージには、メッセージ番号が定められている。例えば、音声データ群111は、図4に示すように、案内用の音声メッセージ#1、#2、#3、…のそれぞれを表す音声データからなり、それぞれの音声データはメモリアドレスA1、A2、A3、…に記憶されている。図4には、各音声メッセージの内容の例を括弧内に記載してある。音声メッセージには、「おはようございます」等の挨拶に関連するものの他に、「次の経由地交差点まで600メートルです。そこで左折して下さい。」等の交差点案内に関係するメッセージなどいろいろなメッセージがある。
【0024】
音声データ記憶部10に記憶された他の音声データ群112、113、114、…も同じ複数の案内用の音声メッセージを異なる音声で生成するための音声データからなる。異なる音声データ群について、同一のメッセージ番号に対応する二つのメッセージを構成する音は異なっていても、それらのメッセージの内容が同じであればよい。例えば、メッセージ#1の「おはようございます」に対する音声データは、標準、歌手A、歌手B等の音声データは「おはようございます」という音をそのまま表していて、対応する関西弁による音声データは「おはようさん」という音を表すものであってもよい。更に、ユーザが望む場合には、音声データ記憶領域110に記憶されたいずれかの声質のいずれかのメッセージの音声データとして、図4に例示されたメッセージ(例えば、メッセージ#3の「お疲れさまでした」)とは表現が異なるが、同じ目的で使用できる他のメッセージ(例えば「ご苦労様でした」)を表す音声データを使用することもできる。これにより、メッセージの表現自体をユーザの好みに合わせることができる。
【0025】
音声データ群111から114には、特定の方法で各音声メッセージを示す音声信号を圧縮符号化したものを使用することができる。例えば、メッセージ音声をADPCM(Adaptive Differentia Code Modulation)により圧縮したものでもよい、あるいは、例えばメッセージ音声を一般のパソコンで変換して得られる、WAVEと呼ばれるフォーマットの音声データでもよい(図5のWAV参照)。フォーマットWAVEの音声データを使用する場合には、ユーザが容易に音声データを生成して音声案内に利用することができ、あるいは他人が生成したWAVEフォーマットの音声データを音声案内に利用することができる。
【0026】
管理データ記憶領域120には、音声データ群管理テーブル130と使用声質登録テーブル140のような、音声データ記憶領域110に記憶された音声データ群を管理するためのデータが記憶される。
【0027】
音声データ群管理テーブル130には、図5に示すように、音声データ記憶領域110に登録された各音声データ群について、音声データ群を識別する情報としての音声データ群の名称131、その音声データ群のフォーマット種別132と、その音声データ群に対して準備された後述するアドレス管理テーブル151、152、153又は154、…(図3参照)のアドレス133とが登録される。
音声データ群の名称は、案内用の音声メッセージの声質を一義的に指定するので、以下では、各音声データ群が表す声質の名称にも音声データ群の名称を用いる。図では、音声データ群の名称131には、標準、歌手A、歌手B、関西等が使用されている。更に図示されたフォーマット種別133内の情報によると、関西弁以外の音声データは、ADPCMにより生成された音声データであり、関西弁の音声データは、WAVフォーマットを有している。
【0028】
管理データ記憶領域120には、音声データ記憶領域110に記憶された各音声データ群に対応して、その音声データ群に含まれた各音声データの記憶アドレスを保持する複数のアドレス管理テーブル151、152、153、154、…(図3参照)も記憶される。音声データ群111(図4参照)に対するアドレス管理テーブル151は、図6に例示するように、メッセージ番号1、2、…に対応して、当該メッセージ番号の音声メッセージを生成するための音声データのメモリアドレスA1、A2、…(図4参照)が記憶される。音声データ記憶領域110に記憶されたいずれかの音声データ群に属する音声データを用いていずれかの音声メッセージを生成するときには、当該音声データ群の名称(声質の名称)と、当該生成すべき音声メッセージの番号とを用いて、当該音声メッセージを生成するための音声データのメモリアドレスが、当該音声データ群に対応して記憶されたアドレス管理テーブル151、152、153又は154から読み出され、読み出されたメモリアドレスを用いて目的の音声データが読み出され、当該音声メッセージの生成に使用される。
【0029】
使用声質登録テーブル140は、図7に例示されるように、各メッセージ番号141に対応して、利用可能な複数の音声データ群の数(異なる声質の数)だけの領域142、143、144、145、…を有し、これら複数の領域の一つに使用希望フラグ1が設定される。図の例では、メッセージ#1から6は、歌手Aの声質に対して使用希望フラグ1が設定され、メッセージ#7以降のメッセージについては、歌手Bの声質に対して使用希望フラグ1が設定されている。いずれかのメッセージ番号の音声メッセージを生成するときには、使用声質登録テーブル140内で、当該メッセージ番号に対して使用希望フラグが設定されている声質を有する音声データが使用される。
【0030】
図8から図11は、本体制御部7が時分割で平行して実行する制御処理を示すフローチャートであり、図8は、音声データ取得処理部15と読取部17の制御処理を示し、図9は、登録部8の制御処理のうち音声データ記憶部10に対する制御処理を示し、図10は音声案内部12の制御処理を示し、図11は、交差点案内部11の制御処理を示す。図12は、地図表示制御部18の動作説明図である。以下、これらの図を参照して上記した実施の形態の動作を説明する。
【0031】
なお、説明の便宜上、走行予定ルート記憶部9には既にM個の経由地交差点CP〜CPMの位置データ(経緯度)と、それぞれの交差点での進路が記憶されており(図2参照)、車両は最初の経由地交差点CPより手前の所望の出発地から出発するものとする。また、描画部20に対してはユーザ所望の縮尺データが操作部5による操作によりあらかじめ設定されており、交差点案内部11には、交差点案内を開始するための基準距離としてL=600(m)が記憶済であるとする。
【0032】
(1)音声メッセージ群生成用の音声データ群の追加
(1−1)ネットワーク経由で外部の音声案内支援装置からの音声メッセージ群生成用の音声データ群の転送(図13参照)
図13に示すごとく、インターネット40の上には外部からインターネット経由でアクセス可能な音声案内支援装置(音声案内支援サーバ)50が構築されている。音声案内支援装置50は、音声案内用の音声メッセージ群生成用の音声データ群を声質群毎に複数組、対応する名称及びフォーマット種別とともに記憶した音声データ記憶部51と、インターネット40を経由して外部の車載用ナビゲーション装置1からの名称指定による、音声メッセージ群生成用の音声データ群の転送要求に基づき、音声データ記憶部51から音声メッセージ群生成用の所望の声質の音声データ群と対応する名称とフォーマット種別を読み出し、要求元の車載用ナビゲーション装置1に転送する配信部52とから成る。
【0033】
音声案内支援装置50が提供可能な音声データ群の典型的なフォーマット種別は、例えばADPCM又はWAVEである。音声データ群は、あらかじめ音声案内支援装置50内の図示しない回路を使用してあるいは音声案内支援装置50とは別の回路により作成されて、音声データ記憶部51に記憶されているとする。なお、音声データ群の作成には、例えば、歌手Aによる全てのメッセージの読み上げ音を録音し、各メッセージの読み上げ音を例えばADPCM方式によりコーディングして当該メッセージに対する音声データを作成するという方法を採ることができる。あるいは読み上げ音をWAVE形式の音声データに変換してもよい。
【0034】
音声メッセージ群生成用の所望の声質の1つの音声データ群又は所望の複数種の声質に対応する複数の音声データ群を、外部のインターネット40の上に構築された音声案内支援装置50から取り込みたい場合、車載用ナビゲーション装置1の操作部5で音声メッセージ群生成用の音声データ群の1又は複数の名称を指定して、インターネット40の上の音声案内支援装置50に対する音声メッセージ群生成用の所望のある一つの声質の音声データ群又は所望の声質の異なる複数の音声データ群の要求操作をする。例えば歌手Aを指定して、音声メッセージ群生成用の音声データ群の要求操作をすると、音声データ取得処理部15は通信部6を制御し、インターネット40と無線接続させるとともに、歌手Aの名称を含む、音声メッセージ群生成用の音声データ群要求信号をインターネット40の上の音声案内支援装置50へ送信させる(図8のステップS10でNOで、ステップS12でYES、S13)。
【0035】
該要求信号を受信した音声案内支援装置50の配信部52は、指定された名称に対応する、音声メッセージ群生成用の音声データ群及びフォーマット種別を音声データ記憶部51から読み出し、当該音声データ群と対応する名称及びフォーマット種別をインターネット40を経由して要求元の車載用ナビゲーション装置1に転送する。
【0036】
音声案内支援装置50から送信された名称及びフォーマット種別付の音声メッセージ群生成用の音声データ群は、車載用ナビゲーション装置1の通信部6で受信されて音声データ取得処理部15に入力され、当該音声データ取得処理部15は音声データ記憶部10に音声データ群を追加する(ステップS13。図4の音声データ群112参照)。
【0037】
このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブル152(図3、図6参照)を生成し、音声データ記憶部10の管理データ記憶領域120内に記憶する。更に音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブル152のアドレスとを登録する(図5参照)。
【0038】
(1−2)車載用ナビゲーション装置に直接接続された音声案内支援装置からの音声メッセージ群生成用の音声データ群の転送(図14参照)
図14に示すごとく、ノートパソコン等で構成した音声案内支援装置60を車載用ナビゲーション装置1の入出力端子CTと接続しておく。音声案内支援装置60も音声案内支援装置50(図13参照)と同様に、音声メッセージ群生成用の音声データ群を対応する名称及びフォーマット種別とともに異なる声質毎に複数組記憶した音声データ記憶部61と配信部62と、操作部63とを有する。なお、音声データ記憶部61の記憶内容はここでは図13の音声案内支援装置50の音声データ記憶部51と同様であるとする(図3参照)。
【0039】
操作部63は、配信すべき音声データ群の1又は複数の名称を指定して当該名称の音声データ群の配信を指示する等の操作をユーザにより実行する。配信部62は、外部の車載用ナビゲーション装置1からの1又は複数の名称指定による、音声メッセージ群生成用の音声データ群の転送要求に基づき、音声データ記憶部61から音声メッセージ群生成用の所望の音声データ群と対応する名称及びフォーマット種別を1又は複数組読み出し、要求元の車載用ナビゲーション装置1に転送したり、音声案内支援装置60の操作部63で、1又は複数の名称指定による音声メッセージ群生成用の音声データ群の転送要求操作がされると、音声データ記憶部61から音声メッセージ群生成用の所望の音声データ群と対応する名称及びフォーマット種別を1又は複数組読み出し、外部に接続された車載用ナビゲーション装置1に転送する。
【0040】
なお、音声データ群は、音声案内支援装置60内の図示しない回路によりあるいは音声案内支援装置60とは異なる他の装置によりあらかじめ作成して、音声データ記憶部61に記憶しておく。なお、音声案内支援装置60が、ノートパソコンあるいは他のパソコンにより構成されているときには、音声データ記憶部61に記憶された音声メッセージ群生成用の音声データ群のフォーマット種別は、WAVとすることが簡単である。
【0041】
音声メッセージ群生成用の所望の1又は複数の音声データ群を外部の音声案内支援装置60から取り込みたい場合、車載用ナビゲーション装置1の操作部5で音声メッセージ群生成用の1又は複数の音声データ群の名称を指定して、入出力端子CTに接続された音声案内支援装置60に対する音声メッセージ群生成用の所望の音声データ群の転送要求操作をする。例えば、歌手Bを指定して音声メッセージ群生成用の音声データ群の転送要求操作をすると、音声データ取得処理部15は歌手Bの名称を含む音声メッセージ群生成用の音声データ群要求信号を入出力端子CTを介して音声案内支援装置60へ出力する(図8、ステップS10でYES、S11)。
【0042】
該要求信号を入力した音声案内支援装置60の配信部62は、指定された名称に対応する音声メッセージ群生成用の音声データ群及びフォーマット種別を音声データ記憶部61から読み出し、当該音声データ群と対応する名称及びフォーマット種別を車載用ナビゲーション装置1に出力する。音声案内支援装置60から出力された名称及びフォーマット種別付の音声データ群は、音声データ取得処理部15に入力され、該音声データ取得処理部15は音声データ記憶部10に追加する(ステップS11。図3の音声データ群113参照)。
【0043】
このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブル153を生成し、管理データ記憶領域120内に記憶する(図3参照)。更に音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブル153のアドレスとを登録する(図5参照)。
【0044】
音声案内支援装置60から車載用ナビゲーション装置1への音声メッセージ群生成用の音声データ群の転送は、音声案内支援装置60の側からも行える。即ち、操作部63で音声メッセージ群生成用の所望の1又は複数の音声データ群の名称を指定して、外部に接続された車載用ナビゲーション装置1への所望の音声データ群の転送要求操作をする。例えば、関西弁を指定して音声メッセージ群生成用の音声データ群の転送要求操作をすると、配信部62は、指定された名称に対応する、音声メッセージ群生成用の音声データ群及びフォーマット種別を音声データ記憶部61から読み出し、当該音声データ群と対応する名称及びフォーマット種別を車載用ナビゲーション装置1に出力する。
【0045】
音声案内支援装置60から出力された名称及びフォーマット種別付の音声データ群は、入出力端子CTを介して音声データ取得処理部15に入力され、該音声データ取得処理部15は音声データ記憶部10に追加する(ステップS14でYES、S15。図3の音声データ群114参照)。このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブル154を生成し、管理データ記憶領域120内に記憶する(図3参照)。更に、音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブル154のアドレスとを登録する(図5参照)。
【0046】
(1−3)音声メッセージ群生成用の音声データ作成機能を持つ音声案内支援装置からの転送(図15参照)
図15に示す如く、ノートパソコン等で構成した音声案内支援装置70を車載用ナビゲーション装置1の入出力端子CTと接続しておく。音声案内支援装置70は、車載用ナビゲーション装置1の音声データ記憶部10に対応する音声データ記憶部71と、操作部72と、音声データ群を音声データ記憶部71に登録する登録部73、音声メッセージ群生成用の音声データ群を外部に転送する転送部74を有し、更に音声データ記憶部71に記憶されるべき、音声メッセージ群生成用の音声データ群を作成する音声データ作成部75を有する。
【0047】
音声案内支援装置70を車載用ナビゲーション装置1の入出力端子CTと接続しておき、操作部72で音声データ作成部75に対する音声データ群作成制御操作をおこなって、音声データ作成部75で音声データ群を作成させる。音声データの作成は、図13の音声案内支援装置50について記載した方法によることができる。例えば、特定の声質の音声データ、例えば歌手Aの音声による音声データを作成するときには、全てのメッセージの読み上げ音を適当な音声記録媒体35に録音し、音声データ作成部75は、音声記録媒体35に記録された音声信号のうち、各メッセージに対応する部分を操作部72による編集操作により読み取り、読み取った音声信号をADPCM等の特定の処理を施して音声データに変換する。音声データは、他の種類の音声データ、例えばWAVEフォーマットの音声データでもよい。操作部72は、更に、作成された音声データ群に対応する名称とフォーマット種別の作成操作をする。登録部73は、操作に従い、作成された音声データ群と対応する名称及びフォーマット種別を音声データ記憶部71に追加する。音声データ作成部75は、音声データ記憶部71に記憶させる音声メッセージ群生成用の音声データ群を作成する機能を有する。
【0048】
1又は複数の音声メッセージ群生成用の音声データ群及び対応する名称及びフォーマット種別を作成後、操作部72で音声データ記憶部71のうち、音声メッセージ群生成用の所望の1又は複数の音声データ群の名称を指定して外部の車載用ナビゲーション装置1への転送要求操作をすると、転送部74は音声データ記憶部71から要求された音声データ群と対応する名称及びフォーマット種別とを読み出し、車載用ナビゲーション装置1の側へ転送する。
【0049】
音声案内支援装置70から出力された名称及びフォーマット種別付の音声メッセージ群生成用の音声データ群は、入出力端子CTを介して音声データ取得処理部15に入力され、該音声データ取得処理部15は音声データ記憶部10に追加する(ステップS14、S15)。このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブルを生成し、管理データ記憶領域120内に記憶する(図3参照)。更に音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブルのアドレスとを登録する(図5参照)。
【0050】
(3−4)可搬型外部記憶部を用いた音声メッセージ群生成用の音声データ群の追加(図16参照)
図16に示す如く、可搬型外部記憶部を介在して音声メッセージ群生成用の音声データ群を追加することもできる。80はパソコン等で構成した音声案内支援装置であり、例えば、家庭に設置されている。音声案内支援装置80のうち、81は音声メッセージ群生成用の音声データ群を異なる声質毎に複数組、それぞれに対応する名称及びフォーマット種別とともに記憶した音声データ記憶部、82は名称指定による生成済みの音声データ群の転送要求操作を行う操作部である。
【0051】
85は可搬型外部記憶部30のオスコネクタ31を着脱自在に接続可能なメスコネクタ、84は操作部82で音声メッセージ群生成用の所望の1又は複数の音声データ群の転送要求操作がされると、音声データ記憶部81から該当する音声メッセージ群生成用の所望の音声データ群と対応する名称及びフォーマット種別を読み出し、メスコネクタ85に接続された可搬型外部記憶部30に書き込む転送部である。音声データ記憶部81に記憶される音声データ群は、音声案内支援装置80内又は他の装置によりあらかじめ作成され、音声データ記憶部81に登録されている。
【0052】
音声案内支援装置80のメスコネクタ85に可搬型外部記憶部30を接続し、操作部82で1又は複数の名称指定による音声メッセージ群生成用の所望の1又は複数の音声データ群の転送要求操作をする。すると、転送部84は音声データ記憶部81から指定された名称に対応する、音声メッセージ群生成用の音声データ群と対応する名称及びフォーマット種別を読み出し、可搬型外部記憶部30に書き込む。
【0053】
音声メッセージ群生成用の1又は複数の音声データ群を可搬型外部記憶部30に書き込んだあと、音声案内支援装置80から可搬型外部記憶部30を外して車載用ナビゲーション装置1のメスコネクタ16に接続する。そして、車載用ナビゲーション装置1の操作部5で可搬型外部記憶部30からの転送要求操作をすると、読取部17が可搬型外部記憶部30に記憶された音声メッセージ群生成用の全ての音声データ群をそれぞれに対応する名称及びフォーマット種別とともに読み出し、音声データ記憶部10に追加する(ステップS16でYES、S17)。
【0054】
このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブルを生成し、管理データ記憶領域120内に記憶する(図3参照)。更に音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブルのアドレスとを登録する(図5参照)。
【0055】
(3−5)可搬型外部記憶部を用いた音声メッセージ群生成用の音声データ群の追加(図17参照)
図17に示す如く、音声案内支援装置で作成した、音声メッセージ群生成用の音声データ群を可搬型外部記憶部に格納することもできる。
90はパソコン等で構成した音声案内支援装置であり、例えば、家庭に設置されている。音声案内支援装置90の内、91は音声メッセージ群生成用の音声データ群を異なる声質毎に複数組、それぞれに対応する名称及びフォーマット種別とともに記憶可能な音声データ記憶部、92は後に説明する音声データ作成部96に対する音声データ群作成制御操作をおこなって、音声データ作成部96で、音声記録媒体35に記録された音声信号から音声データ群を作成させ、更に、作成された音声データ群に対応する名称とフォーマット種別の作成操作をしたり、可搬型外部記憶部30への転送要求操作をする操作部、93は操作部92での音声メッセージ群生成用の音声データ群と対応する名称及びフォーマット種別の作成操作に従い、音声データ作成部96で作成された音声データ群と対応する名称及びフォーマット種別を作成して作成された音声データ群と一緒に音声データ記憶部91に追加する登録部である。音声データ作成部96による音声データの作成は、図15の音声案内支援装置70内の音声データ作成部75と同様に行なうことができる。
【0056】
95は可搬型外部記憶部30のオスコネクタ31を着脱自在に接続可能なメスコネクタ、94は操作部82で音声メッセージ群生成用の音声データ群の転送要求操作がされると、音声データ記憶部91から音声メッセージ群生成用の該当する所望の音声データ群と対応する名称及びフォーマット種別を読み出し、メスコネクタ95に接続された可搬型外部記憶部30に書き込む転送部である。音声データ作成部96は、音声データ記憶部91に記憶させる音声メッセージ群生成用の音声データ群を生成する機能を有する。
【0057】
音声データ作成部96で音声メッセージ群生成用の音声データ群が作成され、操作部92で当該音声データ群と対応する名称及びフォーマット種別の作成操作をすると、登録部93が操作に応じて作成された音声データ群と、対応する名称及びフォーマット種別を音声データ記憶部91に追加する。1又は複数の音声メッセージ群生成用の音声データ群を作成後、メスコネクタ95に可搬型外部記憶部30を接続し、操作部92で音声データ記憶部91のうち、音声メッセージ群生成用の所望の1又は複数の音声データ群の声質の名称を指定して外部の可搬型外部記憶部30への転送要求操作をすると、転送部94は音声データ記憶部91から指定された1又は複数の名称に対応する、音声メッセージ群生成用の音声データ群と名称及びフォーマット種別を読み出し、可搬型外部記憶部30に書き込む。
【0058】
音声メッセージ群生成用の1又は複数の音声データ群を可搬型外部記憶部30に書き込んだあと、可搬型外部記憶部30を外して車載用ナビゲーション装置1のメスコネクタ16に接続する。そして、車載用ナビゲーション装置1の操作部5で可搬型外部記憶部30からの転送要求操作をすると、読取部17が可搬型外部記憶部30に記憶された全ての音声メッセージ群生成用の音声データ群をそれぞれに対応する名称及びフォーマット種別とともに読み出し、音声データ記憶部10に追加する(図8のステップS16でYES、S17)。
【0059】
このとき、追加された音声データ群に対応して、当該音声データ群に属する個々の音声データのアドレスを示すアドレス管理テーブルを生成し、管理データ記憶領域120内に記憶する(図3参照)。更に音声データ記憶部10に記憶されている音声データ群管理テーブル130に、上記追加された音声データ群の名称とフォーマット種別と上記生成された対応するアドレス管理テーブルのアドレスとを登録する(図5参照)。
【0060】
なお、登録部93とメスコネクタ95を接続しておき、操作部92で音声メッセージ群生成用の音声データ群に対応する名称とフォーマット種別の作成操作をすると、登録部93が操作に応じて音声メッセージ群生成用の音声データ群に対応する名称及びフォーマット種別を作成し、可搬型外部記憶部30に追加するようにしても良い。
【0061】
(2)使用を希望する音声データ群の指定
音声データ記憶部10に複数群の音声データが記憶された状態では、ユーザは、音声案内に用いるメッセージの声質を操作部5による操作により所望のものに指定することができる。本車載用ナビゲーション装置1では、操作部5により案内音声の声質の変更要求操作をする場合には、全てのメッセージの声質を一括して標準以外の他の声質に変更する一括変更態様と、個々のメッセージ毎にいずれかの声質に変更する個別変更態様のいずれかを選んで実行することができる。音声メッセージの声質変更要求操作が操作部5に対してなされ、かつ、全てのメッセージの一括変更要求操作が操作部5に対してなされた場合、全ての案内用の音声メッセージに対して操作で指定された特定の変更後の声質、例えば歌手Aを登録する(図9、ステップS18でYES、S19でYES、S20)。すなわち、図7に示す使用声質登録テーブル140において、全てのメッセージについて、歌手Aに対応するエントリに使用希望フラグを設定する。
【0062】
一方、音声メッセージの声質変更要求操作が操作部5に対してなされ、かつ、個別変更要求操作が操作部5に対してなされた場合、ユーザが個別声質変更要求操作で指定した個々のメッセージに対応付けて変更後の声質を登録する(図9、ステップS18でYES、S19でNO、S21でYES、S22)。例えば、図7において、メッセージ#1「おはようございます」についてユーザが歌手Aを指定した場合、使用声質登録テーブル140の当該メッセージについて、歌手Aに対応するエントリに使用希望フラグを設定する。一方、他のメッセージ、例えばメッセージ#7「次の経由地交差点まで600メートルです」についてユーザが歌手Bを指定した場合には、使用声質登録テーブル140の当該メッセージについて、歌手Bに対応するエントリに使用希望フラグを設定する。このように、個々のメッセージ毎に使用する声質を設定することができる。
【0063】
(3)音声案内の実行
音声案内部12は、本車載用ナビゲーション装置1の使用中のいろいろな時点で音声案内を実行する。図4に例示された一群のメッセージの場合、いくつかのメッセージは操作部5に対する特定の操作に連動して案内される。他のいくつかのメッセージは、本車載用ナビゲーション装置1が特定の処理を実行していて、当該特定の処理が音声案内を指示したときに案内される。
【0064】
例えばメッセージ#5「音声案内を開始します」は、操作部5において音声案内開始要求操作がなされ、音声案内モードになったときに案内される。メッセージ#6「音声案内を終了します」は、操作部5において音声案内終了要求操作がなされ、音声案内モードがオフになったときに案内される。メッセージ#1「おはようございます」は、音声案内モード下で操作部5において電源オン操作がなされ、かつ、その時刻が午前中であるときに案内される。同様に、メッセージ#2「こんにちは」とメッセージ#3「こんばんは」は、操作部5において電源オン操作がなされ、かつ、その時刻がそれぞれ午後又は夜間であるときに案内される。メッセージ#4のメッセージ「お疲れさまでした」は、音声案内モード下で操作部5において電源オフ操作がなされたときに案内される。
【0065】
音声案内モード下でのメッセージの音声案内は、具体的には以下のようにして実行される。音声案内部12では、操作部5に対する何らかの操作がなされたとき、当該操作は、音声案内が当該操作に連動するあらかじめ定められた操作であるかが判断され、実行された操作が音声案内が連動する操作であるときには、その操作に連動するメッセージとしてあらかじめ定められたメッセージが、そのメッセージに対して事前に登録された声質で音声出力される(図10のステップS23でYES、S25)。
【0066】
音声案内部12には、音声案内に用いる各メッセージについて、当該メッセージがいずれかの特定の操作に連動して音声案内に使用されるメッセージであるか否か、あるいは本車載用ナビゲーション装置1内で実行中の処理により音声案内が指示されたときに使用されるメッセージであるかが記憶され、当該メッセージによる音声案内を実行する上で満たされるべき条件が更に存在するときにはその条件も記憶されている。例えばメッセージ#1については、メッセージ#1はお電源オン操作に連動することが記憶され、かつ、このメッセージ#1による音声案内の実行条件として、操作がなされた時刻が午前中であることが記憶されている。したがって、操作部5に対して電源オン操作がなされた場合、音声案内部12は、その操作がなされた時刻が午前中であるときには、その操作にメッセージ#1による音声案内が連動すると判別する。
【0067】
このようにしてメッセージ#1が音声案内されるべきであると判断されると、音声案内部12は、メッセージ#1に対して事前に登録された声質(今の例では歌手A)を使用声質登録テーブル140(図7参照)から検出して、歌手Aの音声データ群、例えば112(図3参照)に対応するアドレス管理テーブル152(図3参照)から、メッセージ#1に対するメモリアドレスを読み出し、このメモリアドレスを用いて、歌手Aのメッセージ#1に対する音声データを読み出す。更に、この音声データのフォーマット種別132(図5参照)は今の例ではADPCMであるので、上記読み出された音声データをADPCMにしたがって復号して音声を再生し、アンプ13を介してスピーカ1から出力する。こうして、メッセージ#1は、当該メッセージに対して登録された声質で音声出力される。
【0068】
メッセージ#7から#13は、本車載用ナビゲーション装置1において実行されている処理により要求される音声案内に使用されるメッセージの例である。すなわち、操作部5に対して交差点案内要求操作がなされたとき、交差点案内部11が以下のようにして交差点案内処理を実行し、その交差点案内の実行過程でメッセージ#7から#13のそれぞれの音声案内の実行を異なるタイミングで要求する。
【0069】
まず、交差点案内部11は、交差点案内モードをオフとし(図11のステップS30)、経由地交差点の順位を示すiを1とし、走行予定ルート記憶部9に1番目の経由地交差点の位置データが存在するかチェックする(ステップS31、S32)。NOであれば次の案内対象交差点無しと決定し、描画部20に通知するが(ステップS48)、ここではYESなので、先頭の経由地交差点を次の案内対象交差点と決定し、描画部20に通知する(ステップS33)。そして、GPS受信部2から現在位置データを入力し、現在位置から次の案内対象交差点までの距離Lを計算するとともに(ステップS34)、あらかじめ記憶された基準距離Lと比較する(ステップS35)。L=Lであれば交差点案内モードをオンするが(ステップS36)、ここではL>Lであったとすると交差点案内モードをオフのままとする。
【0070】
一方、描画部20はGPS受信部2から現在位置データと現在方位データを入力し、現在位置を含みあらかじめ記憶されたユーザ所望の縮尺の地図データをCD−ROM4aから読み出し、該読みだした地図データを用いて画像メモリ部19の第1画像記憶領域19aに現在位置を中心とし、北を上向きとしたユーザ所望の縮尺の地図画像を描画し、かつ、走行予定ルート記憶部9の内、当該地図画像の示す地図エリアに入っている経由地交差点につき、地図画像上の対応する箇所に地図画像に重ねて経由地交差点マーク(図12(1)の符号Q参照)を描画し、更に、地図画像の真ん中に現在方位に相当する向きの自車位置マーク(図12(1)の符号V参照)を重ねて描画する。
【0071】
また、描画部20は交差点案内部11により決定された次の案内対象交差点が存在するかチェックし、YESであれば走行予定ルート記憶部9のうち、次の案内対象交差点について、CD−ROM4aから当該案内対象交差点の形状データ(又は案内対象交差点近傍の一番詳細な地図データ)を読み出し、所定のサイズの交差点拡大画像を北を上向きにして、第2画像記憶領域19bのうち、所定の位置に描画する。
【0072】
合成部21は、交差点案内モードオンであれば第1画像記憶領域19aに記憶された地図画像の上に第2画像記憶領域19bに記憶された交差点拡大画像を重ねながら、映像信号に変換して表示部3へ出力するが、ここでは交差点案内モードオフなので、第1画像記憶領域19aに記憶された地図画像単独で映像信号に変換して表示部3へ出力する。
よって、画面3aには図12(1)に示す如く出発地を中心とする北を上向きにした地図画像が自車位置マーク、経由地交差点マークとともに表示される。
【0073】
車両の走行で現在位置が変化するのに応じて画面の地図画像が移動する。その後、現在位置から次の案内対象交差点までの間が基準距離Lまで縮まると、交差点案内部11は交差点案内モードをオンする(ステップS35、S36)。更に当該交差点での進路が、左折、右折、直進のいずれであるかを走行予定ルート記憶部9内の進路情報に基づいて判別し、左折のときには、次の経由地交差点まであと600であることを案内するメッセージ(今の例ではメッセージ#7)のメッセージ番号7と、そこでの進路が左折であることを指示するメッセージ(今の例ではメッセージ#11)のメッセージ番号11とを含む音声案内指令を音声案内部12へ出力する(ステップS37、S38)。
【0074】
該指令を受けた音声案内部12は、「次の経由地交差点まであと600メートルです。そこを左折して下さい。」という交差点案内音声信号を生成して出力し、スピーカ14から音響出力させる。このとき、音声案内部12は、音声案内部12は、使用声質登録テーブル140(図7参照)からメッセージ#7に対して設定された声質(今の例では歌手B)を検出して、歌手Bの音声データ群113に対応するアドレス管理テーブル153(図3参照)から、メッセージ#7に対するメモリアドレスを読み出し、このメモリアドレスを用いて、メッセージ#7に対する歌手Bの音声データを読み出す。更に、この音声データのフォーマット種別132(図5参照)は今の例ではADPCMであるので、上記読み出された音声データをADPCMにしたがって復号して音声を再生する。メッセージ#11についても同様である。
【0075】
一方、進路が右折であるときには、次の経由地交差点まであと600であることを案内するメッセージ#7のメッセージ番号7と、そこでの進路が右折であることを指示するメッセージ(今の例ではメッセージ#12)のメッセージ番号12とを含む音声案内指令を音声案内部12へ出力する(ステップS37、S39)。該指令を受けた音声案内部12は、「次の経由地交差点まであと600メートルです。そこを右折して下さい。」という交差点案内音声信号を生成して出力し、スピーカ14から音声出力させる。右折の場合にも左折の場合と同様にして歌手Bの音声データを使用される。
【0076】
進路が直進であるときには、次の経由地交差点まであと600であることを案内するメッセージ#7のメッセージ番号7と、そこでの進路を直進すべきことを指示するメッセージ(今の例ではメッセージ#13)のメッセージ番号13とを含む音声案内指令を音声案内部12へ出力する(ステップS37、S40)。該指令を受けた音声案内部12は、「次の経由地交差点まであと600メートルです。そこを直進して下さい。」という交差点案内音声信号を生成して出力し、スピーカ14から音響出力させる。直進の場合にも左折の場合と同様にして歌手Bの音声データを使用される。
【0077】
また、交差点案内モードがオンになると、合成部21は第1画像記憶領域19aに記憶された地図画像の上に第2画像記憶領域19bに記憶された交差点拡大画像を重ねながら、映像信号に変換して表示部3へ出力するので、画面3aには図12(2)に示す如く現在位置を中心とする北を上向きにした地図画像の左上の4半分に重ねて、経由地交差点CPの拡大画像が重ねて表示される。
これにより、ユーザは次の経由地交差点の手前600mの地点に来たこと及びそこでの進路が音声により判り、かつ、該次の経由地交差点の形状が画面から判る。
【0078】
その後、次の案内対象交差点と現在位置の間が200m縮まる度に、交差点案内部11は次の経由地交差点までの距離がLであることを案内するメッセージの番号と、そこでの進路を指示するメッセージの番号とを指定する音声案内指令を音声案内部12へ出力し、音声案内部12により、「次の経由地交差点まであと400メートルです。そこを左折(あるいは右折又は直進)してください。」、「次の経由地交差点まであと200メートルです。そこを左折(あるいは右折又は直進)してください。」との交差点案内音声をスピーカ14から流させる(ステップS41、S37、S38、S39)。よって、ユーザは次の経由地交差点までの接近状況とそこでの進路が判る。
【0079】
その後、車両が次の案内対象交差点に達すると、L=0となるので、交差点案内部11は次の経由地交差点までの距離が0であることを案内するメッセージ(今の例ではメッセージ#10)の番号10と、そこでの進路を指示するメッセージ#11、#12又は#13の番号とを指定する音声案内指令を音声案内部12へ出力し、音声案内部12により、「次の経由地交差点まであと0メートルです。そこを左折(あるいは右折又は直進)してください。」との交差点案内音声をスピーカ14から流させ(ステップS42、S43、S44、S45)、ユーザは次の経由地交差点に到達したこと及びそこでの進路が判る。
【0080】
ステップS45の処理から一定時間後、交差点案内モードをオフする(ステップS46)。よって、画面3aの交差点拡大画像は一旦消え、地図画像が表示される。その後、経由地交差点の順位を示すiを+1する(ステップS27)。こうして、最初の経由地交差点についての交差点案内が終了し、後続の経由地交差点についても以上の交差点案内処理が繰り返される。
【0081】
この実施の形態によれば、案内用の音声メッセージ群を生成するための音声データ群として、ユーザが希望する声質を有する少なくとも1組の音声データを車載用ナビゲーション装置1内に記憶させることができ、音声メッセージの声質を装置固有の標準の声質からユーザの好みのものに変更することができる。しかも、上記実施の形態のように、異なる声質毎に複数組の音声データを車載用ナビゲーション装置1内に記憶させた場合には、それらの複数組のデータが持つ複数種の声質の任意の一つを選んで使用することができる。
【0082】
更に、実施の形態で行ったように、個々の音声メッセージごとに、当該音声メッセージの生成に使用する音声データの声質を指定する方法をとると、個々のメッセージ毎に声質をユーザの希望するものに合わせることが可能になる。例えば、ユーザが男性の場合、例えば「おはようございます」等の挨拶のメッセージは、女性の声を用いたメッセージとし、例えば交差点案内で使用されるメッセージ等の他のメッセージを男性の声を用いたメッセージとすることにより、挨拶メッセージは、やさしく聞こえ、交差点案内のメッセージは、聞き落しを防止しやすいメッセージとすることができる。ユーザが女性の場合には、以上と逆の態様で各メッセージの声質を指定することができる。あるいは、前者のメッセージをユーザ希望の特定の歌手等の声を用いたメッセージとし、後者のメッセージをユーザ希望の他の特定の歌手等の声を用いたメッセージとすることもできる。あるいは、一部のメッセージは標準の声質のメッセージとし、他のメッセージを、ユーザが希望する方言や言語によるメッセージとすることもできる。
【0083】
なお、以上の実施の形態では、本体制御部7内の音声データ記憶部10には、既に記憶された音声データ群に追加して、ユーザが所望する声質の音声データ群が記憶されたが、ユーザが所望する声質の音声データ群を記憶するときには、既に記憶された音声データ群を削除するようにしてもよい。
また、標準の音声データ群は音声データ記憶部10に記憶させないままユーザが所望する声質の音声データ群を音声データ記憶部10に記憶させてもよい。
【0084】
更に、以上ではユーザが希望する声質の異なる複数の音声データ群を音声データ記憶部10に記憶させておき、音声メッセージ単位で好みの声質の音声データを使用できるようにしたが、1組の音声メッセージに対しすべて或る1つの同じ声質の音声データ群を使用するようにしても良い。この場合、音声データ記憶部10には1組の音声メッセージに対する同じ声質の1組の音声データだけ書き換え自在に記憶させるようにすれば、音声データ記憶部10にはユーザが希望した声質の音声データだけとなるので、ユーザが希望した声質を指定する操作を改めて実行する必要がなくなる。
【0085】
更に、以上の実施の形態では、本体制御部7内の音声データ記憶部10には、声質の異なる複数の音声データ群が記憶された状態で、各メッセージに対応して使用する音声データの声質が指定可能になっていたが、メッセージ毎に声質を指定しないで、案内すべき一群のメッセージに対して一つの声質を一括して指定する方法を取ることもできる。この場合には、使用声質登録テーブル140(図7参照)のような、各メッセージ番号毎に希望する声質を登録するテーブルを使用する必要はなく、一括して指定されている一つの声質のみを記憶するようにすればよい。
【0086】
以上の実施の形態では、外部から音声データ記憶部10に転送される一組の音声データの声質はそれらの音声データの全てについて同じであった。異なる声質を有する複数組の音声データをあらかじめ音声データ記憶部10に記憶させた場合には、ユーザはメッセージ別に案内に使用する声質を指定することができた。しかし、例えば以下に述べる方法を用いると、外部から音声データ記憶部10に転送される一組の音声データの声質を音声データ毎に変更することも可能である。
具体的には、例えば、図13に示した地図表示システムでは、ユーザが、外部の音声案内支援装置50にアクセスして、車載用ナビゲーション装置1に転送する一組の音声データを指定するときに、例えば歌手Aの音声データ群というように声質を全てのメッセージに対して一括して指定しないで、個々のメッセージ別に声質を指定する操作をする。例えば、メッセージ#1から#6に対しては歌手Aの声質を指定しメッセージ#7以降に対しては歌手Bを指定する。配信部52は、個々のメッセージに対して指定された声質の音声データを音声データ記憶部51から読み出す。一組の案内用の音声メッセージの生成に必要な一組の音声データを読み出した後で、それらの一組の音声データを一括してインターネット40を介して車載用ナビゲーション装置1に転送すればよい。
この方法を使用すれば、外部から音声データ記憶部10に一組の音声データを転送するだけでも、一組の案内用の音声メッセージの各々の声質をユーザ好みの任意の声質にすることができる。
【0087】
図14から図17に示した他の地図表示システムあるいは図示しなかった他のシステムでも同じことを実現することができる。例えば、図14のシステムでは、車載用ナビゲーション装置1の操作部5(図1参照)に対する操作に基づいて音声データ取得処理部15(図1参照)により、車載用ナビゲーション装置1に直接接続された音声案内支援装置50に音声データの転送を要求するにあたり、転送する一組の音声データを指定する操作として、全てのメッセージに対して同じ声質を一括して指定しないで、個々のメッセージ別に声質を指定する操作をすればよい。配信部62は、図13のシステムの配信部52と同じく、個々のメッセージに対して指定された声質の音声データを音声データ記憶部61から読み出し、一組の案内用の音声メッセージの生成に必要な一組の音声データを読み出した後で、それらの一組の音声データを入出力端子CT(図1参照)を介して一括して車載用ナビゲーション装置1に転送すればよい。
また、同じ図14のシステムにおいて、操作部63に対する操作によって車載用ナビゲーション装置1に音声データを転送する方法を採る場合も、車載用ナビゲーション装置1の操作部5について上に説明した操作と同じく、音声案内支援装置60の操作部63に対して、転送する一組の音声データを指定する操作として、個々のメッセージ別に声質を指定する操作をすればよい。このときの配信部の動作は上に説明したのと同じである。図15に示したシステムについても図14のシステムに対する上に述べた操作と同じ操作をすればよい。
【0088】
更に、図16あるいは17に示した可搬型外部記録部30を使用するシステムでは、可搬型外部記録部30に転送する一組の音声データを指定する操作として、個々のメッセージ別に声質を指定する操作を操作部82(図16)又は92(図17)に対して実行すればよい。この場合も転送部84(図16)又は94(図17)は、図13のシステムの配信部52と同じく、個々のメッセージに対して指定された声質の音声データを音声データ記憶部81(図16)又は91(図17)から読み出し、一組の案内用の音声メッセージの生成に必要な一組の音声データを読み出した後で、それらの一組の音声データを一括して可搬型外部記憶装置30に転送すればよい。
【0089】
上記した実施の形態では、交差点案内処理においては、次の経由地交差点までの距離を案内するメッセージとそこでの進路を指定するメッセージとを組み合わせて使用したが、これらの二つのメッセージに代えて経由地交差点までの距離とそこでの進路を案内する一つのメッセージ、例えば、「次の経由地交差点まで600メートルです。そこを左折して下さい。」あるいは「600メートル先の交差点を左折して下さい。」を使用してもよい。また、上記実施の形態では、次の経由地交差点までの距離を案内するメッセージとして、異なる距離に対応して異なるメッセージを使用したが、複数の音声データを組み合わせて一つのメッセージを示す音声データを生成してもよい。
例えば、「次の経由地交差点まで」、「メートルです。」、「して下さい。」「そこを」というメッセージの一部を表す音声データとともに、例えば「600」、「400」、「200」、「0」というメッセージ内の数値を表す音声データと、「左折」、「右折」、「直進」等の進路を表す音声データを記憶しておき、「次の経由地交差点まで」、「600」、「メートルです。」、「そこを」「左折」「して下さい。」という5つの音声データを組み合わせて、「次の経由地交差点まで600メートルです。左折して下さい。」という一つのメッセージを表す音声データを生成してもよい。
【0090】
【発明の効果】
本発明によれば、案内用の1組の音声メッセージを生成するための音声データとして、ユーザが希望する声質を有する少なくとも1組の音声データを地図表示装置である車載用ナビゲーション装置内に記憶させることができるので、案内用のメッセージの声質をユーザの好みのものに変更することができる。
また、本発明によれば、案内用のメッセージの全てを任意の話者が発声した声声データを用意し、任意の話者を選択してその音声データをそのまま案内用のメッセージとして生成するものであるから、装置構成を簡単にすることができ、また、任意の話者の声そのもので案内用メッセージが出力され、音声合成による声質の変化の影響を受けることがない。
【図面の簡単な説明】
【図1】本発明の一つの実施の形態に係る車載用ナビゲーション装置の構成図である。
【図2】図1中の走行予定ルート記憶部の記憶内容の説明図である。
【図3】図1中の音声データ記憶部に記憶される音声データ群と管理用データを説明する図である。
【図4】図3中の音声データ記憶部に記憶される音声データ及び対応するメッセージを説明する図である。
【図5】図3中の音声データ記憶部に記憶される音声データ群管理テーブルの記憶内容を説明する図である。
【図6】図3中の音声データ記憶部に記憶されるアドレス管理テーブルの内容を説明する図である。
【図7】図3中の音声データ記憶部に記憶される使用声質登録テーブルの内容を説明する図である。
【図8】図1中の音声データ取得処理部と読取部の制御処理を示すフローチャートである。
【図9】図1中の登録部の制御処理のうち図音声データ記憶部に対する制御処理を示すフローチャートである。
【図10】図1中の音声案内部の制御処理を示すフローチャートである。
【図11】図1中の交差点案内部11の制御処理を示すフローチャートである。
【図12】図1中の地図表示制御部の動作説明図である。
【図13】図1中の車載用ナビゲーション装置と音声案内支援装置とを組み合わせた地図表示システムの構成図である。
【図14】図1中の車載用ナビゲーション装置と音声案内支援装置とを組み合わせた他の地図表示システムの構成図である。
【図15】図1中の車載用ナビゲーション装置と音声案内支援装置とを組み合わせた更に他の地図表示システムの構成図である。
【図16】図1中の車載用ナビゲーション装置と音声案内支援装置とを組み合わせた更に他の地図表示システムの構成図である。
【図17】図1中の車載用ナビゲーション装置と音声案内支援装置とを組み合わせた更に他の地図表示システムの構成図である。
【符号の説明】
1 車載用ナビゲーション装置 2 GPS受信部
3 表示部 4 CD−ROM読み取り部
4a CD−ROM 5、63、72、82、92 操作部
6 通信部 7 本体制御部
8、73、93 登録部 9 走行予定ルート記憶部
10、51、61、71、81、91 音声データ記憶部
11 交差点案内部 12 音声案内部
13 アンプ 14 スピーカ
15 音声データ取得処理部 16、85、95 メスコネクタ
17 読取部 18 地図表示制御部
19 画像メモリ部 20 描画部
21 合成部 30 可搬型外部記憶部
31 オスコネクタ 40 インターネット
50、60、70、80、90 音声案内支援装置
52、62 配信部 74、84、94 転送部
75、96 音声データ作成部
111、112、113、114 音声データ群
130 音声データ群管理テーブル 140 使用声質登録テーブル
151、152、153、154 アドレス管理テーブル
[0001]
BACKGROUND OF THE INVENTION
The present invention Map display system, voice guidance support device, map display device In particular, various messages to the user of the map display device are guided by voice, and at this time, the voice quality of voice used for guidance can be adapted to the user's preference. Map display system, voice guidance support device, map display device About.
[0002]
[Prior art]
The map data for map drawing used in the vehicle-mounted navigation device is configured in units called meshes obtained by dividing the whole country into grid-like geographical areas with a predetermined longitude width and a predetermined latitude width. Since the amount of map data is enormous, in-vehicle navigation devices generally store map data by area in a large-capacity storage medium such as a CD-ROM, and map data around the current position from the CD-ROM or the like. Using the read map data, a map image around the current position is drawn together with the current position mark and displayed on a display unit such as a liquid crystal dot matrix display panel (see FIG. 12A).
[0003]
Some in-vehicle navigation devices have a voice guidance function. The voice guidance function is a function for notifying a user of a message by voice, and voice guidance is executed when a specific operation is performed on the in-vehicle navigation device or during execution of various functions. For example, some in-vehicle navigation devices have an intersection guidance function, and some carry out voice guidance during the intersection guidance. In the intersection guidance, when the current position approaches within the predetermined reference distance to the next waypoint intersection on the planned travel route (route where the user has set the waypoint intersections in order), the intersection guidance mode is temporarily set, The display control unit includes the current position mark using the shape data of the certain waypoint intersection or the most detailed map data near the waypoint intersection among the map data stored in the CD-ROM or the like. An enlarged image of the certain waypoint intersection is superimposed and displayed on a map image of a predetermined scale (see FIG. 12 (2)). The user sees the enlarged image, knows the configuration of the certain waypoint intersection, and can easily determine in which direction the destination can be reached without fail.
[0004]
In addition, in an in-vehicle navigation device having a function of performing voice guidance in the middle of intersection guidance, a current reference is a predetermined reference to the next waypoint intersection on a planned travel route (a route in which a user has set a waypoint intersection in order). When the distance is reached, the voice guidance section starts the intersection guidance. For example, if the reference distance is 600 m, the first voice is “The next intersection is 600 meters away. Turn left there.” After that, every time you reach 400m, 200m, 0m to the next waypoint intersection, "It is another 400 meters to the next waypoint intersection. Please turn left.", "After the next waypoint intersection It ’s 200 meters. Turn left there. ”“ You have 0 meters to the next intersection. Turn left. ” Thereby, the user can know the approach situation to the next waypoint intersection and the course at the waypoint intersection, and can definitely proceed to the desired course at the waypoint intersection.
[0005]
The voice guidance may be executed in conjunction with the operation when the user operates the vehicle-mounted navigation device with an operation button or the like. For example, some of which communicate by voice a brief greeting message such as "Good morning" or "Hello" to the user when the user turns on the power button on the in-vehicle navigation system. Alternatively, when the user performs an operation for enabling the voice guidance function to the in-vehicle navigation device, a voice message “Start voice guidance” is output. By using the voice guidance, the user can know the message output by the in-vehicle navigation device while paying attention to the front.
[0006]
[Problems to be solved by the invention]
By the way, in a conventional in-vehicle navigation device, only a voice message having a single voice quality unique to the device is often output as a voice message. However, some users may want to use voice messages of other voice qualities. For example, if the user is a male, he may prefer a voice message using a female voice. Conversely, if the user is a woman, he may prefer a voice message using a male voice. Furthermore, the user may prefer a voice message using a voice of a celebrity such as a user's favorite singer or actor. Alternatively, when a child is traveling, the user may wish to use a voice message using the voice of the famous animated hero for the child. Alternatively, in the case of a long-distance drive, it may be desired to change the voice quality of the voice message in the middle of the drive in order to change the mood.
However, the conventional in-vehicle navigation device has a problem that the voice quality of the output voice message is fixed, and the user cannot change the voice quality of the voice message to his / her favorite voice quality.
[0007]
The present invention makes it possible to change the voice quality of a voice message for voice guidance to a user's preferred voice quality in view of the above-described problems of the prior art. Map display system, voice guidance support device, map display device The purpose is to provide
[0008]
[Means for Solving the Problems]
The map display system according to claim 1 of the present application is
Consists of a map display device and a voice guidance support device connected via a network,
The voice guidance support device
A plurality of sets of guidance voice data of different voice qualities created by uttering all voice messages for guidance composed of a plurality of unit voice messages set in advance for each unit voice message. Memorized for each voice quality Audio data storage means;
A set of voice data for guidance by specifying an arbitrary voice quality Or voice data for each voice message Distribution means for reading out the corresponding voice data from the voice data storage means and transferring it to the map display device in response to the voice data transfer request for requesting the transfer of
Map display device
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
A set of voice data for guidance by specifying an arbitrary voice quality Or voice data for each voice message Is requested to the voice guidance support device, and the voice data transferred from the voice guidance support device is Identified by voice quality Voice data acquisition means to be stored in the voice data storage means;
Identify any voice quality and the corresponding stored in the voice data storage means Generate voice messages directly using voice data A map display system comprising voice guidance means.
Moreover, the map display system according to claim 2 of the present application is the map display system according to claim 1,
The map display device further specifies a set of voice data corresponding to a plurality of sets of voice data of different voice qualities stored in the voice data storage means by specifying an arbitrary voice quality. Or voice data for each voice message Voice quality selection operation means for performing the selection operation,
The voice guidance means corresponds to an arbitrary voice quality selected by the voice quality selection operation means from the voice data stored in the voice data storage means. Directly generate a voice message using a set of voice data or voice data for each unit voice message It is characterized by that.
The voice guidance support device according to claim 3 of the present application is
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
A set of voice data for guidance by specifying an arbitrary voice quality Or voice data for each voice message Is requested to the voice guidance support device, and the voice data transferred from the voice guidance support device is Identified by voice quality Voice data acquisition means to be stored in the voice data storage means;
Identify any voice quality and the corresponding stored in the voice data storage means Generate voice messages directly using voice data A voice guidance support device connected via a network to a map display device comprising voice guidance means,
The voice guidance support device includes:
A plurality of sets of guidance voice data of different voice qualities created by uttering all voice messages for guidance composed of a plurality of unit voice messages set in advance for each unit voice message. Memorized for each voice quality Audio data storage means;
A map display device that reads out the corresponding voice data from the voice data storage means in response to a transfer request of voice data for requesting transfer of the one set of voice data for guidance or unit voice message by specifying an arbitrary voice quality And a distribution means for transferring to the network.
The map display device according to claim 4 of the present application is
A plurality of sets of guidance voice data of different voice qualities created by uttering all voice messages for guidance composed of a plurality of unit voice messages set in advance for each unit voice message. Identified by voice quality Stored voice data storage means;
A map display device that reads out the corresponding voice data from the voice data storage means in response to a transfer request of voice data for requesting transfer of the one set of voice data for guidance or unit voice message by specifying an arbitrary voice quality A map display device connected via a network to a voice guidance support device comprising:
The map display device
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
A set of voice data for guidance by specifying an arbitrary voice quality Or voice data for each voice message Voice data acquisition means for requesting the voice guidance support apparatus to transfer the voice data transferred from the voice guidance support apparatus to the voice data storage means so as to be identifiable for each voice quality;
Identify any voice quality and the corresponding stored in the voice data storage means Generate voice messages directly using voice data Voice guidance means.
Further, the map display device according to claim 5 of the present application is the map display device according to claim 4, wherein the map display device further specifies an arbitrary voice quality and is stored in the voice data storage means. From multiple sets of voice quality voice data to a corresponding set of voice data Or voice data for each voice message Voice quality selection operation means for performing the selection operation,
The voice guidance means includes a set of voice data or unit voice message corresponding to an arbitrary voice quality selected by the voice quality selection operation means among the voice data stored in the voice data storage means. Generate voice messages directly using voice data It is characterized by that.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Next, one embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram of an in-vehicle navigation device according to the present invention.
Reference numeral 1 denotes an in-vehicle navigation device as an example of a map display device, which reads out map data necessary for displaying a map image around the current position from a CD-ROM, and includes the current position using the read map data. Draw a map image of a certain range and display it on the screen.
[0010]
Of the in-vehicle navigation device 1, 2 is a GPS receiving unit that periodically detects the current position and current direction by satellite navigation, 3 is a liquid crystal dot matrix display unit, and 4 is map data and a route for map drawing by area. Desired from CD-ROM 4a storing a set of voice data as a set of voice data with a standard voice quality for generating road data for search and a set of guidance voice messages as a set of guidance voice messages This is a CD-ROM reader for reading the map data, road data, or voice data group. Reference numeral 5 denotes an operation unit for turning on / off the power, turning on / off the request for intersection guidance, turning on / off the request for voice guidance, and the position of the waypoint intersection on the planned travel route (background) Multiple sets of voice data with different voice qualities for voice message generation prepared in an external voice guidance support device, such as a left turn, a right turn, or a straight line at each waypoint intersection. Request to transfer one or more sets of voice data having a desired voice quality, or request to transfer one or more sets of voice data for generating a voice message stored in a portable external storage unit to be described later Desirable to use to generate a set of voice messages for operating or guiding a user among a plurality of sets of voice data of different voice qualities stored in the voice data storage unit of the in-vehicle navigation device Selection operation of a set of voice data having voice quality, or selection operation of voice data having a desired voice quality as voice data used for generation of the voice message for each of the set of voice messages. Used for
[0011]
A communication unit 6 is connected to the Internet 40 (see FIG. 13) by wireless communication when necessary, and a set of desired voice qualities or a plurality of desired types of voice guidance support devices existing on the Internet 40 are provided. A request signal for a plurality of sets of voice data corresponding to the voice quality is transmitted, or one or a plurality of sets of voice data for generating a voice message transmitted from the voice guidance support apparatus via the Internet 40 is received. Reference numeral 7 denotes a microcomputer-structured main body control unit, of which 8 is a registration unit, and stores the planned travel route in the order of input (that is, via order) of the position and route of the waypoint intersection input by the user through the operation unit 5 The voice quality after the change is stored in the voice data storage unit 10 with respect to the message whose voice quality should be changed specified by the user via the operation unit 5. The planned travel route storage unit 9 has N storage areas from addresses AD1 to ADN, and a transit point CP entered by the user in order. i And a set of a route such as a right turn, a left turn, and a straight line at the intersection are stored in each storage area in the order of addresses (see FIG. 2).
[0012]
The voice data storage unit 10 can store a plurality of N sets of voice data for each voice quality (N is an integer of, for example, 2 to 10) for generating a plurality of voice messages for guidance having a specific voice quality. In addition, it is possible to store data for managing the use of each audio data. The audio data storage unit 10 is a rewritable memory, and is preferably a non-volatile memory such as a flash memory. Details of the data stored in the audio data storage unit 10 will be described later.
[0013]
Reference numeral 11 denotes an intersection guide unit. The intersection guide unit 11 is activated when an intersection guide request is turned on by an operation by the operation unit 5, and the next of the waypoint intersections stored in the planned travel route storage unit 9 is Is determined, a distance L (m) between the next guidance target intersection and the current position, and a predetermined reference distance L 0 (M) and L is L 0 While it is larger, turn off the intersection guidance mode and L is L 0 Turns on the intersection guidance mode and the distance between the next guidance target intersection and the current position is L 0 , (L 0 -200),... Each time 0, a voice guidance command including the distance to the guidance target intersection and the number of one or a plurality of messages for guiding the route there is output to the voice guidance unit 12 described later. The voice guidance command specifies, for example, the number of one or a plurality of messages used to obtain a voice output “600 meters to the next waypoint intersection. Turn left there”. When L becomes 0, the intersection guide unit 11 turns off the intersection guide mode after a certain time, and repeats the above operation when approaching the next waypoint intersection.
[0014]
A voice guidance unit 12 is activated when the voice guidance mode is turned on in the operation unit 5 and is in the voice guidance mode. When activated, when voice guidance is linked to any of the operations performed on the operation unit 5, a voice message for the linked voice guidance is output. The voice guidance unit 12 also executes voice guidance when voice guidance is instructed by the process being executed by the main body control unit 7 while the voice guidance mode is on. For example, when the intersection guidance mode is turned on by the intersection guidance unit 11 and the intersection guidance is being executed, a voice guidance command regarding the next guidance target intersection is input from the intersection guidance unit 11 to the voice guidance unit 12. In addition, the voice guidance unit 12 generates and outputs an intersection guidance voice signal indicating the message of the number designated by the voice guidance command using the voice data stored in the voice data storage unit 10. For example, an intersection guidance voice signal is generated that says “It is 600 meters to the next way intersection. Turn left there.” Reference numeral 13 denotes an amplifier that amplifies the power of the intersection guidance voice signal, and reference numeral 14 denotes a speaker driven by the output of the amplifier 13.
[0015]
An audio data acquisition processing unit 15 is connected to the input / output terminal CT of the main body control unit 7 and the communication unit 6 provided outside the main body control unit. The voice data acquisition processing unit 15 has a desired voice quality for generating a voice message group for an external voice guidance support device (see FIGS. 14 and 15) directly connected to the input / output terminal CT at the operation unit 5. Or, when a plurality of sets of voice data request operations corresponding to a plurality of types of desired voice qualities are performed, a voice data request signal is generated and output to the voice guidance support device, and a voice message group is generated from the voice guidance support device When one or more sets of audio data are transferred, they are added to the audio data storage unit 10.
[0016]
In addition, the voice data acquisition processing unit 15 receives one set for generating a voice message group from an external voice guidance support device (not shown) directly connected to the input / output terminal CT of the main body control unit 7 (see FIGS. 14 and 15). When a plurality of sets of audio data are input, they are added to the audio data storage unit 10. Furthermore, a set of desired voice qualities for generating a voice message group having a desired voice quality for an external voice guidance support device 50 (see FIG. 13) constructed on the Internet 40 (see FIG. 13) by the operation unit 5 or When a plurality of sets of voice data request operations corresponding to a plurality of types of desired voice qualities are performed, the communication unit 6 is controlled and wirelessly connected to the Internet 40, and a voice data request signal for generating a voice message group is transmitted to the Internet 40. When one or more sets of voice data for generating a voice message group transferred from the voice guidance support device 50 and transferred from the voice guidance support device 50 are received by the communication unit 6, the received information is received. One or more sets of voice data for generating a voice message group are input and added to the voice data storage unit 10.
[0017]
Reference numeral 16 denotes a female connector, which can be detachably connected to the male connector 31 of the portable external storage unit 30. The portable external storage unit 30 is a voice data storage unit capable of storing a plurality of sets of voice data for generating a voice message group, and is associated with the voice data group for generating a voice message group in a name and format. The type can also be stored. Reference numeral 17 denotes a reading unit connected to the female connector 16. When a transfer request operation is performed from the portable external storage unit 30 by the operation unit 5, voice data for generating a voice message group is generated from the portable external storage unit 30. All the sets are read and added to the audio data storage unit 10.
[0018]
Reference numeral 18 denotes a map display control unit, of which 19 is an image memory unit, which stores a first image storage area 19a for storing image data for one screen of the display unit 3 and an enlarged image of an intersection. And a second image storage area 19b. Reference numeral 20 denotes a drawing unit. Based on the current position data and the current azimuth data, the map data of the scale including the current position and designated in advance by the operation by the operation unit 5 is read from the CD-ROM 4a, and the read map data is read out. The map image is drawn in the first image storage area 19a of the image memory unit 19 with the current position as the center and the north facing upward, and the vehicle position mark in the direction corresponding to the current direction in the middle of the map image (FIG. 12). (Refer to symbol V in (1)). Further, in the planned travel route storage unit 9, the waypoint intersection mark in the map area indicated by the map image is superimposed on the map image at the corresponding location on the map image ((1) in FIG. 12). Is drawn).
[0019]
When the intersection guidance mode is on, the drawing unit 20 further stores the shape data of the next guidance target intersection from the CD-ROM 4a or the next guidance target intersection determined by the intersection guidance unit 11 in the planned travel route storage unit 9. The most detailed map data in the vicinity of the next guidance target intersection is read out, and an intersection enlarged image of a predetermined size is drawn at a predetermined position in the second image storage area 19b of the image memory unit 19 with the north facing upward. To do.
[0020]
Reference numeral 21 denotes a combining unit. When the intersection guidance mode is off, the map image stored in the first image storage area 19a is converted into a video signal alone and output to the display unit 3 to display the map image on the screen 3a. (See FIG. 12 (1)). When the intersection guidance mode is on, the synthesizer 21 superimposes the intersection enlarged image stored in the second image storage area 19b on the map image stored in the first image storage area 19a (in the first image storage area 19a). Among the map images, the range of the pixel position where the enlarged intersection image is drawn in the second image storage area 19b is replaced with the intersection image), converted into a video signal and output to the display unit 3, and the enlarged intersection image is displayed on the map image. Is displayed on the screen 3a (see FIG. 12 (2)).
[0021]
As shown in FIG. 3, the audio data storage unit 10 is provided with an audio data storage area 110 and a management data storage area 120. In the voice data storage area 110, voice data groups 111, 112, 113, 114,... For generating voice message groups each having a specific voice quality are stored. In the present invention, when the user feels different from the voice used to convey a message having substantially the same content used in voice guidance, these voices are referred to as having different voice qualities. For example, voices that are different from each other in various meanings such as voices of different speakers, female voices and male voices, and voices that speak a standard language and voices that speak a dialect are referred to as widely different voice qualities.
[0022]
Reference numeral 111 denotes a set of standard voice quality voice data read from the CD-ROM 4a and stored in the voice data storage unit 10 in advance. The voice data group 111 is hereinafter referred to as a standard voice data group. is there. Reference numerals 112 to 114 are examples of voice data groups for generating voice message groups having other voice qualities that the user reads from an external map support device or the like and added to the voice data storage unit 10. For example, 112 is a set of voice data for voice message group generation generated from the voice of singer A that the user likes. Similarly, 113 is a set of voice data for generating a voice message group generated by the voice of another singer B that the user likes. Reference numeral 114 denotes a set of voice data for generating a voice message group generated from Kansai dialect voice as a dialect that the user likes.
[0023]
Each voice data group includes a plurality of voice data for generating a plurality of guidance voice messages that can be used in the in-vehicle navigation device 1. Each message has a message number. For example, as shown in FIG. 4, the voice data group 111 is composed of voice data representing voice messages # 1, # 2, # 3,... For guidance, and each voice data has memory addresses A1, A2,. It is stored in A3. In FIG. 4, an example of the contents of each voice message is shown in parentheses. In addition to messages related to greetings such as “Good morning”, various messages such as messages related to intersection guidance such as “It is 600 meters to the next way intersection. There is.
[0024]
The other voice data groups 112, 113, 114,... Stored in the voice data storage unit 10 also consist of voice data for generating the same plurality of guidance voice messages with different voices. For different audio data groups, the sounds constituting two messages corresponding to the same message number may be different as long as the contents of those messages are the same. For example, the voice data for “Good morning” in message # 1 is the standard, the voice data for singer A, singer B, etc. directly represents the sound “good morning”, and the corresponding voice data by Kansai dialect is “ It may represent the sound "Good morning". Furthermore, if the user desires, the voice data of any message of any voice quality stored in the voice data storage area 110 is used as the voice data of the message illustrated in FIG. ")", But the voice data representing another message that can be used for the same purpose (for example, "Thank you very much") can also be used. Thereby, the expression of the message itself can be adapted to the user's preference.
[0025]
As the audio data groups 111 to 114, audio signals that indicate audio messages in a specific method can be compressed and encoded. For example, the message voice may be compressed by ADPCM (Adaptive Differentia Code Modulation), or may be voice data in a format called WAVE obtained by converting the message voice with a general personal computer (see WAV in FIG. 5). ). When using voice data in the format WAVE, the user can easily generate voice data and use it for voice guidance, or use WAVE format voice data generated by others for voice guidance. .
[0026]
The management data storage area 120 stores data for managing the voice data group stored in the voice data storage area 110 such as the voice data group management table 130 and the voice quality registration table 140.
[0027]
In the audio data group management table 130, as shown in FIG. 5, for each audio data group registered in the audio data storage area 110, the audio data group name 131 as information for identifying the audio data group, the audio data A group format type 132 and an address 133 of an address management table 151, 152, 153 or 154, which will be described later, prepared for the audio data group (see FIG. 3) are registered.
Since the name of the voice data group uniquely specifies the voice quality of the voice message for guidance, hereinafter, the name of the voice data group is also used as the name of the voice quality represented by each voice data group. In the figure, standard, singer A, singer B, Kansai, etc. are used for the name 131 of the audio data group. Further, according to the information in the format type 133 shown in the figure, the voice data other than the Kansai dialect is voice data generated by ADPCM, and the voice data of the Kansai dialect has a WAV format.
[0028]
In the management data storage area 120, a plurality of address management tables 151 for storing storage addresses of the respective audio data included in the audio data group corresponding to the audio data groups stored in the audio data storage area 110, 152, 153, 154,... (See FIG. 3) are also stored. As shown in FIG. 6, the address management table 151 for the voice data group 111 (refer to FIG. 4) corresponds to the message numbers 1, 2,... Memory addresses A1, A2,... (See FIG. 4) are stored. When generating any voice message using voice data belonging to any voice data group stored in the voice data storage area 110, the name of the voice data group (name of voice quality) and the voice to be generated Using the message number, the memory address of the voice data for generating the voice message is read from the address management table 151, 152, 153 or 154 stored corresponding to the voice data group and read. The target voice data is read using the issued memory address, and is used to generate the voice message.
[0029]
As illustrated in FIG. 7, the use voice quality registration table 140 includes areas 142, 143, 144, corresponding to the number of different voice data groups (number of different voice qualities) corresponding to each message number 141. ,..., And a use desire flag 1 is set in one of the plurality of areas. In the example shown in the figure, messages # 1 to # 6 are set to use flag 1 for voice quality of singer A, and messages after message # 7 are set to use flag 1 for voice quality of singer B. ing. When generating a voice message of any message number, voice data having a voice quality in which a use desired flag is set for the message number is used in the voice usage registration table 140.
[0030]
8 to 11 are flowcharts showing the control processing executed in parallel by the main body control unit 7 in a time-sharing manner, and FIG. 8 shows the control processing of the voice data acquisition processing unit 15 and the reading unit 17, and FIG. Indicates a control process for the voice data storage unit 10 among the control processes of the registration unit 8, FIG. 10 shows a control process for the voice guide unit 12, and FIG. 11 shows a control process for the intersection guide unit 11. FIG. 12 is an explanatory diagram of the operation of the map display control unit 18. The operation of the above embodiment will be described below with reference to these drawings.
[0031]
For convenience of explanation, the planned route storage unit 9 already has M waypoint intersections CP. 1 ~ CP M Position data (latitude and longitude) and the course at each intersection are stored (see FIG. 2), and the vehicle is the first waypoint intersection CP 1 Let's start from the desired starting point. Further, scale data desired by the user is set in advance for the drawing unit 20 by the operation of the operation unit 5, and the intersection guide unit 11 has L as a reference distance for starting the intersection guide. 0 = 600 (m) is already stored.
[0032]
(1) Addition of voice data group for voice message group generation
(1-1) Transfer of voice data group for voice message group generation from an external voice guidance support device via a network (see FIG. 13)
As shown in FIG. 13, a voice guidance support device (voice guidance support server) 50 that is accessible from the outside via the Internet is constructed on the Internet 40. The voice guidance support device 50 includes a voice data storage unit 51 that stores a plurality of voice data groups for voice message group generation for voice guidance for each voice quality group and corresponding names and format types, and the Internet 40. Corresponding to the voice data group of the desired voice quality for generating the voice message group from the voice data storage unit 51 based on the transfer request of the voice data group for generating the voice message group by designating the name from the external in-vehicle navigation device 1 It consists of a distribution unit 52 that reads out the name and format type and transfers them to the requesting in-vehicle navigation device 1.
[0033]
A typical format type of the voice data group that can be provided by the voice guidance support device 50 is, for example, ADPCM or WAVE. It is assumed that the voice data group is created in advance by using a circuit (not shown) in the voice guidance support device 50 or by a circuit different from the voice guidance support device 50 and stored in the voice data storage unit 51. In order to create the voice data group, for example, a method is used in which the reading sound of all messages by singer A is recorded, and the reading sound of each message is coded by, for example, the ADPCM method to generate voice data for the message. be able to. Alternatively, the reading sound may be converted into audio data in the WAVE format.
[0034]
One voice data group having a desired voice quality for generating a voice message group or a plurality of voice data groups corresponding to a plurality of types of desired voice qualities are to be fetched from the voice guidance support apparatus 50 constructed on the external Internet 40 In this case, one or more names of voice data groups for generating voice message groups are designated by the operation unit 5 of the in-vehicle navigation device 1, and a desired voice message group generation for the voice guidance support device 50 on the Internet 40 is desired. The voice data group having a certain voice quality or a plurality of voice data groups having different desired voice qualities is requested. For example, when singer A is designated and a voice data group for voice message group generation is requested, the voice data acquisition processing unit 15 controls the communication unit 6 to wirelessly connect to the Internet 40 and to change the name of the singer A. The voice data group request signal for generating the voice message group is transmitted to the voice guidance support device 50 on the Internet 40 (NO in step S10 in FIG. 8, YES in step S12, S13).
[0035]
The distribution unit 52 of the voice guidance support device 50 that has received the request signal reads out the voice data group for generating the voice message group and the format type corresponding to the designated name from the voice data storage unit 51, and the voice data group Are transferred to the in-vehicle navigation device 1 as the request source via the Internet 40.
[0036]
The voice data group for generating the voice message group with the name and the format type transmitted from the voice guidance support device 50 is received by the communication unit 6 of the in-vehicle navigation device 1 and input to the voice data acquisition processing unit 15. The voice data acquisition processing unit 15 adds a voice data group to the voice data storage unit 10 (step S13; see the voice data group 112 in FIG. 4).
[0037]
At this time, corresponding to the added audio data group, an address management table 152 (see FIGS. 3 and 6) indicating addresses of individual audio data belonging to the audio data group is generated and stored in the audio data storage unit 10. Store in the management data storage area 120. Further, the name and format type of the added audio data group and the generated address of the corresponding address management table 152 are registered in the audio data group management table 130 stored in the audio data storage unit 10 (FIG. 5).
[0038]
(1-2) Transfer of voice data group for generating voice message group from voice guidance support apparatus directly connected to in-vehicle navigation apparatus (see FIG. 14)
As shown in FIG. 14, a voice guidance support device 60 constituted by a notebook personal computer or the like is connected to the input / output terminal CT of the in-vehicle navigation device 1. Similarly to the voice guidance support device 50 (see FIG. 13), the voice guidance support device 60 stores a plurality of voice data groups for voice message group generation for each different voice quality together with corresponding names and format types. And a distribution unit 62 and an operation unit 63. Here, it is assumed that the contents stored in the voice data storage unit 61 are the same as the voice data storage unit 51 of the voice guidance support device 50 in FIG. 13 (see FIG. 3).
[0039]
The operation unit 63 performs an operation such as designating one or more names of the audio data group to be distributed and instructing the distribution of the audio data group of the name, by the user. The distribution unit 62 receives a request for generating a voice message group from the voice data storage unit 61 based on a transfer request for the voice data group for generating a voice message group by specifying one or more names from the external vehicle-mounted navigation device 1. One or a plurality of sets of names and format types corresponding to the voice data group are read out and transferred to the in-vehicle navigation device 1 as a request source, or voices by designating one or more names by the operation unit 63 of the voice guidance support device 60. When a transfer request operation for the voice data group for generating the message group is performed, one or more sets of names and format types corresponding to the desired voice data group for generating the voice message group are read from the voice data storage unit 61 and externally read out. It transfers to the in-vehicle navigation device 1 connected.
[0040]
The voice data group is created in advance by a circuit (not shown) in the voice guidance support device 60 or by another device different from the voice guidance support device 60 and stored in the voice data storage unit 61. When the voice guidance support device 60 is composed of a notebook computer or another personal computer, the format type of the voice data group for voice message group generation stored in the voice data storage unit 61 may be WAV. Simple.
[0041]
When one or more desired voice data groups for voice message group generation are to be imported from the external voice guidance support device 60, one or more voice data for voice message group generation is operated by the operation unit 5 of the in-vehicle navigation device 1. A group name is designated, and a transfer request operation for a desired voice data group for voice message group generation is performed on the voice guidance support device 60 connected to the input / output terminal CT. For example, when the singer B is designated and the transfer request operation for the voice data group for generating the voice message group is performed, the voice data acquisition processing unit 15 inputs the voice data group request signal for generating the voice message group including the name of the singer B. It outputs to the voice guidance assistance apparatus 60 via the output terminal CT (FIG. 8, YES in step S10, S11).
[0042]
Upon receiving the request signal, the distribution unit 62 of the voice guidance support device 60 reads the voice data group for generating the voice message group and the format type corresponding to the designated name from the voice data storage unit 61, and The corresponding name and format type are output to the in-vehicle navigation device 1. The voice data group with the name and format type output from the voice guidance support device 60 is input to the voice data acquisition processing unit 15, and the voice data acquisition processing unit 15 adds the voice data acquisition processing unit 15 to the voice data storage unit 10 (step S11). (See audio data group 113 in FIG. 3).
[0043]
At this time, corresponding to the added audio data group, an address management table 153 indicating addresses of individual audio data belonging to the audio data group is generated and stored in the management data storage area 120 (see FIG. 3). . Further, the name and format type of the added voice data group and the address of the corresponding address management table 153 generated are registered in the voice data group management table 130 stored in the voice data storage unit 10 (see FIG. 5).
[0044]
Transfer of the voice data group for generating the voice message group from the voice guidance support device 60 to the in-vehicle navigation device 1 can also be performed from the voice guidance support device 60 side. That is, the operation unit 63 designates the name of one or more desired voice data groups for generating a voice message group, and performs a transfer request operation of the desired voice data group to the in-vehicle navigation device 1 connected to the outside. To do. For example, when the Kansai dialect is specified and a transfer request operation is performed for the voice data group for generating the voice message group, the distribution unit 62 selects the voice data group for generating the voice message group and the format type corresponding to the specified name. The data is read from the audio data storage unit 61, and the name and format type corresponding to the audio data group are output to the in-vehicle navigation device 1.
[0045]
The voice data group with the name and format type output from the voice guidance support device 60 is input to the voice data acquisition processing unit 15 via the input / output terminal CT, and the voice data acquisition processing unit 15 is connected to the voice data storage unit 10. (YES in step S14, S15, see audio data group 114 in FIG. 3). At this time, corresponding to the added audio data group, an address management table 154 indicating addresses of individual audio data belonging to the audio data group is generated and stored in the management data storage area 120 (see FIG. 3). . Furthermore, the name and format type of the added audio data group and the address of the corresponding address management table 154 generated are registered in the audio data group management table 130 stored in the audio data storage unit 10 ( (See FIG. 5).
[0046]
(1-3) Transfer from a voice guidance support apparatus having a voice data creation function for voice message group generation (see FIG. 15)
As shown in FIG. 15, a voice guidance support device 70 constituted by a notebook personal computer or the like is connected to the input / output terminal CT of the in-vehicle navigation device 1. The voice guidance support device 70 includes a voice data storage unit 71 corresponding to the voice data storage unit 10 of the in-vehicle navigation device 1, an operation unit 72, a registration unit 73 that registers a voice data group in the voice data storage unit 71, a voice A voice data creating unit 75 for creating a voice data group for generating a voice message group to be stored in the voice data storage unit 71; Have.
[0047]
The voice guidance support device 70 is connected to the input / output terminal CT of the in-vehicle navigation device 1, the voice data group creation control operation is performed on the voice data creation unit 75 by the operation unit 72, and the voice data creation unit 75 performs voice data. Create a group. The voice data can be created by the method described for the voice guidance support device 50 of FIG. For example, when creating voice data of a specific voice quality, for example, voice data based on the voice of singer A, the read-out sound of all messages is recorded in an appropriate voice recording medium 35, and the voice data creation unit 75 is recorded in the voice recording medium 35. The portion corresponding to each message is read by the editing operation by the operation unit 72, and the read audio signal is subjected to a specific process such as ADPCM and converted into audio data. The audio data may be other types of audio data, for example, audio data in the WAVE format. The operation unit 72 further performs an operation of creating a name and format type corresponding to the created audio data group. The registration unit 73 adds the name and format type corresponding to the created audio data group to the audio data storage unit 71 according to the operation. The voice data creation unit 75 has a function of creating a voice data group for voice message group generation to be stored in the voice data storage unit 71.
[0048]
After creating one or more voice data groups for generating a voice message group and corresponding names and format types, one or more desired voice data for voice message group generation in the voice data storage unit 71 by the operation unit 72 When a group name is specified and a transfer request operation is performed to the external vehicle-mounted navigation device 1, the transfer unit 74 reads the requested voice data group and the corresponding name and format type from the voice data storage unit 71. To the navigation device 1 side.
[0049]
The voice data group for generating a voice message group with a name and format type output from the voice guidance support device 70 is input to the voice data acquisition processing unit 15 via the input / output terminal CT, and the voice data acquisition processing unit 15 Is added to the voice data storage unit 10 (steps S14 and S15). At this time, corresponding to the added audio data group, an address management table indicating addresses of individual audio data belonging to the audio data group is generated and stored in the management data storage area 120 (see FIG. 3). Further, the name and format type of the added voice data group and the address of the corresponding address management table generated are registered in the voice data group management table 130 stored in the voice data storage unit 10 (FIG. 5). reference).
[0050]
(3-4) Addition of voice data group for generating voice message group using portable external storage (see FIG. 16)
As shown in FIG. 16, a voice data group for generating a voice message group can be added via a portable external storage unit. Reference numeral 80 denotes a voice guidance support device constituted by a personal computer or the like, which is installed in a home, for example. Of the voice guidance support device 80, 81 is a voice data storage unit that stores a plurality of sets of voice data groups for generating voice message groups for different voice qualities, and corresponding names and format types, and 82 has been generated by name designation. It is an operation part which performs transfer request | requirement operation of the audio | voice data group.
[0051]
Reference numeral 85 denotes a female connector to which the male connector 31 of the portable external storage unit 30 can be detachably connected. Reference numeral 84 denotes an operation unit 82 to perform a transfer request operation for one or more desired voice data groups for generating a voice message group. And a name and format type corresponding to the desired voice data group for generating the corresponding voice message group from the voice data storage unit 81 and writing to the portable external storage unit 30 connected to the female connector 85. . The voice data group stored in the voice data storage unit 81 is created in advance by the voice guidance support device 80 or by another device and registered in the voice data storage unit 81.
[0052]
The portable external storage unit 30 is connected to the female connector 85 of the voice guidance support device 80, and a transfer request operation for one or more desired voice data groups for generating a voice message group by specifying one or more names is performed by the operation unit 82. do. Then, the transfer unit 84 reads the name and format type corresponding to the voice data group for generating the voice message group corresponding to the name specified from the voice data storage unit 81, and writes it in the portable external storage unit 30.
[0053]
After writing one or a plurality of voice data groups for generating a voice message group in the portable external storage unit 30, the portable external storage unit 30 is removed from the voice guidance support device 80 and connected to the female connector 16 of the in-vehicle navigation device 1. Connecting. Then, when a transfer request operation from the portable external storage unit 30 is performed by the operation unit 5 of the in-vehicle navigation device 1, the reading unit 17 stores all voice data for generating a voice message group stored in the portable external storage unit 30. The group is read together with the name and format type corresponding to each group and added to the audio data storage unit 10 (YES in step S16, S17).
[0054]
At this time, corresponding to the added audio data group, an address management table indicating addresses of individual audio data belonging to the audio data group is generated and stored in the management data storage area 120 (see FIG. 3). Further, the name and format type of the added voice data group and the address of the corresponding address management table generated are registered in the voice data group management table 130 stored in the voice data storage unit 10 (FIG. 5). reference).
[0055]
(3-5) Addition of voice data group for generating voice message group using portable external storage unit (see FIG. 17)
As shown in FIG. 17, the voice data group for voice message group generation created by the voice guidance support apparatus can be stored in the portable external storage unit.
Reference numeral 90 denotes a voice guidance support device composed of a personal computer or the like, which is installed in a home, for example. Among the voice guidance support devices 90, 91 is a voice data storage unit capable of storing a plurality of sets of voice data groups for generating voice message groups for different voice qualities, and corresponding names and format types, and 92 is a voice to be described later. The voice data group creation control operation is performed on the data creation unit 96, and the voice data creation unit 96 creates a voice data group from the voice signal recorded in the voice recording medium 35, and further corresponds to the created voice data group. The operation unit 93 performs a creation operation of a name and format type to be performed, and performs a transfer request operation to the portable external storage unit 30. A name and format corresponding to a voice data group for generating a voice message group in the operation unit 92 In accordance with the type creation operation, a name and a format type corresponding to the audio data group created by the audio data creation unit 96 are created. Together with the audio data group created a registration unit to be added to the audio data storage unit 91. The creation of the voice data by the voice data creation unit 96 can be performed in the same manner as the voice data creation unit 75 in the voice guidance support device 70 of FIG.
[0056]
Reference numeral 95 denotes a female connector to which the male connector 31 of the portable external storage unit 30 can be detachably connected. Reference numeral 94 denotes a voice data storage unit when an operation for transferring a voice data group for generating a voice message group is performed by the operation unit 82. The transfer unit 91 reads a name and format type corresponding to a desired voice data group for generating a voice message group from 91 and writes it in the portable external storage unit 30 connected to the female connector 95. The voice data creation unit 96 has a function of generating a voice data group for generating a voice message group to be stored in the voice data storage unit 91.
[0057]
When a voice data group for voice message group generation is created by the voice data creation unit 96 and a name and format type corresponding to the voice data group is created by the operation unit 92, a registration unit 93 is created according to the operation. The audio data group and the corresponding name and format type are added to the audio data storage unit 91. After creating one or a plurality of voice message groups for generating voice message groups, the portable external storage unit 30 is connected to the female connector 95, and the operation unit 92 uses the voice data storage unit 91 to generate a desired voice message group generation. When the transfer request operation to the external portable external storage unit 30 is performed by specifying the name of the voice quality of the one or more audio data groups, the transfer unit 94 specifies the one or more names specified from the audio data storage unit 91 The voice data group for generating the voice message group, the name, and the format type corresponding to the above are read and written in the portable external storage unit 30.
[0058]
After writing one or a plurality of voice data groups for generating a voice message group in the portable external storage unit 30, the portable external storage unit 30 is removed and connected to the female connector 16 of the in-vehicle navigation device 1. Then, when a transfer request operation from the portable external storage unit 30 is performed with the operation unit 5 of the in-vehicle navigation device 1, the voice data for generating all the voice message groups stored in the portable external storage unit 30 by the reading unit 17. The group is read together with the name and format type corresponding to each group and added to the audio data storage unit 10 (YES in step S16 in FIG. 8, S17).
[0059]
At this time, corresponding to the added audio data group, an address management table indicating addresses of individual audio data belonging to the audio data group is generated and stored in the management data storage area 120 (see FIG. 3). Further, the name and format type of the added voice data group and the address of the corresponding address management table generated are registered in the voice data group management table 130 stored in the voice data storage unit 10 (FIG. 5). reference).
[0060]
When the registration unit 93 and the female connector 95 are connected, and the name and format type corresponding to the voice data group for generating the voice message group is created by the operation unit 92, the registration unit 93 performs voice according to the operation. A name and a format type corresponding to the voice data group for generating the message group may be created and added to the portable external storage unit 30.
[0061]
(2) Specification of audio data group desired to be used
In a state where a plurality of groups of voice data are stored in the voice data storage unit 10, the user can designate a desired voice quality of a message used for voice guidance by operating the operation unit 5. In the in-vehicle navigation device 1, when a voice quality change request operation is performed by the operation unit 5, a batch change mode in which the voice quality of all messages is changed to a voice quality other than the standard collectively, It is possible to select and execute any individual change mode for changing to any voice quality for each message. When a voice message change request operation for a voice message is performed on the operation unit 5 and a batch change request operation for all messages is performed on the operation unit 5, operation is specified for all voice messages for guidance The specified voice quality after the change, for example, singer A is registered (FIG. 9, YES in step S18, YES in S19, S20). That is, in the use voice quality registration table 140 shown in FIG. 7, the use desire flag is set in the entry corresponding to the singer A for all messages.
[0062]
On the other hand, when a voice quality change request operation of a voice message is performed on the operation unit 5 and an individual change request operation is performed on the operation unit 5, it corresponds to each message specified by the user in the individual voice quality change request operation In addition, the changed voice quality is registered (FIG. 9, YES in step S18, NO in S19, YES in S21, S22). For example, in FIG. 7, when the user designates singer A for message # 1 “Good morning”, the use desired flag is set in the entry corresponding to singer A for the message in the use voice quality registration table 140. On the other hand, when the user designates singer B for another message, for example, message # 7 “600 meters to the next waypoint intersection”, the message corresponding to singer B is entered in the voice quality registration table 140 for that message. Set the desired use flag. In this way, the voice quality used for each individual message can be set.
[0063]
(3) Execution of voice guidance
The voice guidance unit 12 performs voice guidance at various points during use of the in-vehicle navigation device 1. In the case of a group of messages illustrated in FIG. 4, some messages are guided in conjunction with a specific operation on the operation unit 5. Some other messages are guided when the in-vehicle navigation device 1 executes a specific process and the specific process instructs voice guidance.
[0064]
For example, message # 5 “Start voice guidance” is guided when the voice guidance start request operation is performed in the operation unit 5 and the voice guidance mode is set. Message # 6 “End voice guidance” is guided when the voice guidance end request operation is performed in the operation unit 5 and the voice guidance mode is turned off. Message # 1 “Good morning” is notified when the power-on operation is performed in the operation unit 5 in the voice guidance mode and the time is in the morning. Similarly, message # 2 "Hello" and the message # 3 "Good evening", the power-on operation is performed in the operation unit 5, and the time is guided when each is afternoon or evening. Message # 4 message “Thank you for your hard work” is provided when a power-off operation is performed in the operation unit 5 in the voice guidance mode.
[0065]
Specifically, the voice guidance of the message in the voice guidance mode is executed as follows. In the voice guidance unit 12, when any operation is performed on the operation unit 5, it is determined whether the operation is a predetermined operation in which the voice guidance is linked to the operation, and the executed operation is linked to the voice guidance. When the operation is an operation to be performed, a message predetermined as a message linked to the operation is output in voice with a voice quality registered in advance for the message (YES in step S23 in FIG. 10, S25).
[0066]
For each message used for voice guidance, the voice guidance unit 12 determines whether the message is a message used for voice guidance in conjunction with any specific operation, or within the in-vehicle navigation device 1. Whether or not the message is used when voice guidance is instructed by the process being executed is stored, and when there are further conditions to be satisfied in executing the voice guidance by the message, the condition is also stored. . For example, for message # 1, it is stored that message # 1 is interlocked with the power-on operation, and that the time when the operation is performed is stored in the morning as a voice guidance execution condition by message # 1. ing. Therefore, when a power-on operation is performed on the operation unit 5, the voice guidance unit 12 determines that the voice guidance by the message # 1 is linked to the operation when the operation is performed in the morning.
[0067]
When it is determined that message # 1 should be voice-guided in this way, voice guidance unit 12 uses voice quality (singer A in this example) registered in advance for message # 1. A memory address corresponding to the message # 1 is read from the address management table 152 (see FIG. 3) corresponding to the voice data group of the singer A, for example, 112 (see FIG. 3), detected from the registration table 140 (see FIG. 7), Using this memory address, the voice data for message # 1 of singer A is read. Further, since the format type 132 (see FIG. 5) of the audio data is ADPCM in the present example, the read audio data is decoded according to ADPCM to reproduce the audio, and the speaker 1 via the amplifier 13 is reproduced. Output from. Thus, message # 1 is output as voice with the voice quality registered for the message.
[0068]
Messages # 7 to # 13 are examples of messages used for voice guidance required by the processing executed in the in-vehicle navigation device 1. That is, when an intersection guidance request operation is performed on the operation unit 5, the intersection guide unit 11 executes an intersection guidance process as follows, and each of the messages # 7 to # 13 is executed in the course of the intersection guidance. Request voice guidance at different times.
[0069]
First, the intersection guide unit 11 turns off the intersection guide mode (step S30 in FIG. 11), sets i indicating the order of the waypoint intersections to 1, and stores the position data of the first waypoint intersection in the planned travel route storage unit 9. Is checked (steps S31 and S32). If NO, it is determined that there is no next guidance target intersection and is notified to the drawing unit 20 (step S48). However, since it is YES here, the first waypoint intersection is determined as the next guidance target intersection and the drawing unit 20 is determined. Notification is made (step S33). Then, the current position data is input from the GPS receiver 2, and the distance L from the current position to the next guidance target intersection is calculated (step S34), and the pre-stored reference distance L is stored. 0 (Step S35). L = L 0 If so, the intersection guidance mode is turned on (step S36), but here L> L 0 If it is, the intersection guidance mode remains off.
[0070]
On the other hand, the drawing unit 20 inputs current position data and current direction data from the GPS receiving unit 2, reads out map data of a user-desired scale including the current position from the CD-ROM 4a, and reads the read map data. Is used to draw a map image of the scale desired by the user centered on the current position and northward in the first image storage area 19a of the image memory unit 19, and the map in the planned travel route storage unit 9 For a waypoint intersection in the map area indicated by the image, a route point intersection mark (see symbol Q in FIG. 12 (1)) is drawn on the map image at a corresponding location on the map image. The vehicle position mark (see reference numeral V in FIG. 12 (1)) in the direction corresponding to the current azimuth is overlaid and drawn in the middle.
[0071]
Further, the drawing unit 20 checks whether or not the next guidance target intersection determined by the intersection guidance unit 11 exists, and if YES, the next guidance target intersection in the planned travel route storage unit 9 is read from the CD-ROM 4a. The shape data of the guidance target intersection (or the most detailed map data in the vicinity of the guidance target intersection) is read, and the intersection enlarged image of a predetermined size is faced up north, with a predetermined position in the second image storage area 19b. To draw.
[0072]
If the intersection guidance mode is on, the combining unit 21 converts the enlarged image stored in the second image storage area 19b onto the map image stored in the first image storage area 19a and converts it into a video signal. Although it outputs to the display part 3, since the intersection guidance mode is OFF here, the map image memorize | stored in the 1st image storage area 19a is converted into a video signal, and is output to the display part 3.
Therefore, as shown in FIG. 12 (1), a map image with north facing upward is displayed on the screen 3a together with the vehicle position mark and the waypoint intersection mark.
[0073]
The map image on the screen moves as the current position changes as the vehicle travels. After that, the distance between the current position and the next guidance target intersection is the reference distance L 0 When it is shortened, the intersection guide unit 11 turns on the intersection guide mode (steps S35 and S36). Furthermore, it is determined whether the route at the intersection is a left turn, a right turn, or a straight turn based on the route information in the planned route storage unit 9, and when making a left turn, there is another 600 to the next waypoint intersection. A voice guidance command including a message number 7 of a message (message # 7 in this example) and a message number 11 of a message (message # 11 in this example) instructing that the course there is a left turn Is output to the voice guidance unit 12 (steps S37 and S38).
[0074]
Upon receiving the instruction, the voice guidance unit 12 generates and outputs an intersection guidance voice signal “There is another 600 meters until the next waypoint intersection. Turn left”, and output the sound from the speaker 14. At this time, the voice guidance unit 12 detects the voice quality (singer B in this example) set for the message # 7 from the voice quality registration table 140 (see FIG. 7), and the singer The memory address for the message # 7 is read from the address management table 153 (see FIG. 3) corresponding to the B voice data group 113, and the voice data of the singer B for the message # 7 is read using this memory address. Further, since the format type 132 (see FIG. 5) of the audio data is ADPCM in this example, the read audio data is decoded according to ADPCM to reproduce the audio. The same applies to message # 11.
[0075]
On the other hand, when the route is a right turn, message number 7 of message # 7 that informs that there is another 600 until the next waypoint intersection, and a message instructing that the route there is a right turn (message in this example) A voice guidance command including the message number 12 of # 12) is output to the voice guidance unit 12 (steps S37 and S39). Upon receiving the instruction, the voice guidance unit 12 generates and outputs an intersection guidance voice signal “There is another 600 meters until the next waypoint intersection. Turn right”, and the voice is output from the speaker 14. In the case of a right turn, the voice data of singer B is used as in the case of a left turn.
[0076]
When the route is straight ahead, message number 7 of message # 7 that guides that there is another 600 until the next waypoint intersection, and a message that indicates that the route there should be straight (message # 13 in this example) The voice guidance command including the message number 13 is output to the voice guidance unit 12 (steps S37 and S40). Upon receiving the command, the voice guidance unit 12 generates and outputs an intersection guidance voice signal “There is another 600 meters until the next waypoint intersection. Go straight ahead”, and output the sound from the speaker 14. The voice data of singer B is used in the case of going straight as well as in the case of a left turn.
[0077]
When the intersection guidance mode is turned on, the synthesizer 21 converts the enlarged map image stored in the second image storage area 19b onto the map image stored in the first image storage area 19a and converts it into a video signal. As shown in FIG. 12 (2), the screen 3a is superimposed on the upper left half of the map image with north facing upward as shown in FIG. 1 Are enlarged and displayed.
As a result, the user can understand the fact that he / she has come to a point 600 m before the next waypoint intersection and the route there by voice, and the shape of the next waypoint intersection can be seen from the screen.
[0078]
Thereafter, every time the distance between the next guidance target intersection and the current position is reduced by 200 m, the intersection guidance unit 11 instructs the number of the message for guiding that the distance to the next waypoint intersection is L and the course there. The voice guidance command that specifies the message number is output to the voice guidance unit 12, and the voice guidance unit 12 says, “There is another 400 meters to the next intersection. Turn left (or turn right or go straight). ”,“ Turn 200 meters to the next way intersection. Turn left (or turn right or go straight) ”and the intersection guidance voice is played from the speaker 14 (steps S41, S37, S38, S39). Therefore, the user can know the approach situation to the next waypoint intersection and the course there.
[0079]
After that, when the vehicle reaches the next guidance target intersection, L = 0, so that the intersection guidance unit 11 informs that the distance to the next waypoint intersection is zero (message # 10 in this example). ) And a voice guidance command designating the number of message # 11, # 12 or # 13 instructing the route there is output to the voice guidance unit 12, and the voice guidance unit 12 Turn left (or turn right or go straight) until you reach the intersection, and you will hear the intersection guidance voice from the speaker 14 (steps S42, S43, S44, S45), and the user will go to the next intersection You will know that you have reached and the course there.
[0080]
After a predetermined time from the process of step S45, the intersection guidance mode is turned off (step S46). Therefore, the intersection enlarged image on the screen 3a disappears once and a map image is displayed. Thereafter, i indicating the rank of the waypoint intersection is incremented by 1 (step S27). In this way, the intersection guidance for the first waypoint intersection is completed, and the above intersection guidance process is repeated for the subsequent waypoint intersections.
[0081]
According to this embodiment, at least one set of voice data having a voice quality desired by the user can be stored in the in-vehicle navigation device 1 as a voice data group for generating a voice message group for guidance. The voice quality of the voice message can be changed from the standard voice quality unique to the device to the user's preference. In addition, when a plurality of sets of voice data are stored in the in-vehicle navigation device 1 for each different voice quality as in the above embodiment, any one of a plurality of types of voice qualities possessed by the plurality of sets of data is stored. You can choose one to use.
[0082]
Further, as described in the embodiment, for each voice message, the voice quality of the voice data used to generate the voice message is specified. It becomes possible to match. For example, when the user is a male, for example, a greeting message such as “Good morning” is a message using a female voice, and a male voice is used for another message such as a message used for intersection guidance. By using the message, the greeting message can be heard easily, and the message for the intersection guidance can be easily prevented from being overlooked. When the user is a woman, the voice quality of each message can be specified in the reverse manner. Alternatively, the former message may be a message using a voice of a specific singer desired by the user, and the latter message may be a message using a voice of another specific singer desired by the user. Alternatively, some messages are standard voice quality messages and others are dialects desired by the user. Or language It can also be a message.
[0083]
In the above embodiment, the voice data storage unit 10 in the main body control unit 7 stores the voice data group of the voice quality desired by the user in addition to the already stored voice data group. When storing the voice data group having the voice quality desired by the user, the already stored voice data group may be deleted.
Further, a voice data group having a voice quality desired by the user may be stored in the voice data storage unit 10 without storing the standard voice data group in the voice data storage unit 10.
[0084]
Furthermore, in the above, a plurality of voice data groups having different voice qualities desired by the user are stored in the voice data storage unit 10 so that voice data having a desired voice quality can be used in units of voice messages. A single voice data group having the same voice quality may be used for all messages. In this case, if only one set of voice data having the same voice quality for one set of voice messages is stored in the voice data storage section 10 so as to be rewritable, the voice data storage section 10 stores voice data of the voice quality desired by the user. Therefore, there is no need to execute again an operation for designating the voice quality desired by the user.
[0085]
Furthermore, in the above embodiment, the voice data storage unit 10 in the main body control unit 7 stores a plurality of voice data groups having different voice qualities, and the voice quality of voice data used corresponding to each message. However, it is also possible to specify a single voice quality for a group of messages to be guided without specifying a voice quality for each message. In this case, it is not necessary to use a table for registering a desired voice quality for each message number, such as the voice quality registration table 140 (see FIG. 7), and only one voice quality specified in a batch is used. Just remember.
[0086]
In the above embodiment, the voice quality of a set of audio data transferred from the outside to the audio data storage unit 10 is the same for all of the audio data. When a plurality of sets of voice data having different voice qualities are stored in the voice data storage unit 10 in advance, the user can designate voice qualities used for guidance for each message. However, for example, using the method described below, the voice quality of a set of audio data transferred from the outside to the audio data storage unit 10 can be changed for each audio data.
Specifically, for example, in the map display system shown in FIG. 13, when the user accesses the external voice guidance support device 50 and designates a set of voice data to be transferred to the in-vehicle navigation device 1. For example, the voice quality is not specified for all the messages at once, such as the voice data group of singer A, but the voice quality is specified for each message. For example, the voice quality of singer A is designated for messages # 1 to # 6, and singer B is designated for messages # 7 and thereafter. The distribution unit 52 reads out voice data of voice quality designated for each message from the voice data storage unit 51. After reading a set of voice data necessary for generating a set of guidance voice messages, the set of voice data may be transferred to the in-vehicle navigation device 1 via the Internet 40 in a lump. .
If this method is used, the voice quality of each voice message for a set of guidance can be changed to any voice quality preferred by the user simply by transferring a set of voice data from the outside to the voice data storage unit 10. .
[0087]
The same can be realized with other map display systems shown in FIGS. 14 to 17 or other systems not shown. For example, in the system of FIG. 14, the audio data acquisition processing unit 15 (see FIG. 1) is directly connected to the in-vehicle navigation device 1 based on an operation on the operation unit 5 (see FIG. 1) of the in-vehicle navigation device 1. When requesting the voice guidance support device 50 to transfer voice data, as an operation for specifying a set of voice data to be transferred, the voice quality is not specified for all messages at once, You only need to specify the operation. Similar to the distribution unit 52 of the system of FIG. 13, the distribution unit 62 reads out voice data of voice quality designated for each message from the voice data storage unit 61 and is necessary for generating a set of guidance voice messages. After reading such a set of audio data, the set of audio data may be transferred to the in-vehicle navigation device 1 in a batch via the input / output terminal CT (see FIG. 1).
Further, in the same system of FIG. 14, when the method of transferring audio data to the in-vehicle navigation device 1 by the operation on the operation unit 63 is adopted, as with the operation described above for the operation unit 5 of the in-vehicle navigation device 1, As an operation for designating a set of audio data to be transferred, an operation for designating voice quality for each message may be performed on the operation unit 63 of the audio guidance support device 60. The operation of the distribution unit at this time is the same as described above. The system shown in FIG. 15 may be operated in the same manner as described above for the system shown in FIG.
[0088]
Further, in the system using the portable external recording unit 30 shown in FIG. 16 or 17, as an operation for designating a set of audio data to be transferred to the portable external recording unit 30, an operation for designating voice quality for each message. May be executed on the operation unit 82 (FIG. 16) or 92 (FIG. 17). Also in this case, the transfer unit 84 (FIG. 16) or 94 (FIG. 17) converts the voice data of the voice quality designated for each message into the voice data storage unit 81 (FIG. 16) or 91 (FIG. 17), and after reading a set of voice data necessary for generating a set of guidance voice messages, the set of voice data is collectively transportable external storage What is necessary is just to transfer to the apparatus 30.
[0089]
In the above-described embodiment, in the intersection guidance process, a message for guiding the distance to the next waypoint intersection and a message for designating the course there are used in combination. One message that guides the distance to the intersection and the route there, for example, “It is 600 meters to the next intersection. Turn left” or “Turn left at the intersection 600 meters ahead. May be used. In the above embodiment, different messages are used corresponding to different distances as messages for guiding the distance to the next waypoint intersection. However, voice data indicating one message by combining a plurality of voice data is used. It may be generated.
For example, “600”, “400”, “200”, for example, “600”, “400”, “200” together with voice data representing a part of the message “To the next waypoint intersection”, “Meter”, “Please do”, “There”. , Voice data representing the numerical value in the message “0”, and voice data representing the route such as “turn left”, “turn right”, “straight”, etc. are stored, and “to the next waypoint intersection”, “600” ”,“ Meter. ”,“ Turn left ”,“ Turn left ”,“ Please do ”, and combine the five voice data,“ The next intersection is 600 meters. Turn left. ” Audio data representing a message may be generated.
[0090]
【The invention's effect】
According to the present invention, at least one set of voice data having voice quality desired by the user is used as voice data for generating a set of voice messages for guidance. It is a map display device Since it can be stored in the in-vehicle navigation device, the voice quality of the guidance message can be changed to the user's preference.
Further, according to the present invention, voice data produced by an arbitrary speaker for all guidance messages is prepared, and an arbitrary speaker is selected and the voice data is directly generated as a guidance message. Therefore, the device configuration can be simplified, and a guidance message is output as the voice of an arbitrary speaker, and is not affected by a change in voice quality due to speech synthesis.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an in-vehicle navigation device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram of storage contents of a planned travel route storage unit in FIG. 1;
FIG. 3 is a diagram for explaining audio data groups and management data stored in an audio data storage unit in FIG. 1;
4 is a diagram for explaining audio data and corresponding messages stored in an audio data storage unit in FIG. 3; FIG.
FIG. 5 is a diagram for explaining storage contents of a voice data group management table stored in a voice data storage unit in FIG. 3;
6 is a diagram for explaining the contents of an address management table stored in the audio data storage unit in FIG. 3; FIG.
7 is a diagram for explaining the contents of a used voice quality registration table stored in a voice data storage unit in FIG. 3; FIG.
FIG. 8 is a flowchart showing control processing of an audio data acquisition processing unit and a reading unit in FIG.
FIG. 9 is a flowchart showing a control process for the audio data storage unit in the control process of the registration unit in FIG. 1;
FIG. 10 is a flowchart showing control processing of the voice guidance unit in FIG. 1;
FIG. 11 is a flowchart showing a control process of the intersection guide unit 11 in FIG. 1;
12 is an operation explanatory diagram of the map display control unit in FIG. 1. FIG.
13 is a configuration diagram of a map display system in which the in-vehicle navigation device and the voice guidance support device in FIG. 1 are combined.
14 is a configuration diagram of another map display system in which the in-vehicle navigation device and the voice guidance support device in FIG. 1 are combined. FIG.
15 is a configuration diagram of still another map display system in which the in-vehicle navigation device and the voice guidance support device in FIG. 1 are combined. FIG.
16 is a configuration diagram of still another map display system in which the in-vehicle navigation device and the voice guidance support device in FIG. 1 are combined.
FIG. 17 is a configuration diagram of still another map display system in which the vehicle-mounted navigation device and the voice guidance support device in FIG. 1 are combined.
[Explanation of symbols]
1 Car navigation system 2 GPS receiver
3 Display 4 CD-ROM reader
4a CD-ROM 5, 63, 72, 82, 92 Operation unit
6 Communication unit 7 Control unit
8, 73, 93 Registration unit 9 Travel schedule route storage unit
10, 51, 61, 71, 81, 91 Audio data storage unit
11 Intersection guide 12 Voice guide
13 Amplifier 14 Speaker
15 Audio data acquisition processing unit 16, 85, 95 Female connector
17 Reading unit 18 Map display control unit
19 Image memory unit 20 Drawing unit
21 Combining Unit 30 Portable External Storage Unit
31 Male connector 40 Internet
50, 60, 70, 80, 90 Voice guidance support device
52, 62 Distribution unit 74, 84, 94 Transfer unit
75, 96 Audio data creation unit
111, 112, 113, 114 Audio data group
130 Voice data group management table 140 Voice quality registration table
151, 152, 153, 154 Address management table

Claims (5)

ネットワークを介して接続される地図表示装置と音声案内支援装置とから成り、
音声案内支援装置は、
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備え、
地図表示装置は、
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えることを特徴とする地図表示システム。
Consists of a map display device and a voice guidance support device connected via a network,
The voice guidance support device
A plurality of sets of guidance voice data of different voice qualities created by different speakers speaking each unit voice message, all of a set of guidance voice messages composed of a plurality of preset unit voice messages. Voice data storage means stored identifiable for each voice quality ;
In response to a voice data transfer request for requesting transfer of voice data for each set of guidance voice data or unit voice message by specifying an arbitrary voice quality, the corresponding voice data is read from the voice data storage means Distribution means for transferring to the map display device,
Map display device
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
An arbitrary voice quality is specified, the voice guidance support device is requested to transfer the one set of guidance voice data or voice data for each unit voice message, and the voice data transferred from the voice guidance support device for each voice quality. Voice data acquisition means for storing in the voice data storage means in an identifiable manner;
A map display system comprising: voice guidance means for specifying an arbitrary voice quality and generating a voice message directly using corresponding voice data stored in the voice data storage means.
地図表示装置は、更に、任意の声質を特定して前記音声データ記憶手段に記憶された異なる声質の複数組の音声データから対応する1組の音声データまたは単位音声メッセージ毎の音声データの選択操作をする声質選択操作手段を備え、
前記音声案内手段は、前記音声データ記憶手段に記憶された音声データのうち、前記声質選択操作手段によって選択された任意の声質に対応する1組の音声データまたは単位音声メッセージ毎の音声データを用いて直接音声メッセージを生成することを特徴とする請求項1に記載の地図表示システム。
The map display device further selects a voice data corresponding to one set of voice data or unit voice message from a plurality of sets of voice data having different voice qualities specified by specifying an arbitrary voice quality and stored in the voice data storage means. Voice quality selection operation means,
The voice guidance means uses a set of voice data corresponding to an arbitrary voice quality selected by the voice quality selection operation means or voice data for each unit voice message among voice data stored in the voice data storage means. The map display system according to claim 1, wherein the voice message is directly generated .
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えた地図表示装置にネットワークを介して接続される音声案内支援装置であって、
前記音声案内支援装置は、
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備えたことを特徴とする音声案内支援装置。
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
An arbitrary voice quality is specified, the voice guidance support device is requested to transfer the one set of guidance voice data or voice data for each unit voice message, and the voice data transferred from the voice guidance support device for each voice quality. Voice data acquisition means for storing in the voice data storage means in an identifiable manner;
Voice guidance connected to a map display device including a voice guidance means for specifying an arbitrary voice quality and generating voice messages directly using corresponding voice data stored in the voice data storage means via a network A support device,
The voice guidance support device includes:
A plurality of sets of guidance voice data of different voice qualities created by different speakers speaking each unit voice message, all of a set of guidance voice messages composed of a plurality of preset unit voice messages. Voice data storage means stored identifiable for each voice quality ;
A map display device which reads out the corresponding voice data from the voice data storage means in response to a transfer request of voice data for requesting transfer of the set of voice data for guidance or unit voice message by specifying an arbitrary voice quality A voice guidance support apparatus, comprising: a distribution means for transferring to the voice.
予め設定された複数の単位音声メッセージからなる1組の案内用の音声メッセージの全てを、異なる話者がそれぞれ単位音声メッセージ毎に発声して作成した異なる声質の複数組の案内用の音声データを声質毎に識別可能に記憶した音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージの転送を要求する音声データの転送要求に応じて、前記音声データ記憶手段から該当する音声データを読み出して地図表示装置に転送する配信手段と、を備えた音声案内支援装置にネットワークを介して接続される地図表示装置であって、
前記地図表示装置は、
現在位置を検出する現在位置検出手段と、地図画像を現在位置マークとともに表示する表示手段と、地図データを用いて、現在位置を含む一定範囲の地図画像を現在位置マークとともに描画し、表示手段に表示させる地図表示制御手段と、1組の案内用の音声メッセージを生成するための1組の音声データを少なくとも1組記憶可能な音声データ記憶手段と、
任意の声質を特定して前記1組の案内用の音声データまたは単位音声メッセージ毎の音声データの転送を前記音声案内支援装置に要求し、音声案内支援装置から転送された音声データを声質毎に識別可能に前記音声データ記憶手段に記憶させる音声データ取得手段と、
任意の声質を特定し、前記音声データ記憶手段に記憶された対応する音声データを用いて直接音声メッセージを生成する音声案内手段と、を備えることを特徴とする地図表示装置。
A plurality of sets of guidance voice data of different voice qualities created by different speakers speaking each unit voice message, all of a set of guidance voice messages composed of a plurality of preset unit voice messages. Voice data storage means stored identifiable for each voice quality ;
A map display device that reads out the corresponding voice data from the voice data storage means in response to a transfer request of voice data for requesting transfer of the one set of voice data for guidance or unit voice message by specifying an arbitrary voice quality A map display device connected via a network to a voice guidance support device comprising:
The map display device
Current position detecting means for detecting the current position, display means for displaying the map image together with the current position mark, and using the map data, a map image of a certain range including the current position is drawn together with the current position mark and displayed on the display means. Map display control means for displaying; voice data storage means capable of storing at least one set of voice data for generating a set of voice messages for guidance;
An arbitrary voice quality is specified, the voice guidance support device is requested to transfer the one set of guidance voice data or voice data for each unit voice message, and the voice data transferred from the voice guidance support device for each voice quality. Voice data acquisition means for storing in the voice data storage means in an identifiable manner;
A map display device comprising: voice guidance means for specifying an arbitrary voice quality and generating a voice message directly using corresponding voice data stored in the voice data storage means.
地図表示装置は、更に、任意の声質を特定して前記音声データ記憶手段に記憶された異なる声質の複数組の音声データから対応する1組の音声データまたは単位音声メッセージ毎の音声データの選択操作をする声質選択操作手段を備え、
前記音声案内手段は、前記音声データ記憶手段に記憶された音声データのうち、前記声質選択操作手段によって選択された任意の声質に対応する1組の音声データまたは単位音声メッセージの音声データを用いて直接音声メッセージを生成することを特徴とする請求項4に記載の地図表示装置。
Map display apparatus further includes a set of audio data or a corresponding plurality of sets of audio data stored different voice quality on the voice data storage means to identify any voice quality audio data for each unit voice message Voice quality selection operation means to perform the selection operation,
It said voice guidance means, among the audio data stored in the voice data storing means, using the voice data of a set of audio data or unit voice message corresponding to any voice selected by the voice selection manipulation unit The map display device according to claim 4, wherein the voice message is directly generated .
JP2001379201A 2001-12-12 2001-12-12 Map display system, voice guidance support device, map display device Expired - Lifetime JP3693326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001379201A JP3693326B2 (en) 2001-12-12 2001-12-12 Map display system, voice guidance support device, map display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001379201A JP3693326B2 (en) 2001-12-12 2001-12-12 Map display system, voice guidance support device, map display device

Publications (2)

Publication Number Publication Date
JP2003177029A JP2003177029A (en) 2003-06-27
JP3693326B2 true JP3693326B2 (en) 2005-09-07

Family

ID=19186673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001379201A Expired - Lifetime JP3693326B2 (en) 2001-12-12 2001-12-12 Map display system, voice guidance support device, map display device

Country Status (1)

Country Link
JP (1) JP3693326B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005283531A (en) * 2004-03-31 2005-10-13 Equos Research Co Ltd Vehicle-mounted device and data-preparing device
JP2006011036A (en) * 2004-06-25 2006-01-12 Brother Ind Ltd Voice output device and voice output program
JP4095590B2 (en) 2004-07-15 2008-06-04 株式会社ナビタイムジャパン Pedestrian navigation system, information distribution server and program
JP4559829B2 (en) * 2004-11-25 2010-10-13 クラリオン株式会社 Map data structure for navigation, navigation device
JP2006330440A (en) * 2005-05-27 2006-12-07 Kenwood Corp Voice guiding device, voice guidance system and program
JP2006330484A (en) * 2005-05-27 2006-12-07 Kenwood Corp Device and program for voice guidance
JP2007322308A (en) * 2006-06-02 2007-12-13 Xanavi Informatics Corp Navigation system and navigation apparatus
US9031677B2 (en) * 2011-07-22 2015-05-12 Visteon Global Technologies, Inc. Automatic genre-based voice prompts
JP6155494B2 (en) * 2012-08-10 2017-07-05 株式会社ユピテル Vehicle system and program
JP2018097829A (en) * 2016-12-13 2018-06-21 株式会社ハード Multilingual voice guidance device
JP6969093B2 (en) * 2016-12-27 2021-11-24 日産自動車株式会社 Voice guidance method and voice guidance device
CN111681640B (en) * 2020-05-29 2023-09-15 阿波罗智联(北京)科技有限公司 Method, device, equipment and medium for determining broadcast text
JP7456963B2 (en) 2021-03-23 2024-03-27 日立グローバルライフソリューションズ株式会社 Voice management devices and programs
JP7307233B1 (en) 2022-04-28 2023-07-11 楽天グループ株式会社 Drone, information processing method, program and information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP3287281B2 (en) * 1997-07-31 2002-06-04 トヨタ自動車株式会社 Message processing device
JPH11126087A (en) * 1997-10-21 1999-05-11 Sony Corp Method and device for synthesizing voice, navigation system, and information recording medium
JP2001022375A (en) * 1999-07-06 2001-01-26 Matsushita Electric Ind Co Ltd Speech recognition synthesizer
JP2001209400A (en) * 2000-01-24 2001-08-03 Denso Corp Voice synthesizer and voice guidance system

Also Published As

Publication number Publication date
JP2003177029A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
JP3693326B2 (en) Map display system, voice guidance support device, map display device
RU2425329C2 (en) Navigation device and method of receiving and reproducing audio images
JP4702634B2 (en) Navigation device
JP2007251455A (en) Vehicle-mounted equipment, navigation device, control method thereof and program
US8219315B2 (en) Customizable audio alerts in a personal navigation device
JP3587691B2 (en) Navigation method and apparatus, and recording medium recording program for processing this method
JPWO2016174955A1 (en) Information processing apparatus and information processing method
JP2003014485A (en) Navigation device
JP2006010509A (en) Navigation system
TWI404916B (en) Methods of creating and playing customizable audio alerts and related devices
JP2007094751A (en) Agent system, information provision device and terminal device
JP4126284B2 (en) Interactive route guidance device
JP2001188014A (en) Geography guide setting device, geography guide using device, geography guide system and recording medium
JP2021032857A (en) Information processing device, information processing method, speech output system, and program
JP3380992B2 (en) Navigation system
JP4206818B2 (en) In-vehicle device and data creation device
KR20130012754A (en) Patten code awareness pen for using a tourist information and device method of the same
JP2002107167A (en) Navigator
JP7042506B2 (en) Systems and programs
JP7244331B2 (en) Voice guidance device, voice guidance server, and voice guidance method
JP2008224604A (en) Navigator
JP3082623B2 (en) Voice guidance device
JP2008309666A (en) Navigation device and route guidance control method
JP2024077443A (en) Pedestrian audio guide system
JP2023094362A (en) Route guide device and route guide method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20040924

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20041111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050620

R150 Certificate of patent or registration of utility model

Ref document number: 3693326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090701

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090701

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100701

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130701

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130701

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term