JP3704925B2 - Mobile terminal device and medium recording voice output program thereof - Google Patents
Mobile terminal device and medium recording voice output program thereof Download PDFInfo
- Publication number
- JP3704925B2 JP3704925B2 JP33283897A JP33283897A JP3704925B2 JP 3704925 B2 JP3704925 B2 JP 3704925B2 JP 33283897 A JP33283897 A JP 33283897A JP 33283897 A JP33283897 A JP 33283897A JP 3704925 B2 JP3704925 B2 JP 3704925B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- data
- mobile terminal
- words
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ナビゲーション装置や電子メールの読み上げなどの音声出力を行う移動端末装置、その動作プログラムを記録した媒体に関する。
【0002】
【従来の技術】
従来より、経路案内用ナビゲーション装置が知られており、この装置は車両の現在地を検出するGPS装置等の現在地検出装置と、検出した車両の現在地を地図上の位置として認識する地図データベースと、を有している。そして、これらを利用して、ディスプレイに地図及び現在地を表示して運転者の走行を案内する。また、ナビゲーション装置では、目的地を入力することで、目的地までの最適経路を探索する機能を有している。そして、目的地までの経路を設定した走行においては、右左折する交差点等の案内が必要な交差点(案内交差点)に接近した場合には、右左折についての案内を行う。ここで、この案内は、ディスプレイ上に交差点の拡大図を表示し、この拡大図において進行方向を示すことで行われると共に、音声による案内も行われる。運転者は、車両走行中は前方を注視しているため、音声による案内の方がわかりやすい。このため、音声による案内が普及してきている。このように、ナビゲーション装置などの移動端末において、音声出力が行われている。
【0003】
なお、音声により進行方向についての案内を行うナビゲーション装置としては、例えば特開平2−249100号公報に記載されたものがある。
【0004】
このようなナビゲーション装置においては、音声案内をわかりやすく行うために交差点名称等を読み上げることが好ましい。例えば、案内交差点であるA交差点の500m手前において、「500m先で、A交差点を左方向です。」等の音声案内が行われる。
【0005】
この音声読み上げを行うためには、各交差点に関する音声データが必要となる。通常の地図データベースでは、全国の地図を記憶すると共に、案内に利用されるような交差点名称は全てテキストデータとして記憶されている。このため、このテキストデータから音声合成を行うことにより、交差点名称の音声データを作成し、音声案内を出力することが行われている。
【0006】
しかし、このような音声合成は予め装置内に持っている50音等の単位音声の組み合わせで読み上げ用の音声データを作成する。このため、交差点名称を普通に読み上げた場合と、そのイントネーション、アクセント、発音等が異なり、聞き取りにくいものとなってしまう。特に、運転中の運転者に対する案内では、上記の音声合成による案内では聞き取りやすさという点で十分でなく、わかりやすい案内音声が望まれる。
【0007】
そこで、各交差点名称についての音声データを全て記憶しておくことが行われている。即ち、各交差点名称等について、実際に読み上げたデータを所定の符号化処理等を行い音声データとして地図データベースに記憶しておく。これにより、自然でわかりやすい音声案内を行うことができる。なお、音声データは、例えばPCM(パルス・コード・モジュレーション)などの符号化処理されたデータである。
【0008】
【発明が解決しようとする課題】
しかしながら、従来の音声案内ナビゲーション装置には、以下に示す問題点がある。全ての音声データを記憶すると、そのデータ量が膨大なものになり、記憶媒体の容量が大きくなる。通常、地図データベースには、CD−ROMが利用されるが、通常の地図データの数倍の容量が音声データの記憶のために必要となる。
【0009】
従って、音声の読み上げを自然でわかりやすく行えると共に、記憶媒体等の記憶容量を小さく抑えることができるナビゲーション装置及びそのシステムが要望されていた。
【0010】
また、車載の端末装置により、電子メール等のやりとりを行ったり、センターから各種のデータの提供を受けたりするサービスも開始されている。このようなサービスにより得た情報も、音声で読み上げた方がよい場合も多い。このような場合の読み上げ音声についても自然でわかりやすい音声出力が望まれる。
【0011】
本発明は上記問題点を解決することを課題としてなされたものであり、自然でわかりやすい音声出力が行えると共に、そのための記憶容量を小さく抑えることができる移動端末装置などを提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明は、音声出力のための音声データを外部データベースからネットワークを介して取得するデータ取得手段と、前記音声データに対応する言葉を含めて音声出力を行う音声出力手段と、テキストデータにより表現された単語について、テキストデータから音声合成して音声出力する音声合成手段と、を有し、前記音声合成手段により音声合成して出力した単語の使用頻度が所定以上になったときに、前記データ取得手段によりその単語について音声データを外部から取得することを特徴とする。このように、本発明では、外部から取得した音声データにより、各種音声を出力することができる。従って、移動端末装置において、大容量の音声データ記憶用のメモリを用意する必要がなくなる。また、音声合成により音声出力を行うのに比べ、自然な発声による音声出力が行える。そして、よく使用する単語についての音声データを移動端末内に補充することができる。
【0013】
また、音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データを蓄積した蓄積手段と、テキストデータで表現された単語について、テキスト合成で音声出力するテキスト合成手段と、を有し、蓄積手段からの音声データと、テキスト合成手段からの音声データとを合成して音声出力を行うことが好適である。これによれば、よく使用される単語についての音声データを取得して、この単語についてはテキスト合成でなく自然な発音で出力でき、全体としてわかりやすい音声出力ができる。また、音声データの記憶容量を十分少ないものにできる。
【0015】
また、取得した音声データのうち、使用頻度が低いものについて、データ消去処理を行うことが好適である。このようにして、必要な音声データのみの記憶とすることができ、メモリの記憶容量を有効に使用することができる。
【0016】
また、表示用のテキストデータの読み上げ音声を出力することが好適である。表示用のテキストデータを音声出力することで、観光案内や、電子メールなどの読み上げ出力を聞き易いものにできる。
【0017】
また、ナビゲーション装置の案内音声を出力することが好適である。案内音声には、地名などたくさんの単語があり、これについて外部から提供を受けることによって、移動端末装置において必要なメモリ容量を減少することができる。そして、自然な発音を維持することができる。
【0018】
また、地理的名称に関する音声データを外部から取得し、前記音声出力手段は、取得した音声データに基づき、前記地理的名称の読み上げ音声を含む音声案内を行うことが好適である。従って、経路案内において必要な地理的名称についてのを音声データを予め記憶しておくことが不要であり、データを記憶する記憶媒体等の容量を必要最小限に低減することができる。また、車両外部から受信した音声データに基づいて音声出力を得るので、読み上げ音声は自然なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内を行うことができる。
【0019】
また、取得した地理的名称を、音声案内の進行方向案内文に加えて読み上げることが好適である。運転者は、進行方向案内について、地理的名称を含むメッセージで聞くことができ、進行方向を容易に認識することができる。
【0020】
また、目的地に関するデータを車両外部に送信する送信手段を有し、前記データ取得手段は、現在地と前記目的地との間の経路に関する情報を音声データを車両外部から取得することが好適である。この場合においては、目的地に関するデータを車両外部に送信するので、現在地と目的地との間の地理的名称についての音声データを受信することができる。従って、受信する音声データについて、無駄な部分をなくすことができる。
【0021】
また、取得する音声データは現在地及び進行方向に基づいて決定される所定範囲内にある情報であり、前記所定範囲は変更可能であることが好適である。例えば、送受信される音声データの容量に対応して前記所定範囲を決定することができる。
【0022】
また、音声データを取得する範囲である所定範囲は、自車の走行履歴または過去の交通流を考慮して決められることを特徴とする。これらの場合には、目的地までの距離だけでなく、過去の交通状況や過去の自車の走行履歴を考慮して、走行経路を予測して必要な地理的名称を決定できる。そこで、必要な音声データを確実に得ることができる。
【0023】
また、外部情報を受信する外部情報受信手段と、前記受信した外部情報中に含まれているコード化された音声データをデコードするデコード手段と、を有し、前記音声出力手段は、デコード手段で得られた音声データを用いて音声読み上げすることが好適である。このようにして、受信したデータの中の音声データをデコードしてそのまますぐに音声出力することができる。
【0024】
また、前記音声データ受信手段と前記音声案内手段とは、携帯端末装置に搭載されていることが好適である。このように、携帯端末装置に搭載されていると、この携帯端末を使用して任意の場所で経路の設定等が行える。そして、音声データの記憶が不要であるので、携帯端末装置を小型、軽量化できる。さらに例えば、センターから地図データをもらう構成にすれば、地図データベース自体が不要になり、装置の小型化を一層図ることができる。
【0025】
また、外部から取得される音声データは、サンプリング音声データであることが好適である。人の発声から得たサンプリング音声データを取得することで、人間の生の発声と同様の自然な音声を再生できる。
【0026】
本発明は、移動体端末の動作を達成するためのプログラムを記憶した媒体に関する。なお、動作プログラムは、移動端末装置内のROM、CD−ROMやハードディスクなどに記憶しておくことが好適である。また、ユーザはCD−ROMを購入することで、新たなプログラムをナビECUにロードすることもできる。さらに、媒体は、CD−ROMに限らず、DVDやFDなど音声出力プログラムを記憶できるものであればどのような形式のものでもよく、通信で提供することも好適である。特に、センターが動作プログラムを移動端末装置に通信で提供することが好ましい。
【0027】
【発明の実施の形態】
以下、本発明に好適な実施形態について、図面に基づいて説明する。
【0028】
「基本形態1」
図1は、本発明に係るナビゲーション装置(移動端末)の基本的な形態を示すブロック図である。ナビゲーション装置2においては、ナビゲーションECU(以下、ナビECUという)4に、モデム6、音声信号出力装置8、地図データベース10、GPS装置12、音声データ記憶部14、操作部16及び表示部18が接続されている。
【0029】
モデム6は、自動車電話等の無線通信機20に接続されており、車両外部から送られてくる音声データの受信や車両外部への情報の送信等に必要な変復調処理を行う。音声信号出力装置8には、スピーカ22が接続されており、ナビECU4からの信号に従い音声をスピーカ22から出力して、運転者に対して経路案内を行う。なお、ナビECU4は、その内部のROMに所定のプログラムを記憶しており、このプログラムを実行することによって、各種動作を達成する。このROMは、マスクROMでもよいが、EEPROM等書き替え可能なものとすることが好ましい。この場合、地図データベース10として利用されるCD−ROMに動作プログラム(音声出力プログラム)を記憶しておき、このプログラムをナビECU4内のEEPROM等にロードすることも好適である。これによって、ユーザはCD−ROMを購入することで、新たなプログラムをナビECU4にロードすることができ、ナビECU4を新しいプログラムに基づいて動作させることができる。なお、媒体は、CD−ROMに限らず、DVDやFDなど音声出力プログラムを記憶できるものであればどのような形式のものでもよい。
【0030】
GPS装置12は、複数の人工衛星からの電波を受信することで、現在地(緯度及び経度等)を検出する。そして、地図データベース10を利用して、GPS装置12により検出された現在地が地図上の位置として認識される。音声データ記憶部14では、車両外部から送られてくる音声データがナビECU4を介して記憶される。なお、この音声データ記憶部14としては、通常RAMが利用されるが、EEPROM等でもよい。操作部16は、ナビECU4に対して各種データの入力処理等を行うために使用される。表示部18は、操作部16による各種データ入力のための表示、地図データベース10及びGPS装置12とによる地図上の現在位置情報の表示、メッセージの表示等を行う。
【0031】
図2は、このナビゲーション装置2を利用したナビゲーションシステムを示す模式的概念図である。ナビゲーション装置2より経路データをセンター30に送信すると、センター30がこの経路を走行する際の経路案内に必要な音声データを作成し、ナビゲーション装置2に提供する。従って、ナビゲーション装置2において、音声データに基づく経路案内が行える。
【0032】
上記のナビゲーション装置2及びそのシステムを使用して、音声データによる経路案内方法を以下に説明する。図4は、ナビゲーションシステムにおける動作を示すフローチャートであり、図3は経路案内の一例を説明するための図である。なお、このような処理は、ナビECU4がその内部に記憶されているプログラムを実行することによって達成される。
【0033】
図3において、最初に車両は位置Xにいる。この場合、図4のフローチャートで示すように、先ずGPS装置12により位置Xを絶対位置(緯度及び経度)として検出すると共に、地域毎に設置されているセンター30のうち、自車位置に最も近いセンター30を地図データベース10により探索する(S102)。また、地図データベース10により地図上には、自車位置Xが地図上の位置として認識される。なお、現在地をセンター30に送信し、現在地周辺の地図データを受け取り、地図上の自車位置Xを認識してもよい。
【0034】
次に、操作部16により目的地のデータを入力する。すると、ナビECU4が地図データベース10を利用して、現在地から目的地までの経路を探索し、経路データが作成される(S104)。そして、現在地から目的地までの経路上のこれから走行する予定の距離a(km)分のリンク及びノードからなる経路データを無線通信機20等を介してセンター30に送信する(S106)。
【0035】
なお、リンクとは、交差点毎に区切られた道路の1単位をいい、これらのリンク間の区切りである交差点をノードという。また、距離a(km)は、センター30側の処理速度、音声データ記憶部14の容量、受信する音声データの容量等を考慮して決定される。例えば、10km等の固定距離でもよいが条件に応じて変更することが好適である。
【0036】
続いて、センター30において、経路上の走行予定距離a(km)分のリンク及びノードからなる経路データを受信すると、この経路データに対応する交差点名称群を探索し、車両へ送信する(S108)。
【0037】
この交差点名称群の探索について以下に詳細に説明する。交差点名称群D(U)はこの先、走行予定距離a(km)にあるリンク及びノードについての経路データUにより定められる抽出関数f(U)により決定される。図5(a),(b)は、それぞれ、各ノードに対して抽出関数f(U)により決められた交差点名称を抽出する範囲を示す図である。例えば、図5(a)に示すように経路52上の各ノード50から半径b(km)以内の範囲にある交差点54を全て抽出して、これらの交差点名称の集合を交差点名称群D(U)とする。また、他の例として、図5(b)に示すように、経路56上の各ノード50から距離b(km)以内の交差点54を全て抽出して、これらの交差点名称を交差点名称群D(U)とすることもできる。なお、上記距離b(km)は、センター30側の処理速度、音声データ記憶部14の容量、受信する音声データの容量等により変更可能である。
【0038】
このように経路上の交差点名称だけでなく、ある範囲の交差点を取得することで、経路はずれの際の案内や方面案内等が可能になる。
【0039】
そして、センター30は、交差点名称の探索後、これらの交差点名称群D(U)をセンター30から音声データとしてナビゲーション装置2へ送信する。
【0040】
このように、音声データを受信した場合には、車両の音声データ記憶部14において、受信した交差点名称群D(U)の音声データを記憶する(S110)。その後、経路案内が開始される(S112)。ここで、図3に示すように、車両は現在地Xから経路案内に基づき、走行を行う。そして、A交差点に接近したとき、例えば、「300m先、A交差点を左方向です。」等の音声が読み上げられて、経路案内が行われる。そして、B交差点に接近したときは、「300m先、B交差点を右方向です。」等の音声が読み上げられる。
【0041】
ここで、車両が距離a(km)だけ走行する間の案内に必要な交差点名称などの音声データは、車両において、センター30から受信している。そこで、上述のような案内における交差点名A、Bの音声データが、音声データ記憶部14に記憶されている。そこで、案内における交差点名称を自然な発音で出力することができる。なお、その他の定型の案内音声は、地図データベース10に、音声データが記憶されており、これを読み出して使用する。
【0042】
そして、所定設定距離の走行毎に、自車が距離a(km)から1km手前の地点に達したか否かをステップS114にて判断する。ステップS114にて自車位置が所定距離a−1(km)の地点に達しない場合には、ステップS112に戻り、音声案内を継続する。なお、この1kmについては、この距離に限定せず、センター30側の処理速度等により変更可能である。そして、距離a(km)から1km手前の地点に達した場合は、ステップS116にて、自車位置から目的地まで、1km以内であるか否かを判定する。このステップS116にて、自車位置が目的地まで1km以内に達していない場合には、ステップS102に戻り、上述の工程を繰り返し、現在地から目的地までの経路データを送信し、必要な音声データを受信して経路案内を行う。一方、目的地まで1km以内である場合には、音声経路案内は終了し、車両はそのまま目的地まで走行する。
【0043】
なお、センター30から取得する音声データは、交差点名称の代わりに例えば、F市12番地等の地理的名称や施設名称でもよく、この地理的名称と交差点名称とを合わせて音声データとしてもよい。更に、音声データは各自車状況を考慮して、経路案内に必要でない交差点名称群を含んでもよい。
【0044】
このように、本実施の形態においては、交差点名称等に関する音声データをセンター30から取得することができる。このため、音声データを予め記憶しておくことが不要である。そして、走行中の経路案内に必要な分に関する音声データだけを音声データ記憶部14に記憶する。このため、音声データ記憶部14の容量は小さなものでよい。また、センター30から受信音声データを読み上げるので、音声データは自然なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内を行うことができる。
【0045】
なお、本実施の形態においては、目的地の設定とこの目的地に関する経路の探索を車両側のナビゲーション装置2で行っていたが、本実施の形態においては、これに限定されない。即ち、車両側で、目的地を設定した後、この目的地に関するデータをセンター30に送信し、センター30側で現在地から目的地までの経路を探索して経路データを作成し、この経路データに基づいて交差点名称等の音声データを用意しても良い。
【0046】
また、センター30側が有する過去の交通状況データベースを使用して、経路案内に必要な交差点名称等を決定することもできる。通常、走行曜日、走行時間、天気等に応じて、道路上を走行する車両数は変化する。このため、これらの走行時間等による車両数の情報を経路毎に交通状況データベースに保存しておく。
そして、走行時間等の過去の交通状況データベースに基づいて、例えば経路案内時での走行時間において経路として選択する車両が多いと判定される経路についても、交差点名称等の音声データを用意する。過去の交通状況を考慮した経路の例を図6に示す。この図に示すように、経路XXは最初に決定された経路であるが、この経路上のノードG,H等だけでなく、上記の過去の交通量等を考慮して考えられる経路YY上の交差点M,N等に関する交差点名称群等の音声データもセンター30が送信対象とする。このため、走行状況に応じて、経路YYを選択して走行した場合、この経路に関する音声案内を行うことも可能である。
【0047】
さらに、自車の走行履歴、例えば、所定区間における異なる経路毎の自車の走行回数等を走行履歴データベースに記憶しておき、この走行履歴データベースに基づいて、対象とする交差点名称を決定することも可能である。この場合においては、車両側で、目的地までの経路を設定した後、過去の走行履歴を参考にして、走行頻度の高い経路も経路データに加える。従って、これらの複数の経路に基づく交差点名称についての音声データを得ることができる。
【0048】
このようにして、過去の交通状況や過去の自車の走行履歴を考慮して音声データを入手することで、走行経路の変更に対応して、音声案内を行うことができる。
【0049】
また、ナビゲーション装置2を、携帯端末装置に搭載することも好適である。
この場合、携帯端末装置を利用して経路の設定を行い、上述の場合と同様に、携帯電話やPHSなどの電話を利用して経路及び最小限の音声データを得ておく。そして、走行中は、適宜詳細なデータをもらい、これを利用して、経路案内を行うことができる。図7は携帯端末装置を利用した音声案内を示す模式図である。車両の走行前に、例えば自宅において、目的地を入力する。そして、現在地をGPS装置12により検出し、目的地及び現在地をセンター30へ送信する。すると、センター30では、送信された現在地及び目的地に基づき、最適経路の探索を行い、最適経路データ並びにこの経路上のノード及びリンクに対応する交差点名称群等の音声データ及び地図データを携帯情報端末に送信する。この際の音声データは最小限のものにしておくとよい。なお、現在地(走行開始位置)を入力するようにすれば、GPS装置はなくても良い。また、上述の操作は、車両走行開始時に行ってもよい。特に、経路中に都市部等のDSRC、PHS等のアンテナが整備されている地域がある場合、この地域のデータは最小限に抑えるとよい。なお、DSRC(Dedicated Short Range Communication)では、光ビーコン等を利用する場合が多い。
【0050】
そして、経路設定の終わった携帯端末装置を車両へ持ち込み、この携帯端末装置からの経路案内を受けながら、目的地に向けての走行が行われる。図7に示すように、都市部等のDSRC、PHS等のアンテナが整備されている地域を走行する場合には、ノード50に接近する毎に、適時PHS等によりセンター30に電話をして、交差点から所定範囲内(例えば、円70の範囲内)の交差点名称群D(U)を受信して、音声による経路案内を行う。なお、センター30に電話をして、同時に詳細な地図データを随時もらうことで、予め記憶しておくデータ量を非常に少なくして、所望の経路案内を行うことができる。また、地図データを随時もらえるので、携帯端末装置に予め必要な地図データ量はさらに少なくてもよい。
【0051】
このように、音声データを記憶する必要がなく、センター30から地図データをもらう構成にすれば、地図データベース自体が不要になる。従って、装置の小型化を図ることができ、携帯端末装置をまとめることが容易である。さらに、携帯端末装置を利用すれば、任意の場所において、経路設定が行えるため、友人などとドライブの計画を話しながら、経路の設定などを行うこともできる。
【0052】
さらに、携帯端末装置と車載のナビゲーション装置を組み合わせることも好適である。特に、車載のナビゲーション装置において、道路側のビーコンとの通信機器を設けておけば、走行中において必要なデータをこの通信機器により入手することもできる。
【0053】
「実施形態」
図8に実施形態の構成を示す。この実施形態では、音声合成装置40を有している。この音声合成装置40は、ナビECU4から供給されるテキストデータから音声合成し、スピーカ22から合成音声を出力させる。従って、ナビECU4は、音声データを出力する場合には、これに基づき音声信号出力装置8を介し、スピーカ22から音声出力し、テキストデータを出力する場合には、音声合成装置40を介し、スピーカ22から音声出力する。また、固定メモリ42は、音声データ記憶部14に代えて設けられたものであり、EEPROM等で構成されよく使用する単語(主要キーワード)についての音声データの供給を受け、これを固定的に記憶する。すなわち、通常の単語は音声合成によって出力するが、よく使う単語については、その音声データの提供を受けこれを固定メモリ42に記憶しておく。従って、音声出力の際によく使われる単語については、供給を受けた音声データを利用して音声出力が行われるため、全体として理解しやすい音声出力が行える。なお、従来の地図データベース10と同様に、経路案内において、通常使用する単語について、その音声データが記憶しておくことも好適である。これによって、これら単語については取得の必要がなくなる。
【0054】
このように、本実施形態においては、よく使用する単語やフレーズについて音声データを取得し、これを固定メモリ42に記憶する。この動作について、図9に基づいて説明する。
【0055】
まず、テキストデータを受信したら、そのテキストデータの読み上げ処理を実行する(S202)。すなわち、受信したテキストデータについて、固定メモリ42に記憶されている単語については、ここから読み出した音声データにより音声を出力し、固定メモリ42に記憶されていない単語については、音声合成装置40により音声合成を行う。次に、固定メモリ42に記憶されていなかった単語があるかを判定する(S204)。この判定において、YES、すなわち記憶されていない単語があった場合には、該当する単語をテキストデータで記憶する(S206)。ここで、当該単語が、すでに記憶されていた場合には、その単語についてのカウント値を1インクリメントする。また、初めての単語については、カウント値1とともに、その単語を記憶する。なお、このデータは、ナビECU4内のRAMに記憶すればよい。
【0056】
次に、記憶された単語について、そのカウント値が所定値(例えば、5回)を超えたものがあるかを判定する(S208)。そして、該当する単語については、センター30に音声データの提供を要求し(S210)、センター30から音声データの提供を受け、これを固定メモリ42に記憶する(S212)。次に、固定メモリ42の中で、過去所定期間(例えば、1年間)使用していない単語があるかを判定する(S214)。これは、単語毎に適当なタイムスタンプ(例えば、年、月を示すデータ)を記憶しておき、これをチェックすることで達成できる。そして、この判定でYESの場合には、当該単語を固定メモリ42から削除することをアドバイスする(S216)。S216の処理を終了した場合、及びS204、S208、S214でNOであった場合には、処理を終了する。
【0057】
なお、S214の単語削除のアドバイスの際には、「単語○○は、1年間使用されていません。削除をしますか」という表示を表示部18に行い、「はい」または「いいえ」の入力を待ち、削除を行うか否かを決定するなどの方法が採用される。また、S210の音声データの要求の際にも、「単語○○について音声データを要求しますか」等という問い合わせをすることも好適である。
【0058】
このようにして、テキストデータを記憶することで、使用頻度を検出し、使用頻度の高い単語について、自動的に固定メモリ42に音声データを記憶し、使用頻度の低い単語については音声データを削除することができる。そこで、不要な音声データにより、固定メモリ42が占められてしまうことを防止することができる。
【0059】
なお、基本形態と同様にして、センター30から所定の音声データの提供を常に受けておき、使用頻度の高いものについて、その音声データを固定メモリ42に記憶することも好適である。この場合、出力する内容によっては、地図データベース10、固定メモリ42、及び音声データ記憶部14からの音声データと、音声合成装置40からの出力に基づいて音声出力が行われることになる。
【0060】
さらに、上述のようなシステムにおいて、センター30において、ユーザからの各単語についての音声データ要求回数をカウントしておき、所定回数に達した場合に、各ユーザに自動配信することもできる。すなわち、図10に示すように、センター30において情報を配信する際に、各単語Tiについてユーザからの音声データ要求が50回に達したかを判定する(S302)。そして、この判定において、YESであれば、その単語について、ユーザ端末(移動端末)に自動配信する(S304)。このような処理は、所定地域に限定して行うことも好適である。すなわち、ある地域に存在する移動端末からの要求をカウントして、その地域に存在する移動端末に当該単語の音声データを自動配信することができる。
【0061】
「音声読み上げデータの例」
次に、センター30が交通情報を提供する際に、音声データを添付して、車両(移動端末)に付与する例について説明する。この場合、音声データは、符号化されて添付される。そこで、移動端末装置においては、受信した音声データをデコードすることで、音声出力を得ることができる。
【0062】
所定の地域の道路や設定された経路について渋滞情報を提供する際に、センター30は表1に示すようなデータを提供する。すなわち、各リンクに対応した渋滞レベルデータに追加して、渋滞情報読み上げデータ、道路名称の読み上げデータを移動端末に提供する。例えば、リンク1〜7について、渋滞情報読み上げデータとして、「渋滞はありません」「少し渋滞」「2キロ渋滞」「かなり渋滞」「車線減少」「工事箇所」「通行止め」などを提供し、また道路名称の読み上げデータとして、「国道1号線」「丸山公園通り北行き」「西大津バイパス堅田方面」「高雄パークウェイ嵐山方面」などを提供する。
【0063】
【表1】
そこで、移動端末は経路に応じて、提供された音声データを利用して案内を行う。例えば、自宅出発時において経路が定まっており、その経路についての渋滞情報を取得していた場合、「国道1号線から西大津バイパスを通るルートです。国道1号線は*少し渋滞*しています。西大津バイパス堅田方面は*車線減少*箇所があるので注意して走行して下さい。」、また走行中の交差点手前では、「500m先、丸山公園前を左方向です。その先丸山公園通り北行きは*2キロの渋滞*です。」等という音声案内を提供された音声データ(読み上げデータ)を利用して行うことができる。
【0064】
なお、経路を車両側で計算する場合には、所定範囲の交通データを移動端末に提供するが、センター30側で経路を計算する場合には、センター30において、経路がわかっている。従って、移動端末に提供するデータは、案内に必要な最小限のデータにすることができる。
【0065】
また、駐車場の利用状況についての情報(満室情報)をセンター30が提供する場合には、表2に示すような音声データを提供する。
【0066】
【表2】
このように、駐車場を特定するNo.に対応して、駐車場名称のテキストデータ、駐車場名称の読み上げデータ、満室レベルデータ、満室状況の読み上げデータが送信される。従って、移動端末装置において、案内を行うときに、駐車場名称や、満室レベルを受け取った読み上げデータを利用して行うことができる。
【0067】
さらに、経路案内においては、特徴的な建物など目印となるもの(POI:Point of Intent)を知らせることが好適である。そこで、これらPOIについての音声データを移動端末装置に提供することが好適である。表3は、このようなPOI及びその属性データの音声読み上げデータの提供例を示すものである。
【0068】
【表3】
この例では、例えば、ノードNo.171について、POIとして「TV塔」、その音声読み上げデータとして「テレビトウ」というデータが提供され、またPOIの属性データとして「赤く、一番高い」というデータと共に、その音声読み上げデータとして「アカク、イチバンタカイ」というデータが提供される。
【0069】
従って、音声案内において、「*赤く一番高いテレビ塔*前を右折すると、県庁前通りです。」等という音声案内をすることができる。また、「*いちょう並木*に沿って、*茶色い34階建て*の*県庁ビル*を通り過ぎたら、500mで左方向です。」「左折後、右前方に*富士山が見え*てきます。」「300m先、*市営地下駐車場*です。左折で進入できます。」等という音声案内も行うことができる。
【0070】
また、図11に、移動端末装置を車両に実際に搭載したイメージを示す。このように、GPS装置12を構成するGPSアンテナ12aは、車室内のインパネの上方に設けられ、ナビゲーションのためのECU4a(ナビECU4の一部)及び地図データベース10を構成するCD−ROM10aは、後部トランク内に設けられている。また、表示部18及び情報制御のためのECU(ナビECU4の一部)は、一体的に形成され、ワイドマルチステーション60として、ドライバ席と助手席に間のスペースに配置されている。そして、このワイドマルチステーション60には、ケーブル62を介し、無線通信機20を構成する移動体電話をハンズフリー電話機として動作させるクレードル80が接続されている。
【0071】
すなわち、この例では、図12に示すように、移動体電話32を構成する携帯電話機82は、クレードル80に載置される。そして、携帯電話機82のコネクタ接続用ターミナル82aに、クレードル80のコネクタ80aを接続することで、携帯電話機82とクレードル80が接続される。このクレードル80には、ハンズフリーで通話をするためのマイクロフォン、スピーカ、ワンタッチダイヤルボタンなどの各種の機器が接続されており、携帯電話機82をこのクレードル80にセットすることによって、携帯電話機82を利用してハンズフリー電話機として使用することになる。
【0072】
また、各種操作は、ワイドマルチステーション60の入力操作部を利用して行われる。なお、無線通信機20は、この構成に限らず、専用の車載電話システムを設けることも好適である。
【0073】
「その他の構成」
無線通信機20において、センター30との間で、電子メールなどのやりとりも行うことが好適である。この場合取得された電子メールは、通常テキストデータであり、これがナビECU4内のRAMに記憶される。そして、表示部18に表示されるが、運転中などは音声出力される。すなわち、ナビECU4が、受信した電子メールについてのテキストデータを音声合成装置40に供給し、電子メールの読み上げ音声がスピーカ22から出力される。この場合においても、必要な言葉やフレーズについて、適宜音声データを取得することが好適である。また、流行語なども所定回数以上の使用に対し、その音声データを取得しておくことができる。
【0074】
さらに、各種の音声データについて、ID番号などのコードを予め決定しておき、音声データをこのID番号に対応させて移動端末装置に記憶させておけば、通信するデータは、このID番号のみでよくなる。従って、通信データ量を大幅に削減することができる。
【0075】
さらに、移動端末装置と、センターの間の通信は、通常の携帯電話回線や、PHS、FM多重放送、TV多重放送、地上波デジタル通信、光ビーコン、電波ビーコン等を利用したものが利用可能である。
【0076】
【発明の効果】
以上説明したように、本発明によれば、音声データを記憶するのに必要な記憶媒体等の容量を必要最小限に低減することができる。また、車両外部から受信した音声データを読み上げるので、読み上げ音声は明瞭なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内などの音声出力を行うことができる。
【図面の簡単な説明】
【図1】 本発明の基本形態の移動端末装置の構成を示すブロック図である。
【図2】 基本形態を示す模式的概念図である。
【図3】 基本形態における音声案内を示す経路図である。
【図4】 基本形態における音声案内を行うことを示すフローチャートである。
【図5】 基本形態における経路及びその交差点名称群の範囲を示す図である。
【図6】 交通状況データベースも考慮して、決定された経路及びその交差点名称群の範囲を示す図である。
【図7】 携帯端末装置を使用した時の音声案内における経路及びその交差点名称群の範囲を示す図である。
【図8】 実施形態における移動端末装置の構成を示すブロック図である。
【図9】 実施形態における音声データ取得の動作を示すフローチャートである。
【図10】 実施形態における単語削除の動作を示すフローチャートである。
【図11】 移動端末装置を車両に実際に搭載したイメージを示す図である。
【図12】 無線通信機の構成を示す図である。
【符号の説明】
2 ナビゲーション装置、4 ナビECU、6 モデム、8 音声信号出力装置、10 地図データベース、12 GPS装置、14 音声データ記憶部、16操作部、18 表示部、20 無線通信機、22 スピーカー、30 センター、50 ノード、52 経路、54 交差点、70 交差点名称抽出範囲。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mobile terminal device that performs voice output such as reading a navigation device or e-mail, and a medium in which an operation program is recorded.To the bodyRelated.
[0002]
[Prior art]
Conventionally, a navigation device for route guidance is known, and this device includes a current location detection device such as a GPS device that detects the current location of a vehicle, and a map database that recognizes the detected current location of the vehicle as a position on a map. Have. And using these, a map and a present location are displayed on a display, and a driver's run is guided. The navigation device has a function of searching for an optimum route to the destination by inputting the destination. In traveling with a route to the destination, when approaching an intersection (guide intersection) that requires guidance such as an intersection that makes a right or left turn, guidance is provided for a right or left turn. Here, the guidance is performed by displaying an enlarged view of the intersection on the display and showing the traveling direction in the enlarged view, and also by voice guidance. Since the driver is gazing at the front while the vehicle is traveling, voice guidance is easier to understand. For this reason, voice guidance has become widespread. Thus, voice output is performed in a mobile terminal such as a navigation device.
[0003]
In addition, as a navigation apparatus which guides the traveling direction by voice, there is one described in, for example, Japanese Patent Laid-Open No. 2-249100.
[0004]
In such a navigation apparatus, it is preferable to read out an intersection name or the like in order to make voice guidance easy to understand. For example, voice guidance such as “500 meters ahead and the A intersection is on the left” is performed 500 meters before the A intersection, which is a guidance intersection.
[0005]
In order to perform this voice reading, voice data regarding each intersection is required. In a normal map database, a map of the whole country is stored, and all intersection names used for guidance are stored as text data. For this reason, by performing speech synthesis from this text data, speech data of intersection names is created and voice guidance is output.
[0006]
However, in such speech synthesis, speech data for reading is created by a combination of unit speech such as 50 sounds previously stored in the apparatus. For this reason, the intonation, accent, pronunciation, etc. are different from the case where the intersection name is normally read out, and it becomes difficult to hear. In particular, guidance for a driver who is driving is not sufficient in terms of ease of listening with the above-described guidance by voice synthesis, and an easy-to-understand guidance voice is desired.
[0007]
Therefore, all audio data for each intersection name is stored. That is, for each intersection name, the data actually read out is subjected to a predetermined encoding process and stored in the map database as voice data. Thereby, natural and easy-to-understand voice guidance can be performed. Note that the audio data is data subjected to encoding processing such as PCM (pulse code modulation).
[0008]
[Problems to be solved by the invention]
However, the conventional voice guidance navigation apparatus has the following problems. When all audio data is stored, the amount of data becomes enormous and the capacity of the storage medium increases. Normally, a CD-ROM is used for the map database, but a capacity several times that of normal map data is required for storing audio data.
[0009]
Therefore, there has been a demand for a navigation apparatus and system that can read out speech naturally and in an easy-to-understand manner and can reduce the storage capacity of a storage medium or the like.
[0010]
In addition, services for exchanging e-mails and receiving various data from the center using an in-vehicle terminal device have been started. In many cases, it is better to read out information obtained by such a service by voice. A natural and easy-to-understand voice output is desired for the reading voice in such a case.
[0011]
The present invention has been made to solve the above problems, and an object of the present invention is to provide a mobile terminal device and the like that can perform natural and easy-to-understand audio output and reduce the storage capacity therefor. .
[0012]
[Means for Solving the Problems]
The present invention is expressed by data acquisition means for acquiring voice data for voice output from an external database via a network, voice output means for outputting voice including words corresponding to the voice data, and text data. About the wordSpeech synthesis from text dataOutput audiovoiceCombining means;And voice synthesis by the voice synthesis meansWhen the usage frequency of the output word exceeds a predetermined value, the data acquisition meansRisoVoice data for wordsFrom outsideIt is characterized by acquiring. As described above, in the present invention, various sounds can be output from the sound data acquired from the outside. Therefore, it is not necessary to prepare a large capacity memory for storing voice data in the mobile terminal device. In addition, voice output by natural utterance can be performed as compared with voice output by voice synthesis.Then, voice data about frequently used words can be supplemented in the mobile terminal.
[0013]
Also,soundAmong the words to be processed for voice output, storage means for storing speech data on frequently used words, and text synthesis means for outputting speech by text synthesis for words expressed in text data, It is preferable to synthesize the voice data from the storage means and the voice data from the text synthesis means to perform voice output. According to this, it is possible to acquire voice data for a frequently used word, and to output the word with natural pronunciation instead of text synthesis, and it is possible to output a voice that is easy to understand as a whole. In addition, the storage capacity of the audio data can be made sufficiently small.
[0015]
Also, TakePerform data erasure processing on the obtained audio data that is infrequently usedIs preferred. In this way, only necessary audio data can be stored, and the storage capacity of the memory can be used effectively.
[0016]
Also, tableIt is possible to output a text-to-speech reading soundIs preferred. By outputting the text data for display as a voice, it is possible to make it easy to hear a reading output such as a tourist guide or an e-mail.
[0017]
Also, NaOutput the guidance voice of the navigation deviceIs preferred. There are many words such as place names in the guidance voice, and the memory capacity required in the mobile terminal device can be reduced by receiving provisions from outside. And natural pronunciation can be maintained.
[0018]
AlsoThe groundVoice data relating to a physical name is acquired from the outside, and the voice output means performs voice guidance including a reading voice of the geographical name based on the acquired voice data.Is preferred. Therefore, it is not necessary to previously store voice data for a geographical name necessary for route guidance, and the capacity of a storage medium for storing the data can be reduced to the minimum necessary. Moreover, since the voice output is obtained based on the voice data received from the outside of the vehicle, the read-out voice becomes natural. For this reason, it is possible for the driver to perform natural and easy-to-understand voice route guidance.
[0019]
Also, TakeRead the obtained geographical name in addition to the voice guidance in the direction of travelIs preferred. The driver can listen to the direction guidance with a message including a geographical name, and can easily recognize the direction of travel.
[0020]
Also,EyeTransmitting means for transmitting data relating to a target location to the outside of the vehicle, wherein the data acquisition means acquires information relating to a route between the current location and the destination from outside the vehicle.Is preferred. In this case, since the data regarding the destination is transmitted to the outside of the vehicle, it is possible to receive the voice data regarding the geographical name between the current location and the destination. Therefore, it is possible to eliminate a useless portion of the received audio data.
[0021]
Also, TakeThe audio data to be obtained is information within a predetermined range determined based on the current location and the traveling direction, and the predetermined range can be changed.Is preferred. For example, the predetermined range can be determined according to the volume of audio data to be transmitted / received.
[0022]
Also,soundThe predetermined range, which is a range for acquiring voice data, is determined in consideration of a travel history of the own vehicle or a past traffic flow. In these cases, a necessary geographical name can be determined by predicting a travel route in consideration of not only the distance to the destination but also the past traffic situation and the past travel history of the own vehicle. Therefore, necessary audio data can be obtained with certainty.
[0023]
Also, OutsideExternal information receiving means for receiving the part information, and decoding means for decoding the encoded audio data included in the received external information, wherein the audio output means is obtained by the decoding means Aloud using voice dataIs preferred. In this way, the audio data in the received data can be decoded and immediately output as audio.
[0024]
Also,PreviousThe voice data receiving means and the voice guidance means are mounted on a portable terminal device.Is preferred. As described above, when the mobile terminal device is mounted, a route can be set at an arbitrary place using the mobile terminal. And since the audio | voice data storage is unnecessary, a portable terminal device can be reduced in size and weight. Further, for example, if the map data is received from the center, the map database itself becomes unnecessary, and the apparatus can be further downsized.
[0025]
Also, OutsideThe audio data obtained from theIs preferred. By acquiring sampled voice data obtained from a human voice, natural voice similar to a human voice can be reproduced.
[0026]
The present invention, TransferThe present invention relates to a medium storing a program for achieving the operation of a moving terminal. The operation program is preferably stored in a ROM, CD-ROM, hard disk, or the like in the mobile terminal device. The user can also load a new program into the navigation ECU by purchasing a CD-ROM. Furthermore, the medium is not limited to a CD-ROM, and may be of any format as long as it can store an audio output program such as a DVD or FD, and is preferably provided by communication. In particular, the center preferably provides the operation program to the mobile terminal device by communication.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
[0028]
"
FIG. 1 shows a navigation device (mobile terminal) according to the present invention.BasicIt is a block diagram which shows a form. In the
[0029]
The
[0030]
The
[0031]
FIG. 2 is a schematic conceptual diagram showing a navigation system using the
[0032]
A route guidance method using voice data using the
[0033]
In FIG. 3, the vehicle is initially at position X. In this case, as shown in the flowchart of FIG. 4, the position X is first detected as an absolute position (latitude and longitude) by the
[0034]
Next, the destination data is input by the
[0035]
A link means one unit of a road divided at each intersection, and an intersection that is a division between these links is called a node. The distance a (km) is determined in consideration of the processing speed on the
[0036]
Subsequently, when the
[0037]
The search for the intersection name group will be described in detail below. The intersection name group D (U) is determined by the extraction function f (U) determined by the route data U for the link and node at the planned travel distance a (km). FIGS. 5A and 5B are diagrams showing ranges in which intersection names determined by the extraction function f (U) for each node are extracted. For example, as shown in FIG. 5A, all
[0038]
Thus, by acquiring not only the intersection name on the route but also a certain range of intersections, it is possible to provide guidance or direction guidance when the route is off.
[0039]
Then, after searching for the intersection name, the
[0040]
As described above, when the voice data is received, the received voice data of the intersection name group D (U) is stored in the voice
[0041]
Here, voice data such as an intersection name necessary for guidance while the vehicle travels a distance a (km) is received from the
[0042]
Then, at every step of the predetermined set distance, it is determined in step S114 whether or not the host vehicle has reached a
[0043]
The voice data acquired from the
[0044]
Thus, in the present embodiment, voice data relating to intersection names and the like can be acquired from the
[0045]
In the present embodiment, the destination is set and the route relating to the destination is searched by the
[0046]
In addition, it is possible to determine an intersection name or the like necessary for route guidance using the past traffic situation database on the
Then, based on the past traffic situation database such as travel time, voice data such as intersection names is prepared for a route that is determined to have many vehicles to be selected as a route in the travel time at the time of route guidance, for example. An example of a route in consideration of past traffic conditions is shown in FIG. As shown in this figure, the route XX is the route determined first, but not only on the nodes G and H on this route, but also on the route YY considered in consideration of the above-mentioned past traffic volume, etc. The
[0047]
Furthermore, the travel history of the host vehicle, for example, the number of travels of the host vehicle for different routes in a predetermined section is stored in the travel history database, and the target intersection name is determined based on the travel history database. Is also possible. In this case, after setting the route to the destination on the vehicle side, a route with a high travel frequency is also added to the route data with reference to the past travel history. Therefore, it is possible to obtain voice data for intersection names based on the plurality of routes.
[0048]
In this way, by obtaining voice data in consideration of past traffic conditions and past travel histories of the vehicle, voice guidance can be performed in response to changes in the travel route.
[0049]
It is also preferable to mount the
In this case, the route is set by using the mobile terminal device, and the route and the minimum voice data are obtained by using a phone such as a mobile phone or a PHS as in the case described above. And while driving | running | working, it can obtain detailed data suitably and can perform route guidance using this. FIG. 7 is a schematic diagram showing voice guidance using a portable terminal device. Before the vehicle travels, the destination is input, for example, at home. Then, the current location is detected by the
[0050]
Then, the mobile terminal device for which the route setting has been completed is brought into the vehicle, and traveling toward the destination is performed while receiving route guidance from the mobile terminal device. As shown in FIG. 7, when traveling in an area where an antenna such as DSRC or PHS is installed in an urban area, whenever the
[0051]
Thus, there is no need to store voice data, and if the map data is obtained from the
[0052]
Furthermore, it is also preferable to combine a mobile terminal device and an in-vehicle navigation device. In particular, in a vehicle-mounted navigation device, if a communication device with a beacon on the road side is provided, necessary data can be obtained from the communication device while traveling.
[0053]
"Implementation formstate"
Fig. 8StateThe configuration is shown. In this embodiment, a
[0054]
Thus, in the present embodiment, voice data is acquired for frequently used words and phrases and stored in the fixed
[0055]
First, when text data is received, the text data is read out (S202). That is, for received text data,Fixed memory 42For the words stored in, output the voice by the voice data read from here,Fixed memory 42For words that are not stored in, speech synthesis is performed by the
[0056]
Next, it is determined whether there is a stored word whose count value exceeds a predetermined value (for example, 5 times) (S208). For the corresponding word, the
[0057]
In the word deletion advice in S214, the
[0058]
In this way, by storing text data, the frequency of use is detected, voice data is automatically stored in the fixed
[0059]
In addition,Basic formSimilarly, it is also preferable to always receive predetermined audio data from the
[0060]
Furthermore, in the system as described above, the
[0061]
"Example of speech-to-speech data"
Next, an example will be described in which voice data is attached and given to a vehicle (mobile terminal) when the
[0062]
The
[0063]
[Table 1]
Therefore, the mobile terminal provides guidance using the provided voice data according to the route. For example, if the route is fixed at the time of departure from the home and traffic jam information about the route has been acquired, “It is a route that passes through the Nishiotsu bypass from
[0064]
When the route is calculated on the vehicle side, a predetermined range of traffic data is provided to the mobile terminal. However, when the route is calculated on the
[0065]
In addition, when the
[0066]
[Table 2]
In this way, the parking lot No. In response to this, text data of parking lot name, reading data of parking lot name, full room level data, and reading data of full room status are transmitted. Therefore, when performing guidance in the mobile terminal device, it can be performed using the reading data that received the parking lot name and the full room level.
[0067]
Further, in route guidance, it is preferable to notify a landmark (POI: Point of Intent) such as a characteristic building. Therefore, it is preferable to provide voice data regarding these POIs to the mobile terminal device. Table 3 shows an example of provision of voice reading data of such POI and its attribute data.
[0068]
[Table 3]
In this example, for example, node no. For 171, “TV tower” is provided as the POI, “TV toe” as the voice reading data, and “Red, highest” as the POI attribute data, and “Aku, “Ichibantakai” data is provided.
[0069]
Therefore, in the voice guidance, it is possible to give a voice guidance such as “* Turn right in front of the highest TV tower * in red. Also, “After passing the * Ginkgo row of trees * and passing the * Brown 34 stories * * Prefectural office building *, turn left 500m." "After turning left, you will see * Mount Fuji * on the right." You can also give voice guidance such as “It is a * municipal parking lot * 300m away.
[0070]
FIG. 11 shows an image in which the mobile terminal device is actually mounted on the vehicle. Thus, the GPS antenna 12a that constitutes the
[0071]
That is, in this example, as shown in FIG. 12, the mobile phone 82 constituting the mobile phone 32 is placed on the
[0072]
Various operations are performed using the input operation unit of the
[0073]
"Other configurations"
In the
[0074]
Furthermore, if a code such as an ID number is determined in advance for various types of audio data, and the audio data is stored in the mobile terminal device in association with this ID number, the data to be communicated is only this ID number. Get better. Therefore, the communication data amount can be greatly reduced.
[0075]
Furthermore, communication between the mobile terminal device and the center can be performed using a normal mobile phone line, PHS, FM multiplex broadcast, TV multiplex broadcast, terrestrial digital communication, optical beacon, radio beacon, etc. is there.
[0076]
【The invention's effect】
As described above, according to the present invention, the capacity of a storage medium or the like necessary for storing audio data can be reduced to the minimum necessary. In addition, since the voice data received from the outside of the vehicle is read out, the read-out voice becomes clear. For this reason, it is possible for the driver to perform voice output such as voice route guidance that is natural and easy to understand.
[Brief description of the drawings]
FIG. 1 of the present inventionBasic formIt is a block diagram which shows the structure of this mobile terminal device.
[Figure 2]Basic formIt is a typical conceptual diagram which shows.
[Fig. 3]Basic formIt is a route diagram which shows the voice guidance in.
[Fig. 4]Basic formIt is a flowchart which shows performing voice guidance in.
[Figure 5]Basic formIt is a figure which shows the path | route in and the range of the intersection name group.
FIG. 6 is a diagram showing a determined route and a range of intersection name groups in consideration of a traffic situation database.
FIG. 7 is a diagram showing a route and a range of intersection name groups in voice guidance when a mobile terminal device is used.
[Fig. 8] ImplementationStateIt is a block diagram which shows the structure of the mobile terminal device in it.
FIG. 9 Implementation formStateIt is a flowchart which shows the operation | movement of audio | voice data acquisition in O.
FIG. 10 EmbodimentStateIt is a flowchart which shows the operation | movement of word deletion in it.
FIG. 11 is a diagram illustrating an image in which a mobile terminal device is actually mounted on a vehicle.
FIG. 12 is a diagram illustrating a configuration of a wireless communication device.
[Explanation of symbols]
2 navigation device, 4 navigation ECU, 6 modem, 8 audio signal output device, 10 map database, 12 GPS device, 14 audio data storage unit, 16 operation unit, 18 display unit, 20 wireless communication device, 22 speaker, 30 center, 50 nodes, 52 routes, 54 intersections, 70 intersection name extraction ranges.
Claims (8)
前記音声データに対応する言葉を含めて音声出力を行う音声出力手段と、
テキストデータにより表現された単語について、テキストデータから音声合成して音声出力する音声合成手段と、
を有し、
前記音声合成手段により音声合成して出力した単語の使用頻度が所定以上になったときに、前記データ取得手段によりその単語について音声データを外部から取得することを特徴とする移動端末装置。Data acquisition means for acquiring audio data for audio output from an external database via a network;
Voice output means for outputting voice including words corresponding to the voice data;
Speech synthesis means for synthesizing speech from text data and outputting speech for words expressed by text data ;
Have
When frequency of use of words and outputs the speech synthesized by said speech synthesis means exceeds a predetermined, mobile terminal device and acquires the audio data from the outside for the word resources by the said data acquisition means .
音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データを蓄積する蓄積手段を有することを特徴とする移動端末装置。The apparatus of claim 1.
Of the words to be processed for voice output, the mobile terminal apparatus characterized by comprising a storage means for storing audio data for words that are commonly used.
前記蓄積手段は、使用頻度が所定以上になったときに、前記データ取得手段により取得した単語について音声データを記憶することを特徴とする移動端末装置。 The apparatus of claim 2.
The mobile terminal apparatus according to claim 1, wherein the storage unit stores voice data for the word acquired by the data acquisition unit when the usage frequency becomes a predetermined frequency or more .
音声出力のための処理対象となる言葉のうち、対応する音声データが前記蓄積手段に蓄積されている場合にこの言葉について蓄積されている音声データを用いて音声出力手段から音声出力し、対応する音声データが蓄積されていない場合にこの言葉について音声合成手段からテキストデータを音声合成して音声出力することを特徴とする移動端末装置。The apparatus of claim 3.
Among the words to be processed for voice output, when the corresponding voice data is stored in the storage means, the voice output means uses the voice data stored for the words and outputs the voice. A mobile terminal device characterized in that when voice data is not stored, text data is voice-synthesized from the voice synthesizer for this word and voice output is performed .
前記音声出力プログラムは、前記移動端末装置に、
音声出力のための音声データを外部データベースからネットワークを介して取得させ、
前記音声データに対応する言葉を含めて音声出力を行わせ、
テキストデータにより表現された単語について、テキストデータから音声合成して音声出力させ、
前記テキストデータから音声合成して出力した単語の使用頻度が所定以上になったときに、その単語について音声データを外部から取得させることを特徴とする音声出力プログラムを記録した媒体。 A medium in which a voice output program for voice output by a mobile terminal device is recorded,
The voice output program is stored in the mobile terminal device.
Obtain audio data for audio output from an external database over the network,
Let the voice output including words corresponding to the voice data,
For words expressed by text data, speech synthesis is performed from text data,
A medium on which a voice output program is recorded, wherein when a use frequency of a word output by voice synthesis from the text data exceeds a predetermined value, voice data is acquired from the outside for the word .
前記音声出力プログラムは、移動端末装置に、
音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データについて蓄積させることを特徴とする音声出力プログラムを記録した媒体。 The medium of claim 5 , wherein
The voice output program is stored in a mobile terminal device.
A medium on which a voice output program is recorded, wherein voice data of frequently used words among words to be processed for voice output is stored .
前記音声出力プログラムは、移動端末装置に、
使用頻度が所定以上になったときに、取得した単語についての音声データを蓄積させることを特徴とする音声出力プログラムを記録した媒体。The medium of claim 6, wherein
The voice output program is stored in a mobile terminal device.
A medium on which an audio output program is recorded, in which audio data about an acquired word is accumulated when the use frequency becomes a predetermined frequency or more .
前記音声出力プログラムは、移動端末装置に、
音声出力のための処理対象となる言葉のうち、対応する音声データが蓄積されている場合にこの言葉について蓄積されている音声データから音声出力させ、
対応する音声データが蓄積されていない場合にこの言葉についてテキストデータから音声合成して音声出力させることを特徴とする音声出力プログラムを記録した媒体。 The medium of claim 7,
The voice output program is stored in a mobile terminal device.
Among the words to be processed for voice output, if the corresponding voice data is accumulated, the voice data stored for this word is output as voice,
A medium on which a voice output program is recorded, wherein when the corresponding voice data is not accumulated, the words are voice-synthesized from the text data for voice output .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33283897A JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10485097 | 1997-04-22 | ||
JP9-104850 | 1997-04-22 | ||
JP33283897A JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH116743A JPH116743A (en) | 1999-01-12 |
JP3704925B2 true JP3704925B2 (en) | 2005-10-12 |
Family
ID=26445226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33283897A Expired - Lifetime JP3704925B2 (en) | 1997-04-22 | 1997-12-03 | Mobile terminal device and medium recording voice output program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3704925B2 (en) |
Families Citing this family (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4054484B2 (en) * | 1999-06-30 | 2008-02-27 | 本田技研工業株式会社 | Map information display system for moving objects |
JP4068774B2 (en) * | 1999-11-26 | 2008-03-26 | 本田技研工業株式会社 | Map information display system for moving objects |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
DE10061696A1 (en) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced |
JP4671535B2 (en) * | 2001-05-23 | 2011-04-20 | 富士通テン株式会社 | Communication type navigation system, navigation center and navigation terminal |
JP2003075178A (en) * | 2001-09-03 | 2003-03-12 | Pioneer Electronic Corp | Communication navigation system and method, map- information providing communication center device, communication navigation terminal, and computer program |
JP4860847B2 (en) * | 2001-09-03 | 2012-01-25 | パイオニア株式会社 | Communication navigation system and method, and computer program |
US7013282B2 (en) * | 2003-04-18 | 2006-03-14 | At&T Corp. | System and method for text-to-speech processing in a portable device |
JP4080986B2 (en) * | 2003-10-28 | 2008-04-23 | 三菱電機株式会社 | Voice notification device |
JP4556477B2 (en) * | 2004-04-19 | 2010-10-06 | 株式会社デンソー | Voice guidance system |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4682835B2 (en) * | 2005-12-09 | 2011-05-11 | 株式会社デンソー | Information deletion support device, information backup device, and mobile device |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
JP2010048959A (en) * | 2008-08-20 | 2010-03-04 | Denso Corp | Speech output system and onboard device |
US8898568B2 (en) * | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
JP5395464B2 (en) * | 2009-03-04 | 2014-01-22 | 株式会社ゼンリン | Route guidance system |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
JP5303485B2 (en) * | 2010-01-27 | 2013-10-02 | 株式会社ナビタイムジャパン | Route guidance system, terminal device, route search server, route guidance method, and program |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR20150104615A (en) | 2013-02-07 | 2015-09-15 | 애플 인크. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
CN105027197B (en) | 2013-03-15 | 2018-12-14 | 苹果公司 | Training at least partly voice command system |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
CN105453026A (en) | 2013-08-06 | 2016-03-30 | 苹果公司 | Auto-activating smart responses based on activities from remote devices |
JP6289489B2 (en) | 2013-10-25 | 2018-03-07 | 三菱電機株式会社 | Movement support apparatus and movement support method |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
TWI566107B (en) | 2014-05-30 | 2017-01-11 | 蘋果公司 | Method for processing a multi-part voice command, non-transitory computer readable storage medium and electronic device |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
JP2018040593A (en) * | 2016-09-05 | 2018-03-15 | 株式会社ゼンリンデータコム | Information processing apparatus, information processing system and information processing method |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
JP7129457B2 (en) * | 2020-11-18 | 2022-09-01 | 株式会社ゼンリンデータコム | Information processing system and information processing device |
WO2023073949A1 (en) * | 2021-10-29 | 2023-05-04 | パイオニア株式会社 | Voice output device, server device, voice output method, control method, program, and storage medium |
CN115602171B (en) * | 2022-12-13 | 2023-03-31 | 广州小鹏汽车科技有限公司 | Voice interaction method, server and computer readable storage medium |
-
1997
- 1997-12-03 JP JP33283897A patent/JP3704925B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH116743A (en) | 1999-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3704925B2 (en) | Mobile terminal device and medium recording voice output program thereof | |
US6850842B2 (en) | Navigation system for providing real-time traffic information and traffic information processing method by the same | |
EP1116934B1 (en) | Route guiding explanation device and route guiding explanation system | |
US8090534B2 (en) | Method and system for enabling an off board navigation solution | |
EP1505369B1 (en) | Method and system for outputting traffic data to a driver of a vehicle | |
USRE46109E1 (en) | Vehicle navigation system and method | |
CN107850455B (en) | Providing a navigation system with navigable routes | |
EP1488399B1 (en) | Vehicle navigation system and method | |
US6424910B1 (en) | Method and system for providing related navigation features for two or more end users | |
CA2537388C (en) | Off-board navigational system | |
US6529826B2 (en) | Navigation apparatus and communication base station, and navigation system and navigation method using same | |
US20100100310A1 (en) | System and method for providing route calculation and information to a vehicle | |
US20080147323A1 (en) | Vehicle navigation system and method | |
US20060100779A1 (en) | Off-board navigational system | |
JP2001519029A (en) | Navigation-assisted interactive method and its implementation device | |
US6665610B1 (en) | Method for providing vehicle navigation instructions | |
US20030009280A1 (en) | Navigation method and navigation system | |
JP3791205B2 (en) | Vehicle communication system | |
US8670924B2 (en) | Creation of GIS tools and spatial database for limited access highway entrance points in the US and Canada | |
JP3805397B2 (en) | Navigation destination position information expression device for navigation | |
CA2556640C (en) | Off-board navigational system | |
JP2004286456A (en) | Navigation device having expected passing time display function, and expected passing time display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050530 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050718 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080805 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090805 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100805 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110805 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110805 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120805 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130805 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |