JP3704925B2 - Mobile terminal device and medium recording voice output program thereof - Google Patents

Mobile terminal device and medium recording voice output program thereof Download PDF

Info

Publication number
JP3704925B2
JP3704925B2 JP33283897A JP33283897A JP3704925B2 JP 3704925 B2 JP3704925 B2 JP 3704925B2 JP 33283897 A JP33283897 A JP 33283897A JP 33283897 A JP33283897 A JP 33283897A JP 3704925 B2 JP3704925 B2 JP 3704925B2
Authority
JP
Japan
Prior art keywords
voice
data
mobile terminal
words
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP33283897A
Other languages
Japanese (ja)
Other versions
JPH116743A (en
Inventor
崇 柳澤
雅信 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP33283897A priority Critical patent/JP3704925B2/en
Publication of JPH116743A publication Critical patent/JPH116743A/en
Application granted granted Critical
Publication of JP3704925B2 publication Critical patent/JP3704925B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ナビゲーション装置や電子メールの読み上げなどの音声出力を行う移動端末装置、その動作プログラムを記録した媒体に関する。
【0002】
【従来の技術】
従来より、経路案内用ナビゲーション装置が知られており、この装置は車両の現在地を検出するGPS装置等の現在地検出装置と、検出した車両の現在地を地図上の位置として認識する地図データベースと、を有している。そして、これらを利用して、ディスプレイに地図及び現在地を表示して運転者の走行を案内する。また、ナビゲーション装置では、目的地を入力することで、目的地までの最適経路を探索する機能を有している。そして、目的地までの経路を設定した走行においては、右左折する交差点等の案内が必要な交差点(案内交差点)に接近した場合には、右左折についての案内を行う。ここで、この案内は、ディスプレイ上に交差点の拡大図を表示し、この拡大図において進行方向を示すことで行われると共に、音声による案内も行われる。運転者は、車両走行中は前方を注視しているため、音声による案内の方がわかりやすい。このため、音声による案内が普及してきている。このように、ナビゲーション装置などの移動端末において、音声出力が行われている。
【0003】
なお、音声により進行方向についての案内を行うナビゲーション装置としては、例えば特開平2−249100号公報に記載されたものがある。
【0004】
このようなナビゲーション装置においては、音声案内をわかりやすく行うために交差点名称等を読み上げることが好ましい。例えば、案内交差点であるA交差点の500m手前において、「500m先で、A交差点を左方向です。」等の音声案内が行われる。
【0005】
この音声読み上げを行うためには、各交差点に関する音声データが必要となる。通常の地図データベースでは、全国の地図を記憶すると共に、案内に利用されるような交差点名称は全てテキストデータとして記憶されている。このため、このテキストデータから音声合成を行うことにより、交差点名称の音声データを作成し、音声案内を出力することが行われている。
【0006】
しかし、このような音声合成は予め装置内に持っている50音等の単位音声の組み合わせで読み上げ用の音声データを作成する。このため、交差点名称を普通に読み上げた場合と、そのイントネーション、アクセント、発音等が異なり、聞き取りにくいものとなってしまう。特に、運転中の運転者に対する案内では、上記の音声合成による案内では聞き取りやすさという点で十分でなく、わかりやすい案内音声が望まれる。
【0007】
そこで、各交差点名称についての音声データを全て記憶しておくことが行われている。即ち、各交差点名称等について、実際に読み上げたデータを所定の符号化処理等を行い音声データとして地図データベースに記憶しておく。これにより、自然でわかりやすい音声案内を行うことができる。なお、音声データは、例えばPCM(パルス・コード・モジュレーション)などの符号化処理されたデータである。
【0008】
【発明が解決しようとする課題】
しかしながら、従来の音声案内ナビゲーション装置には、以下に示す問題点がある。全ての音声データを記憶すると、そのデータ量が膨大なものになり、記憶媒体の容量が大きくなる。通常、地図データベースには、CD−ROMが利用されるが、通常の地図データの数倍の容量が音声データの記憶のために必要となる。
【0009】
従って、音声の読み上げを自然でわかりやすく行えると共に、記憶媒体等の記憶容量を小さく抑えることができるナビゲーション装置及びそのシステムが要望されていた。
【0010】
また、車載の端末装置により、電子メール等のやりとりを行ったり、センターから各種のデータの提供を受けたりするサービスも開始されている。このようなサービスにより得た情報も、音声で読み上げた方がよい場合も多い。このような場合の読み上げ音声についても自然でわかりやすい音声出力が望まれる。
【0011】
本発明は上記問題点を解決することを課題としてなされたものであり、自然でわかりやすい音声出力が行えると共に、そのための記憶容量を小さく抑えることができる移動端末装置などを提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明は、音声出力のための音声データを外部データベースからネットワークを介して取得するデータ取得手段と、前記音声データに対応する言葉を含めて音声出力を行う音声出力手段と、テキストデータにより表現された単語について、テキストデータから音声合成して音声出力する音声合成手段と、を有し、前記音声合成手段により音声合成して出力した単語の使用頻度が所定以上になったときに、前記データ取得手段によりその単語について音声データを外部から取得することを特徴とする。このように、本発明では、外部から取得した音声データにより、各種音声を出力することができる。従って、移動端末装置において、大容量の音声データ記憶用のメモリを用意する必要がなくなる。また、音声合成により音声出力を行うのに比べ、自然な発声による音声出力が行える。そして、よく使用する単語についての音声データを移動端末内に補充することができる。
【0013】
また、音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データを蓄積した蓄積手段と、テキストデータで表現された単語について、テキスト合成で音声出力するテキスト合成手段と、を有し、蓄積手段からの音声データと、テキスト合成手段からの音声データとを合成して音声出力を行うことが好適である。これによれば、よく使用される単語についての音声データを取得して、この単語についてはテキスト合成でなく自然な発音で出力でき、全体としてわかりやすい音声出力ができる。また、音声データの記憶容量を十分少ないものにできる。
【0015】
また、取得した音声データのうち、使用頻度が低いものについて、データ消去処理を行うことが好適である。このようにして、必要な音声データのみの記憶とすることができ、メモリの記憶容量を有効に使用することができる。
【0016】
また、表示用のテキストデータの読み上げ音声を出力することが好適である。表示用のテキストデータを音声出力することで、観光案内や、電子メールなどの読み上げ出力を聞き易いものにできる。
【0017】
また、ナビゲーション装置の案内音声を出力することが好適である。案内音声には、地名などたくさんの単語があり、これについて外部から提供を受けることによって、移動端末装置において必要なメモリ容量を減少することができる。そして、自然な発音を維持することができる。
【0018】
また、地理的名称に関する音声データを外部から取得し、前記音声出力手段は、取得した音声データに基づき、前記地理的名称の読み上げ音声を含む音声案内を行うことが好適である。従って、経路案内において必要な地理的名称についてのを音声データを予め記憶しておくことが不要であり、データを記憶する記憶媒体等の容量を必要最小限に低減することができる。また、車両外部から受信した音声データに基づいて音声出力を得るので、読み上げ音声は自然なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内を行うことができる。
【0019】
また、取得した地理的名称を、音声案内の進行方向案内文に加えて読み上げることが好適である。運転者は、進行方向案内について、地理的名称を含むメッセージで聞くことができ、進行方向を容易に認識することができる。
【0020】
また、目的地に関するデータを車両外部に送信する送信手段を有し、前記データ取得手段は、現在地と前記目的地との間の経路に関する情報を音声データを車両外部から取得することが好適である。この場合においては、目的地に関するデータを車両外部に送信するので、現在地と目的地との間の地理的名称についての音声データを受信することができる。従って、受信する音声データについて、無駄な部分をなくすことができる。
【0021】
また、取得する音声データは現在地及び進行方向に基づいて決定される所定範囲内にある情報であり、前記所定範囲は変更可能であることが好適である。例えば、送受信される音声データの容量に対応して前記所定範囲を決定することができる。
【0022】
また、音声データを取得する範囲である所定範囲は、自車の走行履歴または過去の交通流を考慮して決められることを特徴とする。これらの場合には、目的地までの距離だけでなく、過去の交通状況や過去の自車の走行履歴を考慮して、走行経路を予測して必要な地理的名称を決定できる。そこで、必要な音声データを確実に得ることができる。
【0023】
また、外部情報を受信する外部情報受信手段と、前記受信した外部情報中に含まれているコード化された音声データをデコードするデコード手段と、を有し、前記音声出力手段は、デコード手段で得られた音声データを用いて音声読み上げすることが好適である。このようにして、受信したデータの中の音声データをデコードしてそのまますぐに音声出力することができる。
【0024】
また、前記音声データ受信手段と前記音声案内手段とは、携帯端末装置に搭載されていることが好適である。このように、携帯端末装置に搭載されていると、この携帯端末を使用して任意の場所で経路の設定等が行える。そして、音声データの記憶が不要であるので、携帯端末装置を小型、軽量化できる。さらに例えば、センターから地図データをもらう構成にすれば、地図データベース自体が不要になり、装置の小型化を一層図ることができる。
【0025】
また、外部から取得される音声データは、サンプリング音声データであることが好適である。人の発声から得たサンプリング音声データを取得することで、人間の生の発声と同様の自然な音声を再生できる。
【0026】
本発明は、移動体端末の動作を達成するためのプログラムを記憶した媒体に関する。なお、動作プログラムは、移動端末装置内のROM、CD−ROMやハードディスクなどに記憶しておくことが好適である。また、ユーザはCD−ROMを購入することで、新たなプログラムをナビECUにロードすることもできる。さらに、媒体は、CD−ROMに限らず、DVDやFDなど音声出力プログラムを記憶できるものであればどのような形式のものでもよく、通信で提供することも好適である。特に、センターが動作プログラムを移動端末装置に通信で提供することが好ましい。
【0027】
【発明の実施の形態】
以下、本発明に好適な実施形態について、図面に基づいて説明する。
【0028】
基本形態1」
図1は、本発明に係るナビゲーション装置(移動端末)の基本的な形態を示すブロック図である。ナビゲーション装置2においては、ナビゲーションECU(以下、ナビECUという)4に、モデム6、音声信号出力装置8、地図データベース10、GPS装置12、音声データ記憶部14、操作部16及び表示部18が接続されている。
【0029】
モデム6は、自動車電話等の無線通信機20に接続されており、車両外部から送られてくる音声データの受信や車両外部への情報の送信等に必要な変復調処理を行う。音声信号出力装置8には、スピーカ22が接続されており、ナビECU4からの信号に従い音声をスピーカ22から出力して、運転者に対して経路案内を行う。なお、ナビECU4は、その内部のROMに所定のプログラムを記憶しており、このプログラムを実行することによって、各種動作を達成する。このROMは、マスクROMでもよいが、EEPROM等書き替え可能なものとすることが好ましい。この場合、地図データベース10として利用されるCD−ROMに動作プログラム(音声出力プログラム)を記憶しておき、このプログラムをナビECU4内のEEPROM等にロードすることも好適である。これによって、ユーザはCD−ROMを購入することで、新たなプログラムをナビECU4にロードすることができ、ナビECU4を新しいプログラムに基づいて動作させることができる。なお、媒体は、CD−ROMに限らず、DVDやFDなど音声出力プログラムを記憶できるものであればどのような形式のものでもよい。
【0030】
GPS装置12は、複数の人工衛星からの電波を受信することで、現在地(緯度及び経度等)を検出する。そして、地図データベース10を利用して、GPS装置12により検出された現在地が地図上の位置として認識される。音声データ記憶部14では、車両外部から送られてくる音声データがナビECU4を介して記憶される。なお、この音声データ記憶部14としては、通常RAMが利用されるが、EEPROM等でもよい。操作部16は、ナビECU4に対して各種データの入力処理等を行うために使用される。表示部18は、操作部16による各種データ入力のための表示、地図データベース10及びGPS装置12とによる地図上の現在位置情報の表示、メッセージの表示等を行う。
【0031】
図2は、このナビゲーション装置2を利用したナビゲーションシステムを示す模式的概念図である。ナビゲーション装置2より経路データをセンター30に送信すると、センター30がこの経路を走行する際の経路案内に必要な音声データを作成し、ナビゲーション装置2に提供する。従って、ナビゲーション装置2において、音声データに基づく経路案内が行える。
【0032】
上記のナビゲーション装置2及びそのシステムを使用して、音声データによる経路案内方法を以下に説明する。図4は、ナビゲーションシステムにおける動作を示すフローチャートであり、図3は経路案内の一例を説明するための図である。なお、このような処理は、ナビECU4がその内部に記憶されているプログラムを実行することによって達成される。
【0033】
図3において、最初に車両は位置Xにいる。この場合、図4のフローチャートで示すように、先ずGPS装置12により位置Xを絶対位置(緯度及び経度)として検出すると共に、地域毎に設置されているセンター30のうち、自車位置に最も近いセンター30を地図データベース10により探索する(S102)。また、地図データベース10により地図上には、自車位置Xが地図上の位置として認識される。なお、現在地をセンター30に送信し、現在地周辺の地図データを受け取り、地図上の自車位置Xを認識してもよい。
【0034】
次に、操作部16により目的地のデータを入力する。すると、ナビECU4が地図データベース10を利用して、現在地から目的地までの経路を探索し、経路データが作成される(S104)。そして、現在地から目的地までの経路上のこれから走行する予定の距離a(km)分のリンク及びノードからなる経路データを無線通信機20等を介してセンター30に送信する(S106)。
【0035】
なお、リンクとは、交差点毎に区切られた道路の1単位をいい、これらのリンク間の区切りである交差点をノードという。また、距離a(km)は、センター30側の処理速度、音声データ記憶部14の容量、受信する音声データの容量等を考慮して決定される。例えば、10km等の固定距離でもよいが条件に応じて変更することが好適である。
【0036】
続いて、センター30において、経路上の走行予定距離a(km)分のリンク及びノードからなる経路データを受信すると、この経路データに対応する交差点名称群を探索し、車両へ送信する(S108)。
【0037】
この交差点名称群の探索について以下に詳細に説明する。交差点名称群D(U)はこの先、走行予定距離a(km)にあるリンク及びノードについての経路データUにより定められる抽出関数f(U)により決定される。図5(a),(b)は、それぞれ、各ノードに対して抽出関数f(U)により決められた交差点名称を抽出する範囲を示す図である。例えば、図5(a)に示すように経路52上の各ノード50から半径b(km)以内の範囲にある交差点54を全て抽出して、これらの交差点名称の集合を交差点名称群D(U)とする。また、他の例として、図5(b)に示すように、経路56上の各ノード50から距離b(km)以内の交差点54を全て抽出して、これらの交差点名称を交差点名称群D(U)とすることもできる。なお、上記距離b(km)は、センター30側の処理速度、音声データ記憶部14の容量、受信する音声データの容量等により変更可能である。
【0038】
このように経路上の交差点名称だけでなく、ある範囲の交差点を取得することで、経路はずれの際の案内や方面案内等が可能になる。
【0039】
そして、センター30は、交差点名称の探索後、これらの交差点名称群D(U)をセンター30から音声データとしてナビゲーション装置2へ送信する。
【0040】
このように、音声データを受信した場合には、車両の音声データ記憶部14において、受信した交差点名称群D(U)の音声データを記憶する(S110)。その後、経路案内が開始される(S112)。ここで、図3に示すように、車両は現在地Xから経路案内に基づき、走行を行う。そして、A交差点に接近したとき、例えば、「300m先、A交差点を左方向です。」等の音声が読み上げられて、経路案内が行われる。そして、B交差点に接近したときは、「300m先、B交差点を右方向です。」等の音声が読み上げられる。
【0041】
ここで、車両が距離a(km)だけ走行する間の案内に必要な交差点名称などの音声データは、車両において、センター30から受信している。そこで、上述のような案内における交差点名A、Bの音声データが、音声データ記憶部14に記憶されている。そこで、案内における交差点名称を自然な発音で出力することができる。なお、その他の定型の案内音声は、地図データベース10に、音声データが記憶されており、これを読み出して使用する。
【0042】
そして、所定設定距離の走行毎に、自車が距離a(km)から1km手前の地点に達したか否かをステップS114にて判断する。ステップS114にて自車位置が所定距離a−1(km)の地点に達しない場合には、ステップS112に戻り、音声案内を継続する。なお、この1kmについては、この距離に限定せず、センター30側の処理速度等により変更可能である。そして、距離a(km)から1km手前の地点に達した場合は、ステップS116にて、自車位置から目的地まで、1km以内であるか否かを判定する。このステップS116にて、自車位置が目的地まで1km以内に達していない場合には、ステップS102に戻り、上述の工程を繰り返し、現在地から目的地までの経路データを送信し、必要な音声データを受信して経路案内を行う。一方、目的地まで1km以内である場合には、音声経路案内は終了し、車両はそのまま目的地まで走行する。
【0043】
なお、センター30から取得する音声データは、交差点名称の代わりに例えば、F市12番地等の地理的名称や施設名称でもよく、この地理的名称と交差点名称とを合わせて音声データとしてもよい。更に、音声データは各自車状況を考慮して、経路案内に必要でない交差点名称群を含んでもよい。
【0044】
このように、本実施の形態においては、交差点名称等に関する音声データをセンター30から取得することができる。このため、音声データを予め記憶しておくことが不要である。そして、走行中の経路案内に必要な分に関する音声データだけを音声データ記憶部14に記憶する。このため、音声データ記憶部14の容量は小さなものでよい。また、センター30から受信音声データを読み上げるので、音声データは自然なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内を行うことができる。
【0045】
なお、本実施の形態においては、目的地の設定とこの目的地に関する経路の探索を車両側のナビゲーション装置2で行っていたが、本実施の形態においては、これに限定されない。即ち、車両側で、目的地を設定した後、この目的地に関するデータをセンター30に送信し、センター30側で現在地から目的地までの経路を探索して経路データを作成し、この経路データに基づいて交差点名称等の音声データを用意しても良い。
【0046】
また、センター30側が有する過去の交通状況データベースを使用して、経路案内に必要な交差点名称等を決定することもできる。通常、走行曜日、走行時間、天気等に応じて、道路上を走行する車両数は変化する。このため、これらの走行時間等による車両数の情報を経路毎に交通状況データベースに保存しておく。
そして、走行時間等の過去の交通状況データベースに基づいて、例えば経路案内時での走行時間において経路として選択する車両が多いと判定される経路についても、交差点名称等の音声データを用意する。過去の交通状況を考慮した経路の例を図6に示す。この図に示すように、経路XXは最初に決定された経路であるが、この経路上のノードG,H等だけでなく、上記の過去の交通量等を考慮して考えられる経路YY上の交差点M,N等に関する交差点名称群等の音声データもセンター30が送信対象とする。このため、走行状況に応じて、経路YYを選択して走行した場合、この経路に関する音声案内を行うことも可能である。
【0047】
さらに、自車の走行履歴、例えば、所定区間における異なる経路毎の自車の走行回数等を走行履歴データベースに記憶しておき、この走行履歴データベースに基づいて、対象とする交差点名称を決定することも可能である。この場合においては、車両側で、目的地までの経路を設定した後、過去の走行履歴を参考にして、走行頻度の高い経路も経路データに加える。従って、これらの複数の経路に基づく交差点名称についての音声データを得ることができる。
【0048】
このようにして、過去の交通状況や過去の自車の走行履歴を考慮して音声データを入手することで、走行経路の変更に対応して、音声案内を行うことができる。
【0049】
また、ナビゲーション装置2を、携帯端末装置に搭載することも好適である。
この場合、携帯端末装置を利用して経路の設定を行い、上述の場合と同様に、携帯電話やPHSなどの電話を利用して経路及び最小限の音声データを得ておく。そして、走行中は、適宜詳細なデータをもらい、これを利用して、経路案内を行うことができる。図7は携帯端末装置を利用した音声案内を示す模式図である。車両の走行前に、例えば自宅において、目的地を入力する。そして、現在地をGPS装置12により検出し、目的地及び現在地をセンター30へ送信する。すると、センター30では、送信された現在地及び目的地に基づき、最適経路の探索を行い、最適経路データ並びにこの経路上のノード及びリンクに対応する交差点名称群等の音声データ及び地図データを携帯情報端末に送信する。この際の音声データは最小限のものにしておくとよい。なお、現在地(走行開始位置)を入力するようにすれば、GPS装置はなくても良い。また、上述の操作は、車両走行開始時に行ってもよい。特に、経路中に都市部等のDSRC、PHS等のアンテナが整備されている地域がある場合、この地域のデータは最小限に抑えるとよい。なお、DSRC(Dedicated Short Range Communication)では、光ビーコン等を利用する場合が多い。
【0050】
そして、経路設定の終わった携帯端末装置を車両へ持ち込み、この携帯端末装置からの経路案内を受けながら、目的地に向けての走行が行われる。図7に示すように、都市部等のDSRC、PHS等のアンテナが整備されている地域を走行する場合には、ノード50に接近する毎に、適時PHS等によりセンター30に電話をして、交差点から所定範囲内(例えば、円70の範囲内)の交差点名称群D(U)を受信して、音声による経路案内を行う。なお、センター30に電話をして、同時に詳細な地図データを随時もらうことで、予め記憶しておくデータ量を非常に少なくして、所望の経路案内を行うことができる。また、地図データを随時もらえるので、携帯端末装置に予め必要な地図データ量はさらに少なくてもよい。
【0051】
このように、音声データを記憶する必要がなく、センター30から地図データをもらう構成にすれば、地図データベース自体が不要になる。従って、装置の小型化を図ることができ、携帯端末装置をまとめることが容易である。さらに、携帯端末装置を利用すれば、任意の場所において、経路設定が行えるため、友人などとドライブの計画を話しながら、経路の設定などを行うこともできる。
【0052】
さらに、携帯端末装置と車載のナビゲーション装置を組み合わせることも好適である。特に、車載のナビゲーション装置において、道路側のビーコンとの通信機器を設けておけば、走行中において必要なデータをこの通信機器により入手することもできる。
【0053】
「実施形態」
図8に実施形態の構成を示す。この実施形態では、音声合成装置40を有している。この音声合成装置40は、ナビECU4から供給されるテキストデータから音声合成し、スピーカ22から合成音声を出力させる。従って、ナビECU4は、音声データを出力する場合には、これに基づき音声信号出力装置8を介し、スピーカ22から音声出力し、テキストデータを出力する場合には、音声合成装置40を介し、スピーカ22から音声出力する。また、固定メモリ42は、音声データ記憶部14に代えて設けられたものであり、EEPROM等で構成されよく使用する単語(主要キーワード)についての音声データの供給を受け、これを固定的に記憶する。すなわち、通常の単語は音声合成によって出力するが、よく使う単語については、その音声データの提供を受けこれを固定メモリ42に記憶しておく。従って、音声出力の際によく使われる単語については、供給を受けた音声データを利用して音声出力が行われるため、全体として理解しやすい音声出力が行える。なお、従来の地図データベース10と同様に、経路案内において、通常使用する単語について、その音声データが記憶しておくことも好適である。これによって、これら単語については取得の必要がなくなる。
【0054】
このように、本実施形態においては、よく使用する単語やフレーズについて音声データを取得し、これを固定メモリ42に記憶する。この動作について、図9に基づいて説明する。
【0055】
まず、テキストデータを受信したら、そのテキストデータの読み上げ処理を実行する(S202)。すなわち、受信したテキストデータについて、固定メモリ42に記憶されている単語については、ここから読み出した音声データにより音声を出力し、固定メモリ42に記憶されていない単語については、音声合成装置40により音声合成を行う。次に、固定メモリ42に記憶されていなかった単語があるかを判定する(S204)。この判定において、YES、すなわち記憶されていない単語があった場合には、該当する単語をテキストデータで記憶する(S206)。ここで、当該単語が、すでに記憶されていた場合には、その単語についてのカウント値を1インクリメントする。また、初めての単語については、カウント値1とともに、その単語を記憶する。なお、このデータは、ナビECU4内のRAMに記憶すればよい。
【0056】
次に、記憶された単語について、そのカウント値が所定値(例えば、5回)を超えたものがあるかを判定する(S208)。そして、該当する単語については、センター30に音声データの提供を要求し(S210)、センター30から音声データの提供を受け、これを固定メモリ42に記憶する(S212)。次に、固定メモリ42の中で、過去所定期間(例えば、1年間)使用していない単語があるかを判定する(S214)。これは、単語毎に適当なタイムスタンプ(例えば、年、月を示すデータ)を記憶しておき、これをチェックすることで達成できる。そして、この判定でYESの場合には、当該単語を固定メモリ42から削除することをアドバイスする(S216)。S216の処理を終了した場合、及びS204、S208、S214でNOであった場合には、処理を終了する。
【0057】
なお、S214の単語削除のアドバイスの際には、「単語○○は、1年間使用されていません。削除をしますか」という表示を表示部18に行い、「はい」または「いいえ」の入力を待ち、削除を行うか否かを決定するなどの方法が採用される。また、S210の音声データの要求の際にも、「単語○○について音声データを要求しますか」等という問い合わせをすることも好適である。
【0058】
このようにして、テキストデータを記憶することで、使用頻度を検出し、使用頻度の高い単語について、自動的に固定メモリ42に音声データを記憶し、使用頻度の低い単語については音声データを削除することができる。そこで、不要な音声データにより、固定メモリ42が占められてしまうことを防止することができる。
【0059】
なお、基本形態と同様にして、センター30から所定の音声データの提供を常に受けておき、使用頻度の高いものについて、その音声データを固定メモリ42に記憶することも好適である。この場合、出力する内容によっては、地図データベース10、固定メモリ42、及び音声データ記憶部14からの音声データと、音声合成装置40からの出力に基づいて音声出力が行われることになる。
【0060】
さらに、上述のようなシステムにおいて、センター30において、ユーザからの各単語についての音声データ要求回数をカウントしておき、所定回数に達した場合に、各ユーザに自動配信することもできる。すなわち、図10に示すように、センター30において情報を配信する際に、各単語Tiについてユーザからの音声データ要求が50回に達したかを判定する(S302)。そして、この判定において、YESであれば、その単語について、ユーザ端末(移動端末)に自動配信する(S304)。このような処理は、所定地域に限定して行うことも好適である。すなわち、ある地域に存在する移動端末からの要求をカウントして、その地域に存在する移動端末に当該単語の音声データを自動配信することができる。
【0061】
「音声読み上げデータの例」
次に、センター30が交通情報を提供する際に、音声データを添付して、車両(移動端末)に付与する例について説明する。この場合、音声データは、符号化されて添付される。そこで、移動端末装置においては、受信した音声データをデコードすることで、音声出力を得ることができる。
【0062】
所定の地域の道路や設定された経路について渋滞情報を提供する際に、センター30は表1に示すようなデータを提供する。すなわち、各リンクに対応した渋滞レベルデータに追加して、渋滞情報読み上げデータ、道路名称の読み上げデータを移動端末に提供する。例えば、リンク1〜7について、渋滞情報読み上げデータとして、「渋滞はありません」「少し渋滞」「2キロ渋滞」「かなり渋滞」「車線減少」「工事箇所」「通行止め」などを提供し、また道路名称の読み上げデータとして、「国道1号線」「丸山公園通り北行き」「西大津バイパス堅田方面」「高雄パークウェイ嵐山方面」などを提供する。
【0063】
【表1】

Figure 0003704925
そこで、移動端末は経路に応じて、提供された音声データを利用して案内を行う。例えば、自宅出発時において経路が定まっており、その経路についての渋滞情報を取得していた場合、「国道1号線から西大津バイパスを通るルートです。国道1号線は*少し渋滞*しています。西大津バイパス堅田方面は*車線減少*箇所があるので注意して走行して下さい。」、また走行中の交差点手前では、「500m先、丸山公園前を左方向です。その先丸山公園通り北行きは*2キロの渋滞*です。」等という音声案内を提供された音声データ(読み上げデータ)を利用して行うことができる。
【0064】
なお、経路を車両側で計算する場合には、所定範囲の交通データを移動端末に提供するが、センター30側で経路を計算する場合には、センター30において、経路がわかっている。従って、移動端末に提供するデータは、案内に必要な最小限のデータにすることができる。
【0065】
また、駐車場の利用状況についての情報(満室情報)をセンター30が提供する場合には、表2に示すような音声データを提供する。
【0066】
【表2】
Figure 0003704925
このように、駐車場を特定するNo.に対応して、駐車場名称のテキストデータ、駐車場名称の読み上げデータ、満室レベルデータ、満室状況の読み上げデータが送信される。従って、移動端末装置において、案内を行うときに、駐車場名称や、満室レベルを受け取った読み上げデータを利用して行うことができる。
【0067】
さらに、経路案内においては、特徴的な建物など目印となるもの(POI:Point of Intent)を知らせることが好適である。そこで、これらPOIについての音声データを移動端末装置に提供することが好適である。表3は、このようなPOI及びその属性データの音声読み上げデータの提供例を示すものである。
【0068】
【表3】
Figure 0003704925
この例では、例えば、ノードNo.171について、POIとして「TV塔」、その音声読み上げデータとして「テレビトウ」というデータが提供され、またPOIの属性データとして「赤く、一番高い」というデータと共に、その音声読み上げデータとして「アカク、イチバンタカイ」というデータが提供される。
【0069】
従って、音声案内において、「*赤く一番高いテレビ塔*前を右折すると、県庁前通りです。」等という音声案内をすることができる。また、「*いちょう並木*に沿って、*茶色い34階建て*の*県庁ビル*を通り過ぎたら、500mで左方向です。」「左折後、右前方に*富士山が見え*てきます。」「300m先、*市営地下駐車場*です。左折で進入できます。」等という音声案内も行うことができる。
【0070】
また、図11に、移動端末装置を車両に実際に搭載したイメージを示す。このように、GPS装置12を構成するGPSアンテナ12aは、車室内のインパネの上方に設けられ、ナビゲーションのためのECU4a(ナビECU4の一部)及び地図データベース10を構成するCD−ROM10aは、後部トランク内に設けられている。また、表示部18及び情報制御のためのECU(ナビECU4の一部)は、一体的に形成され、ワイドマルチステーション60として、ドライバ席と助手席に間のスペースに配置されている。そして、このワイドマルチステーション60には、ケーブル62を介し、無線通信機20を構成する移動体電話をハンズフリー電話機として動作させるクレードル80が接続されている。
【0071】
すなわち、この例では、図12に示すように、移動体電話32を構成する携帯電話機82は、クレードル80に載置される。そして、携帯電話機82のコネクタ接続用ターミナル82aに、クレードル80のコネクタ80aを接続することで、携帯電話機82とクレードル80が接続される。このクレードル80には、ハンズフリーで通話をするためのマイクロフォン、スピーカ、ワンタッチダイヤルボタンなどの各種の機器が接続されており、携帯電話機82をこのクレードル80にセットすることによって、携帯電話機82を利用してハンズフリー電話機として使用することになる。
【0072】
また、各種操作は、ワイドマルチステーション60の入力操作部を利用して行われる。なお、無線通信機20は、この構成に限らず、専用の車載電話システムを設けることも好適である。
【0073】
「その他の構成」
無線通信機20において、センター30との間で、電子メールなどのやりとりも行うことが好適である。この場合取得された電子メールは、通常テキストデータであり、これがナビECU4内のRAMに記憶される。そして、表示部18に表示されるが、運転中などは音声出力される。すなわち、ナビECU4が、受信した電子メールについてのテキストデータを音声合成装置40に供給し、電子メールの読み上げ音声がスピーカ22から出力される。この場合においても、必要な言葉やフレーズについて、適宜音声データを取得することが好適である。また、流行語なども所定回数以上の使用に対し、その音声データを取得しておくことができる。
【0074】
さらに、各種の音声データについて、ID番号などのコードを予め決定しておき、音声データをこのID番号に対応させて移動端末装置に記憶させておけば、通信するデータは、このID番号のみでよくなる。従って、通信データ量を大幅に削減することができる。
【0075】
さらに、移動端末装置と、センターの間の通信は、通常の携帯電話回線や、PHS、FM多重放送、TV多重放送、地上波デジタル通信、光ビーコン、電波ビーコン等を利用したものが利用可能である。
【0076】
【発明の効果】
以上説明したように、本発明によれば、音声データを記憶するのに必要な記憶媒体等の容量を必要最小限に低減することができる。また、車両外部から受信した音声データを読み上げるので、読み上げ音声は明瞭なものとなる。このため、運転者にとって、自然で且つわかりやすい音声経路案内などの音声出力を行うことができる。
【図面の簡単な説明】
【図1】 本発明の基本形態の移動端末装置の構成を示すブロック図である。
【図2】 基本形態を示す模式的概念図である。
【図3】 基本形態における音声案内を示す経路図である。
【図4】 基本形態における音声案内を行うことを示すフローチャートである。
【図5】 基本形態における経路及びその交差点名称群の範囲を示す図である。
【図6】 交通状況データベースも考慮して、決定された経路及びその交差点名称群の範囲を示す図である。
【図7】 携帯端末装置を使用した時の音声案内における経路及びその交差点名称群の範囲を示す図である。
【図8】 実施形態における移動端末装置の構成を示すブロック図である。
【図9】 実施形態における音声データ取得の動作を示すフローチャートである。
【図10】 実施形態における単語削除の動作を示すフローチャートである。
【図11】 移動端末装置を車両に実際に搭載したイメージを示す図である。
【図12】 無線通信機の構成を示す図である。
【符号の説明】
2 ナビゲーション装置、4 ナビECU、6 モデム、8 音声信号出力装置、10 地図データベース、12 GPS装置、14 音声データ記憶部、16操作部、18 表示部、20 無線通信機、22 スピーカー、30 センター、50 ノード、52 経路、54 交差点、70 交差点名称抽出範囲。[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a mobile terminal device that performs voice output such as reading a navigation device or e-mail, and a medium in which an operation program is recorded.To the bodyRelated.
[0002]
[Prior art]
Conventionally, a navigation device for route guidance is known, and this device includes a current location detection device such as a GPS device that detects the current location of a vehicle, and a map database that recognizes the detected current location of the vehicle as a position on a map. Have. And using these, a map and a present location are displayed on a display, and a driver's run is guided. The navigation device has a function of searching for an optimum route to the destination by inputting the destination. In traveling with a route to the destination, when approaching an intersection (guide intersection) that requires guidance such as an intersection that makes a right or left turn, guidance is provided for a right or left turn. Here, the guidance is performed by displaying an enlarged view of the intersection on the display and showing the traveling direction in the enlarged view, and also by voice guidance. Since the driver is gazing at the front while the vehicle is traveling, voice guidance is easier to understand. For this reason, voice guidance has become widespread. Thus, voice output is performed in a mobile terminal such as a navigation device.
[0003]
In addition, as a navigation apparatus which guides the traveling direction by voice, there is one described in, for example, Japanese Patent Laid-Open No. 2-249100.
[0004]
In such a navigation apparatus, it is preferable to read out an intersection name or the like in order to make voice guidance easy to understand. For example, voice guidance such as “500 meters ahead and the A intersection is on the left” is performed 500 meters before the A intersection, which is a guidance intersection.
[0005]
In order to perform this voice reading, voice data regarding each intersection is required. In a normal map database, a map of the whole country is stored, and all intersection names used for guidance are stored as text data. For this reason, by performing speech synthesis from this text data, speech data of intersection names is created and voice guidance is output.
[0006]
However, in such speech synthesis, speech data for reading is created by a combination of unit speech such as 50 sounds previously stored in the apparatus. For this reason, the intonation, accent, pronunciation, etc. are different from the case where the intersection name is normally read out, and it becomes difficult to hear. In particular, guidance for a driver who is driving is not sufficient in terms of ease of listening with the above-described guidance by voice synthesis, and an easy-to-understand guidance voice is desired.
[0007]
Therefore, all audio data for each intersection name is stored. That is, for each intersection name, the data actually read out is subjected to a predetermined encoding process and stored in the map database as voice data. Thereby, natural and easy-to-understand voice guidance can be performed. Note that the audio data is data subjected to encoding processing such as PCM (pulse code modulation).
[0008]
[Problems to be solved by the invention]
However, the conventional voice guidance navigation apparatus has the following problems. When all audio data is stored, the amount of data becomes enormous and the capacity of the storage medium increases. Normally, a CD-ROM is used for the map database, but a capacity several times that of normal map data is required for storing audio data.
[0009]
Therefore, there has been a demand for a navigation apparatus and system that can read out speech naturally and in an easy-to-understand manner and can reduce the storage capacity of a storage medium or the like.
[0010]
In addition, services for exchanging e-mails and receiving various data from the center using an in-vehicle terminal device have been started. In many cases, it is better to read out information obtained by such a service by voice. A natural and easy-to-understand voice output is desired for the reading voice in such a case.
[0011]
The present invention has been made to solve the above problems, and an object of the present invention is to provide a mobile terminal device and the like that can perform natural and easy-to-understand audio output and reduce the storage capacity therefor. .
[0012]
[Means for Solving the Problems]
  The present invention is expressed by data acquisition means for acquiring voice data for voice output from an external database via a network, voice output means for outputting voice including words corresponding to the voice data, and text data. About the wordSpeech synthesis from text dataOutput audiovoiceCombining means;And voice synthesis by the voice synthesis meansWhen the usage frequency of the output word exceeds a predetermined value, the data acquisition meansRisoVoice data for wordsFrom outsideIt is characterized by acquiring. As described above, in the present invention, various sounds can be output from the sound data acquired from the outside. Therefore, it is not necessary to prepare a large capacity memory for storing voice data in the mobile terminal device. In addition, voice output by natural utterance can be performed as compared with voice output by voice synthesis.Then, voice data about frequently used words can be supplemented in the mobile terminal.
[0013]
  Also,soundAmong the words to be processed for voice output, storage means for storing speech data on frequently used words, and text synthesis means for outputting speech by text synthesis for words expressed in text data, It is preferable to synthesize the voice data from the storage means and the voice data from the text synthesis means to perform voice output. According to this, it is possible to acquire voice data for a frequently used word, and to output the word with natural pronunciation instead of text synthesis, and it is possible to output a voice that is easy to understand as a whole. In addition, the storage capacity of the audio data can be made sufficiently small.
[0015]
  Also, TakePerform data erasure processing on the obtained audio data that is infrequently usedIs preferred. In this way, only necessary audio data can be stored, and the storage capacity of the memory can be used effectively.
[0016]
  Also, tableIt is possible to output a text-to-speech reading soundIs preferred. By outputting the text data for display as a voice, it is possible to make it easy to hear a reading output such as a tourist guide or an e-mail.
[0017]
  Also, NaOutput the guidance voice of the navigation deviceIs preferred. There are many words such as place names in the guidance voice, and the memory capacity required in the mobile terminal device can be reduced by receiving provisions from outside. And natural pronunciation can be maintained.
[0018]
  AlsoThe groundVoice data relating to a physical name is acquired from the outside, and the voice output means performs voice guidance including a reading voice of the geographical name based on the acquired voice data.Is preferred. Therefore, it is not necessary to previously store voice data for a geographical name necessary for route guidance, and the capacity of a storage medium for storing the data can be reduced to the minimum necessary. Moreover, since the voice output is obtained based on the voice data received from the outside of the vehicle, the read-out voice becomes natural. For this reason, it is possible for the driver to perform natural and easy-to-understand voice route guidance.
[0019]
  Also, TakeRead the obtained geographical name in addition to the voice guidance in the direction of travelIs preferred. The driver can listen to the direction guidance with a message including a geographical name, and can easily recognize the direction of travel.
[0020]
  Also,EyeTransmitting means for transmitting data relating to a target location to the outside of the vehicle, wherein the data acquisition means acquires information relating to a route between the current location and the destination from outside the vehicle.Is preferred. In this case, since the data regarding the destination is transmitted to the outside of the vehicle, it is possible to receive the voice data regarding the geographical name between the current location and the destination. Therefore, it is possible to eliminate a useless portion of the received audio data.
[0021]
  Also, TakeThe audio data to be obtained is information within a predetermined range determined based on the current location and the traveling direction, and the predetermined range can be changed.Is preferred. For example, the predetermined range can be determined according to the volume of audio data to be transmitted / received.
[0022]
  Also,soundThe predetermined range, which is a range for acquiring voice data, is determined in consideration of a travel history of the own vehicle or a past traffic flow. In these cases, a necessary geographical name can be determined by predicting a travel route in consideration of not only the distance to the destination but also the past traffic situation and the past travel history of the own vehicle. Therefore, necessary audio data can be obtained with certainty.
[0023]
  Also, OutsideExternal information receiving means for receiving the part information, and decoding means for decoding the encoded audio data included in the received external information, wherein the audio output means is obtained by the decoding means Aloud using voice dataIs preferred. In this way, the audio data in the received data can be decoded and immediately output as audio.
[0024]
  Also,PreviousThe voice data receiving means and the voice guidance means are mounted on a portable terminal device.Is preferred. As described above, when the mobile terminal device is mounted, a route can be set at an arbitrary place using the mobile terminal. And since the audio | voice data storage is unnecessary, a portable terminal device can be reduced in size and weight. Further, for example, if the map data is received from the center, the map database itself becomes unnecessary, and the apparatus can be further downsized.
[0025]
  Also, OutsideThe audio data obtained from theIs preferred. By acquiring sampled voice data obtained from a human voice, natural voice similar to a human voice can be reproduced.
[0026]
  The present invention, TransferThe present invention relates to a medium storing a program for achieving the operation of a moving terminal. The operation program is preferably stored in a ROM, CD-ROM, hard disk, or the like in the mobile terminal device. The user can also load a new program into the navigation ECU by purchasing a CD-ROM. Furthermore, the medium is not limited to a CD-ROM, and may be of any format as long as it can store an audio output program such as a DVD or FD, and is preferably provided by communication. In particular, the center preferably provides the operation program to the mobile terminal device by communication.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
[0028]
  "BasicForm 1 "
  FIG. 1 shows a navigation device (mobile terminal) according to the present invention.BasicIt is a block diagram which shows a form. In the navigation device 2, a modem 6, a voice signal output device 8, a map database 10, a GPS device 12, a voice data storage unit 14, an operation unit 16, and a display unit 18 are connected to a navigation ECU (hereinafter referred to as a navigation ECU) 4. Has been.
[0029]
The modem 6 is connected to a radio communication device 20 such as an automobile phone, and performs modulation / demodulation processing necessary for receiving voice data transmitted from the outside of the vehicle and transmitting information to the outside of the vehicle. A speaker 22 is connected to the voice signal output device 8, and a voice is output from the speaker 22 in accordance with a signal from the navigation ECU 4 to provide route guidance to the driver. The navigation ECU 4 stores a predetermined program in its internal ROM, and achieves various operations by executing this program. The ROM may be a mask ROM, but is preferably rewritable such as an EEPROM. In this case, it is also preferable to store an operation program (audio output program) in a CD-ROM used as the map database 10 and load this program into an EEPROM or the like in the navigation ECU 4. Thereby, the user can load a new program into the navigation ECU 4 by purchasing the CD-ROM, and can operate the navigation ECU 4 based on the new program. The medium is not limited to a CD-ROM, and may be of any format as long as it can store an audio output program such as a DVD or FD.
[0030]
The GPS device 12 detects the current location (latitude, longitude, etc.) by receiving radio waves from a plurality of artificial satellites. Then, the current location detected by the GPS device 12 is recognized as a position on the map using the map database 10. In the voice data storage unit 14, voice data sent from the outside of the vehicle is stored via the navigation ECU 4. As the audio data storage unit 14, a normal RAM is used, but an EEPROM or the like may be used. The operation unit 16 is used to perform various data input processing on the navigation ECU 4. The display unit 18 performs display for inputting various data by the operation unit 16, display of current position information on the map by the map database 10 and the GPS device 12, display of a message, and the like.
[0031]
FIG. 2 is a schematic conceptual diagram showing a navigation system using the navigation device 2. When the route data is transmitted from the navigation device 2 to the center 30, voice data necessary for route guidance when the center 30 travels along this route is created and provided to the navigation device 2. Therefore, the navigation device 2 can perform route guidance based on the voice data.
[0032]
A route guidance method using voice data using the navigation device 2 and its system will be described below. FIG. 4 is a flowchart showing an operation in the navigation system, and FIG. 3 is a diagram for explaining an example of route guidance. Note that such processing is achieved by the navigation ECU 4 executing a program stored therein.
[0033]
In FIG. 3, the vehicle is initially at position X. In this case, as shown in the flowchart of FIG. 4, the position X is first detected as an absolute position (latitude and longitude) by the GPS device 12 and the closest to the vehicle position among the centers 30 installed in each region. The center 30 is searched by the map database 10 (S102). The map database 10 recognizes the vehicle position X on the map as a position on the map. Note that the current location may be transmitted to the center 30, the map data around the current location may be received, and the vehicle position X on the map may be recognized.
[0034]
Next, the destination data is input by the operation unit 16. Then, the navigation ECU 4 searches for a route from the current location to the destination using the map database 10, and route data is created (S104). Then, route data consisting of links and nodes for the distance a (km) scheduled to travel on the route from the current location to the destination is transmitted to the center 30 via the wireless communication device 20 or the like (S106).
[0035]
A link means one unit of a road divided at each intersection, and an intersection that is a division between these links is called a node. The distance a (km) is determined in consideration of the processing speed on the center 30 side, the capacity of the audio data storage unit 14, the capacity of received audio data, and the like. For example, a fixed distance such as 10 km may be used, but it is preferable to change the distance according to conditions.
[0036]
Subsequently, when the center 30 receives route data composed of links and nodes for the planned travel distance a (km) on the route, it searches for an intersection name group corresponding to the route data and transmits it to the vehicle (S108). .
[0037]
The search for the intersection name group will be described in detail below. The intersection name group D (U) is determined by the extraction function f (U) determined by the route data U for the link and node at the planned travel distance a (km). FIGS. 5A and 5B are diagrams showing ranges in which intersection names determined by the extraction function f (U) for each node are extracted. For example, as shown in FIG. 5A, all intersections 54 within a radius b (km) from each node 50 on the route 52 are extracted, and a set of these intersection names is set as an intersection name group D (U ). As another example, as shown in FIG. 5B, all the intersections 54 within a distance b (km) from each node 50 on the route 56 are extracted, and these intersection names are designated as intersection name group D ( U). The distance b (km) can be changed according to the processing speed on the center 30 side, the capacity of the audio data storage unit 14, the capacity of received audio data, and the like.
[0038]
Thus, by acquiring not only the intersection name on the route but also a certain range of intersections, it is possible to provide guidance or direction guidance when the route is off.
[0039]
Then, after searching for the intersection name, the center 30 transmits these intersection name groups D (U) from the center 30 to the navigation device 2 as voice data.
[0040]
As described above, when the voice data is received, the received voice data of the intersection name group D (U) is stored in the voice data storage unit 14 of the vehicle (S110). Thereafter, route guidance is started (S112). Here, as shown in FIG. 3, the vehicle travels from the current location X based on route guidance. Then, when approaching the A intersection, for example, “300 meters ahead, the A intersection is on the left” is read out and route guidance is performed. When approaching the B intersection, a voice such as “300m ahead, B intersection is in the right direction” is read out.
[0041]
Here, voice data such as an intersection name necessary for guidance while the vehicle travels a distance a (km) is received from the center 30 in the vehicle. Therefore, the voice data of the intersection names A and B in the guidance as described above is stored in the voice data storage unit 14. Therefore, the intersection name in the guidance can be output with natural pronunciation. Note that other standard guidance voices are stored as voice data in the map database 10 and are read out and used.
[0042]
Then, at every step of the predetermined set distance, it is determined in step S114 whether or not the host vehicle has reached a point 1 km before the distance a (km). If the vehicle position does not reach the point of the predetermined distance a-1 (km) in step S114, the process returns to step S112 and the voice guidance is continued. In addition, about 1 km, it is not limited to this distance, but can be changed depending on the processing speed on the center 30 side. If the vehicle reaches a point 1 km before the distance a (km), it is determined in step S116 whether the vehicle position is within 1 km from the destination. If it is determined in step S116 that the vehicle position has not reached the destination within 1 km, the process returns to step S102, the above process is repeated, route data from the current location to the destination is transmitted, and necessary voice data is transmitted. To receive route guidance. On the other hand, when the distance to the destination is within 1 km, the voice route guidance ends and the vehicle travels to the destination as it is.
[0043]
The voice data acquired from the center 30 may be, for example, a geographical name such as 12 city F or a facility name instead of the intersection name, and the geographical name and the intersection name may be combined as voice data. Furthermore, the voice data may include intersection name groups that are not necessary for route guidance in consideration of each vehicle situation.
[0044]
Thus, in the present embodiment, voice data relating to intersection names and the like can be acquired from the center 30. For this reason, it is not necessary to store audio data in advance. Then, only the voice data related to the route guidance required for traveling is stored in the voice data storage unit 14. For this reason, the capacity | capacitance of the audio | voice data storage part 14 may be small. In addition, since the received voice data is read from the center 30, the voice data becomes natural. For this reason, it is possible for the driver to perform natural and easy-to-understand voice route guidance.
[0045]
In the present embodiment, the destination is set and the route relating to the destination is searched by the navigation device 2 on the vehicle side. However, the present embodiment is not limited to this. That is, after the destination is set on the vehicle side, data related to the destination is transmitted to the center 30, the route from the current location to the destination is searched for on the center 30 side, and route data is created. On the basis of this, audio data such as intersection names may be prepared.
[0046]
In addition, it is possible to determine an intersection name or the like necessary for route guidance using the past traffic situation database on the center 30 side. Usually, the number of vehicles traveling on the road varies depending on the day of the week, the traveling time, the weather, and the like. For this reason, information on the number of vehicles based on the travel time and the like is stored in the traffic situation database for each route.
Then, based on the past traffic situation database such as travel time, voice data such as intersection names is prepared for a route that is determined to have many vehicles to be selected as a route in the travel time at the time of route guidance, for example. An example of a route in consideration of past traffic conditions is shown in FIG. As shown in this figure, the route XX is the route determined first, but not only on the nodes G and H on this route, but also on the route YY considered in consideration of the above-mentioned past traffic volume, etc. The center 30 also transmits audio data such as intersection names related to the intersections M and N. For this reason, when the vehicle travels by selecting the route YY according to the traveling situation, it is also possible to perform voice guidance regarding this route.
[0047]
Furthermore, the travel history of the host vehicle, for example, the number of travels of the host vehicle for different routes in a predetermined section is stored in the travel history database, and the target intersection name is determined based on the travel history database. Is also possible. In this case, after setting the route to the destination on the vehicle side, a route with a high travel frequency is also added to the route data with reference to the past travel history. Therefore, it is possible to obtain voice data for intersection names based on the plurality of routes.
[0048]
In this way, by obtaining voice data in consideration of past traffic conditions and past travel histories of the vehicle, voice guidance can be performed in response to changes in the travel route.
[0049]
It is also preferable to mount the navigation device 2 on a portable terminal device.
In this case, the route is set by using the mobile terminal device, and the route and the minimum voice data are obtained by using a phone such as a mobile phone or a PHS as in the case described above. And while driving | running | working, it can obtain detailed data suitably and can perform route guidance using this. FIG. 7 is a schematic diagram showing voice guidance using a portable terminal device. Before the vehicle travels, the destination is input, for example, at home. Then, the current location is detected by the GPS device 12, and the destination and the current location are transmitted to the center 30. Then, the center 30 searches for the optimum route based on the transmitted current location and destination, and stores the optimum route data and voice data and map data such as intersection name groups corresponding to nodes and links on the route. Send to the terminal. At this time, the audio data should be kept to a minimum. If the current location (travel start position) is input, the GPS device may not be provided. Further, the above-described operation may be performed at the start of vehicle travel. In particular, when there is an area where an antenna such as DSRC or PHS is provided in a route in an urban area, the data in this area should be minimized. In DSRC (Dedicated Short Range Communication), an optical beacon or the like is often used.
[0050]
Then, the mobile terminal device for which the route setting has been completed is brought into the vehicle, and traveling toward the destination is performed while receiving route guidance from the mobile terminal device. As shown in FIG. 7, when traveling in an area where an antenna such as DSRC or PHS is installed in an urban area, whenever the node 50 is approached, the center 30 is called by the PHS etc. An intersection name group D (U) within a predetermined range (for example, within the range of the circle 70) from the intersection is received and route guidance is performed by voice. In addition, by calling the center 30 and receiving detailed map data as needed, the amount of data stored in advance can be greatly reduced and desired route guidance can be performed. Moreover, since map data can be obtained at any time, the amount of map data necessary for the mobile terminal device in advance may be further reduced.
[0051]
Thus, there is no need to store voice data, and if the map data is obtained from the center 30, the map database itself becomes unnecessary. Therefore, it is possible to reduce the size of the device, and to easily assemble the portable terminal devices. Furthermore, since a route can be set at an arbitrary place by using a mobile terminal device, it is possible to set a route while talking about a drive plan with a friend or the like.
[0052]
Furthermore, it is also preferable to combine a mobile terminal device and an in-vehicle navigation device. In particular, in a vehicle-mounted navigation device, if a communication device with a beacon on the road side is provided, necessary data can be obtained from the communication device while traveling.
[0053]
  "Implementation formstate"
  Fig. 8StateThe configuration is shown. In this embodiment, a speech synthesizer 40 is provided. The speech synthesizer 40 synthesizes speech from text data supplied from the navigation ECU 4 and outputs synthesized speech from the speaker 22. Therefore, the navigation ECU 4 outputs voice data from the speaker 22 based on the voice signal output device 8 when outputting voice data, and outputs voice data from the speaker 22 via the voice synthesizer 40 when outputting text data. The sound is output from 22. The fixed memory 42 is provided in place of the voice data storage unit 14, and is configured by an EEPROM or the like to receive voice data for frequently used words (main keywords) and store them in a fixed manner. To do. That is, normal words are output by speech synthesis, but frequently used words are provided with speech data and stored in the fixed memory 42. Therefore, for words that are often used for voice output, voice output is performed using the supplied voice data, so that voice output that is easy to understand as a whole can be performed. As with the conventional map database 10, it is also preferable to store the voice data of words that are normally used in route guidance. This eliminates the need to obtain these words.
[0054]
Thus, in the present embodiment, voice data is acquired for frequently used words and phrases and stored in the fixed memory 42. This operation will be described with reference to FIG.
[0055]
  First, when text data is received, the text data is read out (S202). That is, for received text data,Fixed memory 42For the words stored in, output the voice by the voice data read from here,Fixed memory 42For words that are not stored in, speech synthesis is performed by the speech synthesizer 40. Next, it is determined whether there is a word that has not been stored in the fixed memory 42 (S204). In this determination, if YES, that is, if there is an unstored word, the corresponding word is stored as text data (S206). If the word has already been stored, the count value for that word is incremented by one. For the first word, the word is stored together with a count value of 1. This data may be stored in the RAM in the navigation ECU 4.
[0056]
Next, it is determined whether there is a stored word whose count value exceeds a predetermined value (for example, 5 times) (S208). For the corresponding word, the center 30 is requested to provide voice data (S210), the voice data is received from the center 30, and stored in the fixed memory 42 (S212). Next, it is determined whether there is a word that has not been used in the past predetermined period (for example, one year) in the fixed memory 42 (S214). This can be achieved by storing an appropriate time stamp (for example, data indicating the year and month) for each word and checking it. If the determination is YES, it is advised to delete the word from the fixed memory 42 (S216). If the process of S216 is completed, or if NO in S204, S208, and S214, the process is terminated.
[0057]
In the word deletion advice in S214, the display unit 18 displays “Word XX has not been used for one year. Do you want to delete it” and “Yes” or “No” is displayed. A method of waiting for input and determining whether or not to delete is adopted. It is also preferable to make an inquiry such as “Do you want to request audio data for the word XX” when requesting the audio data in S210?
[0058]
In this way, by storing text data, the frequency of use is detected, voice data is automatically stored in the fixed memory 42 for frequently used words, and voice data is deleted for words that are not frequently used. can do. Therefore, it is possible to prevent the fixed memory 42 from being occupied by unnecessary audio data.
[0059]
  In addition,Basic formSimilarly, it is also preferable to always receive predetermined audio data from the center 30 and store the audio data in the fixed memory 42 for those frequently used. In this case, depending on the content to be output, voice output is performed based on the voice data from the map database 10, the fixed memory 42, and the voice data storage unit 14 and the output from the voice synthesizer 40.
[0060]
Furthermore, in the system as described above, the center 30 counts the number of times voice data is requested for each word from the user, and when it reaches the predetermined number, it can be automatically distributed to each user. That is, as shown in FIG. 10, when distributing information in the center 30, it is determined whether or not the voice data request from the user has reached 50 times for each word Ti (S302). If YES in this determination, the word is automatically distributed to the user terminal (mobile terminal) (S304). It is also preferable to perform such processing only in a predetermined area. That is, it is possible to count requests from mobile terminals that exist in a certain area and automatically distribute the voice data of the word to mobile terminals that exist in that area.
[0061]
"Example of speech-to-speech data"
Next, an example will be described in which voice data is attached and given to a vehicle (mobile terminal) when the center 30 provides traffic information. In this case, the audio data is encoded and attached. Therefore, the mobile terminal device can obtain audio output by decoding the received audio data.
[0062]
The center 30 provides data as shown in Table 1 when providing traffic information on a road in a predetermined area or a set route. That is, in addition to traffic congestion level data corresponding to each link, traffic congestion information reading data and road name reading data are provided to the mobile terminal. For example, for links 1 to 7, “No traffic jam”, “Slight traffic jam”, “2km traffic jam”, “Significant traffic jam”, “Decrease lanes”, “Construction points”, “Closed” etc. As the reading data of the name, “National Route 1” “To Maruyama Koen-dori Tou” “To Nishiotsu Bypass Katata” “To Kaohsiung Parkway Arashiyama” etc. are provided.
[0063]
[Table 1]
Figure 0003704925
Therefore, the mobile terminal provides guidance using the provided voice data according to the route. For example, if the route is fixed at the time of departure from the home and traffic jam information about the route has been acquired, “It is a route that passes through the Nishiotsu bypass from National Route 1. National Route 1 is * a little congested *. Nishiotsu Please drive carefully because there are * lane reduction * locations in the area of Bypass Katata. "In front of the intersection you are driving," To the left in front of Maruyama Park, 500 meters away. * Two kilometers of traffic * "can be performed using voice data (read-out data) provided with voice guidance such as"
[0064]
When the route is calculated on the vehicle side, a predetermined range of traffic data is provided to the mobile terminal. However, when the route is calculated on the center 30 side, the center 30 knows the route. Therefore, the data provided to the mobile terminal can be the minimum data necessary for guidance.
[0065]
In addition, when the center 30 provides information about the use situation of the parking lot (full room information), voice data as shown in Table 2 is provided.
[0066]
[Table 2]
Figure 0003704925
In this way, the parking lot No. In response to this, text data of parking lot name, reading data of parking lot name, full room level data, and reading data of full room status are transmitted. Therefore, when performing guidance in the mobile terminal device, it can be performed using the reading data that received the parking lot name and the full room level.
[0067]
Further, in route guidance, it is preferable to notify a landmark (POI: Point of Intent) such as a characteristic building. Therefore, it is preferable to provide voice data regarding these POIs to the mobile terminal device. Table 3 shows an example of provision of voice reading data of such POI and its attribute data.
[0068]
[Table 3]
Figure 0003704925
In this example, for example, node no. For 171, “TV tower” is provided as the POI, “TV toe” as the voice reading data, and “Red, highest” as the POI attribute data, and “Aku, “Ichibantakai” data is provided.
[0069]
Therefore, in the voice guidance, it is possible to give a voice guidance such as “* Turn right in front of the highest TV tower * in red. Also, “After passing the * Ginkgo row of trees * and passing the * Brown 34 stories * * Prefectural office building *, turn left 500m." "After turning left, you will see * Mount Fuji * on the right." You can also give voice guidance such as “It is a * municipal parking lot * 300m away.
[0070]
FIG. 11 shows an image in which the mobile terminal device is actually mounted on the vehicle. Thus, the GPS antenna 12a that constitutes the GPS device 12 is provided above the instrument panel in the vehicle interior, and the ECU 4a (a part of the navigation ECU 4) for navigation and the CD-ROM 10a that constitutes the map database 10 It is provided in the trunk. In addition, the display unit 18 and an ECU for information control (a part of the navigation ECU 4) are integrally formed and arranged as a wide multi-station 60 in a space between the driver seat and the passenger seat. The wide multi-station 60 is connected via a cable 62 to a cradle 80 that operates a mobile phone constituting the wireless communication device 20 as a hands-free phone.
[0071]
That is, in this example, as shown in FIG. 12, the mobile phone 82 constituting the mobile phone 32 is placed on the cradle 80. Then, by connecting the connector 80 a of the cradle 80 to the connector connection terminal 82 a of the mobile phone 82, the mobile phone 82 and the cradle 80 are connected. Various devices such as a microphone, a speaker, and a one-touch dial button for making a hands-free call are connected to the cradle 80, and the mobile phone 82 is used by setting the mobile phone 82 in the cradle 80. Then it will be used as a hands-free phone.
[0072]
Various operations are performed using the input operation unit of the wide multi-station 60. The radio communication device 20 is not limited to this configuration, and it is also preferable to provide a dedicated in-vehicle phone system.
[0073]
"Other configurations"
In the wireless communication device 20, it is preferable to exchange electronic mails with the center 30. In this case, the acquired e-mail is normal text data, which is stored in the RAM in the navigation ECU 4. Although displayed on the display unit 18, a sound is output during operation. That is, the navigation ECU 4 supplies text data about the received e-mail to the speech synthesizer 40, and a read-out sound of the e-mail is output from the speaker 22. Even in this case, it is preferable to appropriately acquire voice data for necessary words and phrases. Also, buzzwords and the like can be acquired for use over a predetermined number of times.
[0074]
Furthermore, if a code such as an ID number is determined in advance for various types of audio data, and the audio data is stored in the mobile terminal device in association with this ID number, the data to be communicated is only this ID number. Get better. Therefore, the communication data amount can be greatly reduced.
[0075]
Furthermore, communication between the mobile terminal device and the center can be performed using a normal mobile phone line, PHS, FM multiplex broadcast, TV multiplex broadcast, terrestrial digital communication, optical beacon, radio beacon, etc. is there.
[0076]
【The invention's effect】
As described above, according to the present invention, the capacity of a storage medium or the like necessary for storing audio data can be reduced to the minimum necessary. In addition, since the voice data received from the outside of the vehicle is read out, the read-out voice becomes clear. For this reason, it is possible for the driver to perform voice output such as voice route guidance that is natural and easy to understand.
[Brief description of the drawings]
FIG. 1 of the present inventionBasic formIt is a block diagram which shows the structure of this mobile terminal device.
[Figure 2]Basic formIt is a typical conceptual diagram which shows.
[Fig. 3]Basic formIt is a route diagram which shows the voice guidance in.
[Fig. 4]Basic formIt is a flowchart which shows performing voice guidance in.
[Figure 5]Basic formIt is a figure which shows the path | route in and the range of the intersection name group.
FIG. 6 is a diagram showing a determined route and a range of intersection name groups in consideration of a traffic situation database.
FIG. 7 is a diagram showing a route and a range of intersection name groups in voice guidance when a mobile terminal device is used.
[Fig. 8] ImplementationStateIt is a block diagram which shows the structure of the mobile terminal device in it.
FIG. 9 Implementation formStateIt is a flowchart which shows the operation | movement of audio | voice data acquisition in O.
FIG. 10 EmbodimentStateIt is a flowchart which shows the operation | movement of word deletion in it.
FIG. 11 is a diagram illustrating an image in which a mobile terminal device is actually mounted on a vehicle.
FIG. 12 is a diagram illustrating a configuration of a wireless communication device.
[Explanation of symbols]
  2 navigation device, 4 navigation ECU, 6 modem, 8 audio signal output device, 10 map database, 12 GPS device, 14 audio data storage unit, 16 operation unit, 18 display unit, 20 wireless communication device, 22 speaker, 30 center, 50 nodes, 52 routes, 54 intersections, 70 intersection name extraction ranges.

Claims (8)

音声出力のための音声データを外部データベースからネットワークを介して取得するデータ取得手段と、
前記音声データに対応する言葉を含めて音声出力を行う音声出力手段と、
テキストデータにより表現された単語について、テキストデータから音声合成して音声出力する音声合成手段と、
を有し、
前記音声合成手段により音声合成して出力した単語の使用頻度が所定以上になったときに、前記データ取得手段によりその単語について音声データを外部から取得することを特徴とする移動端末装置。
Data acquisition means for acquiring audio data for audio output from an external database via a network;
Voice output means for outputting voice including words corresponding to the voice data;
Speech synthesis means for synthesizing speech from text data and outputting speech for words expressed by text data ;
Have
When frequency of use of words and outputs the speech synthesized by said speech synthesis means exceeds a predetermined, mobile terminal device and acquires the audio data from the outside for the word resources by the said data acquisition means .
請求項1に記載の装置において、
音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データを蓄積する蓄積手段有することを特徴とする移動端末装置。
The apparatus of claim 1.
Of the words to be processed for voice output, the mobile terminal apparatus characterized by comprising a storage means for storing audio data for words that are commonly used.
請求項2に記載の装置において、
前記蓄積手段は、使用頻度が所定以上になったときに、前記データ取得手段により取得した単語について音声データを記憶することを特徴とする移動端末装置。
The apparatus of claim 2.
The mobile terminal apparatus according to claim 1, wherein the storage unit stores voice data for the word acquired by the data acquisition unit when the usage frequency becomes a predetermined frequency or more .
請求項3に記載の装置において、
音声出力のための処理対象となる言葉のうち、対応する音声データが前記蓄積手段に蓄積されている場合にこの言葉について蓄積されている音声データを用いて音声出力手段から音声出力し、対応する音声データが蓄積されていない場合にこの言葉について音声合成手段からテキストデータを音声合成して音声出力することを特徴とする移動端末装置
The apparatus of claim 3.
Among the words to be processed for voice output, when the corresponding voice data is stored in the storage means, the voice output means uses the voice data stored for the words and outputs the voice. A mobile terminal device characterized in that when voice data is not stored, text data is voice-synthesized from the voice synthesizer for this word and voice output is performed .
移動端末装置が音声出力を行うための音声出力プログラムを記録した媒体であって、
前記音声出力プログラムは、前記移動端末装置に、
音声出力のための音声データを外部データベースからネットワークを介して取得させ、
前記音声データに対応する言葉を含めて音声出力を行わせ、
テキストデータにより表現された単語について、テキストデータから音声合成して音声出力させ、
前記テキストデータから音声合成して出力した単語の使用頻度が所定以上になったときに、その単語について音声データを外部から取得させることを特徴とする音声出力プログラムを記録した媒体
A medium in which a voice output program for voice output by a mobile terminal device is recorded,
The voice output program is stored in the mobile terminal device.
Obtain audio data for audio output from an external database over the network,
Let the voice output including words corresponding to the voice data,
For words expressed by text data, speech synthesis is performed from text data,
A medium on which a voice output program is recorded, wherein when a use frequency of a word output by voice synthesis from the text data exceeds a predetermined value, voice data is acquired from the outside for the word .
請求項に記載の媒体において、
前記音声出力プログラムは、移動端末装置に、
音声出力のための処理対象となる言葉のうち、よく使用される言葉についての音声データについて蓄積させることを特徴とする音声出力プログラムを記録した媒体
The medium of claim 5 , wherein
The voice output program is stored in a mobile terminal device.
A medium on which a voice output program is recorded, wherein voice data of frequently used words among words to be processed for voice output is stored .
請求項6に記載の媒体において、
前記音声出力プログラムは、移動端末装置に、
使用頻度が所定以上になったときに、取得した単語についての音声データを蓄積させることを特徴とする音声出力プログラムを記録した媒体
The medium of claim 6, wherein
The voice output program is stored in a mobile terminal device.
A medium on which an audio output program is recorded, in which audio data about an acquired word is accumulated when the use frequency becomes a predetermined frequency or more .
請求項7に記載の媒体において、
前記音声出力プログラムは、移動端末装置に、
音声出力のための処理対象となる言葉のうち、対応する音声データが蓄積されている場合にこの言葉について蓄積されている音声データから音声出力させ、
対応する音声データが蓄積されていない場合にこの言葉についてテキストデータから音声合成して音声出力させることを特徴とする音声出力プログラムを記録した媒体
The medium of claim 7,
The voice output program is stored in a mobile terminal device.
Among the words to be processed for voice output, if the corresponding voice data is accumulated, the voice data stored for this word is output as voice,
A medium on which a voice output program is recorded, wherein when the corresponding voice data is not accumulated, the words are voice-synthesized from the text data for voice output .
JP33283897A 1997-04-22 1997-12-03 Mobile terminal device and medium recording voice output program thereof Expired - Lifetime JP3704925B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33283897A JP3704925B2 (en) 1997-04-22 1997-12-03 Mobile terminal device and medium recording voice output program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10485097 1997-04-22
JP9-104850 1997-04-22
JP33283897A JP3704925B2 (en) 1997-04-22 1997-12-03 Mobile terminal device and medium recording voice output program thereof

Publications (2)

Publication Number Publication Date
JPH116743A JPH116743A (en) 1999-01-12
JP3704925B2 true JP3704925B2 (en) 2005-10-12

Family

ID=26445226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33283897A Expired - Lifetime JP3704925B2 (en) 1997-04-22 1997-12-03 Mobile terminal device and medium recording voice output program thereof

Country Status (1)

Country Link
JP (1) JP3704925B2 (en)

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054484B2 (en) * 1999-06-30 2008-02-27 本田技研工業株式会社 Map information display system for moving objects
JP4068774B2 (en) * 1999-11-26 2008-03-26 本田技研工業株式会社 Map information display system for moving objects
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE10061696A1 (en) * 2000-12-12 2002-06-27 Bernhard Lehmeier Vehicle navigation system for provision of spoken instructions to a driver has a version selector that allows a dialect of a language to be chosen that most suits the driver, so that driver tiredness is reduced
JP4671535B2 (en) * 2001-05-23 2011-04-20 富士通テン株式会社 Communication type navigation system, navigation center and navigation terminal
JP2003075178A (en) * 2001-09-03 2003-03-12 Pioneer Electronic Corp Communication navigation system and method, map- information providing communication center device, communication navigation terminal, and computer program
JP4860847B2 (en) * 2001-09-03 2012-01-25 パイオニア株式会社 Communication navigation system and method, and computer program
US7013282B2 (en) * 2003-04-18 2006-03-14 At&T Corp. System and method for text-to-speech processing in a portable device
JP4080986B2 (en) * 2003-10-28 2008-04-23 三菱電機株式会社 Voice notification device
JP4556477B2 (en) * 2004-04-19 2010-10-06 株式会社デンソー Voice guidance system
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP4682835B2 (en) * 2005-12-09 2011-05-11 株式会社デンソー Information deletion support device, information backup device, and mobile device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
JP2010048959A (en) * 2008-08-20 2010-03-04 Denso Corp Speech output system and onboard device
US8898568B2 (en) * 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
JP5395464B2 (en) * 2009-03-04 2014-01-22 株式会社ゼンリン Route guidance system
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
JP5303485B2 (en) * 2010-01-27 2013-10-02 株式会社ナビタイムジャパン Route guidance system, terminal device, route search server, route guidance method, and program
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR20150104615A (en) 2013-02-07 2015-09-15 애플 인크. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (en) 2013-03-15 2018-12-14 苹果公司 Training at least partly voice command system
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
CN105453026A (en) 2013-08-06 2016-03-30 苹果公司 Auto-activating smart responses based on activities from remote devices
JP6289489B2 (en) 2013-10-25 2018-03-07 三菱電機株式会社 Movement support apparatus and movement support method
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
TWI566107B (en) 2014-05-30 2017-01-11 蘋果公司 Method for processing a multi-part voice command, non-transitory computer readable storage medium and electronic device
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
JP2018040593A (en) * 2016-09-05 2018-03-15 株式会社ゼンリンデータコム Information processing apparatus, information processing system and information processing method
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
JP7129457B2 (en) * 2020-11-18 2022-09-01 株式会社ゼンリンデータコム Information processing system and information processing device
WO2023073949A1 (en) * 2021-10-29 2023-05-04 パイオニア株式会社 Voice output device, server device, voice output method, control method, program, and storage medium
CN115602171B (en) * 2022-12-13 2023-03-31 广州小鹏汽车科技有限公司 Voice interaction method, server and computer readable storage medium

Also Published As

Publication number Publication date
JPH116743A (en) 1999-01-12

Similar Documents

Publication Publication Date Title
JP3704925B2 (en) Mobile terminal device and medium recording voice output program thereof
US6850842B2 (en) Navigation system for providing real-time traffic information and traffic information processing method by the same
EP1116934B1 (en) Route guiding explanation device and route guiding explanation system
US8090534B2 (en) Method and system for enabling an off board navigation solution
EP1505369B1 (en) Method and system for outputting traffic data to a driver of a vehicle
USRE46109E1 (en) Vehicle navigation system and method
CN107850455B (en) Providing a navigation system with navigable routes
EP1488399B1 (en) Vehicle navigation system and method
US6424910B1 (en) Method and system for providing related navigation features for two or more end users
CA2537388C (en) Off-board navigational system
US6529826B2 (en) Navigation apparatus and communication base station, and navigation system and navigation method using same
US20100100310A1 (en) System and method for providing route calculation and information to a vehicle
US20080147323A1 (en) Vehicle navigation system and method
US20060100779A1 (en) Off-board navigational system
JP2001519029A (en) Navigation-assisted interactive method and its implementation device
US6665610B1 (en) Method for providing vehicle navigation instructions
US20030009280A1 (en) Navigation method and navigation system
JP3791205B2 (en) Vehicle communication system
US8670924B2 (en) Creation of GIS tools and spatial database for limited access highway entrance points in the US and Canada
JP3805397B2 (en) Navigation destination position information expression device for navigation
CA2556640C (en) Off-board navigational system
JP2004286456A (en) Navigation device having expected passing time display function, and expected passing time display method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050530

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

EXPY Cancellation because of completion of term