JP3736391B2 - Target search device - Google Patents

Target search device Download PDF

Info

Publication number
JP3736391B2
JP3736391B2 JP2001191864A JP2001191864A JP3736391B2 JP 3736391 B2 JP3736391 B2 JP 3736391B2 JP 2001191864 A JP2001191864 A JP 2001191864A JP 2001191864 A JP2001191864 A JP 2001191864A JP 3736391 B2 JP3736391 B2 JP 3736391B2
Authority
JP
Japan
Prior art keywords
target
data
search
information
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001191864A
Other languages
Japanese (ja)
Other versions
JP2002071374A (en
Inventor
正浩 末次
恭巳 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2001191864A priority Critical patent/JP3736391B2/en
Publication of JP2002071374A publication Critical patent/JP2002071374A/en
Application granted granted Critical
Publication of JP3736391B2 publication Critical patent/JP3736391B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、目標物検索装置に関するものである。
【0002】
【従来の技術】
従来のナビゲーション装置としては、例えば特開昭61−194473号に示される車載用ナビゲーション装置がある。この車載用ナビゲーション装置は、ディスプレイ装置に使用者が希望するエリアの地図が表示され、使用者が希望する施設を選択すると、この地図画面中に存在する施設の所在位置がマークで表示される。また、使用者の操作に応答して、この地図画面中に表示された施設の説明が表示される。使用者は、地図画面中の施設の表示や説明に基づいて目的地を設定することができる。
【0003】
【発明が解決しようとする課題】
例えば、使用者が乗った自動車が、ナビゲーション装置を利用して、予め設定された目的地までの経路案内に従って走行しているときに、食事や買い物等の要求が発生し、使用者がナビゲーション装置を使って直ちに希望する施設を探そうとしたとする。上記従来のナビゲーション装置では、使用者が希望した施設のジャンルをメニュー表示から選択すると、そのときに表示されている地図中に存在する指定されたジャンルの施設が地図画面中に表示される。
【0004】
しかし、前記施設等の目標物は、自動車の現在位置を基準にして検索されるようになっている。そのため、自動車が高速道路上を走行中に一般道路に沿って存在する目標物を検索すると、高速道路上における現在地を基準にして前記目標物が検索されるが、自動車が一般道路へ降りてからでないと前記目標物に行くことができないので、検索の結果を有効に活用することができない。また、自動車が高架道路やトンネル内を走行中の場合は、次に出現する交差点に到着してからでないと、進路を変更して目標物に行くことができないので、検索の結果を有効に活用することができない。さらに、自動車の走行速度が高い場合は、ある程度減速してからでないと、進路を変更して目標物に行くことができないので、検索の結果を有効に活用することができない。
【0005】
本発明は、前記従来の問題点を解決して、自動車が高速道路上を走行中の場合でも、高架道路、トンネル内等の進路変更ができない場所を走行中の場合でも、また、走行速度が高い場合でも、目標物の検索の結果を有効に活用することができる目標物検索装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
そのために、本発明の目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、高速道路から一般道路に降りるインターチェンジを前記検索基準位置として決定する。
本発明の他の目標物検索装置においては、さらに、前記走行状況は高速道路を走行していることである。
【0007】
本発明の更に他の目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を道路種別に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、前記道路種別に応じて現在位置よりも前方の交差点を前記検索基準位置として決定する
【0008】
本発明の更に他の目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、高架道路又はトンネルを走行している場合、現在位置よりも前方の交差点を前記検索基準位置として決定する。
【0009】
【作用】
これにより、自動車が高速道路上を走行中の場合、高速道路から一般道路に降りるインターチェンジを検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【0010】
また、自動車が高架道路、トンネル内等の進路変更ができない場所を走行中の場合、現在位置よりも前方の交差点を検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【0011】
さらに、自動車の走行速度が高い場合、走行速度に応じて現在位置よりも前方の位置を検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【0012】
【実施例】
図1は、ナビゲーション装置の全体回路を示す。中央処理装置1は、CPU2によってナビゲーション装置の動作制御や演算を行う。ROM3、5には、CPU2で実行されるシステムプログラムや各種パラメータ等が記憶されている。RAM4には、外部から入力されたデータ、及び演算のために用いられる各種パラメータや演算結果等が記憶される。時計6は時間情報を発生する。センサ入力インタフェイス7は、現在位置検出装置20の絶対方位センサ21、相対方位センサ22、距離センサ23、及び加速度センサ24からの検出データを入力して、CPU2へ送る。通信インタフェイス8は、データバス28に接続された装置との間で各種データの送受を行う。
【0013】
画像プロセッサ9は、画像メモリ10に記憶されている画像データを読み出して、CRTや液晶ディスプレイ、プラズマディスプレイ等の画像表示が可能なディスプレイ33に画像データを出力する。画像メモリ10は、ディスプレイ33の画面に表示される画像データを記憶し、画像プロセッサ9との間で画像データの送受を行う。画像プロセッサ9は、CPU2からの指令によって後述する目標物や道路等のデータを表示用データに変換して、ディスプレイ33の画面に表示する画像データを形成する。このとき、画面のスクロールのために、ディスプレイ33に表示される画面の周囲の画像も形成して、画像メモリ10に保存する。音声プロセッサ11は、CPU2によってROM3,5から読み出された合成音声波形データを入力してアナログ波形の音声波形を形成し、スピーカ13へ送る。
【0014】
現在位置検出装置20は、ナビゲーション装置を搭載した自動車(以下、自車という)の現在位置を検出するためのデータを得るための装置である。絶対方位センサ21は、例えば地磁気を検出して絶対方位となる南北方向を示すデータを出力する地磁気センサである。相対方位センサ22は、絶対方位センサ21により検出される絶対方位に対する自車の進行方向の偏差を示すデータを出力するものであり、例えば圧電振動ジャイロ等のジャイロ装置や車輪の操舵角を検出する操舵角センサである。距離センサ23は、自車の走行距離を示すデータを出力するものであり、例えば走行距離メータに連動したデジタルカウンタである。加速度センサ24は、自車の加速度を検出するものであり、例えば半導体加速度センサである。
【0015】
GPS受信装置25は、GPS(Global Positioning system)の信号を受信して位置データを出力する。ビーコン受信装置26は、GPSの補正データやVICS(道路交通情報通信システム)等の情報提供システムからのビーコンを受信して、その受信データを出力する。データ送受信装置27は、双方向式の現在位置情報提供システムとの間で現在位置情報の送受信を行う。
【0016】
データ通信装置30は、VICSやATIS(交通情報サービス)等の道路情報システムとの間で信号の送受信を行う。データ送受信部31は、例えばVICSの送受信部であり、電話発信部32は、例えばATISの通信部である。
【0017】
ディスプレイ33の画面上には、透明なタッチパネル34が設けられている。このタッチパネルは、透明タッチスイッチを平面マトリクス状に配置したものである。プリンタ35は、通信インタフェイス8を介して出力される地図や施設ガイド等の各種情報を印刷する。記録カード読取り装置36は、ICカード、ROMカード、メモリカード等のカード形の記録媒体の読取り装置である。CD−ROMドライバ37は、CD(コンパクトディスク)形の記憶媒体であるCD−ROMの読取り装置である。
【0018】
音声認識装置38は、マイク39で拾われた音声をデジタル信号に変換して、予め決められたコマンドに一致する音声が入力されたか否かを判別し、コマンドに一致する音声が入力された場合には、このコマンドデータをCPU2へ送る。この音声認識装置38は、特定話者認識方式または不特定話者認識方式の何れであっても良い。
【0019】
操作スイッチ40は、ワイヤードリモコンスイッチ或いはワイヤレスリモコンスイッチ、またはディスプレイ33の周囲に配置された手動スイッチであり、メニュー表示や画質調整、目的地設定の開始等のタッチパネル34上で操作する内容以外の操作を指示するためのスイッチである。
【0020】
上記カード形記憶媒体またはCD−ROM等の外部記憶媒体には、図2に示すような各種データファイルが記憶されている。地図データファイルF1には、全国道路地図等の地図データが記憶されている。交差点データファイルF2には、交差点の位置や名称等の交差点に関するデータが記憶されている。ノードデータファイルF3には、道路上に設定されたノードのデータが記憶されている。道路データファイルF4には、道路の位置と種類及び車線数及び各道路間の接続関係等の道路に関するデータが記憶されている。写真データファイルF5には、各種施設や観光地、または主要な交差点等の視覚的表示が要求される場所を写した写真の画像データが記憶されている。
【0021】
目的地データファイルF6は、主要観光地や建物、電話帳に記載されている企業・事業所等の目的地になる可能性の高い場所や施設等の位置と名称等のデータが記憶されている。案内地点データファイルF7には、道路に設置されている案内表示板の内容や分岐点の案内等の案内が必要とされる地点の案内データが記憶されている。詳細目的地データファイルF8には、上記目的地データファイルF6に記憶されている目的地に関する詳細なデータが記憶されている。道路名称データファイルF10には、上記道路データファイルF4に記憶されている道路の中で主要な道路の名称データが記憶されている。分岐点名称データファイルF11には、主要な分岐点の名称データが記憶されている。住所データファイルF11には、上記目的地データファイルF6に記憶されている目的地を住所から検索するためのリストデータが記憶されている。
【0022】
市外・市内局番リストファイルF12には、上記目的地データファイルF6に記憶されている目的地の市外・市内局番のみのリストデータが記憶されている。登録電話番号ファイルF13には、使用者のマニュアル操作によって登録された仕事上の取引先等の覚えておきたい電話番号データが記憶されている。目印データファイルF14には、使用者がマニュアル操作によって入力した走行上の目印になる地点や覚えておきたい場所の位置と名称等のデータが記憶されている。地点データファイルF15には、目印データファイルF14に記憶されている目印地点の詳細なデータが記憶されている。目標物データファイルF16には、ガソリンスタンドやコンビニエンスストア或いは駐車場等の目的地以外に立ち寄りたい場所等の目標物の位置や説明等のデータが記憶されている。
【0023】
図3は、上記目標物データファイルF16の記憶内容の詳細を示す。目標物は複数のジャンルに分類されており、この分類数が目標物ジャンル数データJNとして記憶されている。ジャンルは、施設や場所等の種類に分けられており、例えば、ガソリンスタンド、コンビニエンスストア、駐車場、ホテル、レストラン、ファミリーレストラン、そば屋、喫茶店、駅、地下鉄駅入口、病院、公園、警察、郵便局、ゴルフ場、ゴルフ練習場、寺社、化粧品店、薬局等、走行中に立ち寄る可能性のある施設や場所等の種類である。そして、各ジャンルJ1〜Jnには、各ジャンル毎に決められたジャンルコード番号データJCと目標物件数データmと目標物リストデータL1〜Lmが記憶されている。
【0024】
目標物リストデータL1〜Lmは、m件の目標物の各件毎に、目標物の名称データMM、目標物の電話番号データMT、目標物の地図上の座標データMZ、目標物に関する情報データMDが記憶されている。そして、目標物情報データMDには、その目標物に関する情報が複数の項目に分類されて記憶されている。この項目は、例えば目標物の利用料金、施設の収容能力(駐車台数や収容人員、収容可能な車両の幅、高さ、長さ等)、銘柄(ガソリンスタンドの配給会社名、チェーン店名等)、住所、サービス内容、駐車場の有無、営業時間、レストランの料理の種類、飲食店の情報(高級か否か、チェーン店であるか否か、有名な料理人がいるか等)、コンビニエンスストアの店名等、走行中に立ち寄る場合に選択の条件となる項目に関する情報が記憶されている。
【0025】
図4は、RAM4内に記憶されるデータ群を示す。外部データGDには、上記記録カード読取装置36またはCD−ROMドライバ37によって読み出された外部記憶媒体に記憶されているデータの全部または一部が複写される。現在位置データMPは、現在位置検出装置20によって検出された自車の現在位置データである。絶対方位データZDは、絶対方位センサ21からのデータに基づいて求められたデータである。相対方位角データθ1は、相対方位センサ22からのデータに基づいて求められた自車の進行方向が絶対方位に対してなす角度である。
【0026】
走行距離データMLは、距離センサ23からのデータに基づいて求められた自車の走行距離である。加速度データmaは、加速度センサ24によって検出された加速度である。現在位置情報PIは、ビーコン受信装置26またはデータ送受信装置27から入力された現在位置に関するデータである。VICSデータVDは、データ送受信部31から入力されたVICSのデータである。ATISデータADは、電話発信部32から入力されたATISのデータである。登録目的地データTPは、使用者が登録した目的地の位置や名称等の目的地に関するデータである。
【0027】
登録目標物データSPは、使用者が設定した目標物の位置や名称等の目標物に関するデータである。最適経路データMWは、後述する経路探索処理(ステップ52)で求められた最適経路のデータである。ジャンルコード番号JCは、後述する目標物選択操作処理で選択されたジャンルのジャンルコード番号である。エリア指定データASは、目標物選択操作処理で入力された検索エリアを指定するデータである。サブ基準データKSは、目標物選択操作処理で入力された目標物を検索するためのデータである。このサブ基準データKSは複数の場合がある。
【0028】
基準位置データKPは、後述する基準位置決定処理で決定された目標物の検索の基準位置である。道路情報RDは、後述する自動設定処理で使用される走行中の道路が高速道路であるか一般道路であるか等の情報である。走行速度データVは、自車の走行速度である。検索エリアデータKAは、後述する目標物検索処理で求められた目標物の検索エリアの座標データである。検索目標物データKMは、目標物検索処理で検索された目標物に関するデータであり、外部データGDから拾い出されて記憶される。
【0029】
到達距離データTKは、後述する優先順位決定処理で求められた検索目標物までの到達距離である。優先順位データUNは、優先順位決定処理で決定された検索目標物の選択のために表示される優先順位である。目標物相対方位角データθ2は、検索目標物が絶対方向に対してなす角度である。目標物方向データθは、自車の進行方向と検索目標物とのなす角度である。目的地回避データMKは、目標物登録処理で目標物が登録される前に、保存される当初の目的地データである。図示は省略するが、RAM4には、このほかの各種処理のためのデータや変数データ等が記憶される。
【0030】
図5は、CPU2によって実行される全体処理のフローチャートである。この処理は、電源投入によってスタートし、電源オフによって終了する。スタート時にはCPU2、RAM4、画像メモリ9等のイニシャライズ処理が行われる。そして、現在位置取得処理(ステップ50)、目的地設定処理(ステップ51)、経路探索処理(ステップ52)、案内表示処理(ステップ53)が繰り返し実行される。
【0031】
現在位置取得処理(ステップ50)では、上記現在位置検出装置20から送られたデータに基づいて自車の現在位置が演算される。この現在位置の演算処理では、GPS受信装置25から入力されたデータから緯度及び経度を算出して、この緯度及び経度は現在位置データMPとしてRAM4に記憶される。この現在位置データMPは、ビーコン受信装置26またはデータ送受信装置27から入力された現在位置に関する情報によって修正される。
【0032】
また、絶対方位データZDと、相対方位データSDと、走行距離データMLとに基づいて、自車位置を特定する演算処理が行われる。この演算処理によって求められた自車位置は、外部データGD内の地図データと照合され、地図画面上の現在位置が正確に表示されるように補正が行われる。この補正処理によって、トンネル内等のGPS信号が受信できないときでも自車の現在位置を正確に求めることができる。走行距離データMLは、タイヤのスリップ等による誤差を考慮するために、加速度データmaによって補正される。
【0033】
目的地設定処理(ステップ51)では、目的地の設定操作処理と、目標物選択操作処理とが実行される。目的地の設定操作処理では、使用者による目的地の登録操作により、目的地設定入力画面がディスプレイ33に表示される。使用者は、住所、電話番号、名称の何れかから目的地を特定することができる。また、観光地、各種施設等のジャンル別メニューから1つジャンルを選択すると、選択されたジャンルに記憶されている複数の目的地がリストの形でディスプレイ33に表示される。さらに、各目的地の詳細な案内を表示させることもできる。目的地が決まったら、目的地の確定を指示する操作を行うことにより、確定した目的地に関するデータが登録目的地データTPとしてRAM4に記憶される。
【0034】
目標物選択操作処理は、目的地までの走行途中で立ち寄りたい場所がある場合に、この立ち寄りたい場所を目標物として設定する処理である。設定された目標物に関するデータは、登録目標物データSPとしてRAM4に記憶される。この目標物選択操作処理の詳細は後述する。
【0035】
また、目的地の設定操作処理及び目標物選択操作処理の操作は、タッチパネル34のタッチ操作、操作スイッチ40のスイッチ操作による手動操作のほか、音声認識装置38によって音声入力による操作が可能である。手動操作と音声入力操作の切り換えは、操作スイッチ40に設けられている切り換えスイッチ41によって行われる。この目的地設定操作処理と目標物選択操作処理の切り換え操作も、操作スイッチ40に設けられている切り換えスイッチ42によって行われる。なお、この目的地設定処理(ステップ51)は、新たな目的地設定操作または新たな目標物選択操作が行われない場合には、ジャンプされる。
【0036】
経路探索処理(ステップ52)では、登録目的地データTPまたは登録目標物データSPと、現在位置データMPと、地図データとに基づいて、目的地または目標物までの最適経路が探索され、この最適経路データMWはRAM4に記憶される。そして、この最適経路は、ディスプレイ33に表示された地図画面中に赤色太線で表示される。なお、この経路探索処理(ステップ52)は、最適経路に変更がなければジャンプされる。
【0037】
案内・表示処理(ステップ53)では、経路検索処理(ステップ52)で求められた最適経路に従って自車が走行できるように、案内がスピーカ13から音声によって発音されたり、案内が地図画面中に表示される。
【0038】
以上の処理が繰り返されることにより、ディスプレイ33に表示された地図画面中に、使用者が登録した目的地または目標物までの最適経路と、自車の現在位置及び進行方向とが表示され、自車の進行に応じて、現在位置が修正され、交差点や分岐点等の案内が必要な地点に近づくと、その案内が音声または表示によって報知される。
【0039】
図6は、上記目的地設定処理(ステップ51)内において実行される目標物選択操作処理(ステップ100)のフローチャートである。この処理は、目的地/目標物切り換えスイッチ42の操作によって目標物選択操作の指示があったときに開始される。また、目標物の選択操作は走行中に行われるため、運転の安全性を考慮して、この処理の開始が指令されたときには、自動的に音声入力による操作が可能な状態に設定される。なお、使用者が手動/音声切り換えスイッチ41を操作して手動操作に切り換えたときには、操作スイッチ40の手動操作によって目標物の選択操作が可能になる。また、切り換えスイッチの操作なしに、走行案内中に音声入力を行うことによって、この処理が実行されるようにしても良い。
【0040】
また、この目標物選択操作処理(ステップ100)は、現在位置取得処理(ステップ50)、経路探索処理(ステップ52)及び案内・表示処理(ステップ53)と同様に繰り返し実行される。なお、目標物の選択操作中に交差点に近付いた場合等には、数秒の間だけ割り込み処理により目標物の選択操作を中断して音声と表示による案内が行われ、地図画面表示と最適経路及び現在位置の表示が行われてもよい。
【0041】
この目標物選択操作処理(ステップ100)では、目標物の検索基準を決定する処理(ステップ102)、目標物を検索する範囲の基準位置を決定する処理(ステップ104)、検索基準に従って目標物を検索する処理(ステップ106)、検索された目標物が使用者の希望に合致するものであるかに応じて優先順位を決定する処理(ステップ108)、優先順位を付した目標物を表示する処理(ステップ110)、使用者選択した1つの目標物を登録する処理(ステップ112)が順次実行される。
【0042】
図7は、検索基準決定処理(ステップ102)のフローチャートである。ジャンル入力処理(ステップ120)では、先ずCPU2から音声プロセッサ11へ指令信号が送られ、スピーカ13から、例えば「ジャンルは何ですか」という問いが発音される。なお、この問いの発音の代わりに、使用者が音声入力用の所定のタッチパネル34のキーにより入力しても良い。
【0043】
そして、所定の待機時間の間に音声認識装置38から音声入力があった場合には、CPU2は、入力された音声データを所定の演算によってコードデータに変換する。そして、この入力されたコードデータと外部データGD内の目標物データファイルF16のジャンルコード番号JCとが照合されて、一致するジャンルコード番号が求められる。この音声入力と一致するジャンルコード番号データJCはRAM4に記憶される。例えば、使用者が目的地へ行く途中で、ガソリンスタンドへ立ち寄ることを希望した場合には、「ガソリンスタンド」と発声することによって、ガソリンスタンドのジャンルコード番号JCが記憶される。
【0044】
エリア入力処理(ステップ122)では、CPU2から音声プロセッサ11へコマンド信号が送られ、スピーカ13から「検索エリアを指定して下さい」という音声が発生される。なお、この音声発生の代わりに、タッチパネル34のキー入力によっても良い。そして、所定の待機時間の間に音声認識装置38から音声入力があった場合には、CPU2によって入力された音声データがエリア指定データASに変換されてRAM4に記憶される。なお、このようにエリアを指定せずに、全てのデータから目標物を検索することもできるが、上述のごとく検索された目標物に優先順位を付する場合、基準位置から近いものが選定されることが多く、予めエリアを設定して検索するほうが処理速度が速い。
【0045】
目的地までのナビゲーション動作中に表示される地図画面の縮尺が「広域」と「詳細」の大小2種類から選択できる場合には、例えば、使用者が「コウイキ」と発声することにより、広域表示画面内を検索エリアとするように、広域指定データがエリア指定データASとして記憶される。また、使用者が「ショウサイ」と発声することにより、詳細表示画面内を検索エリアとするとするように、詳細指定データがエリア指定データASとして記憶される。
【0046】
また、地図表示画面の縮尺値が3種類以上選択できる場合には、それぞれの縮尺を選択する言葉を決めておき、使用者がその言葉を発声したときに、該当する縮尺サイズデータがエリア指定データASとして記憶される。また、上記のように、予め決められた縮尺で表示される地図画面全域を検索エリアとして指定するほかに、「半径10キロ」或いは「10キロ四方」のような音声入力によって、後述する基準位置KPを中心とする所定半径または所定距離四方の範囲を検索エリアとすることができる。この場合には、音声入力された半径データまたは辺の長さデータがエリア指定データASとして記憶される。また、特定の「市町村名」を音声入力することによって、その市町村の存在する範囲を検索エリアとすることもできる。
【0047】
以上の目標物のジャンルと検索エリアがメインの検索基準であり、さらに次のステップ124では、目標物のジャンル毎に特有のサブ基準が入力される。この処理では、CPU2から音声プロセッサ11へコマンド信号が送られ、スピーカ13から上記指定されたジャンルコード番号JCに応じた内容のサブ基準を要求する音声が発生される。例えば、指定ジャンルが「ガソリンスタンド」であれば「銘柄は何ですか」という音声、指定ジャンルが「レストラン」であれば「料理の種類は何ですか」という音声が発音される。
【0048】
そして、所定の待機時間の間に音声認識装置38から音声入力があった場合には、CPU2によって入力された音声データがサブ基準データKSに変換されて、RAM4に記憶される。また、CPU2によって、使用者の選択を要しない項目に関するサブ基準が自動的に選択されてRAM4に記憶される。例えば、「方向」、或いは指定ジャンルがパーキングの場合には「パーキング」等を表すサブ基準データKSが記憶される。このサブ基準は、目標物データファイルF16の目標物情報データMDに記憶されている項目である。
【0049】
図8は、基準位置決定処理(ステップ104)のフローチャートである。先ず、CPU2から音声プロセッサ11へコマンド信号が送られて、スピーカ13から「基準位置を指定して下さい」という音声が発音される。そして、所定の待機時間が経過するまでに、使用者は、現在位置、走行開始前に設定した目的地、目的地までの最適経路上に存在する交差点や建物等の通過点、ディスプレイ33に表示されている地図画面の中心、現在ディスプレイ33に表示されている最適経路表示上の交差点や建物等のルート上の地点のうちから希望する地点を音声によって入力する。
【0050】
使用者の音声入力があった場合には、CPU2によって音声入力データの内容が解析されて、現在位置から離れた位置が指定された場合には、指定された地点が基準位置データKPとしてRAM4に記憶される(ステップ148)。すなわち、目的地が指定された場合(ステップ134)には、登録目的地データTPの地図上の位置データが読み出されて基準地データKPとして記憶される。
【0051】
通過点の指定またはルート上の地点の指定(ステップ136、140)は、使用者によって交差点や建物等の名称が音声によって入力されるから、CPU2によって、交差点データファイルF2及び目的地データファイルF6から音声入力された名称データと同一の名称データを有する地点が検索される。そして、求められた地点の位置データが基準位置データKPとして記憶される。地図中心が指定された場合(ステップ138)には、ディスプレイ33に表示されている地図画面の中心座標の位置データが基準位置データKPとして記憶される。なお、以上の地点以外でも基準位置として指定できるようにしても良い。
【0052】
現在位置が指定された場合(ステップ132)または上記所定待機時間内に音声入力が無かった場合(ステップ130)には、現在走行中の道路情報に基づいて現在位置または現在位置から離れた位置を基準位置とする自動設定処理(ステップ142)が行われる。この自動設定処理によって現在位置が基準位置とされる場合(ステップ144)には、この走行速度に応じて基準位置を補正する処理(ステップ146)が実行される。なお、上記入力は音声でなく、タッチパネル等のキー入力でも良い。
【0053】
図9は、上記基準位置の自動設定処理(ステップ142)のフローチャートである。CPU2によってRAM4から現在位置データMPが読み出される(ステップ150)。そして、この現在位置データMPに基づいて道路データファイルF4が検索され、走行中の道路情報が求められる(ステップ152)。これは、RAM4に記憶されている現在位置情報PIから求めても良い。求められた道路情報RDはRAM4に記憶される。この道路情報RDには、走行中の道路が高速道路であれば“01”、高架道路またはトンネルであれば“10”、それ以外であれば“00”がセットされる。
【0054】
使用者によって現在位置が基準位置として指定されても、現在走行中の道路が高速道路であれば、サービスエリア以外の目標物へは、一般道路へ降りなければ行くことができないので、一般道路へ降りた地点が基準位置とされる。すなわち、目的地までの最適経路上の降りる予定になっているインターチェンジが地図データファイルF1から検索され、このインターチェンジの位置が基準位置KPとしてRAM4に記憶される(ステップ156)。
【0055】
また、現在走行中の道路が高架道路またはトンネルであれば、現在位置から右折または左折することはできないから、次に現れる交差点が交差点データファイルF2から検索されて、この交差点の位置が基準位置KPとして記憶される(ステップ160)。そして、現在走行中の道路が一般道路で高架でもトンネルでも無い場合には、現在位置MPが基準位置KPとされるのであるが、この現在位置MPは、さらに、基準位置補正処理(ステップ146)によって補正される。
【0056】
図10は、上記基準位置補正処理(ステップ146)のフローチャートである。現在位置が基準位置として選択された場合には、急な右左折は不可能であるから走行速度Vに応じて、基準位置が現在位置よりも前方へ補正される。CPU2によって時計6からのクロック信号と距離センサ23からの走行距離データMLとから現在の走行速度Vが検出される(ステップ170)。これは、スピードメータ(図示略)から出力される走行速度データでも良い。
【0057】
そして、CPU2によってこの検出された走行速度に応じた補正距離ALが求められる(ステップ172)。この補正距離ALは、所定の演算を実行したり、予め走行速度Vと補正距離ALを対応させて記憶されたメモリテーブルから読み出すことによって決定される。次に、CPU2にRAM4から現在位置データMPが読込まれ(ステップ174)、現在位置よりも前方へ補正距離ALを加算した位置が基準位置とされる(ステップ176)。この補正後の位置は、基準位置データKPとしてRAM4に記憶される。
【0058】
図11は、上記目標物検索処理(ステップ106)のフローチャートである。上記検索基準決定処理(ステップ102)で、使用者が検索エリアの半径または辺の長さを指定した場合には(ステップ180)、CPU2にRAM4の基準位置データKP及びエリア指定データASが読み込まれ(ステップ182)、この基準位置を中心とする使用者によって音声入力された半径の円、または使用者によって音声入力された長さを一辺とする正方形が検索エリアとして想定される(ステップ184)。この想定された検索エリアKAは、基準位置KPを中心とした円または正方形の地図座標データの形でRAM4に記憶される。
【0059】
また、上記検索基準決定処理(ステップ102)で使用者が「広域」または「詳細」、或いは縮尺サイズを指定した場合には、CPU2によって、エリア指定データASの内容が判別され(ステップ186)、基準位置データKPが読み込まれる(ステップ188)。そして、使用者によって指定された縮尺の地図画面の中心が基準位置KPに一致するように、地図画面の範囲が想定され、この範囲の地図座標データが検索エリアKAとしてRAM4に記憶される(ステップ190)。
【0060】
そして、CPU2にRAM4に記憶されているジャンルコード番号データJCが読み込まれ(ステップ192)、このジャンルコード番号JCに一致するジャンルが目標物データファイルF16から読み出されて、さらに、この読み出されたジャンル内の目標物座標データがサーチされることによって、上記検索エリアKAの地図座標内に存在する目標物が検索される(ステップ194)。検索された各目標物の名称データMM、電話番号データMT、座標データMZ、情報データMDが読み出されて、検索目標物データKMとしてRAM4に記憶される。
【0061】
図12は、上記優先順位決定処理(ステップ108)のフローチャートである。先ず、CPU2によってRAM4の現在位置データMPが読み込まれる(ステップ200)。また、検索目標物データKMの中から各検索目標物の地図座標データMZが読み込まれる(ステップ202)。そして、現在位置から各検索目標物までの到達距離TKが計算によって求められる(ステップ204)。この到達距離TKは、ピタゴラスの定理によって求められた直線距離、或いは、地図データファイルF1を用いて求められた各検索目標物までの経路(最短経路でも良いし、道路情報を考慮した最適経路でも良い)の全長である。求められた各検索目標物までの到達距離データTKは、RAM4に記憶される。
【0062】
さらに、CPU2にRAM4のサブ基準データKSが読み込まれ(ステップ206)、このサブ基準データKSに応じて到達距離TKに重み付けが行われたり、不要な検索目標物データKMが消去される(ステップ208)。そして、CPU2によって重み付けされた到達距離TKや残された検索目標物データKMに応じて優先順位が決定される(ステップ210)。この決定された優先順位データUNはRAM4に記憶される。
図13と14は、上記サブ基準データKSに応じて到達距離TKを変更する処理(ステップ208)のフローチャートである。この処理では、CPU2によってサブ基準データKSの内が判別される(ステップ220、250、260、…)。サブ基準データKSに「方向」を表すデータが記憶されていたときには、基準位置データKPが現在位置であるか否かが判別される(ステップ222)。現在位置が基準位置に設定されている場合には、各検索目標物と自車との角度が計算され、この計算結果から各検索目標物が自車の進行方向に対してどの方向に存在するかが求められる(ステップ224)。
【0063】
各検索目標物と自車との角度は、次のようにして計算される。先ず、CPU2によって、RAM4から相対方位角データθ1が読み出される。この相対方位角θ1は、自車の進行方向が北方向に対してなす角度であり、北方向から反時計回りに0〜180度、時計回りに0〜−180度の値で表されている。また、CPU2によって、RAM4から現在位置データMPと各検索目標物の座標データMZが読み出され、この座標データMZと現在位置データMPとからtanθ2が計算され、この計算されたtanθ2から各検索目標物の北方向に対する相対方位角θ2が求められる。この検索目標物の相対方位角θ2はRAM4に記憶される。
【0064】
そして、CPU2によって、自車の進行方向に対する検索目標物の方向θが
θ=θ2−θ1
という計算によって求められ、この目標物方向データθはRAM4に記憶される。さらに、この目標物方向θには、
θ>180度の場合 … θ=θ−360度
θ<−180度の場合 … θ=360度+θ
という演算処理が施される。
【0065】
そして、この演算処理の結果から、各検索目標物が自車に対してどの方向に存在するかが判別される。この方向の判別は、次の基準に従って行われる。
0≦θ≦90 の場合には「左前方」
−90≦θ<0 の場合には「右前方」
90<θ≦180 の場合には「左後方」
−180≦θ<−90 の場合には「右後方」
この判別結果は、各検索目標物データKMにフラグの形で付加される。例えば、「左前方」の場合には、“01”、「右前方」の場合には、“10”、「左後方」または「右後方」の場合には、“11”がフラグとして付加される。
【0066】
次に、CPU2によって、上記目標物の方向が「左前方」であれば、この目標物の到達距離TKに“1”が乗算され、新たな到達距離TKとしてRAM4に更新記憶される(ステップ230)。また、目標物の方向が「右前方」であれば、この目標物の到達距離TKに“1.5”が乗算され、新たな到達距離TKとしてRAM4に更新記憶される(ステップ234)。また、目標物の方向が「左後方」若しくは「右後方」であれば、この目標物の到達距離TKに“2”が乗算され、新たな到達距離TKとしてRAM4に更新記憶される(ステップ238)。
【0067】
このように、左通行の場合には、「左前方」、「右前方」、「後方」の順に立ち寄り易いので、最も立ち寄り易い目標物の到達距離が小さくなるように重み付けが行われる。以上の方向の計算と重み付け処理(ステップ222〜238)は、検索目標物KMの全てについて実行される(ステップ240)。
【0068】
また、基準位置が現在位置では無い場合には、基準位置データKPが読み出されて、現在位置の代わりにこの基準位置データKPを用いて上記の処理が実行される。これによって、基準位置における自車の位置に対する目標物の方向が求められ、この目標物の方向に応じて到達距離TKに重み付けが行われる。基準位置における自車の方位角θ1は、基準位置における最適経路の進行方向が北方向に対してなす角度であり、道路データファイルF3から計算によって求められる。
【0069】
指定ジャンルが「パーキング」の場合には、サブ基準KSに「パーキング」に対応するデータが記憶されている。CPU2によってサブ基準KSが順番に読み出されたとき、この「パーキング」データが含まれていた場合には、図14に示されるように、VICSデータVDまたはATISデータAD等の道路情報が読み込まれて、この読み込まれた情報の中から「満車情報データ」が拾い出される(ステップ252)。この満車情報データは、検索目標物データKMにフラグの形で付加される。そして、CPU2によって、「満車情報データ」付加された検索目標物データKMが消去される。これによって満車のパーキングは目標物として表示されなくなる。
【0070】
次に、CPU2によって、残された各検索目標物データKM中の収容台数データを読み出して、この収容台数に応じて各検索目標物の到達距離TKに重み付けを行う。例えば、収容台数が50台未満の場合には“2”、50〜99台の場合には“1.5”、100台以上の場合には“1”が到達距離TKに乗算される。これによって、収容台数が多いほど到達距離TKが小さい値となるように重み付けが行われる。
【0071】
指定ジャンルが「ガソリンスタンド」や「コンビニエンスストア」等の場合には、サブ基準KSに配給会社、チェーン店名等の「銘柄」データが含まれている。この場合には、CPU2によって、この指定された銘柄のコードデータと残された各検索目標物データKMの銘柄コードとが対照されて、指定銘柄とは異なる銘柄の検索目標物データKMが消去される。すなわち、指定銘柄の検索目標物データKMのみが選択抽出される(ステップ262)。これより、使用者が指定した銘柄以外の目標物は表示されなくなる。
【0072】
さらに、図示及び説明は省略するが、上記のサブ基準の他に、例えば方向、距離、料金等の「上限と下限」、市内、市外、収容台数、営業時間帯等の「指定範囲」、特定の目標物の「選択指定」、特定目標物の「除外指定」、「料金」、池の近くや港等といった「位置」、山の上や屋上といった「高度」、海の中や地下等の「深度」、或いは「大きさ」、「属性」、「特性」、「内容」、「性質」等をサブ基準KSとすることができる。このようなサブ基準KSがRAM4に記憶されている場合には、このサブ基準KSに応じて到達距離TKの重み付け、または不要な検索目標物データKMの消去等が行われる。
【0073】
また、道路情報のほかに、目標物が存在する地域の情報、工事や通行規制、急な坂道の存在等の目標物までの進路情報に基づいて、到達距離TKに重み付け、または不要な検索目標物データKMの消去等が行われる。
【0074】
図15は、優先順位決定処理(ステップ210)のフローチャートである。CPU2によって残されている検索目標物データKMが読み出され、この残された検索目標物KMに対応する到達距離データTKが読み出される(ステップ270)。そして、読み出された到達距離データTKは小さい順に並べられ(ステップ272)、到達距離データTKが小さい順に優先順位が決定される(ステップ274)。優先順位データUNは、各検索目標物データKMに対応するようにRAM4に記憶される。
【0075】
図16は、目標物表示処理(ステップ110)のフローチャートである。CPU2によってRAM4から残されている検索目標物データKMと優先順位データUNが読み込まれる(ステップ280)。そして、CPU2から画像プロセッサ9へ指令が送られて、画像メモリ10から基準位置KPを中心として指定された縮尺の地図画面が読み出される。
【0076】
この画像メモリ10から読み出された画像データには、検索目標物のマーク及び名称と優先順位が付加されて、この画像データがディスプレイ33に地図画面として表示される(ステップ282)。例えば、「そば屋」が目標物のジャンルとして指定された場合には、図17に示すように、目標物のマーク60〜62とともに、その名称と優先順位を示す数字63〜65が地図画面中に表示される。
【0077】
なお、図17は、優先順位が1位から3位までの目標物にのみ名称と優先順位が付される例である。また、使用者が画面中の「リスト」の文字を指でさわることにより、図18に示すように、各検索目標物KMの名称、電話番号、店の質のランク等の内容が優先順位とともにリストの形でディスプレイ33に表示される(ステップ284、286)。画面中の「戻る」の文字67を指でタッチすることにより、図17の地図画面表示に戻る。また、このリストは、プリンタ35によって印刷することもできる。
【0078】
そして、使用者が図17中の目標物マーク60〜62、または図18中の優先順位(図中左端の数字)若しくは名称に指でタッチすることによって、タッチされた目標物の位置を画面中心とした地図画面(以下、目的地設定画面という)がディスプレイ33に表示される(ステップ288、290)。例えば、図17中または図18中の「山本屋」が選択されたとすると、図19に示すように、山本屋のマーク60が画面中心に移動し、画面上部に屋号68が表示される。この状態で、「戻る」の文字67を指でタッチすれば、図17の表示画面に戻る。また、「セット」文字72をタッチすれば、この山本屋が目的地として登録される(ステップ292、112)。
【0079】
また、「位置変更」の文字71をタッチすると、画面中心を囲む小円で表示された中心カーソル69と、その周囲に8方向を示す矢印70が表示される(ステップ294、296)。この画面は、使用者が画面中央に表示された目標物を他の目標物を変更したい場合に利用される。使用者が何れかの矢印70にタッチすることによって、タッチされた矢印70の方向へ画面がスクロールされる(ステップ296)。
【0080】
使用者は、画面のスクロールによって希望する目標物のマークが中心カーソル69内に入るように、矢印70のタッチ操作を行う。例えば、使用者が図19中のマーク73を選択した場合には、図20に示されるように、このマーク73が中心カーソル69内に入るように画面のスクロール操作を行う。選択される新たな目標物は、使用者が指定したジャンルに限定されず、ディスプレイ33に表示されている場所や施設等から自由に選択できる。図20には、レストランが選択された場合を示す。
【0081】
矢印70のタッチ入力が所定時間行われない場合には、矢印70の表示が消され、「位置変更」の文字71と「セット」の文字72が表示された目的地設定画面が表示される。この状態で「位置変更」の文字72がタッチされると、再び矢印70が表示されて、画面のスクロールが可能となる。また、「セット」の文字72がタッチされると、中心カーソル69内の目標物が目的地として登録される(ステップ292、112)。
【0082】
図21は、目標物登録処理(ステップ112)のフローチャートである。上記目的地設定画面が表示されている状態において、「セット」の文字72がタッチされた場合には、CPU2によって、目的地設定操作処理において設定された当初の登録目的地データTPがRAM4内の所定の回避エリアMKに移転記憶される(ステップ300)。これによって、当初の目的地に関するデータが保存される。
【0083】
次に、CPU2によって画面中心の座標が読み込まれ(ステップ302)、この座標を有する施設等のデータがRAM4内の目標物データファイルF16から検索されて、該当する目標物データが読み出される(ステップ304)。そして、この目標物データが新たな登録目的地データTPとしてRAM4に記憶される(ステップ306)。
【0084】
目標物の登録が終了すると、この目標物が新たな目的地となり、ディスプレイ33の表示画面は自車周辺の地図画面に戻って、目標物までの経路探索処理(ステップ52)及び案内・表示処理(ステップ53)が行われる。これにより、目標物までの最適経路表示や交差点案内等によって、使用者が指定した目標物までのナビゲーションが行われる。そして、使用者が目標物に立ち寄った後に、目的地復帰操作を行うことによって、回避されていた当初の目的地データが再び目的地データTPにセットされ、当初の目的地までのナビゲーションが再開される。
【0085】
以上のように、この実施例のナビゲーション装置は、当初設定された目的地まで行く途中で、立ち寄りたい場所が生じたときに、簡単な操作で目標物を選択することができる。また、選択された目標物が複数ある場合には、使用者が指定した基準または自動設定された基準に基づいて、使用者の希望に合致する目標物から順に優先順位が自動的に決定され、この優先順位が使用者に分かり易いように表示されるので、使用者にとって目標物を決定する時間が短縮され、目標物の選択操作中の安全性が保たれる。
【0086】
また、音声入力やタッチパネル或いはスイッチ等の入力手段によって、上記基準位置または検索基準の情報を入力するようにしたことにより、使用者の希望する目標物を位置的または内容的に絞ることができる。これにより、処理を迅速化でき、使用者の希望により適合した目標物を検索することができる。また、音声入力による操作が可能であるから、運転中に目標物の選択操作を行っても、運転の安全性を損なうことがない。
【0087】
また、所定の条件により基準位置を変更するようにしたことによって(ステップ104、142、146)、現在の走行状況に応じた基準位置の設定ができる。例えば自車の速度が速い時には基準位置をより前方に設定することができ、また高速道路を走行中には下りるインターチェンジを基準位置とすることができる。また、基準位置が現在位置のほかに、現在位置から離れた位置に設定することができることにより(ステップ104)、位置的な条件に関する使用者の希望に合致した目標物を検索することができる。
【0088】
さらに、検索基準が固定されておらず、目標物のジャンルによって可変としたり、使用者の好みに応じて設定を変更することができる(ステップ102)。これによって、より使用者の希望に合致した目標物の情報を提供できる。また、距離や方向等の地理的関係に基づいて目標物に優先順位を付することによって(ステップ208)、目標物までの到達の容易さを基準とした目標物の情報を得ることが可能となる。また、目標物に関する情報の内容により優先順位を付することにより(ステップ250、260)、目標物のジャンルに応じた基準による目標物の情報を得ることができる。
【0089】
さらに、目標物の情報が多様な項目に関して記憶されていることにより(目標物データファイルF16)、多様な検索基準を設定することができ、使用者の多様な希望に対応して、その希望に最も適合する目標物を検索して表示することができる。また、VICSやATIS等の外部情報を取り入れて目標物の優先順位を決定することにより(ステップ208、252)、駐車場の満車情報や道路の混雑状況、或いは店の情報等をオンタイムで得ることができ、より使用者の希望に合致した目標物の情報を得ることが可能となる。また、検索した目標物に優先順位を付加して表示することにより(ステップ110)、使用者は、どの目標物が最も使用者の希望に合致しているものなのかを即座に判断することができる。
【0090】
本発明は上記実施例に限定されず、本発明の趣旨を逸脱しない範囲で種々変更可能である。例えば、図2に示される各種のデータファイルを記憶するための外部記録媒体は、フロッピーディスク等の書き込みが可能な記録媒体でも良い。
【0091】
また、サブ基準データKSは、目標物データファイルF16内の目標物情報データMDに記憶されている項目に限られず、使用者が予め自由に決めた項目を登録できるようにして、この登録された項目を目標物選択操作処理(ステップ100)においてサブ基準KSとして選択するようにしても良い。
【0092】
さらに、目標物表示処理(ステップ110)において、検索目標物と優先順位を表示する場合に、図17のような地図画面よりも先に図18のようなリスト画面が表示されるようにして、所定の操作によって地図画面に切り換えられるようにしても良い。また、図17のような地図画面表示中、または図18のようなリスト画面表示中における優先順位の表示は、使用者に分かり易い表示であればどのような表示であっても良い。例えば、目標物のマークや名称の表示の色、明度、照度、大きさ、形を優先順位に応じて変えても良いし、表示を点滅させても良い。これによって、使用者は視覚的に情報を得易くなり、特に走行中に操作をする場合には便利である。勿論、音声によって優先順位を発音しても良い。
【0093】
また、上記基準位置KPは、現在位置或いは目的地等の予め特定された1地点に固定され、使用者によって選択され得ないようにしても良く、これによって、処理量を削減して安価なナビゲーション装置を提供することができる。さらに、本発明は、自動車以外の車両や、船舶、航空機、ヘリコプタ等のナビゲーション装置としても適用でき、ナビゲーションに用いられる地図は、道路地図の他に、海図や海底地図等でも良い。
【0094】
さらに、従来の技術の問題点を解決するための手段として、以下のようなものを示すことができる。
【0095】
ナビゲーション装置においては、複数の目標物につき、目標物を表す情報とこの目標物に関する情報とを対応させて記憶する目標物記憶手段と、この目標物記憶手段に記憶された目標物を検索するにあたって基準位置の情報を記憶する基準位置記憶手段と、上記目標物記憶手段に記憶された目標物を検索するにあたって検索の基準となる検索基準情報を発生する検索基準情報発生手段と、この検索基準情報から発生された検索基準情報に応じた目標物について、上記目標物記憶手段より目標物を表す情報またはこの目標物に関する情報を読み出す目標物情報読み出し手段と、上記基準位置記憶手段より基準位置情報を読み出す基準位置情報読み出し手段と、上記目標物情報読み出し手段によって読み出された各目標物を表す情報またはこの目標物に関する情報と上記基準位置情報読み出し手段によって読み出された基準位置情報との関係から各目標物の優先順位を決定する優先順位決定手段と、この優先順位決定手段により決定された優先順位の情報を表示させる表示手段とを備える。
【0096】
他のナビゲーション装置においては、さらに、音声入力装置、または地図表示装置の表示面に装着されたタッチパネル、或いはスイッチ等の入力手段を備え、この入力手段によって使用者が行う操作に関する情報が入力され、またはこの入力手段によって上記基準位置の情報或いは検索基準情報が入力される。
【0097】
更に他のナビゲーション装置においては、さらに、上記基準位置情報読み出し手段により読み出された基準位置情報を、走行中の道路種別や走行速度や道路網情報等の所定条件に応じて変更する基準位置情報変更手段を備える。
【0098】
更に他のナビゲーション装置においては、さらに、上記検索基準情報は、上限と下限、または指定された範囲、または特定の目標物の選択指定、または特定目標物の除外指定、または目標物の種類、または目標物の性質に関して、外部から入力されたデータ、または使用者がマニュアル操作によって入力したデータ、または予め記憶されたデータである。
【0099】
更に他のナビゲーション装置においては、さらに、上記基準位置は、現在位置、または現在位置から離れた位置であり、この基準位置は、固定されているか、または修正変更可能である。
【0100】
更に他のナビゲーション装置においては、さらに、上記目標物の情報と基準位置情報との関係は、距離や方向等の地理的関係、または目標物に関する情報の内容の関係である。
【0101】
更に他のナビゲーション装置においては、さらに、上記目標物を表す情報とは、施設や建造物や地形の種類、または目標物の種類若しくは内容、または、目標物の、位置、高度、深度、大きさ、属性、特性、性質等である。
【0102】
更に他のナビゲーション装置においては、さらに、上記優先順位決定手段は、さらに通信媒体を介して外部から入力される道路情報や地域情報等の目標物までの進路情報に基づいて優先順位を決定する。
【0103】
更に他のナビゲーション装置においては、さらに、上記表示手段は、地図表示装置の地図画面中に検索された目標物のマークとともに優先順位を表示したり、地図表示装置にリストの形で優先順位を表示したり、或いは地図表示装置の地図画面中に表示された目標物のマークの色を優先順位に応じて変えることにより優先順位を表示する。
【0104】
更に他のナビゲーション装置においては、複数の目標物につき、目標物を表す情報とこの目標物に関する情報とを対応させて記憶する手段と、この目標物を検索するにあたって基準位置の情報を設定する手段と、上記目標物を検索するにあたって検索の基準となる検索基準情報を発生する手段と、この発生された検索基準情報に応じた目標物について、上記目標物を表す情報またはこの目標物に関する情報を読み出す手段と、この読み出された各目標物を表す情報またはこの目標物に関する情報と上記設定された基準位置情報との関係から各目標物の優先順位を決定する手段と、上記目標物をこの決定された優先順位の順番に出力する手段とを備える。
【0105】
更に他のナビゲーション装置においては、さらに、上記目標物は、上記決定された優先順位の順番に並べてリストの形で表示される。
【0106】
更に他のナビゲーション装置においては、複数の目標物につき、目標物を表す情報とこの目標物に関する情報とを対応させて記憶する手段と、この目標物を検索するにあたって基準位置の情報を設定する手段と、上記目標物を検索するにあたって検索の基準となる検索基準情報を発生する手段と、この発生された検索基準情報に応じた目標物について、上記目標物を表す情報またはこの目標物に関する情報を読み出す手段と、この読み出された各目標物を表す情報またはこの目標物に関する情報と上記設定された基準位置情報との関係から各目標物の優先順位を決定する手段と、この決定された優先順位の情報を上記目標物に対応させて出力する手段とを備える。
【0107】
ナビゲーション方法においては、複数の目標物につき、目標物を表す情報とこの目標物に関する情報とを対応させて記憶する手段に対して、この目標物を検索するにあたって基準位置の情報を設定させ、上記目標物を検索するにあたって検索の基準となる検索基準情報を発生させ、この発生された検索基準情報に応じた目標物について、上記目標物を表す情報またはこの目標物に関する情報を読み出しさせ、この読み出された各目標物を表す情報またはこの目標物に関する情報と上記設定された基準位置情報との関係から各目標物の優先順位を決定させ、上記目標物をこの決定された優先順位の順番に出力させる。
【0108】
目標物検索装置においては、複数の目標物を検索するにあたって検索の基準となる検索基準情報を発生し、この発生された検索基準情報に応じて、検索される各目標物に対して優先順位を決定し、当該各目標物を当該優先順位の順番に出力する手段を備える。
【0109】
他の目標物検索装置においては、さらに、上記複数の目標物は、少なくとも目標物を表す情報とこの目標物に関する情報とを対応させたものであり、上記検索基準情報は、この目標物を検索するにあたって検索の基準となる上記検索基準情報と、上記目標物を検索するにあたっての基準位置の情報とを含み、上記各目標物の優先順位は、上記各目標物の情報と上記基準位置情報とに基づいて決定される、またはこの両情報の関係から決定される。
【0110】
更に他の目標物検索装置においては、複数の目標物につき、目標物の情報を記憶する手段と、この目標物を検索するための基準位置の情報と検索の基準となる検索基準情報とに応じて、検索される各目標物の優先順位を決定する手段と、
上記目標物をこの決定された優先順位の順番に出力する手段とを備える。
【0111】
更に他の目標物検索装置においては、複数の目標物を検索するにあたって検索の基準となる検索基準情報を発生し、この発生された検索基準情報に応じて、検索される各目標物に対して優先順位を決定し、当該優先順位の情報を出力する手段を備える。
【0112】
更に他の目標物検索装置においては、複数の目標物につき、目標物の情報を記憶する手段と、この目標物を検索するための基準位置の情報と検索の基準となる検索基準情報とに基づき、検索される各目標物の優先順位を決定する手段と、この決定された優先順位の情報を上記目標物に対応させて出力する手段とを備える。
【0113】
目標物検索方法においては、複数の目標物を検索するにあたって検索の基準となる検索基準情報を発生させ、この発生された検索基準情報に応じて、検索される各目標物に対して優先順位を決定させ、当該各目標物を当該優先順位の順番に出力させる。
【0114】
他の目標物検索方法においては、複数の目標物につき、目標物の情報を記憶する手段に対して、この目標物を検索するための基準位置の情報と検索の基準となる検索基準情報とに応じて、検索される各目標物の優先順位を決定させ、上記目標物をこの決定された優先順位の順番に出力させる。
【0115】
更に他の目標物検索方法においては、複数の目標物を検索するにあたって検索の基準となる検索基準情報を発生させ、この発生された検索基準情報に応じて、検索される各目標物に対して優先順位を決定させ、当該優先順位の情報を出力させる。
【0116】
更に他の目標物検索方法においては、複数の目標物につき、目標物の情報を記憶する手段に対して、上記目標物を検索するための基準位置の情報と検索の基準となる検索基準情報とに基づき、検索される各目標物の優先順位を決定させ、この決定された優先順位の情報を上記目標物に対応させて出力させる。
【0117】
そして、複数の目標物につき、目標物を表す情報とこの目標物に関する情報とを対応させて記憶する目標物記憶手段(外部記録媒体、RAM4、目標物データファイルF16)と、この目標物記憶手段に記憶された目標物を検索するにあたって基準位置の情報を記憶する基準位置記憶手段(RAM4、ステップ104)と、上記目標物記憶手段に記憶された目標物を検索するにあたって検索の基準となる検索基準情報を発生する検索基準情報発生手段(RAM4、ステップ102、182、186、192)と、この検索基準情報から発生された検索基準情報に応じた目標物について、上記目標物記憶手段より目標物を表す情報またはこの目標物に関する情報を読み出す目標物情報読み出し手段(ステップ106)と、上記基準位置記憶手段より基準位置情報を読み出す基準位置情報読み出し手段(ステップ200、226)と、上記目標物情報読み出し手段によって読み出された各目標物の情報と上記基準位置情報読み出し手段によって読み出された基準位置情報との関係から各目標物の優先順位を決定する優先順位決定手段(ステップ108)と、この優先順位決定手段により決定された優先順位の情報を表示させる表示手段(ステップ110)とを備えたことを特徴とするナビゲーション装置である。 本発明は、目標物の検索の基準となる検索基準情報に基づいて使用者が希望する目標物を検索し、さらに、目標物の情報と基準位置情報との関係から各目標物の優先順位を決定し、この決定した優先順位の情報を表示する。これによって、自動車が走行中であっても、使用者は、優先順位を参考にして希望に合致した目標物を短時間で選択することができる。このため、運転に専念することができる。
【0118】
なお、本発明は前記実施例に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。
【0119】
【発明の効果】
以上詳細に説明したように、本発明によれば、目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、高速道路から一般道路に降りるインターチェンジを前記検索基準位置として決定する。
他の目標物検索装置においては、さらに、前記走行状況は高速道路を走行していることである。
【0120】
この場合、自動車が高速道路上を走行中の場合、高速道路から一般道路に降りるインターチェンジを検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【0121】
更に他の目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を道路種別に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、前記道路種別に応じて現在位置よりも前方の交差点を前記検索基準位置として決定する
【0122】
この場合、自動車が高架道路、トンネル内等の進路変更ができない場所を走行中の場合、現在位置よりも前方の交差点を検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【0123】
更に他の目標物検索装置においては、複数の目標物に関する情報を記憶する手段と、前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、前記検索基準位置を基準にして前記目標物を検索する手段と、検索された前記目標物に関する情報を出力する手段とを有し、高架道路又はトンネルを走行している場合、現在位置よりも前方の交差点を前記検索基準位置として決定する。
【0124】
この場合、自動車の走行速度が高い場合、走行速度に応じて現在位置よりも前方の位置を検索基準位置として、目標物が検索されるので、検索の結果を有効に活用することができる。
【図面の簡単な説明】
【図1】ナビゲーション装置の全体回路図である。
【図2】外部記憶媒体に記憶されているデータファイルを示す図である。
【図3】目標物データファイルF16の内容を示す図である。
【図4】RAM4に記憶されるデータを示す図である。
【図5】全体処理のフローチャートを示す図である。
【図6】目標物選択操作処理のフローチャートを示す図である。
【図7】検索基準決定処理のフローチャートを示す図である。
【図8】基準位置決定処理のフローチャートを示す図である。
【図9】基準位置の自動設定処理のフローチャートを示す図である。
【図10】基準位置補正処理のフローチャートを示す図である。
【図11】目標物検索処理のフローチャートを示す図である。
【図12】優先順位決定処理のフローチャートを示す図である。
【図13】到達距離変更処理のフローチャートの一部を示す図である。
【図14】到達距離変更処理のフローチャートの残部を示す図である。
【図15】優先順位決定処理のフローチャートを示す図である。
【図16】目標物表示処理のフローチャートを示す図である。
【図17】目標物をディスプレイ33の地図画面に表示した例を示す図である。
【図18】目標物のリストをディスプレイ33に表示した例を示す図である。
【図19】ディスプレイ33に表示された目的物設定画面の例を示す図である。
【図20】位置変更操作時のディスプレイ33の画面の例を示す図である。
【図21】目標物登録処理のフローチャートを示す図である。
【符号の説明】
1…中央処理装置
2…CPU
3、5…ROM、
4…RAM
9…画像プロセッサ
10…画像メモリ
11…音声プロセッサ
13…スピーカ
20…現在位置検出装置
21…絶対方位センサ
22…相対方位センサ
23…距離センサ
25…GPS受信装置
26…ビーコン受信装置
27…データ送受信装置
30…データ通信装置
31…データ送受信部
32…電話発信部
33…ディスプレイ
34…タッチパネル
36…記録カード読取り装置
37…CD−ROMドライバ
38…音声認識装置
39…マイク
40…操作スイッチ
41…手動/音声切換スイッチ
42…目的地/目標物切換スイッチ
[0001]
[Industrial application fields]
The present invention relates to a target retrieval apparatus.
[0002]
[Prior art]
As a conventional navigation device, for example, there is an in-vehicle navigation device disclosed in Japanese Patent Application Laid-Open No. 61-194473. In this in-vehicle navigation device, a map of an area desired by the user is displayed on the display device, and when the facility desired by the user is selected, the location of the facility existing on the map screen is displayed as a mark. In addition, in response to a user operation, a description of the facility displayed on the map screen is displayed. The user can set the destination based on the display and explanation of the facility on the map screen.
[0003]
[Problems to be solved by the invention]
For example, when a car on which a user rides travels according to route guidance to a preset destination using a navigation device, a request for meals, shopping, etc. occurs, and the user And immediately try to find the desired facility. In the conventional navigation device, when the genre of the facility desired by the user is selected from the menu display, the facility of the designated genre existing in the map displayed at that time is displayed on the map screen.
[0004]
However, the target such as the facility is searched based on the current position of the automobile. Therefore, when searching for a target that exists along a general road while a car is traveling on a highway, the target is searched based on the current location on the highway. Otherwise, the target cannot be reached, and the search results cannot be used effectively. In addition, if the car is traveling on an elevated road or tunnel, it will not be possible to change the course until it reaches the next intersection, so the search results can be used effectively. Can not do it. Furthermore, when the traveling speed of the automobile is high, it is not possible to change the course until the vehicle reaches the target without slowing down to some extent, so that the search result cannot be used effectively.
[0005]
The present invention solves the above-mentioned conventional problems, and even when the vehicle is traveling on a highway, even when traveling on a place where a course cannot be changed such as an elevated road or in a tunnel, the traveling speed is also high. An object of the present invention is to provide a target searching apparatus capable of effectively utilizing the result of searching for a target even when the price is high.
[0006]
[Means for Solving the Problems]
  Therefore, in the target object search apparatus of the present invention, there are provided means for storing information relating to a plurality of target objects, and a search reference position for searching for the target object.Depending on the driving situationMeans for determining, means for searching for the target with reference to the search reference position, and means for outputting information relating to the searched target.HighAn interchange that gets off from a highway to a general road is determined as the search reference position.
  In another target retrieval apparatus of the present invention, the traveling state is traveling on a highway.
[0007]
  In still another target object search device of the present invention, means for storing information relating to a plurality of target objects, and a search reference position for searching for the target objects are provided.Road typeAnd means for searching for the target with reference to the search reference position, and means for outputting information on the searched target.Depending on the road typeThe intersection ahead of the current position is determined as the search reference position..
[0008]
  In still another target object search device of the present invention, means for storing information on a plurality of target objects, means for determining a search reference position for searching for the target object according to a driving situation, and the search reference Means for searching for the target with reference to a position; and means for outputting information on the searched target.If you are traveling on an elevated road or tunnel,Ahead of the current positionintersectionIs determined as the search reference position.
[0009]
[Action]
As a result, when the vehicle is traveling on the expressway, the target is searched for using the interchange from the expressway to the general road as the search reference position, so that the search result can be used effectively.
[0010]
In addition, if the car is traveling on an elevated road, a tunnel, etc. where the course cannot be changed, the target is searched using the intersection ahead of the current position as the search reference position, so the search results can be used effectively. can do.
[0011]
Further, when the traveling speed of the automobile is high, the target is retrieved using the position ahead of the current position as the retrieval reference position according to the traveling speed, so that the retrieval result can be used effectively.
[0012]
【Example】
FIG. 1 shows an entire circuit of the navigation device. The central processing unit 1 performs operation control and calculation of the navigation device by the CPU 2. The ROMs 3 and 5 store system programs executed by the CPU 2 and various parameters. The RAM 4 stores data input from the outside, various parameters used for calculation, calculation results, and the like. The clock 6 generates time information. The sensor input interface 7 inputs detection data from the absolute azimuth sensor 21, the relative azimuth sensor 22, the distance sensor 23, and the acceleration sensor 24 of the current position detection device 20 and sends them to the CPU 2. The communication interface 8 transmits / receives various data to / from devices connected to the data bus 28.
[0013]
The image processor 9 reads the image data stored in the image memory 10 and outputs the image data to a display 33 that can display an image, such as a CRT, a liquid crystal display, or a plasma display. The image memory 10 stores image data displayed on the screen of the display 33, and transmits / receives image data to / from the image processor 9. The image processor 9 converts data such as targets and roads, which will be described later, into display data according to a command from the CPU 2, and forms image data to be displayed on the screen of the display 33. At this time, in order to scroll the screen, an image around the screen displayed on the display 33 is also formed and stored in the image memory 10. The speech processor 11 inputs the synthesized speech waveform data read from the ROMs 3 and 5 by the CPU 2 to form an analog waveform and sends it to the speaker 13.
[0014]
The current position detection device 20 is a device for obtaining data for detecting the current position of an automobile (hereinafter referred to as a host vehicle) equipped with a navigation device. The absolute azimuth sensor 21 is a geomagnetic sensor that detects, for example, geomagnetism and outputs data indicating the north-south direction as an absolute azimuth. The relative azimuth sensor 22 outputs data indicating a deviation of the traveling direction of the own vehicle with respect to the absolute azimuth detected by the absolute azimuth sensor 21, and detects, for example, a gyro apparatus such as a piezoelectric vibration gyro or a steering angle of a wheel. This is a steering angle sensor. The distance sensor 23 outputs data indicating the travel distance of the host vehicle, and is a digital counter linked to a travel distance meter, for example. The acceleration sensor 24 detects the acceleration of the host vehicle, and is, for example, a semiconductor acceleration sensor.
[0015]
The GPS receiver 25 receives a GPS (Global Positioning system) signal and outputs position data. The beacon receiving device 26 receives a beacon from an information providing system such as GPS correction data or VICS (road traffic information communication system), and outputs the received data. The data transmitter / receiver 27 transmits / receives current position information to / from the bidirectional current position information providing system.
[0016]
The data communication device 30 transmits and receives signals to and from road information systems such as VICS and ATIS (traffic information service). The data transmission / reception unit 31 is, for example, a VICS transmission / reception unit, and the telephone transmission unit 32 is, for example, an ATIS communication unit.
[0017]
A transparent touch panel 34 is provided on the screen of the display 33. This touch panel has transparent touch switches arranged in a planar matrix. The printer 35 prints various information such as maps and facility guides output via the communication interface 8. The recording card reader 36 is a reader for a card-type recording medium such as an IC card, a ROM card, or a memory card. The CD-ROM driver 37 is a reading device for a CD-ROM which is a CD (compact disk) type storage medium.
[0018]
The voice recognition device 38 converts the voice picked up by the microphone 39 into a digital signal, determines whether or not a voice that matches a predetermined command is input, and when a voice that matches the command is input The command data is sent to the CPU 2. The voice recognition device 38 may be either a specific speaker recognition method or an unspecified speaker recognition method.
[0019]
The operation switch 40 is a wired remote control switch, a wireless remote control switch, or a manual switch arranged around the display 33, and performs operations other than the contents operated on the touch panel 34 such as menu display, image quality adjustment, and destination setting start. It is a switch for instructing.
[0020]
Various data files as shown in FIG. 2 are stored in the card-type storage medium or an external storage medium such as a CD-ROM. The map data file F1 stores map data such as a national road map. The intersection data file F2 stores data related to the intersection such as the position and name of the intersection. The node data file F3 stores node data set on the road. The road data file F4 stores road-related data such as the position and type of roads, the number of lanes, and the connection relationship between the roads. The photograph data file F5 stores image data of photographs showing places where visual display is required such as various facilities, sightseeing spots, or major intersections.
[0021]
The destination data file F6 stores data such as locations and names of places or facilities that are likely to be destinations such as major tourist spots, buildings, and companies / businesses listed in the telephone directory. . The guidance point data file F7 stores guidance data of points that require guidance such as the contents of guidance display boards installed on the road and guidance of branch points. The detailed destination data file F8 stores detailed data relating to the destination stored in the destination data file F6. The road name data file F10 stores name data of main roads among the roads stored in the road data file F4. The branch point name data file F11 stores name data of main branch points. The address data file F11 stores list data for searching the destination stored in the destination data file F6 from the address.
[0022]
The area / city code list file F12 stores list data of only the area / city code of the destination stored in the destination data file F6. The registered telephone number file F13 stores telephone number data to be remembered such as business partners registered by the user's manual operation. The mark data file F14 stores data such as the location and name of a place to be remembered or a place to be remembered, which is input by the user through a manual operation. The point data file F15 stores detailed data of the mark points stored in the mark data file F14. The target data file F16 stores data such as the position and description of a target such as a place where the user wants to stop in addition to a destination such as a gas station, a convenience store, or a parking lot.
[0023]
FIG. 3 shows details of the contents stored in the target data file F16. The target is classified into a plurality of genres, and the number of classifications is stored as target genre number data JN. Genres are divided into types of facilities and places, such as gas stations, convenience stores, parking lots, hotels, restaurants, family restaurants, soba shops, coffee shops, stations, subway station entrances, hospitals, parks, police, There are post offices, golf courses, golf driving ranges, temples and shrines, cosmetic stores, pharmacies, and other types of facilities and places that may drop in while driving. In each of the genres J1 to Jn, genre code number data JC, target property number data m, and target object list data L1 to Lm determined for each genre are stored.
[0024]
The target list data L1 to Lm includes target name data MM, target telephone number data MT, target coordinate data MZ, and target information information for each of the m target items. MD is stored. The target information data MD stores information related to the target classified into a plurality of items. This item includes, for example, target usage fees, facility capacity (number of parking and capacity, width, height, length of vehicles that can be accommodated), brand (name of gas station distributor, name of chain store, etc.) , Address, service details, parking availability, opening hours, restaurant cuisine, restaurant information (whether it is high-end, whether it is a chain store, whether there is a famous chef, etc.), convenience store Information on items such as a store name and the like which are conditions for selection when the user stops while traveling is stored.
[0025]
FIG. 4 shows a data group stored in the RAM 4. All or part of the data stored in the external storage medium read by the recording card reader 36 or the CD-ROM driver 37 is copied to the external data GD. The current position data MP is current position data of the own vehicle detected by the current position detection device 20. The absolute azimuth data ZD is data obtained based on the data from the absolute azimuth sensor 21. The relative azimuth angle data θ1 is an angle formed by the traveling direction of the vehicle with respect to the absolute azimuth obtained based on the data from the relative azimuth sensor 22.
[0026]
The travel distance data ML is the travel distance of the host vehicle obtained based on the data from the distance sensor 23. The acceleration data ma is the acceleration detected by the acceleration sensor 24. The current position information PI is data relating to the current position input from the beacon receiving device 26 or the data transmitting / receiving device 27. The VICS data VD is VICS data input from the data transmission / reception unit 31. The ATIS data AD is ATIS data input from the telephone transmission unit 32. The registered destination data TP is data relating to the destination such as the position and name of the destination registered by the user.
[0027]
The registered target data SP is data related to the target such as the position and name of the target set by the user. The optimum route data MW is optimum route data obtained by route search processing (step 52) described later. The genre code number JC is the genre code number of the genre selected in the target selection operation process described later. The area designation data AS is data for designating a search area input in the target selection operation process. The sub reference data KS is data for searching for a target input in the target selection operation process. There may be a plurality of sub-reference data KS.
[0028]
The reference position data KP is a reference position for searching for a target determined by a reference position determination process described later. The road information RD is information such as whether a running road used in an automatic setting process described later is an expressway or a general road. The traveling speed data V is the traveling speed of the own vehicle. The search area data KA is coordinate data of a target search area obtained in a target search process described later. The search target data KM is data related to the target searched in the target search process, and is extracted from the external data GD and stored.
[0029]
The reach distance data TK is the reach distance to the search target obtained in the priority determination process described later. The priority order data UN is a priority order displayed for selection of a search target determined in the priority order determination process. The target relative azimuth angle data θ2 is an angle formed by the search target with respect to the absolute direction. The target object direction data θ is an angle formed by the traveling direction of the own vehicle and the search target object. The destination avoidance data MK is the initial destination data stored before the target is registered in the target registration process. Although not shown, the RAM 4 stores data for various other processes, variable data, and the like.
[0030]
FIG. 5 is a flowchart of the entire process executed by the CPU 2. This process starts when the power is turned on and ends when the power is turned off. At the start, initialization processing of the CPU 2, RAM 4, image memory 9 and the like is performed. Then, the current position acquisition process (step 50), the destination setting process (step 51), the route search process (step 52), and the guidance display process (step 53) are repeatedly executed.
[0031]
In the current position acquisition process (step 50), the current position of the host vehicle is calculated based on the data sent from the current position detection device 20. In the calculation process of the current position, the latitude and longitude are calculated from the data input from the GPS receiver 25, and the latitude and longitude are stored in the RAM 4 as current position data MP. The current position data MP is corrected by information regarding the current position input from the beacon receiving device 26 or the data transmitting / receiving device 27.
[0032]
Further, a calculation process for specifying the vehicle position is performed based on the absolute bearing data ZD, the relative bearing data SD, and the travel distance data ML. The own vehicle position obtained by this calculation process is collated with the map data in the external data GD, and correction is performed so that the current position on the map screen is accurately displayed. With this correction process, the current position of the vehicle can be accurately obtained even when GPS signals in the tunnel or the like cannot be received. The travel distance data ML is corrected by the acceleration data ma in order to take into account errors due to tire slip and the like.
[0033]
In the destination setting process (step 51), a destination setting operation process and a target selection operation process are executed. In the destination setting operation process, a destination setting input screen is displayed on the display 33 by a destination registration operation by the user. The user can specify the destination from any one of the address, telephone number, and name. Further, when one genre is selected from the genre menu such as sightseeing spots and various facilities, a plurality of destinations stored in the selected genre are displayed on the display 33 in the form of a list. Further, detailed guidance for each destination can be displayed. When the destination is determined, by performing an operation for instructing the determination of the destination, data regarding the determined destination is stored in the RAM 4 as registered destination data TP.
[0034]
The target selection operation process is a process of setting a place where the user wants to stop as a target when there is a place where he / she wants to stop while traveling to the destination. Data relating to the set target is stored in the RAM 4 as registered target data SP. Details of the target selection operation processing will be described later.
[0035]
In addition, the destination setting operation process and the target selection operation process can be performed by voice input by the voice recognition device 38 in addition to the touch operation of the touch panel 34 and the manual operation by the switch operation of the operation switch 40. Switching between manual operation and voice input operation is performed by a changeover switch 41 provided in the operation switch 40. The switching operation between the destination setting operation process and the target selection operation process is also performed by the changeover switch 42 provided in the operation switch 40. This destination setting process (step 51) is jumped when a new destination setting operation or a new target selecting operation is not performed.
[0036]
In the route search process (step 52), the optimum route to the destination or the target is searched based on the registered destination data TP or the registered target data SP, the current position data MP, and the map data. The route data MW is stored in the RAM 4. The optimum route is displayed with a bold red line in the map screen displayed on the display 33. This route search process (step 52) is jumped if there is no change in the optimum route.
[0037]
In the guidance / display process (step 53), the guidance is pronounced by voice from the speaker 13 or displayed on the map screen so that the vehicle can travel according to the optimum route obtained in the route search process (step 52). Is done.
[0038]
By repeating the above processing, the optimum route to the destination or target registered by the user, the current position and the traveling direction of the vehicle are displayed on the map screen displayed on the display 33, and The current position is corrected according to the progress of the vehicle, and when approaching a point where guidance such as an intersection or a branch point is required, the guidance is notified by voice or display.
[0039]
FIG. 6 is a flowchart of the target selection operation process (step 100) executed in the destination setting process (step 51). This process is started when a target selection operation is instructed by operating the destination / target switching switch 42. In addition, since the target selection operation is performed while traveling, in consideration of driving safety, when the start of this process is instructed, it is automatically set to a state in which an operation by voice input is possible. When the user operates the manual / sound changeover switch 41 to switch to the manual operation, the target can be selected by the manual operation of the operation switch 40. Further, this processing may be executed by performing voice input during travel guidance without operating the changeover switch.
[0040]
The target selection operation process (step 100) is repeatedly executed in the same manner as the current position acquisition process (step 50), the route search process (step 52), and the guidance / display process (step 53). When approaching an intersection during the target selection operation, etc., the target selection operation is interrupted by interruption processing for a few seconds, and guidance by voice and display is performed. The current position may be displayed.
[0041]
In this target object selection operation process (step 100), a process for determining a search target for a target object (step 102), a process for determining a reference position of a range for searching for a target object (step 104), and a target object in accordance with the search standard. Processing for searching (step 106), processing for determining priority according to whether the searched target matches the user's desire (step 108), processing for displaying the target with priority (Step 110), a process of registering one target selected by the user (Step 112) is sequentially executed.
[0042]
FIG. 7 is a flowchart of the search criteria determination process (step 102). In the genre input process (step 120), first, a command signal is sent from the CPU 2 to the audio processor 11, and the question "What is the genre" is pronounced from the speaker 13, for example. Instead of the pronunciation of this question, the user may input with a key of a predetermined touch panel 34 for voice input.
[0043]
If there is a voice input from the voice recognition device 38 during a predetermined standby time, the CPU 2 converts the input voice data into code data by a predetermined calculation. Then, the input code data and the genre code number JC of the target object data file F16 in the external data GD are collated to obtain a matching genre code number. The genre code number data JC that matches this voice input is stored in the RAM 4. For example, when the user wishes to stop at the gas station on the way to the destination, the genre code number JC of the gas station is stored by saying “gas station”.
[0044]
In the area input process (step 122), a command signal is sent from the CPU 2 to the voice processor 11, and a voice “Please specify a search area” is generated from the speaker 13. It should be noted that instead of this sound generation, key input on the touch panel 34 may be used. If there is a voice input from the voice recognition device 38 during the predetermined standby time, the voice data input by the CPU 2 is converted into the area designation data AS and stored in the RAM 4. In addition, it is possible to search for a target from all data without specifying an area in this way, but when assigning priorities to the searched targets as described above, the target closest to the reference position is selected. In many cases, it is faster to search by setting an area in advance.
[0045]
When the scale of the map screen displayed during navigation to the destination can be selected from two types, “wide” and “detail”, for example, the user can say “Kouiki” to display a wide area. The wide area designation data is stored as area designation data AS so that the search area is in the screen. Further, the detailed designation data is stored as the area designation data AS so that the detailed display screen is set as the search area when the user utters “Show Sai”.
[0046]
In addition, when three or more scale values on the map display screen can be selected, a word for selecting each scale is determined, and when the user utters the corresponding scale size data, the corresponding scale size data is the area designation data. Stored as AS. Further, as described above, in addition to designating the entire map screen displayed at a predetermined scale as a search area, a reference position to be described later can be obtained by voice input such as “radius 10 km” or “10 km square”. A range with a predetermined radius or a predetermined distance around KP can be used as a search area. In this case, the radius data or side length data inputted by voice is stored as the area designation data AS. In addition, by inputting a specific “city name” by voice, a range where the city exists can be set as a search area.
[0047]
The genre and search area of the target are the main search criteria, and in the next step 124, a specific sub-reference is input for each genre of the target. In this process, a command signal is sent from the CPU 2 to the sound processor 11, and a sound requesting a sub-reference with content corresponding to the specified genre code number JC is generated from the speaker 13. For example, if the designated genre is “gas station”, the sound “What is the brand” is pronounced, and if the designated genre is “restaurant”, the sound “what is the type of dish” is pronounced.
[0048]
If there is a voice input from the voice recognition device 38 during a predetermined standby time, the voice data input by the CPU 2 is converted into the sub reference data KS and stored in the RAM 4. Further, the CPU 2 automatically selects the sub-criteria related to items that do not require user selection and stores them in the RAM 4. For example, sub-reference data KS indicating “parking” or the like is stored when “direction” or the designated genre is parking. This sub reference is an item stored in the target information data MD of the target data file F16.
[0049]
FIG. 8 is a flowchart of the reference position determination process (step 104). First, a command signal is sent from the CPU 2 to the voice processor 11, and a voice “Please specify a reference position” is produced from the speaker 13. By the time the predetermined waiting time elapses, the user displays on the display 33 the current position, the destination set before the start of traveling, the passing points such as intersections and buildings existing on the optimum route to the destination, and so on. A desired point is input by voice from the center of the map screen being displayed, the intersection on the optimum route display currently displayed on the display 33, or the point on the route such as a building.
[0050]
When there is a voice input by the user, the content of the voice input data is analyzed by the CPU 2 and when a position away from the current position is specified, the specified point is stored in the RAM 4 as the reference position data KP. Stored (step 148). That is, when the destination is designated (step 134), the position data on the map of the registered destination data TP is read and stored as the reference destination data KP.
[0051]
The designation of the passing point or the point on the route (steps 136 and 140) is because the name of the intersection or the building is inputted by voice by the user, so that the CPU 2 uses the intersection data file F2 and the destination data file F6. A point having name data identical to the name data input by voice is searched. Then, the position data of the obtained point is stored as the reference position data KP. When the map center is designated (step 138), the position data of the center coordinates of the map screen displayed on the display 33 is stored as the reference position data KP. In addition, you may enable it to designate as a reference | standard position other than the above points.
[0052]
When the current position is designated (step 132) or when there is no voice input within the predetermined waiting time (step 130), the current position or a position away from the current position is determined based on the road information currently being traveled. An automatic setting process (step 142) for setting the reference position is performed. When the current position is set as the reference position by the automatic setting process (step 144), a process (step 146) for correcting the reference position according to the traveling speed is executed. The above input may be a key input such as a touch panel instead of voice.
[0053]
FIG. 9 is a flowchart of the reference position automatic setting process (step 142). The current position data MP is read from the RAM 4 by the CPU 2 (step 150). Then, the road data file F4 is searched based on the current position data MP, and the road information on running is obtained (step 152). This may be obtained from the current position information PI stored in the RAM 4. The obtained road information RD is stored in the RAM 4. In this road information RD, “01” is set if the running road is a highway, “10” if it is an elevated road or tunnel, and “00” if it is not.
[0054]
Even if the current position is designated as the reference position by the user, if the road currently being driven is an expressway, the target area other than the service area can only be reached by going down to the general road. The point where you get off is the reference position. In other words, the interchange scheduled to get off on the optimum route to the destination is retrieved from the map data file F1, and the position of this interchange is stored in the RAM 4 as the reference position KP (step 156).
[0055]
Also, if the currently running road is an elevated road or tunnel, it is not possible to turn right or left from the current position, so the next appearing intersection is retrieved from the intersection data file F2, and the position of this intersection is the reference position KP. (Step 160). If the currently running road is a general road that is neither an elevated road nor a tunnel, the current position MP is set as the reference position KP. This current position MP is further converted into a reference position correction process (step 146). It is corrected by.
[0056]
FIG. 10 is a flowchart of the reference position correction process (step 146). When the current position is selected as the reference position, it is impossible to make a sudden right or left turn, so that the reference position is corrected ahead of the current position according to the traveling speed V. The CPU 2 detects the current traveling speed V from the clock signal from the timepiece 6 and the traveling distance data ML from the distance sensor 23 (step 170). This may be travel speed data output from a speedometer (not shown).
[0057]
Then, the correction distance AL corresponding to the detected traveling speed is obtained by the CPU 2 (step 172). The correction distance AL is determined by executing a predetermined calculation or reading out from a memory table stored in advance in association with the traveling speed V and the correction distance AL. Next, the CPU 2 reads the current position data MP from the RAM 4 (step 174), and the position obtained by adding the correction distance AL ahead of the current position is set as the reference position (step 176). The corrected position is stored in the RAM 4 as reference position data KP.
[0058]
FIG. 11 is a flowchart of the target search process (step 106). When the user specifies the radius or side length of the search area in the search reference determination process (step 102) (step 180), the CPU 2 reads the reference position data KP and the area specification data AS in the RAM 4. (Step 182) A circle having a radius inputted by the user centered on the reference position or a square having one side of the length inputted by the user is assumed as a search area (Step 184). The assumed search area KA is stored in the RAM 4 in the form of circle or square map coordinate data centered on the reference position KP.
[0059]
Further, when the user designates “wide area”, “details”, or a scale size in the search criteria determination process (step 102), the CPU 2 determines the contents of the area designation data AS (step 186), The reference position data KP is read (step 188). Then, a range of the map screen is assumed so that the center of the map screen of the scale specified by the user matches the reference position KP, and the map coordinate data of this range is stored in the RAM 4 as the search area KA (step 190).
[0060]
Then, the genre code number data JC stored in the RAM 4 is read by the CPU 2 (step 192), and the genre that matches the genre code number JC is read from the target data file F16 and further read. By searching the target coordinate data in the genre, the target existing in the map coordinates of the search area KA is searched (step 194). The name data MM, telephone number data MT, coordinate data MZ, and information data MD of each searched target are read out and stored in the RAM 4 as search target data KM.
[0061]
FIG. 12 is a flowchart of the priority order determination process (step 108). First, the current position data MP in the RAM 4 is read by the CPU 2 (step 200). Further, the map coordinate data MZ of each search target is read from the search target data KM (step 202). Then, the reach distance TK from the current position to each search target is calculated (step 204). This reach distance TK is a straight-line distance obtained by the Pythagorean theorem, or a route to each search target obtained using the map data file F1 (the shortest route or an optimum route in consideration of road information) Good). The obtained reach distance data TK to each search target is stored in the RAM 4.
[0062]
Further, the sub reference data KS in the RAM 4 is read into the CPU 2 (step 206), the reach distance TK is weighted according to the sub reference data KS, and unnecessary search target data KM is deleted (step 208). ). Then, the priority order is determined according to the reach distance TK weighted by the CPU 2 and the remaining search target data KM (step 210). The determined priority order data UN is stored in the RAM 4.
FIGS. 13 and 14 are flowcharts of the process (step 208) for changing the reach distance TK according to the sub-reference data KS. In this process, the CPU 2 determines the inside of the sub reference data KS (steps 220, 250, 260,...). When data indicating “direction” is stored in the sub-reference data KS, it is determined whether or not the reference position data KP is the current position (step 222). When the current position is set as the reference position, the angle between each search target and the own vehicle is calculated, and from this calculation result, each search target exists in which direction relative to the traveling direction of the own vehicle. Is determined (step 224).
[0063]
The angle between each search target and the vehicle is calculated as follows. First, the CPU 2 reads the relative azimuth angle data θ1 from the RAM 4. The relative azimuth angle θ1 is an angle formed by the traveling direction of the own vehicle with respect to the north direction, and is represented by values of 0 to 180 degrees counterclockwise from the north direction and 0 to −180 degrees clockwise. . Further, the CPU 2 reads the current position data MP and the coordinate data MZ of each search target from the RAM 4, calculates tan θ2 from the coordinate data MZ and the current position data MP, and calculates each search target from the calculated tan θ2. A relative azimuth angle θ2 with respect to the north direction of the object is obtained. The relative azimuth angle θ2 of the search target is stored in the RAM 4.
[0064]
Then, the CPU 2 determines the direction θ of the search target relative to the traveling direction of the host vehicle.
θ = θ2-θ1
This target direction data θ is stored in the RAM 4. Furthermore, in this target direction θ,
When θ> 180 degrees… θ = θ-360 degrees
When θ <−180 degrees… θ = 360 degrees + θ
The arithmetic processing is performed.
[0065]
And it is discriminate | determined from which direction each search target exists with respect to the own vehicle from the result of this arithmetic processing. This direction is determined according to the following criteria.
“Left forward” when 0 ≦ θ ≦ 90
“Right forward” if −90 ≦ θ <0
If 90 <θ ≤ 180, "Left-Left"
“Right rear” when −180 ≦ θ <−90
This determination result is added to each search target data KM in the form of a flag. For example, “01” is added as a flag in the case of “front left”, “10” in the case of “right front”, “11” in the case of “left rear” or “right rear”. The
[0066]
Next, if the direction of the target is “left front”, the CPU 2 multiplies the target reach distance TK by “1” and updates and stores the new reach distance TK in the RAM 4 (step 230). ). If the direction of the target is “right front”, the arrival distance TK of this target is multiplied by “1.5” and updated and stored in the RAM 4 as a new arrival distance TK (step 234). If the direction of the target is “left rear” or “right rear”, the target reach distance TK is multiplied by “2” and updated and stored in the RAM 4 as a new reach distance TK (step 238). ).
[0067]
In this way, in the case of left traffic, since it is easy to drop in the order of “front left”, “front right”, and “backward”, weighting is performed so as to reduce the reach of the target that is most likely to drop. The calculation of the direction and the weighting process (steps 222 to 238) are executed for all of the search target objects KM (step 240).
[0068]
If the reference position is not the current position, the reference position data KP is read, and the above processing is executed using the reference position data KP instead of the current position. Thus, the direction of the target with respect to the position of the host vehicle at the reference position is obtained, and the reach distance TK is weighted according to the direction of the target. The azimuth angle θ1 of the own vehicle at the reference position is an angle formed by the traveling direction of the optimum route at the reference position with respect to the north direction, and is obtained by calculation from the road data file F3.
[0069]
When the designated genre is “parking”, data corresponding to “parking” is stored in the sub-reference KS. When the sub-reference KS is sequentially read out by the CPU 2 and this “parking” data is included, road information such as VICS data VD or ATIS data AD is read as shown in FIG. Then, “full vehicle information data” is picked up from the read information (step 252). This full vehicle information data is added to the search target data KM in the form of a flag. Then, the search target data KM to which “full vehicle information data” is added is deleted by the CPU 2. As a result, full parking is no longer displayed as a target.
[0070]
Next, the CPU 2 reads out the accommodation number data in each of the remaining search target data KM, and weights the arrival distance TK of each search target according to this accommodation number. For example, the reach distance TK is multiplied by “2” when the number of accommodation is less than 50, “1.5” when 50 to 99, and “1” when 100 or more. Thereby, weighting is performed so that the reach distance TK becomes a smaller value as the number of accommodation is larger.
[0071]
When the designated genre is “gas station”, “convenience store”, or the like, “brand name” data such as a distribution company and a chain store name is included in the sub-standard KS. In this case, the CPU 2 compares the code data of the designated brand with the brand codes of the remaining search target data KM, and erases the search target data KM of the brand different from the designated brand. The That is, only the search target data KM for the specified brand is selected and extracted (step 262). Thus, the target other than the brand specified by the user is not displayed.
[0072]
Furthermore, although illustration and explanation are omitted, in addition to the above sub-criteria, for example, “upper and lower limits” such as direction, distance, and charge, “designated range” such as city, out-of-city, number of accommodations, business hours, etc. , “Selection designation” for specific targets, “exclusion designation” for specific targets, “charges”, “position” such as near a pond or a port, “altitude” such as on a mountain or rooftop, in the sea or underground, etc. “Depth” or “size”, “attribute”, “characteristic”, “content”, “property”, etc. can be used as the sub-reference KS. When such a sub-reference KS is stored in the RAM 4, the reach distance TK is weighted or unnecessary search target data KM is deleted according to the sub-reference KS.
[0073]
In addition to road information, based on route information to the target such as information on the area where the target exists, construction and traffic regulations, and the presence of steep hills, the search distance is weighted or unnecessary search target The material data KM is erased.
[0074]
FIG. 15 is a flowchart of the priority order determination process (step 210). The remaining search target data KM is read by the CPU 2 and the reach distance data TK corresponding to the remaining search target data KM is read (step 270). The read reach distance data TK are arranged in ascending order (step 272), and the priority order is determined in ascending order of reach distance data TK (step 274). The priority order data UN is stored in the RAM 4 so as to correspond to each search target data KM.
[0075]
FIG. 16 is a flowchart of the target display process (step 110). The search target data KM and the priority order data UN remaining from the RAM 4 are read by the CPU 2 (step 280). Then, a command is sent from the CPU 2 to the image processor 9, and a scaled map screen designated with the reference position KP as the center is read from the image memory 10.
[0076]
The image data read from the image memory 10 is added with the mark, name and priority of the search target, and this image data is displayed on the display 33 as a map screen (step 282). For example, when “soba restaurant” is designated as the genre of the target, as shown in FIG. 17, numbers 63 to 65 indicating the name and priority are displayed on the map screen along with target marks 60 to 62. Is displayed.
[0077]
Note that FIG. 17 is an example in which names and priorities are assigned only to the targets with the first to third priorities. Further, when the user touches the character of “List” on the screen with his / her finger, the contents such as the name of each search target KM, the telephone number, the rank of the quality of the store, and the like as shown in FIG. The list is displayed on the display 33 (steps 284 and 286). By touching the “return” character 67 on the screen with a finger, the display returns to the map screen display of FIG. This list can also be printed by the printer 35.
[0078]
Then, when the user touches the target marks 60 to 62 in FIG. 17 or the priority order (number at the left end in the figure) or name in FIG. 18 with a finger, the position of the touched target is centered on the screen. Is displayed on the display 33 (steps 288 and 290). For example, if “Yamamotoya” in FIG. 17 or 18 is selected, as shown in FIG. 19, the Yamamotoya mark 60 moves to the center of the screen, and the shop name 68 is displayed at the top of the screen. In this state, if the “return” character 67 is touched with a finger, the display returns to the display screen of FIG. If the “set” character 72 is touched, this Yamamotoya is registered as the destination (steps 292 and 112).
[0079]
When the “position change” character 71 is touched, a center cursor 69 displayed as a small circle surrounding the center of the screen and an arrow 70 indicating eight directions are displayed around the center cursor 69 (steps 294 and 296). This screen is used when the user wants to change the target displayed in the center of the screen to another target. When the user touches one of the arrows 70, the screen is scrolled in the direction of the touched arrow 70 (step 296).
[0080]
The user performs a touch operation of the arrow 70 so that the desired target mark enters the center cursor 69 by scrolling the screen. For example, when the user selects the mark 73 in FIG. 19, the screen is scrolled so that the mark 73 enters the center cursor 69 as shown in FIG. 20. The new target to be selected is not limited to the genre designated by the user, and can be freely selected from the place or facility displayed on the display 33. FIG. 20 shows a case where a restaurant is selected.
[0081]
When the touch input of the arrow 70 is not performed for a predetermined time, the display of the arrow 70 is turned off, and the destination setting screen on which the “position change” character 71 and the “set” character 72 are displayed is displayed. When the “position change” character 72 is touched in this state, the arrow 70 is displayed again, and the screen can be scrolled. When the “set” character 72 is touched, the target in the center cursor 69 is registered as the destination (steps 292 and 112).
[0082]
FIG. 21 is a flowchart of the target registration process (step 112). When the “set” character 72 is touched in the state where the destination setting screen is displayed, the initial registered destination data TP set in the destination setting operation processing by the CPU 2 is stored in the RAM 4. It is transferred and stored in a predetermined avoidance area MK (step 300). As a result, data regarding the original destination is stored.
[0083]
Next, the CPU 2 reads the coordinates of the center of the screen (step 302), the facility data having the coordinates is retrieved from the target data file F16 in the RAM 4, and the corresponding target data is read (step 304). ). Then, the target data is stored in the RAM 4 as new registered destination data TP (step 306).
[0084]
When the registration of the target is completed, the target becomes a new destination, the display screen of the display 33 returns to the map screen around the vehicle, and the route search process to the target (step 52) and the guidance / display process. (Step 53) is performed. As a result, navigation to the target designated by the user is performed by displaying an optimum route to the target, intersection guidance, or the like. Then, after the user stops at the target, by performing the destination return operation, the originally avoided destination data is set in the destination data TP again, and navigation to the original destination is resumed. The
[0085]
As described above, the navigation device of this embodiment can select a target object with a simple operation when a place where the user wants to drop in occurs on the way to the initially set destination. In addition, when there are multiple selected targets, the priority order is automatically determined in order from the target that matches the user's wishes based on the criteria specified by the user or automatically set criteria, Since the priority order is displayed so as to be easily understood by the user, the time for determining the target for the user is shortened, and the safety during the target selecting operation is maintained.
[0086]
Further, by inputting the reference position or the search reference information by input means such as voice input, a touch panel, or a switch, it is possible to narrow down the target desired by the user in terms of position or content. As a result, the processing can be speeded up, and a target suitable for the user's request can be searched. In addition, since operation by voice input is possible, even if a target selection operation is performed during driving, the driving safety is not impaired.
[0087]
In addition, since the reference position is changed according to a predetermined condition (steps 104, 142, and 146), the reference position can be set according to the current traveling state. For example, when the speed of the host vehicle is high, the reference position can be set further forward, and an interchange that goes down while traveling on a highway can be set as the reference position. Further, since the reference position can be set to a position apart from the current position in addition to the current position (step 104), it is possible to search for a target that meets the user's desire regarding the positional condition.
[0088]
Furthermore, the search criteria are not fixed, and can be made variable depending on the genre of the target, or can be changed according to the user's preference (step 102). As a result, it is possible to provide information on the target that better matches the user's wishes. In addition, by assigning priorities to the targets based on geographical relationships such as distance and direction (step 208), it is possible to obtain information on the targets based on the ease of reaching the target. Become. Also, by assigning priorities according to the content of information relating to the target (steps 250 and 260), it is possible to obtain information on the target based on a reference according to the genre of the target.
[0089]
Furthermore, since the target information is stored for various items (target data file F16), it is possible to set various search criteria and respond to the user's various desires. The most suitable target can be searched and displayed. In addition, by incorporating external information such as VICS and ATIS and determining the priority order of targets (steps 208 and 252), it is possible to obtain on-time information such as full parking information, road congestion, or store information. Therefore, it is possible to obtain information on the target that more closely matches the user's wishes. Further, by displaying the searched target object with priority (step 110), the user can immediately determine which target object most matches the user's desire. it can.
[0090]
The present invention is not limited to the above embodiments, and various modifications can be made without departing from the spirit of the present invention. For example, the external recording medium for storing various data files shown in FIG. 2 may be a writable recording medium such as a floppy disk.
[0091]
Further, the sub reference data KS is not limited to the items stored in the target information data MD in the target data file F16, but is registered so that the user can freely register items determined in advance. An item may be selected as the sub reference KS in the target selection operation process (step 100).
[0092]
Further, in the target object display process (step 110), when displaying the search target object and the priority order, the list screen as shown in FIG. 18 is displayed before the map screen as shown in FIG. You may make it switch to a map screen by predetermined | prescribed operation. Moreover, the display of the priority order during the display of the map screen as shown in FIG. 17 or the display of the list screen as shown in FIG. 18 may be any display as long as it is easy to understand for the user. For example, the display color, brightness, illuminance, size, and shape of the target mark and name may be changed according to the priority order, or the display may blink. This makes it easier for the user to obtain information visually, which is particularly convenient when operating while driving. Of course, the priority order may be pronounced by voice.
[0093]
Further, the reference position KP may be fixed at one point specified in advance such as the current position or the destination, and may not be selected by the user, thereby reducing the amount of processing and inexpensive navigation. An apparatus can be provided. Furthermore, the present invention can also be applied to navigation devices such as vehicles other than automobiles, ships, airplanes, helicopters, etc. The map used for navigation may be a nautical chart or a submarine map in addition to a road map.
[0094]
Furthermore, the following can be shown as means for solving the problems of the prior art.
[0095]
In the navigation device, for a plurality of targets, target object storage means for storing information representing the target object and information related to the target object in association with each other, and searching for the target object stored in the target object storage means Reference position storage means for storing reference position information, search reference information generating means for generating search reference information as a reference for searching for a target stored in the target storage means, and the search reference information The target information corresponding to the search reference information generated from the target object information reading means for reading information representing the target object from the target object storage means or information relating to the target object, and the reference position information from the reference position storage means Reference position information reading means to be read and information indicating each target read by the target information reading means Priority order determining means for determining the priority order of each target object from the relationship between the information about the object and the reference position information read out by the reference position information reading means, and information on the priority order determined by the priority order determining means Display means for displaying.
[0096]
In other navigation devices, further comprising an input means such as a voice input device, or a touch panel mounted on the display surface of the map display device, or a switch, information relating to operations performed by the user is input by this input means, Alternatively, the reference position information or search reference information is input by this input means.
[0097]
In still another navigation apparatus, reference position information for changing the reference position information read by the reference position information reading means in accordance with predetermined conditions such as the type of road being traveled, the traveling speed, and road network information. A changing means is provided.
[0098]
In still another navigation device, the search criteria information further includes an upper limit and a lower limit, a specified range, a specific target selection specification, a specific target exclusion specification, a target type, or Regarding the property of the target, it is data input from the outside, data input by the user manually, or data stored in advance.
[0099]
In still another navigation apparatus, the reference position is a current position or a position away from the current position, and the reference position is fixed or changeable.
[0100]
In still another navigation apparatus, the relationship between the target information and the reference position information is a geographical relationship such as a distance or a direction, or a relationship between information contents related to the target.
[0101]
In still other navigation devices, the information representing the target is the type of facility, building, or terrain, or the type or content of the target, or the position, altitude, depth, and size of the target. , Attributes, characteristics, properties, etc.
[0102]
In still another navigation device, the priority order determination means further determines the priority order based on route information to a target such as road information and area information input from the outside via a communication medium.
[0103]
In still another navigation device, the display means displays the priority order together with the searched target mark on the map screen of the map display device, or displays the priority order in the form of a list on the map display device. Or the priority order is displayed by changing the color of the mark of the target displayed on the map screen of the map display device in accordance with the priority order.
[0104]
Further, in another navigation apparatus, for a plurality of targets, means for storing information representing the target and information related to the target in association with each other, and means for setting reference position information in searching for the target And means for generating search reference information as a reference for searching for the target, and information indicating the target or information regarding the target for the target according to the generated search reference information. Means for reading out, means for determining the priority of each target from the relationship between the information representing each read target or information relating to the target and the set reference position information; and And a means for outputting in the order of the determined priorities.
[0105]
In still another navigation device, the targets are further displayed in the form of a list in the order of the determined priorities.
[0106]
Further, in another navigation apparatus, for a plurality of targets, means for storing information representing the target and information related to the target in association with each other, and means for setting reference position information in searching for the target And means for generating search reference information as a reference for searching for the target, and information indicating the target or information regarding the target for the target according to the generated search reference information. Means for reading out, means for determining the priority of each target from the relationship between the information representing each read target or information relating to the target and the set reference position information, and the determined priority And means for outputting rank information corresponding to the target.
[0107]
In the navigation method, for a plurality of targets, a means for storing information representing the target and information related to the target in association with each other is configured to set reference position information when searching for the target, When searching for a target, search reference information that serves as a search reference is generated, and for the target according to the generated search reference information, information representing the target or information about the target is read out, and the reading is performed. The priority of each target is determined from the information representing each target that has been issued or the relationship between the information about the target and the set reference position information, and the target is placed in the order of the determined priority. Output.
[0108]
In the target object search device, search reference information serving as a reference for searching for a plurality of target objects is generated, and a priority is assigned to each target object to be searched according to the generated search reference information. Means for determining and outputting the targets in the order of priority.
[0109]
In another target object search device, the plurality of target objects further include at least information representing the target object and information related to the target object, and the search reference information searches for the target object. Including the search reference information as a search reference and the reference position information for searching for the target. The priority of each target includes the information on each target and the reference position information. Or is determined from the relationship between the two pieces of information.
[0110]
Further, in another target object search apparatus, according to means for storing target object information for a plurality of target objects, reference position information for searching for the target object, and search reference information serving as a search reference Means for determining the priority of each target to be searched;
Means for outputting the targets in the order of the determined priorities.
[0111]
Further, in another target object search device, search reference information serving as a reference for searching for a plurality of target objects is generated, and each target object to be searched is generated according to the generated search reference information. Means for determining priority and outputting information on the priority.
[0112]
Further, in another target object search device, based on a means for storing target object information for a plurality of target objects, information on a reference position for searching for the target object, and search reference information serving as a search reference. Means for determining the priority of each target to be searched, and means for outputting information on the determined priority corresponding to the target.
[0113]
In the target search method, search reference information serving as a reference for searching for a plurality of targets is generated, and a priority order is set for each target to be searched according to the generated search reference information. Each target is output in the order of priority.
[0114]
In another target object searching method, for a plurality of target objects, the reference position information for searching the target object and the search reference information serving as a reference for the search are stored in the means for storing the target object information. In response, the priority of each target to be searched is determined, and the targets are output in the order of the determined priority.
[0115]
Further, in another target object search method, search reference information serving as a reference for searching for a plurality of target objects is generated, and each target object to be searched is generated according to the generated search reference information. The priority order is determined, and information on the priority order is output.
[0116]
In still another target object searching method, for a plurality of target objects, reference position information for searching for the target object and search reference information serving as a search criterion are stored in the means for storing the target object information. The priority order of each target object to be searched is determined based on the information, and information on the determined priority order is output in correspondence with the target object.
[0117]
Then, for a plurality of targets, target storage means (external recording medium, RAM 4, target data file F16) for storing information representing the target and information related to the target in association with each other, and this target storage means Reference position storage means (RAM4, step 104) for storing reference position information in searching for the target stored in the memory, and a search serving as a reference for searching for the target stored in the target storage means Search target information generating means (RAM 4, steps 102, 182, 186, 192) for generating reference information, and a target corresponding to the search reference information generated from the search reference information, the target object from the target storage means. Target information reading means (step 106) for reading out the information representing or information relating to the target, and the reference position storage means The reference position information reading means (steps 200 and 226) for reading the reference position information, the information of each target read by the target information reading means, and the reference position information read by the reference position information reading means Priority determining means (step 108) for determining the priority order of each target from the relationship with the above, and display means (step 110) for displaying information on the priority determined by the priority order determining means. Is a navigation device characterized by The present invention searches for a target desired by a user based on search reference information serving as a reference for searching for a target, and further determines the priority of each target from the relationship between the target information and the reference position information. The determined priority order information is displayed. As a result, even when the automobile is running, the user can select a target that meets his or her needs in a short time with reference to the priority. For this reason, it is possible to concentrate on driving.
[0118]
In addition, this invention is not limited to the said Example, Based on the meaning of this invention, it can be variously deformed and they are not excluded from the scope of the present invention.
[0119]
【The invention's effect】
  As described above in detail, according to the present invention, in the target object search apparatus, means for storing information on a plurality of target objects, and a search reference position for searching for the target object are provided.Depending on the driving situationMeans for determining, means for searching for the target with reference to the search reference position, and means for outputting information relating to the searched target.HighAn interchange that gets off from a highway to a general road is determined as the search reference position.
  In another target object search device, the traveling state is that the vehicle is traveling on a highway.
[0120]
In this case, when the vehicle is traveling on the expressway, the target is searched for using the interchange from the expressway to the general road as the search reference position, so that the search result can be used effectively.
[0121]
  In still another target object search device, means for storing information on a plurality of target objects and a search reference position for searching for the target object are provided.Road typeAnd means for searching for the target with reference to the search reference position, and means for outputting information on the searched target.Depending on the road typeThe intersection ahead of the current position is determined as the search reference position..
[0122]
In this case, if the car is traveling on an elevated road, in a tunnel, etc. where the course cannot be changed, the target is searched using the intersection ahead of the current position as the search reference position. Can be used.
[0123]
  In still another target object search device, means for storing information on a plurality of target objects, means for determining a search reference position for searching for the target object in accordance with a driving situation, and the search reference position as a reference Means for searching for the target, and means for outputting information about the searched target,If you are traveling on an elevated road or tunnel,Ahead of the current positionintersectionIs determined as the search reference position.
[0124]
In this case, when the traveling speed of the automobile is high, the target is retrieved using the position ahead of the current position as the retrieval reference position according to the traveling speed, so that the retrieval result can be used effectively.
[Brief description of the drawings]
FIG. 1 is an overall circuit diagram of a navigation device.
FIG. 2 is a diagram showing data files stored in an external storage medium.
FIG. 3 is a diagram showing the contents of a target object data file F16.
FIG. 4 is a diagram showing data stored in a RAM 4;
FIG. 5 is a flowchart of overall processing.
FIG. 6 is a flowchart of a target selection operation process.
FIG. 7 is a diagram illustrating a flowchart of search criterion determination processing.
FIG. 8 is a flowchart of a reference position determination process.
FIG. 9 is a flowchart of a reference position automatic setting process.
FIG. 10 is a diagram illustrating a flowchart of a reference position correction process.
FIG. 11 is a diagram illustrating a flowchart of target search processing.
FIG. 12 is a diagram illustrating a flowchart of priority order determination processing;
FIG. 13 is a diagram showing a part of a flowchart of a reach distance changing process.
FIG. 14 is a diagram illustrating the remaining part of the flowchart of the reach distance changing process.
FIG. 15 is a diagram illustrating a flowchart of priority order determination processing;
FIG. 16 is a diagram illustrating a flowchart of target display processing;
17 is a diagram showing an example in which a target is displayed on a map screen of the display 33. FIG.
18 is a diagram showing an example in which a list of targets is displayed on the display 33. FIG.
19 is a diagram showing an example of an object setting screen displayed on the display 33. FIG.
FIG. 20 is a diagram illustrating an example of a screen of the display 33 during a position change operation.
FIG. 21 is a diagram illustrating a flowchart of target registration processing.
[Explanation of symbols]
1 Central processing unit
2 ... CPU
3, 5 ... ROM,
4 ... RAM
9. Image processor
10. Image memory
11 ... Voice processor
13 ... Speaker
20 ... Current position detection device
21 ... Absolute direction sensor
22 ... Relative direction sensor
23 ... Distance sensor
25 ... GPS receiver
26: Beacon receiving device
27: Data transmission / reception device
30. Data communication device
31 ... Data transmitter / receiver
32 ... Telephone calling part
33 ... Display
34 ... Touch panel
36 ... Recording card reader
37 ... CD-ROM driver
38 ... Voice recognition device
39 ... Microphone
40 ... Operation switch
41 ... Manual / audio switch
42 ... Destination / target switching switch

Claims (4)

(a)複数の目標物に関する情報を記憶する手段と、
(b)前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、
(c)前記検索基準位置を基準にして前記目標物を検索する手段と、
(d)検索された前記目標物に関する情報を出力する手段とを有し、
(e)高速道路から一般道路に降りるインターチェンジを前記検索基準位置として決定することを特徴とする目標物検索装置。
(A) means for storing information relating to a plurality of targets;
(B) means for determining a search reference position for searching for the target object according to a traveling situation;
(C) means for searching for the target with reference to the search reference position;
(D) means for outputting information relating to the searched target,
(E) An object retrieval device that determines an interchange that gets off from an expressway to a general road as the retrieval reference position.
前記走行状況は高速道路を走行していることである請求項1に記載の目標物検索装置。The target retrieval apparatus according to claim 1, wherein the traveling state is traveling on an expressway. (a)複数の目標物に関する情報を記憶する手段と、
(b)前記目標物を検索するための検索基準位置を道路種別に応じて決定する手段と、
(c)前記検索基準位置を基準にして前記目標物を検索する手段と、
(d)検索された前記目標物に関する情報を出力する手段とを有し、
(e)前記道路種別に応じて現在位置よりも前方の交差点を前記検索基準位置として決定することを特徴とする目標物検索装置。
(A) means for storing information relating to a plurality of targets;
(B) means for determining a search reference position for searching for the target according to a road type ;
(C) means for searching for the target with reference to the search reference position;
(D) means for outputting information relating to the searched target,
(E) A target searching apparatus that determines an intersection ahead of the current position as the search reference position according to the road type .
(a)複数の目標物に関する情報を記憶する手段と、
(b)前記目標物を検索するための検索基準位置を走行状況に応じて決定する手段と、
(c)前記検索基準位置を基準にして前記目標物を検索する手段と、
(d)検索された前記目標物に関する情報を出力する手段とを有し、
(e)高架道路又はトンネルを走行している場合、現在位置よりも前方の交差点を前記検索基準位置として決定することを特徴とする目標物検索装置。
(A) means for storing information relating to a plurality of targets;
(B) means for determining a search reference position for searching for the target object according to a traveling situation;
(C) means for searching for the target with reference to the search reference position;
(D) means for outputting information relating to the searched target,
(E) When traveling on an elevated road or a tunnel, an object search apparatus characterized in that an intersection ahead of the current position is determined as the search reference position .
JP2001191864A 2001-06-25 2001-06-25 Target search device Expired - Fee Related JP3736391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001191864A JP3736391B2 (en) 2001-06-25 2001-06-25 Target search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001191864A JP3736391B2 (en) 2001-06-25 2001-06-25 Target search device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP15871699A Division JP3402260B2 (en) 1999-06-04 1999-06-04 Target object search device, target object search method, navigation device, and navigation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001391094A Division JP2002303530A (en) 2001-12-25 2001-12-25 Navigation device

Publications (2)

Publication Number Publication Date
JP2002071374A JP2002071374A (en) 2002-03-08
JP3736391B2 true JP3736391B2 (en) 2006-01-18

Family

ID=19030413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001191864A Expired - Fee Related JP3736391B2 (en) 2001-06-25 2001-06-25 Target search device

Country Status (1)

Country Link
JP (1) JP3736391B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011226908A (en) * 2010-04-20 2011-11-10 Alpine Electronics Inc Navigation device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002348400A (en) 2001-05-24 2002-12-04 Hitachi Chem Co Ltd Foamable recycled styrene resin particle, and its production method and molded article
US7406665B2 (en) * 2003-11-19 2008-07-29 Alpine Electronics, Inc. Display method and apparatus for navigation system
JP2008082851A (en) * 2006-09-27 2008-04-10 Denso Corp Information presentation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011226908A (en) * 2010-04-20 2011-11-10 Alpine Electronics Inc Navigation device

Also Published As

Publication number Publication date
JP2002071374A (en) 2002-03-08

Similar Documents

Publication Publication Date Title
JP3149154B2 (en) Target object search device and navigation device
US5850618A (en) Navigation device
EP1530026B1 (en) Traffic-condition notifying device, system and method
EP0834850A1 (en) Method and apparatus for use in selecting a destination in a navigation system for vehicle
JP3443975B2 (en) Guidance device
JPH10153449A (en) Navigation device for vehicle and storing medium
EP2182454A1 (en) Search device, search method, and computer-readable medium that stores search program
JP2978088B2 (en) Target object display device and target object display method
US8428865B2 (en) Navigation system and roadway search method
JP3402260B2 (en) Target object search device, target object search method, navigation device, and navigation method
JP2002303530A (en) Navigation device
JP2004294257A (en) Navigation system, program therefor and record medium
JP3736391B2 (en) Target search device
JP3832284B2 (en) Navigation system and navigation program
JP2849577B2 (en) House shape information output device, house shape information output method, map display device, map display method, navigation device, and navigation method
JP2009036541A (en) Navigation apparatus and navigation program
EP2101152A2 (en) Destination setting support device and destination setting support program
JPH09159481A (en) Map display device, navigation apparatus and medium with stored computer program for processing of map information
EP1503357B1 (en) Device, system, method for notifying traffic conditions
JP2002372432A (en) Display device of navigation equipment
JP2000111356A (en) Vehicle navigation device and storage medium
JP3651784B2 (en) Navigation device
JP4915298B2 (en) Navigation device and program
JP3770325B2 (en) Navigation device
JP3632899B2 (en) Navigation device and navigation method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081104

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees