JP4023259B2 - NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM - Google Patents

NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM Download PDF

Info

Publication number
JP4023259B2
JP4023259B2 JP2002253684A JP2002253684A JP4023259B2 JP 4023259 B2 JP4023259 B2 JP 4023259B2 JP 2002253684 A JP2002253684 A JP 2002253684A JP 2002253684 A JP2002253684 A JP 2002253684A JP 4023259 B2 JP4023259 B2 JP 4023259B2
Authority
JP
Japan
Prior art keywords
vehicle
processing means
information
vehicle position
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002253684A
Other languages
Japanese (ja)
Other versions
JP2004093284A (en
Inventor
悦子 阿津川
林田  機八
柳久保  武志
厚 石橋
彰宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2002253684A priority Critical patent/JP4023259B2/en
Publication of JP2004093284A publication Critical patent/JP2004093284A/en
Application granted granted Critical
Publication of JP4023259B2 publication Critical patent/JP4023259B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ナビゲーションシステム及び地図表示方法のプログラムに関するものである。
【0002】
【従来の技術】
従来、ナビゲーション装置においては、例えば、GPS(グローバルポジショニングシステム)によって車両の現在の位置、すなわち、現在地が検出されるとともに、ジャイロセンサによって検出された車両の回転角速度、すなわち、旋回角に基づいて、車両の方位(以下「自車方位」という。)が検出され、データ記録部から地図データが読み出され、表示部のディスプレイに地図画面が形成され、該地図画面に、現在地、現在地の周辺の地図及び自車方位が表示されるようになっている。したがって、操作者である運転者は、前記地図画面に表示された現在地、現在地の周辺の地図及び自車方位に従って車両を走行させることができる。
【0003】
また、運転者が目的地を設定し、探索条件を設定すると、該探索条件に基づいて現在地から目的地までの経路が探索される。そして、探索された経路、すなわち、探索経路は、前記ディスプレイに形成された探索経路表示画面に画像で表示されるか、音声出力部によるメッセージによって音声で出力されるかして、運転者に案内される。したがって、運転者は案内された探索経路に従って車両を走行させることができる。
【0004】
ところで、自分の車両、すなわち、自車と、他の車両、すなわち、他車との間で通信を行い、前記地図画面に自車の現在地によって表される自車位置、他車の現在地によって表される他車位置等を表示するようにしたナビゲーション装置が提供されている。
【0005】
この場合、一つの地図画面に自車位置及び他車位置を表示する必要があるので、画像メモリ上の描画範囲内における自車位置と他車位置との間の距離(以下「車両間距離」という。)を算出し、算出された車両間距離に対応させて地図画面を形成する際の縮尺を算出し、決定するようにしている(特開平9−189561号公報)。
【0006】
したがって、運転者は、地図画面で自車位置及び他車位置を認識しながら車両を走行させることができる。
【0007】
【発明が解決しようとする課題】
しかしながら、前記従来のナビゲーション装置においては、前記車両間距離が大きい場合は、一つの地図画面に自車位置及び他車位置を表示するために、縮尺がその分小さくされ、地図画面に広域地図を表示し、該広域地図上に自車及び他車を表示する必要が生じる。その結果、地図画面に表示することができる情報がその分少なくなり、自車位置の周辺の道路状況を認識することが困難になってしまう。
【0008】
本発明は、前記従来のナビゲーション装置の問題点を解決して、自車位置及び他車位置を認識しながら車両を走行させることができ、自車位置の周辺の道路状況を容易に認識することができるようにしたナビゲーションシステム及び地図表示方法のプログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
そのために、本発明のナビゲーションシステムにおいては、現在地を検出する現在地検出部と、表示部と、音声出力部と、他車の現在地によって表される他車位置を取得する他車位置取得処理手段と、自車の現在地によって表される自車位置、自車位置の周辺の地図、及び描画範囲内に収まる他車位置を前記表示部によって表示する表示処理手段と、描画範囲から外れた他車位置を前記音声出力部によって音声で案内する音声出力処理手段とを有する。
【0010】
本発明の他のナビゲーションシステムにおいては、さらに、前記表示処理手段は、自車位置を第1の地図表示領域に表示する第1の領域表示処理手段、及び自車位置及び描画範囲内に収まる他車位置を第2の地図表示領域に表示する第2の領域表示処理手段を有する。
【0011】
本発明の更に他のナビゲーションシステムにおいては、さらに、他車位置が描画範囲内に収まるかどうかを判断する他車位置判定処理手段を有する。
【0012】
本発明の更に他のナビゲーションシステムにおいては、さらに、自車の情報を情報センタに送信する自車情報送信処理手段と、他車の情報を情報センタから受信する他車情報受信処理手段とを有する。
【0013】
そして、前記他車位置取得処理手段は、受信した他車の情報から他車位置を取得する。
【0014】
本発明の更に他のナビゲーションシステムにおいては、さらに、前記音声出力処理手段は、あらかじめ設定された音声の案内の必要性の有無に従って案内する。
【0015】
本発明の更に他のナビゲーションシステムにおいては、さらに、前記音声出力処理手段は、描画範囲から外れた他車位置の数が閾値より小さい場合に音声の案内を行う。
【0016】
本発明の地図表示方法のプログラムにおいては、コンピュータを、他車の現在地によって表される他車位置を取得する他車位置取得処理手段、自車の現在地によって表される自車位置、自車位置の周辺の地図、及び描画範囲内に収まる他車位置を前記表示部によって表示する表示処理手段、並びに描画範囲から外れた他車位置を前記音声出力部によって音声で案内する音声出力処理手段として機能させる。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0018】
図1は本発明の第1の実施の形態におけるナビゲーションシステムの機能ブロック図である。
【0019】
図において、21は現在地を検出する現在地検出部としてのGPS、35は表示部、37は音声出力部、92は他車の現在地によって表される他車位置を取得する他車位置取得処理手段、90は自車の現在地によって表される自車位置、自車位置の周辺の地図、及び描画範囲内に収まる他車位置を前記表示部によって表示する表示処理手段、94は描画範囲から外れた他車位置を前記音声出力部によって音声で案内する音声出力処理手段である。
【0020】
図2は本発明の第1の実施の形態におけるナビゲーション装置の説明図、図3は本発明の第1の実施の形態におけるナビゲーションシステムの概念図である。
【0021】
図において、14は車両に搭載された車載装置としてのナビゲーション装置であり、該ナビゲーション装置14は、現在地等を検出する現在地検出処理部15、地図データ、道路データ、探索データ等のナビゲーション情報が記録された情報記録部としてのデータ記録部16、各種のプログラム、データ等に基づいてコンピュータとして機能し、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、操作部及び第1の入力装置としての入力部34、表示手段及び第1の出力装置としての表示部35、第2の入力装置としての音声入力部36、第2の出力装置としての音声出力部37、第1の送受信部としての通信部38、並びに第2の送受信部としての通信端末39を有し、前記ナビゲーション処理部17に車速センサ41が接続される。
【0022】
そして、前記現在地検出処理部15は、現在地検出部としてのGPS(グローバルポジショニングシステム)21、地磁気センサ22、距離センサ23、ステアリングセンサ24、方位検出部としてのジャイロセンサ26、図示されない高度計等から成る。
【0023】
前記GPS21は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、前記地磁気センサ22は、地磁気を測定することによって自車方位を検出し、前記距離センサ23は、道路上の所定の位置間の距離等を検出する。距離センサ23としては、例えば、図示されない車輪の回転速度を測定し、該回転速度に基づいて距離を検出するもの、加速度を測定し、該加速度を2回積分して距離を検出するもの等を使用することができる。
【0024】
また、前記ステアリングセンサ24は、舵(だ)角を検出し、ステアリングセンサ24としては、例えば、図示されないステアリングホイールの回転部に取り付けられた光学的な回転センサ、回転抵抗センサ、車輪に取り付けられた角度センサ等が使用される。
【0025】
そして、前記ジャイロセンサ26は旋回角を検出し、ジャイロセンサ26としては、例えば、ガスレートジャイロ、振動ジャイロ等が使用される。また、前記ジャイロセンサ26によって検出された旋回角を積分することにより、自車方位を検出することができる。
【0026】
なお、前記GPS21は単独で現在地を検出することができる。そして、距離センサ23によって検出された距離と、地磁気センサ22によって検出された自車方位、又はジャイロセンサ26によって検出された旋回角とを組み合わせることにより現在地を検出することもできる。また、距離センサ23によって検出された距離と、ステアリングセンサ24によって検出された舵角とを組み合わせることにより現在地を検出することもできる。
【0027】
前記データ記録部16は、地図データファイル、交差点データファイル、ノードデータファイル、道路データファイル、探索データファイル、施設情報データファイル等のデータファイルから成るデータベースを備え、前記各データファイルには、前記表示部35の図示されないディスプレイに形成された地図画面に、所定の地図、探索経路、目的地等を表示したり、交差点又は経路における特徴的な写真、コマ図等を表示したり、次の交差点までの距離、次の交差点における進行方向等の案内情報を表示したりするための各種のデータが記録される。
【0028】
例えば、前記交差点データファイルには各交差点に関する交差点データが、ノードデータファイルにはノード点に関するノードデータが、道路データファイルには道路に関する道路データが、探索データファイルには経路を探索するための探索データがそれぞれ記録され、前記交差点データ、ノードデータ、道路データ、探索データ等によって道路状況を表す道路状況データが構成される。なお、前記ノードデータは、実際の道路の分岐点(交差点、T字路等も含む)、ノード点、各ノード点間を連結するノード点間リンク等を示すデータから成る。
【0029】
そして、前記道路データによって、道路自体について、幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所等が、コーナについて、曲率半径、交差点、T字路、コーナの入口等が、道路属性について、降坂路、登坂路等が、道路種別について、国道、県道、細街路等の一般道のほか、高速道路、都市高速道路、有料道路等の高速・有料道がそれぞれ表される。さらに、道路データによって、踏切、高速道路の入口及び出口の取付道(ランプウェイ)、高速・有料道の料金所等が表される。
【0030】
また、前記施設情報データファイルには、各地域のホテル、ガソリンスタンド、駐車場、観光地等の施設の施設情報が施設情報データとして記録される。なお、前記データ記録部16には、所定の情報を音声出力部37によって出力するための各種のデータも記録される。
【0031】
前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う演算装置及び制御装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用される第1の記録媒体としての、DRAM、SRAM、MRAM、FeRAM等のRAM32、及び制御用のプログラムのほか、目的地までの経路の探索、経路案内、特定区間の決定等を行うための各種のプログラムが記録された第2の記録媒体としてのROM33を備え、前記ナビゲーション処理部17に、前記入力部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。なお、前記RAM32、ROM33等として半導体メモリ、磁気コア等が使用される。また、ナビゲーション処理部17に、RAM32、ROM33等のほかに第3の記録媒体としての図示されないフラッシュメモリを配設することもできる。そして、演算装置及び制御装置としてCPU31に代えてMPU等を使用することもできる。
【0032】
前記データ記録部16は、外部記憶媒体として配設された第4の記録媒体としての図示されないハードディスク、フレキシブルディスク等の磁気ディスクのほかに、同様に外部記憶媒体として配設された第5の記録媒体としての磁気テープ、磁気ドラム、CD、MD、DVD、光ディスク、MO、ICカード、光カード等から成り、各種の情報を読み出したり、書き込んだりするための図示されない読出・書込ヘッド等のヘッドを備える。
【0033】
本実施の形態においては、前記ROM33に各種のプログラムが記録され、前記データ記録部16に各種のデータが記録されるようになっているが、プログラム、データ等を同じ外部記憶装置に記録することもできる。この場合、例えば、前記ナビゲーション処理部17に前記フラッシュメモリを配設し、前記外部記憶装置から前記プログラム、データ等を読み出してフラッシュメモリに書き込むこともできる。したがって、外部記憶装置を交換することによって前記プログラム、データ等を更新することができる。また、車両に搭載された図示されない自動変速機の制御を行うために自動変速機制御装置が搭載されている場合には、自動変速機制御装置の制御用のプログラム、データ等も前記外部記憶装置に記録することができる。
【0034】
前記入力部34は、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通信部38を操作したりするためのものであり、前記ディスプレイに形成された画面に画像で表示された各種のキー、スイッチ、ボタン等から成る。したがって、該操作スイッチをタッチ(押下)することによって入力を行うことができる。なお、入力部34として、表示部35と別に配設されたキーボード、マウス、バーコードリーダ、ライトペン、遠隔操作用のリモートコントロール装置、ジョイスティック等を使用することもできる。
【0035】
そして、前記ディスプレイに形成された各種の画面には、操作案内、操作メニュー、キーの案内、現在地から目的地までの探索経路、該探索経路に沿った案内情報、FM多重放送の番組等が画像で表示される。前記表示部35としては、CRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ等のディスプレイを使用したり、車両のフロントガラスにホログラムを投影するホログラム装置等を使用したりすることができる。
【0036】
また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。さらに、音声出力部37は、図示されない音声合成装置及びスピーカを備え、音声出力部37から、前記探索経路、案内情報、変速情報、他車位置等が、例えば、音声合成装置によって合成された音声で出力される。なお、音声合成装置によって合成された音声のほかに、各種の音、あらかじめテープ、メモリ等に録音された各種の案内情報等を出力することもできる。
【0037】
そして、前記通信部38は、第1の情報提供者としての図示されないVICS(道路交通情報通信システム:Vehicle Information and Communication System)センタから送信された情報を、道路に沿って配設された図示されない電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信する第1の受信装置としての図示されないビーコンレシーバ、FM放送局を介してFM多重放送として受信する第2の受信装置としての図示されないFM受信機等を備え、前記ビーコンレシーバによって、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等の各情報から成る交通情報を受信したり、前記FM受信機によって前記交通情報のほかに、ニュース、天気予報等の情報をFM多重情報として受信したりすることができる。前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。
【0038】
また、通信部38は、基地局から送信されたGPS21の検出誤差を検出するD−GPS情報等の各種のデータを受信することもできる。なお、電波ビーコン、光ビーコン等に基づいて位置情報を受信し、現在地を検出することもでき、その場合、前記ビーコンレシーバは、現在地検出部として機能する。
【0039】
そして、前記ナビゲーション装置14においては、第2の情報提供者としての情報センタ51から、他車の情報、本実施の形態においては、他車位置を表す情報、すなわち、他車位置情報等のほかに、ナビゲーション情報、交通情報等の各種の情報を受信することもできる。また、ナビゲーション装置14から情報センタ51に、自車の情報、本実施の形態においては、自車位置を表す情報、すなわち、自車位置情報等を送信することもできる。そのために、前記通信部38に通信機能を備えた端末、すなわち、通信端末39が接続され、通信部38と情報センタ51とは、通信端末39及びネットワーク43を介して接続されたり、通信端末39を介することなくネットワーク43を介して接続されたりする。なお、前記通信部38と通信端末39とを一体にすることもできる。
【0040】
前記ナビゲーション装置14、情報センタ51、ネットワーク43等によってナビゲーションシステムが構成され、前記通信部38及び通信端末39と情報センタ51の通信部58との間で送受信が行われる。
【0041】
本実施の形態においては、通信端末39として、携帯電話、自動車電話、PHS等の移動電話を使用したり、携帯用コンピュータ、個人用携帯情報端末、電子手帳、テレビ電話、ゲーム機等に通信機能を持たせたものを使用したりすることができる。また、ネットワーク43としては、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット、携帯電話回線網、電話回線網、公衆通信回線網、専用通信回線網、インターネット等の通信回線網等から成る各種の通信手段を使用することができる。そして放送衛星によるCS放送、BS放送、地上波ディジタルテレビ放送、FM多重放送等を利用する通信手段を使用することもできる。さらに、高度道路交通システム(ITS)において利用されるノンストップ自動料金支払いシステム(ETC)、境域通信システム(DSRC)等の通信手段を使用することもできる。
【0042】
また、前記情報センタ51は、個人、企業、団体、地方自治体、政府関係機関等のいずれであってもよく、前記VICSセンタであってもよい。
【0043】
前記情報センタ51はサーバ53を備え、該サーバ53によって、情報センタ51とナビゲーション装置14との間で双方向の通信が行われ、各種の情報の提供が行われる。そのために、前記サーバ53は、演算装置及び制御装置としてのCPU54、RAM55、ROM56、前記通信部58等を備え、所定のプログラム、データ等に基づいてコンピュータとして機能する。なお、前記サーバ53及びナビゲーション装置14のナビゲーション処理部17によってコンピュータを構成することもできる。
【0044】
また、前記サーバ53には、情報記録部としての記録装置57が接続され、該記録装置57に登録されたグループに関する情報、交通情報、ニュース、天気予報、統計データ等の情報が記録される。
【0045】
そのために、前記CPU54の図示されない情報処理手段は、情報処理を行い、前記VICSセンタ等から送信された交通情報、ニュース、天気予報等の情報を受信し、一次情報として記録装置57に記録する。また、前記情報処理手段の情報加工処理手段は、情報加工処理を行い、前記交通情報、ニュース、天気予報等の情報に統計処理を施し、渋滞状況等を予測する予測交通情報等を構成する統計データを生成し、該統計データを二次情報として記録装置57に記録する。このようにして、前記情報処理手段は、交通情報、ニュース、天気予報等の情報及び統計データを取得する。
【0046】
ところで、2台以上の複数の車両を利用し、所定の目的地まで車両を走行させようとしたときに、各車両の運転者によってグループを構成し、グループ内で各車両の情報を共有し、共有する情報に従って目的地まで車両を走行させることができるようになっている。この場合、各車両の運転者はグループの構成員となる。
【0047】
図4は本発明の第1の実施の形態におけるグループを登録するのに必要な登録データのデータ構造を示す図、図5は本発明の第1の実施の形態におけるグループに参加するのに必要な登録データのデータ構造を示す図である。
【0048】
この場合、グループを登録しようとする場合に代表となる構成員(以下「代表構成員」という。)が、まず、代表構成員に属する車両に搭載されたナビゲーション装置14(図2)の入力部34を操作すると、CPU31の図示されない第1の登録データ送信処理手段は、第1の登録データ送信処理を行い、図4に示されるようなデータ構造の登録データを情報センタ51に送信する。前記データ構造において、グループIDは、結成しようとするグループを特定するための、例えば、メールアドレスのような数字、英字、記号等の列から成る識別番号であり、パスワードは、構成員がグループの正当な構成員であることを認識するための、任意の文字列から成る暗号である。また、ニックネームは、構成員であることを音声で認識するための、任意の文字列から成る愛称等の名称である。そして、マークIDは、地図画面に構成員の自車の現在地によって表される自車位置を表示する際に、識別用のマークを特定するための識別番号である。
【0049】
前記登録データが送信されると、CPU54の図示されない登録処理手段は、登録処理を行い、グループを登録するとともに、代表構成員を特定し、かつ、認識するための識別番号となるメンバーIDを付与し、前記代表構成員のナビゲーション装置14に送信し、該ナビゲーション装置14においてRAM32に記録される。なお、前記メンバーIDは、前記グループID、パスワード、ニックネーム及びマークIDに対応させて付与される。また、前記グループID、パスワード、ニックネーム、マークID及びメンバーIDは記録装置57に記録され、グループが登録され、代表構成員が特定される。
【0050】
続いて、既に登録されたグループに参加しようとする構成員(以下「参加構成員」という。)が、参加構成員に属する車両に搭載されたナビゲーション装置14の入力部34を操作すると、CPU31の図示されない第2の登録データ送信処理手段は、第2の登録データ送信処理を行い、図5に示されるようなデータ構造の登録データを情報センタ51に送信する。前記データ構造において、グループIDは、代表構成員から入手した図4に示されるグループIDであり、パスワードは、代表構成員から入手した図4に示されるパスワードである。また、ニックネームは、構成員であることを音声で認識するための、任意の文字列から成る愛称等の名称であり、マークIDは、地図画面上に構成員の自車位置を表示する際に、識別用のマークを特定するための識別番号である。
【0051】
前記登録データが送信されると、前記登録処理手段は、前記登録データに基づいて参加構成員を特定し、かつ、認識するための識別番号となるメンバーIDを付与し、前記参加構成員のナビゲーション装置14に送信し、該ナビゲーション装置14においてRAM32に記録される。なお、前記メンバーIDは、同様に、前記グループID、パスワード、ニックネーム及びマークIDに対応させて付与され、記録装置57に記録される。このようにして、参加構成員が特定される。
【0052】
次に、前記構成員がグループで所定の地点を目的地として各車両を走行させる場合の、ナビゲーションシステムの動作について説明する。
【0053】
図6は本発明の第1の実施の形態におけるナビゲーションシステムの動作を示すメインフローチャート、図7は本発明の第1の実施の形態における各ナビゲーション装置が情報センタに送信する送信データのデータ構成を示す図、図8は本発明の第1の実施の形態における各ナビゲーション装置が情報センタから受信する受信データのデータ構成を示す図である。
【0054】
まず、操作者である構成員によって入力部34(図2)が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行う。続いて、CPU31の図示されない位置情報取得処理手段は、位置情報取得処理を行い、構成員が属するグループID及び構成員のメンバーIDをRAM32から読み込むとともに、GPS21によって検出された現在地を自車位置情報として読み込む。
【0055】
また、CPU31の図示されないナビ情報取得処理手段は、ナビ情報取得処理を行い、データ記録部16から地図データファイル、道路データファイル、探索データファイル等を参照し、地図データ、道路データ、探索データ等のナビゲーション情報を読み出して取得する。
【0056】
なお、本実施の形態において、前記ナビ情報取得処理手段は、ナビゲーション情報を、データ記録部16から読み出して取得するようになっているが、通信部38を介して受信して取得することもできる。その場合、前記ナビ情報取得処理手段は、受信したナビゲーション情報をフラッシュメモリ、ハードディスク等にダウンロードして取得する。
【0057】
次に、前記CPU31の図示されない自車情報送信処理手段は、自車情報送信処理を行い、送信データの前回の送信から所定の周期(制御周期)が経過したかどうかを判断し、所定の周期が経過すると、図7に示されるような、前記グループID、構成員のメンバーID及び自車位置情報から成る送信データを情報センタ51に自車の情報、すなわち、自車情報として送信する。
【0058】
そして、前記CPU54の図示されないグループ判定処理手段は、グループ判定処理を行い、各ナビゲーション装置14から送信された送信データを受信すると、前記記録装置57を参照し、グループIDに基づいてグループを判定する。続いて、前記CPU54の図示されない現在地情報記録処理手段は、現在地情報記録処理を行い、各構成員の自車位置情報を、前記グループID及びメンバーIDに対応させて記録装置57に記録する。
【0059】
続いて、前記CPU54の図示されない検索処理手段は、検索処理を行い、前記グループIDに属するすべての構成員を検索する。そして、前記CPU54の図示されない現在地情報送信処理手段は、現在地情報送信処理を行い、記録装置57から前記各構成員について、各構成員の自車位置情報を他車位置情報として読み出し、メンバーID、マークID及びニックネームを読み出すとともに、該マークIDを画像データに変換してマーク情報とし、前記他車位置情報、メンバーID、マーク情報及びニックネームをナビゲーション装置14に他車の情報、すなわち、他車情報として送る。
【0060】
そして、前記CPU31の図示されない他車情報受信処理手段は、他車情報受信処理を行い、前記各他車情報を受信データとして受信する。該受信データは、図8に示されるように、他車位置情報、メンバーID、マーク情報及びニックネームから成る。
【0061】
次に、前記CPU31の他車位置取得処理手段92(図1)は、他車位置取得処理を行い、各受信データを読み込み、該受信データの他車位置情報から他車位置を取得する。
【0062】
そして、前記CPU31の表示処理手段90(図1)は、表示処理を行い、前記ディスプレイに地図画面を形成し、該地図画面に自車位置、他車位置等を表示する。
【0063】
本実施の形態においては、ナビゲーション装置14から情報センタ51に送信される自車位置情報に自車方位は含まれないが、自車位置情報に自車方位を含めることができる。その場合、情報センタ51からナビゲーション装置14に送信される他車位置情報に自車方位を含めることができるので、前記マークによって他車位置だけでなく、他車の方位を併せて表示することができる。
【0064】
なお、前記ナビゲーション装置14を経路探索装置として使用する場合、構成員が入力部34を操作して目的地を入力すると、CPU31の図示されない目的地設定処理手段は、目的地設定処理を行い、目的地を設定する。そして、必要に応じて出発地を設定することもできる。また、CPU31の図示されない経路探索処理手段は、経路探索処理を行う。そして、経路探索処理手段は、現在地、目的地、前記探索データ等を読み込み、該探索データに基づいて、現在地で表される出発地から目的地までの経路を探索する。
【0065】
続いて、前記CPU31の図示されない探索経路案内処理手段は、探索経路案内処理を行い、前記構成員に探索経路を案内する。そのために、前記探索経路案内処理手段の探索経路表示処理手段は、探索経路表示処理を行い、前記ディスプレイに探索経路表示画面を形成し、該探索経路表示画面に探索経路を表示する。また、前記探索経路案内処理手段の音声出力処理手段94は、音声出力処理を行い、音声出力部37から探索経路を音声で出力する。したがって、構成員は、案内された探索経路に従って車両を走行させることができる。
【0066】
そして、構成員が、交通情報を取得しようとして、前記入力部34を操作すると、前記ナビゲーション装置14は、前記通信部38を介して前記VICSセンタから送信される交通情報を受信し、受信された交通情報を前記地図画面に併せて表示する。
【0067】
次に、フローチャートについて説明する。
ステップS1 グループID、メンバーID及び自車位置情報を読み込む。
ステップS2 前回の送信から所定の周期が経過するのを待機し、前回の送信から所定の周期が経過するとステップS3に進む。
ステップS3 グループID、メンバーID及び自車位置情報を送信する。
ステップS4 他車情報を受信するのを待機し、他車情報を受信するとステップS5に進む。
ステップS5 表示処理を行い、処理を終了する。
【0068】
次に、前記表示処理手段90の動作について説明する。
【0069】
図9は本発明の第1の実施の形態における表示処理のサブルーチンを示す図、図10は本発明の第1の実施の形態における第2の領域表示処理のサブルーチンを示す図、図11は本発明の第1の実施の形態における地図画面の第1の例を示す図、図12は本発明の第1の実施の形態における地図画面の第2の例を示す図、図13は本発明の第1の実施の形態における音声の案内の設定画面の例を示す図、図14は本発明の第1の実施の形態における音声の案内の例を示す図である。
【0070】
まず、前記表示処理手段90は、データ記録部16(図2)から地図データを読み出し、前記ディスプレイに地図画面を形成し、該地図画面に、前記地図データに従って自車位置の周辺の地図を表示するとともに、自車位置及び自車方位を表示する。そして、構成員が入力部34を操作してマルチ画面を選択すると、前記表示処理手段90は、地図画面を分割してマルチ画面とし、図11に示されるように、第1、第2の地図表示領域としての第1、第2の表示領域AR1、AR2を形成する。そして、前記表示処理手段90の図示されない第1の領域表示処理手段は、第1の領域表示処理を行い、第1の(所定の)表示領域AR1に、自車位置の周辺の地図を所定の縮尺で表示するとともに、該地図に自車位置及び自車方位を表示し、第2の(他の)表示領域AR2に、同様に、自車位置の周辺の地図を所定の縮尺で表示するとともに、前記地図に自車位置及び自車方位を表示する。この場合、前記縮尺は、前回地図が表示されたときの値が初期値とされるが、各構成員は、例えば、入力部34を操作することによって、第1、第2の表示領域AR1、AR2における縮尺を任意に設定することができる。なお、図11において、m1は矢印によって自車方位を表す自車位置、q1、q2は縮尺を表すスケールである。
【0071】
ところで、グループで所定の地点を目的地として各車両を走行させる場合、各構成員は、入力部34を操作してグループ走行モードを選択することができるようになっている。そして、該グループ走行モードが設定されると、前記表示処理手段90の図示されない第2の領域表示処理手段は、第2の領域表示処理を行い、前記第2の表示領域AR2に、自車位置及び自車方位とともに、自車位置の周辺の地図を所定の縮尺で表示するとともに、前記地図に他車位置を表示する。
【0072】
次に、第2の領域表示処理手段の動作について説明する。
【0073】
ところで、前記地図画面を形成するために、RAM32内に地図画面に対応させて描画領域が設定され、前記地図画面に所定の表示を行うために、前記描画領域において描画が行われるようになっている。
【0074】
そして、前記第2の領域表示処理手段の図示されない描画範囲算出処理手段は、描画範囲算出処理を行い、まず、RAM32の画像メモリ上において、構成員が設定した縮尺で第2の表示領域AR2の描画領域を算出し、該描画領域の所定の箇所、本実施の形態においては、描画領域の中央を基準位置とし、該基準位置に自車位置を置く。
【0075】
続いて、前記CPU31の他車位置判定処理手段は、他車位置判定処理を行い、グループに属する他車について、前記自車位置を中心として他車位置を表示した場合、各他車位置が前記描画範囲内に収まるかどうかを判断する。そのために、前記描画領域の中央に自車位置を置いたときの各他車位置の描画領域上の座標(以下「他車位置座標」という。)、及び描画領域の各コーナ部の座標(以下「コーナ部座標」という。)を読み込み、各他車位置座標及び前記各コーナ部座標に基づいて、各他車位置が描画範囲内に収まるかどうかを判断する。
【0076】
例えば、グループに属する他車をHa〜Heとし、各他車位置座標を(xa、ya)、(xb、yb)、(xc、yc)、(xd、yd)、(xe、ye)とし、各コーナ部座標を(X1、Y1)、(X2、Y1)、(X1、Y2)、(X2、Y2)とすると、他車Haが描画範囲内に収まるかどうかは、値xa、yaが、
X1<xa<X2
Y1<ya<Y2
になるかどうかによって判断することができる。また、他車Hbが描画範囲内に収まるかどうかは、値xb、ybが、
X1<xb<X2
Y1<yb<Y2
になるかどうかによって判断することができる。さらに、他車Hcが描画範囲内に収まるかどうかは、値xc、ycが、
X1<xc<X2
Y1<yc<Y2
になるかどうかによって判断することができる。そして、他車Hdが描画範囲内に収まるかどうかは、値xd、ydが、
X1<xd<X2
Y1<yd<Y2
になるかどうかによって判断することができる。また、他車Heが描画範囲内に収まるかどうかは、値xe、yeが、
X1<xe<X2
Y1<ye<Y2
になるかどうかによって判断することができる。
【0077】
そして、所定の他車Ha〜Hcについて他車位置が描画範囲内に収まり、所定の他車Hd、Heについて他車位置が描画範囲から外れた場合、図12に示されるように、前記第2の領域表示処理手段は第2の表示領域AR2に、自車位置m1の周辺の地図を表示し、該地図に矢印によって自車方位を表す自車位置m1を表示するとともに、他車Ha〜Hcの他車位置をマークha〜hcで表示し、CPU31の音声出力処理手段94は、音声出力処理を行い、音声出力部37によって、他車Hd、Heの他車位置を音声で案内する。
【0078】
ところで、構成員が入力部34を操作することによって、各他車位置についての音声の案内の必要性の有無、及び音声の案内の順序を設定することができる。そのために、ディスプレイに、図13に示されるような音声案内設定画面が形成される。該音声案内設定画面においては、各構成員のニックネームMA〜ME、各構成員についての音声の案内の必要性の有無(「する」及び「しない」)、音声の案内をする際の順序等が表示され、構成員は入力部34を操作することによって、音声の案内の必要性の有無及び音声の案内をする際の順序を変更することができる。そして、音声案内設定画面の音声の案内の設定内容は、RAM32に記録される。
【0079】
なお、図12において、q1、q3は縮尺を表すスケールである。
【0080】
例えば、図13に示されるように、音声の案内の設定が行われている場合、各ニックネームMA〜MEを有する構成員が走行させている他車がHa〜Heであるとすると、図12に示されるように、他車Ha〜Hcについて他車位置が描画範囲内に収まり、第2の表示領域AR2に他車位置がマークha〜hcで表示されるのに対して、他車Hd、Heについては他車位置が描画範囲内に収まらず、第2の表示領域AR2に他車位置は表示されない。
【0081】
そして、図13に示されるように、他車Hdについては、音声の案内を行うように、他車Heについては音声の案内を行わないように設定されると、他車Hdの他車位置についてだけ音声の案内が行われる。
【0082】
この場合の音声の案内は、例えば、図14に示されるように、「MDは○○交差点付近を走行中です。」、「MDは××道路を走行中です。」、「MDは△△(施設名称)を走行中です。」、「MDはMA付近を走行中です。」等の内容のものにされる。この場合、前記音声出力処理手段94は、他車位置の座標を読み込むとともに、交差点、道路、施設等の座標を読み込み、座標を比較することによって他車位置の近傍の交差点、道路、施設、他車位置の近傍を走行している他車等の被案内物を特定し、前記座標に対応する被案内物の名称を音声で案内する。
【0083】
なお、前記ROM33には、音声の案内を行うための音声データが記録され、前記音声出力処理手段94は、RAM32に記録された音声の案内の設定内容を参照し、ROM33から音声データを読み出して音声を合成する。
このように、第2の表示領域AR2に所定の他車位置を表示することができるので、構成員は、地図画面に表示された自車位置及び他車位置を認識しながら車両を走行させることができる。また、第2の表示領域AR2の描画範囲から外れた他車位置については、音声で他車位置が案内されるので、構成員は、地図画面に表示された自車位置及び音声で案内された他車位置を認識しながら車両を走行させることができる。
【0084】
そして、第1の表示領域AR1には、十分に大きい縮尺で自車位置の周辺の地図を表示することができるので、第1の表示領域AR1に表示することができる情報がその分多くなる。したがって、構成員は、自車位置の周辺の道路状況を容易に認識することができる。
【0085】
次に、図9のフローチャートについて説明する。
ステップS5−1 地図画面に自車位置の周辺の地図、自車位置及び自車方位を表示する。
ステップS5−2 マルチ画面が選択されたかどうかを判断する。マルチ画面が選択された場合はステップS5−3に進み、選択されていない場合はリターンする。
ステップS5−3 第1の領域表示処理を行う。
ステップS5−4 グループ走行モードが設定されているかどうかを判断する。グループ走行モードが設定されている場合はステップS5−5に進み、設定されていない場合はリターンする。
ステップS5−5 第2の領域表示処理を行い、リターンする。
【0086】
次に、図10のフローチャートについて説明する。
ステップS5−5−1 描画範囲算出処理を行う。
ステップS5−5−2 他車位置が描画範囲内に収まるかどうかを判断する。他車位置が描画範囲内に収まる場合はステップS5−5−5に、収まられない場合はステップS5−5−3に進む。
ステップS5−5−3 地図に自車位置m1を表示する。
ステップS5−5−4 他車位置を音声で案内し、リターンする。
ステップS5−5−5 地図に自車位置m1及び他車位置を表示し、リターンする。
【0087】
ところで、前記第1の実施の形態においては、他車位置が描画範囲から外れた場合、あらかじめ音声の案内を行う旨の設定がされているすべての他車位置を音声で案内されるようになっている。ところが、グループの規模が大きく、構成員の人数が多い場合には、あらかじめ音声の案内を行う旨の設定がされているすべての他車位置を音声で案内しようとすると、案内が終了するまでの時間が極めて長くなってしまう。そこで、所定の数以上の他車位置については、音声の案内を行わないようにした本発明の第2の実施の形態について説明する。
【0088】
図15は本発明の第2の実施の形態における第2の領域表示処理のサブルーチンを示す図である。
【0089】
この場合、前記第2の領域表示処理手段の前記描画範囲算出処理手段は、描画範囲算出処理を行い、まず、RAM32の画像メモリ上において、構成員が設定した縮尺で第2の表示領域AR2(図12)の描画領域を算出し、該描画領域の所定の箇所、本実施の形態においては、描画領域の中央を基準位置とし、該基準位置に自車位置を置く。
【0090】
続いて、前記第2の領域表示処理手段は、グループに属する他車について、前記自車位置を中心として他車位置を表示する場合、第2の表示領域AR2に、自車位置の周辺の地図を表示し、該地図に自車位置を表示するとともに、各他車位置のうちの前記描画範囲内に収まる他車位置を表示する。また、前記第2の領域表示処理手段は、描画範囲から外れた他車位置の数Nを取得し、該数Nが閾値Nth以上である場合、CPU31の音声出力処理手段94は、音声出力処理を行い、描画範囲から外れた他車位置について音声で案内せず、数Nが閾値Nthより小さい場合、前記音声出力処理手段94は、音声出力部37によって、描画範囲から外れた他車位置について音声で案内する。
【0091】
このように、描画範囲から外れた他車位置の数Nが少ない場合にだけ音声で案内を行うようにしているので、音声の案内に必要な時間を短くすることができる。
次に、フローチャートについて説明する。
ステップS5−5−11 描画範囲算出処理を行う。
ステップS5−5−12 描画範囲内の他車位置を表示する。
ステップS5−5−13 描画範囲外から外れた他車位置の数Nを取得する。
ステップS5−5−14 数Nが閾値Nth以上であるかどうかを判断する。数Nが閾値Nth以上である場合はステップS5−5−15に、数Nが閾値Nthより小さい場合はステップS5−5−16に進む。
ステップS5−5−15 音声で案内せず、リターンする。
ステップS5−5−16 音声で案内し、リターンする。
【0092】
次に、他車位置が描画範囲から外れた場合、他車位置を音声で案内するだけでなく、他車位置の方向を地図画面に表示することができるようにした本発明の第3の実施の形態について説明する。
【0093】
図16は本発明の第3の実施の形態における地図画面の例を示す図である。
【0094】
この場合、所定の他車Ha〜Hcについて他車位置が描画範囲内に収まり、所定の他車Hd、Heについて他車位置が描画範囲から外れた場合、図に示されるように、第2の領域表示処理手段は第2の表示領域AR3に、自車位置m1の周辺の地図を表示し、該地図に矢印によって自車方位を表す自車位置m1を表示するとともに、他車Ha〜Hcの他車位置をマークha〜hcで表示し、かつ、第2の表示領域AR3の周縁部に、自車位置m1から見た他車Hd、Heの他車位置の方向を表す矢印、及び他車Hd、Heの他車位置を表すマークhd、heを表示し、CPU31の音声出力処理手段94は、音声出力処理を行い、音声出力部37によって、他車Hd、Heの他車位置を音声で案内する。なお、図において、AR1は第1の表示領域、q1、q3は縮尺を表すスケールである。
【0095】
このように、描画範囲から外れた他車位置を音声による案内で認識することができるだけでなく、第2の表示領域AR3に表示された矢印で自車位置から見た他車位置の方向を認識することができる。
【0096】
前記各実施の形態においては、地図画面に地図を表示する際に、自車方位が地図画面上の上方に向くように、ヘディングアップの表示法が採用されているが、絶対方位における北が地図画面上の上方に向くように、ノースアップの表示法を採用することもできる。
【0097】
また、前記各実施の形態においては、CPU31(図2)の前記表示処理手段90が、表示処理を行うようになっているが、CPU54(図3)の図示されないセンタ側表示処理手段によって、センタ側表示処理を行い、地図画面を形成することもできる。
【0098】
その場合、前記センタ側表示処理手段の第1の領域表示処理手段は、第1の領域表示処理を行い、所定の構成員のナビゲーション装置14から送信された自車情報に基づいて、自車位置を第1の表示領域AR1に表示するための第1の画像データを作成し、センタ側表示処理手段の他車位置取得処理手段は他の各構成員のナビゲーション装置14から送信された自車情報の自車位置を他車位置として取得し、前記センタ側表示処理手段の第2の領域表示処理手段は、第2の領域表示処理を行い、ナビゲーション装置14から送信された自車情報に基づいて、前記自車位置及び描画範囲内に収まる他車位置を第2の表示領域AR1に表示するための第2の画像データを作成する。また、前記CPU54の図示されない音声データ作成処理手段は、音声データ作成処理を行い、描画範囲から外れた他車位置を音声で案内するために音声データを作成する。
【0099】
続いて、前記CPU54の図示されないデータ送信処理手段は、データ送信処理を行い、前記第1、第2の画像データ及び音声データをナビゲーション装置14に送信する。そして、CPU31の図示されないデータ受信処理手段は、データ受信処理を行い、前記第1、第2の画像データ及び音声データを受信すると、前記表示処理手段は、地図画面の第1の表示領域AR1に、自車位置の周辺の地図を所定の縮尺で表示するとともに、該地図に自車位置及び自車方位を表示し、また、第2の表示領域AR2に、自車位置の周辺の地図、自車位置及び描画範囲内に収まる他車位置を表示する。また、音声出力処理手段94は、音声出力処理を行い、音声データに従って、描画範囲から外れた他車位置を音声で案内する。
【0100】
前記各実施の形態においては、マルチ画面が選択され、第1、第2の表示領域が形成された場合について説明しているが、一つの画面によって地図画面が形成される場合にも、本発明を適用することができる。その場合、前記地図画面に対応する描画範囲が算出され、該描画範囲に収まる他車位置が地図画面に表示され、前記描画範囲から外れた他車位置は、音声で案内される。
【0101】
また、前記各実施の形態においては、音声案内設定画面に音声の案内をする際の順序が表示され、構成員は入力部34を操作することによって音声の案内をする際の順序を変更することができるようになっているが、自車位置から他車位置までの距離の長い順に、又は短い順に案内することもできる。その場合、前記音声出力処理手段94は、前記自車位置の座標及び他車位置の座標を読み込み、自車位置と他車位置との間の直線距離を算出し、各直線距離を比較して案内する順番を決定する。
【0102】
なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。
【0103】
【発明の効果】
以上詳細に説明したように、本発明によれば、描画範囲内に収まる他車位置を表示部に表示するとともに、描画範囲から外れた他車位置を音声で案内することができるので、構成員は、自車位置及び他車位置を認識しながら車両を走行させることができる。
【0104】
また、表示部において、自車位置を表示することができるので、構成員は、自車位置の周辺の道路状況を容易に認識することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態におけるナビゲーションシステムの機能ブロック図である。
【図2】本発明の第1の実施の形態におけるナビゲーション装置の説明図である。
【図3】本発明の第1の実施の形態におけるナビゲーションシステムの概念図である。
【図4】本発明の第1の実施の形態におけるグループを登録するのに必要な登録データのデータ構造を示す図である。
【図5】本発明の第1の実施の形態におけるグループに参加するのに必要な登録データのデータ構造を示す図である。
【図6】本発明の第1の実施の形態におけるナビゲーションシステムの動作を示すメインフローチャートである。
【図7】本発明の第1の実施の形態における各ナビゲーション装置が情報センタに送信する送信データのデータ構成を示す図である。
【図8】本発明の第1の実施の形態における各ナビゲーション装置が情報センタから受信する受信データのデータ構成を示す図である。
【図9】本発明の第1の実施の形態における表示処理のサブルーチンを示す図である。
【図10】本発明の第1の実施の形態における第2の領域表示処理のサブルーチンを示す図である。
【図11】本発明の第1の実施の形態における地図画面の第1の例を示す図である。
【図12】本発明の第1の実施の形態における地図画面の第2の例を示す図である。
【図13】本発明の第1の実施の形態における音声の案内の設定画面の例を示す図である。
【図14】本発明の第1の実施の形態における音声の案内の例を示す図である。
【図15】本発明の第2の実施の形態における第2の領域表示処理のサブルーチンを示す図である。
【図16】本発明の第3の実施の形態における地図画面の例を示す図である。
【符号の説明】
14 ナビゲーション装置
17 ナビゲーション処理部
21 GPS
31 CPU
35 表示部
37 音声出力部
43 ネットワーク
51 情報センタ
53 サーバ
90 表示処理手段
92 他車位置取得処理手段
94 音声出力処理手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a navigation system and a map display method program.
[0002]
[Prior art]
Conventionally, in a navigation device, for example, a current position of a vehicle, that is, a current position, is detected by GPS (Global Positioning System), and a rotation angular velocity of a vehicle detected by a gyro sensor, that is, based on a turning angle, The direction of the vehicle (hereinafter referred to as “vehicle direction”) is detected, map data is read from the data recording unit, a map screen is formed on the display of the display unit, and the current location and the surroundings of the current location are displayed on the map screen. A map and the direction of the vehicle are displayed. Therefore, the driver who is an operator can drive the vehicle according to the current location displayed on the map screen, the map around the current location, and the direction of the vehicle.
[0003]
When the driver sets a destination and sets search conditions, a route from the current location to the destination is searched based on the search conditions. The searched route, that is, the searched route is displayed on the searched route display screen formed on the display as an image, or is output by voice by a message from the voice output unit, and is guided to the driver. Is done. Therefore, the driver can drive the vehicle according to the guided search route.
[0004]
By the way, communication is carried out between one's own vehicle, that is, the own vehicle, and another vehicle, that is, another vehicle, and is displayed on the map screen by the own vehicle position represented by the current location of the own vehicle and the current location of the other vehicle. There is provided a navigation device that displays the position of another vehicle to be displayed.
[0005]
In this case, since it is necessary to display the own vehicle position and the other vehicle position on one map screen, the distance between the own vehicle position and the other vehicle position within the drawing range on the image memory (hereinafter referred to as “inter-vehicle distance”). And a scale for forming a map screen corresponding to the calculated inter-vehicle distance is calculated and determined (Japanese Patent Laid-Open No. 9-189561).
[0006]
Therefore, the driver can drive the vehicle while recognizing the vehicle position and the other vehicle position on the map screen.
[0007]
[Problems to be solved by the invention]
However, in the conventional navigation device, when the inter-vehicle distance is large, the scale is reduced to display the vehicle position and the other vehicle position on one map screen, and a wide area map is displayed on the map screen. It is necessary to display the vehicle and other vehicles on the wide area map. As a result, the information that can be displayed on the map screen is reduced accordingly, and it becomes difficult to recognize the road conditions around the vehicle position.
[0008]
The present invention solves the problems of the conventional navigation device, makes it possible to drive the vehicle while recognizing the position of the own vehicle and the position of the other vehicle, and easily recognizes the road conditions around the position of the own vehicle. It is an object of the present invention to provide a navigation system and a map display method program that can perform the above-described functions.
[0009]
[Means for Solving the Problems]
Therefore, in the navigation system of the present invention, a current position detection unit that detects the current position, a display unit, an audio output unit, and another vehicle position acquisition processing unit that acquires the position of another vehicle represented by the current position of the other vehicle, A display processing means for displaying the own vehicle position represented by the current position of the own vehicle, a map around the own vehicle position, and other vehicle positions within the drawing range by the display unit, and other vehicle positions outside the drawing range. Voice output processing means for guiding the voice by the voice output unit.
[0010]
In another navigation system of the present invention, the display processing means further includes a first area display processing means for displaying the own vehicle position in the first map display area, and a position within the own vehicle position and drawing range. Second area display processing means for displaying the vehicle position in the second map display area is provided.
[0011]
Still another navigation system of the present invention further includes other vehicle position determination processing means for determining whether or not the other vehicle position falls within the drawing range.
[0012]
Still another navigation system of the present invention further includes own vehicle information transmission processing means for transmitting information of the own vehicle to the information center and other vehicle information reception processing means for receiving information of other vehicles from the information center. .
[0013]
Then, the other vehicle position acquisition processing means acquires the other vehicle position from the received other vehicle information.
[0014]
In still another navigation system of the present invention, the voice output processing means guides according to the necessity of voice guidance set in advance.
[0015]
In still another navigation system of the present invention, the voice output processing means performs voice guidance when the number of other vehicle positions out of the drawing range is smaller than a threshold value.
[0016]
In the program of the map display method of the present invention, the computer uses other vehicle position acquisition processing means for acquiring the other vehicle position represented by the current location of the other vehicle, the own vehicle position represented by the current location of the own vehicle, and the own vehicle position. A display processing means for displaying a map around the vehicle and other vehicle positions that fall within the drawing range by the display unit, and a voice output processing means for guiding the other vehicle position outside the drawing range by voice using the voice output unit Let
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0018]
FIG. 1 is a functional block diagram of the navigation system according to the first embodiment of the present invention.
[0019]
In the figure, 21 is a GPS as a current location detection unit for detecting the current location, 35 is a display unit, 37 is an audio output unit, 92 is another vehicle position acquisition processing means for acquiring the position of another vehicle represented by the current location of the other vehicle, Reference numeral 90 is a display processing means for displaying the own vehicle position represented by the current location of the own vehicle, a map around the own vehicle position, and other vehicle positions within the drawing range, and 94 is other than the drawing range. Voice output processing means for guiding the vehicle position by voice by the voice output unit.
[0020]
FIG. 2 is an explanatory diagram of the navigation device according to the first embodiment of the present invention, and FIG. 3 is a conceptual diagram of the navigation system according to the first embodiment of the present invention.
[0021]
In the figure, reference numeral 14 denotes a navigation device as an in-vehicle device mounted on a vehicle. The navigation device 14 records navigation information such as a current location detection processing unit 15 for detecting the current location, map data, road data, search data, and the like. A data recording unit 16 serving as an information recording unit, a navigation processing unit 17 that functions as a computer based on various programs, data, etc., and that performs various arithmetic processes such as navigation processing based on the input information; Input unit 34 as a first input device, a display unit 35 as a display means and a first output device, a voice input unit 36 as a second input device, and a voice output unit 37 as a second output device. A communication unit 38 as a first transmission / reception unit, and a communication terminal 39 as a second transmission / reception unit. A vehicle speed sensor 41 is connected to the down processor 17.
[0022]
The current location detection processing unit 15 includes a GPS (global positioning system) 21 as a current location detection unit, a geomagnetic sensor 22, a distance sensor 23, a steering sensor 24, a gyro sensor 26 as an orientation detection unit, an altimeter (not shown), and the like. .
[0023]
The GPS 21 detects the present location on the earth by receiving radio waves generated by artificial satellites, the geomagnetic sensor 22 detects the vehicle direction by measuring geomagnetism, and the distance sensor 23 A distance between predetermined positions on the road is detected. Examples of the distance sensor 23 include a sensor that measures the rotational speed of a wheel (not shown) and detects a distance based on the rotational speed, a sensor that measures acceleration, integrates the acceleration twice, and detects a distance. Can be used.
[0024]
The steering sensor 24 detects a rudder angle, and the steering sensor 24 is attached to, for example, an optical rotation sensor, a rotation resistance sensor, or a wheel attached to a rotating portion of a steering wheel (not shown). An angle sensor or the like is used.
[0025]
The gyro sensor 26 detects a turning angle. As the gyro sensor 26, for example, a gas rate gyro, a vibration gyro, or the like is used. Further, by integrating the turning angle detected by the gyro sensor 26, the vehicle direction can be detected.
[0026]
The GPS 21 can detect the current location independently. The current position can also be detected by combining the distance detected by the distance sensor 23 with the vehicle direction detected by the geomagnetic sensor 22 or the turning angle detected by the gyro sensor 26. Further, the current location can be detected by combining the distance detected by the distance sensor 23 and the steering angle detected by the steering sensor 24.
[0027]
The data recording unit 16 includes a database including data files such as a map data file, an intersection data file, a node data file, a road data file, a search data file, a facility information data file, and the like. On the map screen formed on the display (not shown) of the unit 35, a predetermined map, a searched route, a destination, etc. are displayed, a characteristic photograph of the intersection or route, a frame diagram, etc. are displayed, or until the next intersection Various data for displaying guidance information such as the distance and the traveling direction at the next intersection is recorded.
[0028]
For example, the intersection data file includes intersection data relating to each intersection, the node data file includes node data relating to node points, the road data file includes road data relating to roads, and the search data file includes a search for searching for a route. Data is recorded, and road condition data representing road conditions is constituted by the intersection data, node data, road data, search data, and the like. The node data includes data indicating actual road branch points (including intersections, T-junctions, etc.), node points, and inter-node point links that connect the node points.
[0029]
And, according to the road data, the width of the road itself, the slope (gradient), the cant, the bank, the road surface state, the number of lanes of the road, the location where the number of lanes decreases, the location where the width becomes narrow, etc. Radius of curvature, intersection, T-junction, corner entrance, etc., road attributes, downhill roads, uphill roads, etc., road types, general roads such as national roads, prefectural roads, narrow streets, highways, urban highways Expresses highways and toll roads such as toll roads. Further, the road data represents a railroad crossing, a highway entrance and exit road (rampway), a highway / toll road tollgate, and the like.
[0030]
In the facility information data file, facility information of facilities such as hotels, gas stations, parking lots, and sightseeing spots in each region is recorded as facility information data. The data recording unit 16 also records various data for outputting predetermined information by the audio output unit 37.
[0031]
The navigation processing unit 17 includes an arithmetic device that controls the entire navigation device 14 and a CPU 31 as a control device, and a DRAM as a first recording medium used as a working memory when the CPU 31 performs various arithmetic processes. In addition to RAM 32 such as SRAM, MRAM, and FeRAM, and a control program, a second recording medium on which various programs for searching a route to a destination, route guidance, determining a specific section, and the like are recorded The input unit 34, the display unit 35, the voice input unit 36, the voice output unit 37, and the communication unit 38 are connected to the navigation processing unit 17. A semiconductor memory, a magnetic core, or the like is used as the RAM 32, ROM 33, or the like. In addition to the RAM 32, the ROM 33, and the like, a flash memory (not shown) as a third recording medium can be disposed in the navigation processing unit 17. An MPU or the like can be used instead of the CPU 31 as the arithmetic device and the control device.
[0032]
In addition to a magnetic disk (not shown) such as a hard disk or a flexible disk as a fourth recording medium disposed as an external storage medium, the data recording unit 16 is similarly provided as a fifth recording medium disposed as an external storage medium. A magnetic tape, magnetic drum, CD, MD, DVD, optical disk, MO, IC card, optical card, or the like as a medium, and a head such as a read / write head (not shown) for reading and writing various information Is provided.
[0033]
In the present embodiment, various programs are recorded in the ROM 33 and various data are recorded in the data recording unit 16, but the programs, data, and the like are recorded in the same external storage device. You can also. In this case, for example, the navigation memory 17 may be provided with the flash memory, and the program, data, and the like may be read from the external storage device and written to the flash memory. Therefore, the program, data, etc. can be updated by exchanging the external storage device. When an automatic transmission control device is mounted to control an automatic transmission (not shown) mounted on the vehicle, the external storage device also stores control programs, data, and the like for the automatic transmission control device. Can be recorded.
[0034]
The input unit 34 is used to correct the current location at the start of travel, to input a starting point and a destination, and to operate the communication unit 38. An image is displayed on the screen formed on the display. It consists of various displayed keys, switches, buttons, etc. Therefore, an input can be performed by touching (pressing down) the operation switch. As the input unit 34, a keyboard, a mouse, a barcode reader, a light pen, a remote control device for remote operation, a joystick, or the like disposed separately from the display unit 35 can be used.
[0035]
On the various screens formed on the display, operation guidance, operation menus, key guidance, a search route from the current location to the destination, guidance information along the search route, FM multiplex broadcast programs, etc. are displayed. Is displayed. As the display unit 35, a display such as a CRT display, a liquid crystal display, or a plasma display can be used, or a hologram device that projects a hologram on a windshield of a vehicle can be used.
[0036]
The voice input unit 36 includes a microphone (not shown) and the like, and can input necessary information by voice. Furthermore, the voice output unit 37 includes a voice synthesizer and a speaker (not shown). The voice output unit 37 synthesizes the search route, the guidance information, the shift information, the other vehicle position, and the like by, for example, a voice synthesizer. Is output. In addition to the voice synthesized by the voice synthesizer, various sounds, various guidance information recorded in advance on a tape, a memory, and the like can be output.
[0037]
The communication unit 38 receives information transmitted from a VICS (Vehicle Information and Communication System) center (not shown) as a first information provider, which is not shown along the road. As a beacon receiver (not shown) as a first receiving device that receives a radio beacon, an optical beacon, etc. via a radio beacon device, an optical beacon device, etc., as a second receiving device that receives FM multiplex broadcast via an FM broadcast station The beacon receiver receives traffic information including information such as traffic jam information, regulation information, parking lot information, traffic accident information, service area congestion status information, and the FM receiver. In addition to the traffic information, a receiver Information such as news and weather forecasts can be received as FM multiplex information. The beacon receiver and the FM receiver are unitized and arranged as a VICS receiver, but may be arranged separately.
[0038]
Moreover, the communication part 38 can also receive various data, such as D-GPS information which detects the detection error of GPS21 transmitted from the base station. Note that position information can be received based on a radio wave beacon, an optical beacon, or the like, and the current location can be detected. In this case, the beacon receiver functions as a current location detection unit.
[0039]
In the navigation device 14, from the information center 51 as the second information provider, in the present embodiment, in addition to other vehicle information, that is, other vehicle position information, In addition, various information such as navigation information and traffic information can be received. In addition, information on the own vehicle, in this embodiment, information indicating the own vehicle position, that is, own vehicle position information or the like can be transmitted from the navigation device 14 to the information center 51. Therefore, a terminal having a communication function, that is, a communication terminal 39 is connected to the communication unit 38, and the communication unit 38 and the information center 51 are connected via the communication terminal 39 and the network 43, or the communication terminal 39. Or connected via the network 43 without going through. The communication unit 38 and the communication terminal 39 can be integrated.
[0040]
A navigation system is configured by the navigation device 14, the information center 51, the network 43, and the like, and transmission / reception is performed between the communication unit 38 and the communication terminal 39 and the communication unit 58 of the information center 51.
[0041]
In the present embodiment, a mobile phone such as a mobile phone, a car phone, and a PHS is used as the communication terminal 39, and a communication function is provided for a portable computer, a personal digital assistant, an electronic notebook, a video phone, a game machine, and the like. Can be used. The network 43 includes a local area network (LAN), a wide area network (WAN), an intranet, a mobile telephone line network, a telephone line network, a public communication line network, a dedicated communication line network, a communication line network such as the Internet, and the like. Various communication means can be used. Communication means using CS broadcasting, BS broadcasting, terrestrial digital television broadcasting, FM multiplex broadcasting, etc. by a broadcasting satellite can also be used. Furthermore, it is possible to use communication means such as a non-stop automatic toll payment system (ETC) and a boundary communication system (DSRC) that are used in an intelligent road traffic system (ITS).
[0042]
The information center 51 may be any one of an individual, a company, a group, a local government, a government-related organization, etc., and may be the VICS center.
[0043]
The information center 51 includes a server 53. The server 53 performs bidirectional communication between the information center 51 and the navigation device 14 and provides various types of information. For this purpose, the server 53 includes a CPU 54, a RAM 55, a ROM 56, the communication unit 58, and the like as an arithmetic device and a control device, and functions as a computer based on predetermined programs, data, and the like. The server 53 and the navigation processing unit 17 of the navigation device 14 may constitute a computer.
[0044]
In addition, a recording device 57 as an information recording unit is connected to the server 53, and information such as information on a group registered in the recording device 57, traffic information, news, weather forecast, statistical data, and the like is recorded.
[0045]
For this purpose, information processing means (not shown) of the CPU 54 performs information processing, receives information such as traffic information, news, and weather forecasts transmitted from the VICS center or the like, and records them as primary information in the recording device 57. The information processing means of the information processing means performs statistical processing on information such as the traffic information, news, weather forecast, etc., and performs statistical processing on the traffic information, news, weather forecasts, etc. Data is generated and the statistical data is recorded in the recording device 57 as secondary information. In this way, the information processing means acquires information such as traffic information, news, weather forecasts, and statistical data.
[0046]
By the way, when two or more vehicles are used to drive a vehicle to a predetermined destination, a group is formed by drivers of each vehicle, and information on each vehicle is shared within the group. The vehicle can be driven to the destination according to the shared information. In this case, the driver of each vehicle becomes a member of the group.
[0047]
FIG. 4 is a diagram showing a data structure of registration data necessary for registering a group in the first embodiment of the present invention, and FIG. 5 is necessary for joining the group in the first embodiment of the present invention. It is a figure which shows the data structure of various registration data.
[0048]
In this case, when a group is to be registered, a representative member (hereinafter referred to as “representative member”) first enters an input unit of the navigation device 14 (FIG. 2) mounted on a vehicle belonging to the representative member. When 34 is operated, first registration data transmission processing means (not shown) of the CPU 31 performs first registration data transmission processing and transmits registration data having a data structure as shown in FIG. 4 to the information center 51. In the above data structure, the group ID is an identification number for identifying a group to be formed, for example, a number such as a mail address, a string of letters, symbols, etc., and the password is a member of the group. It is a code consisting of an arbitrary character string for recognizing that it is a valid member. The nickname is a nickname or the like composed of an arbitrary character string for recognizing the member as a voice. And mark ID is an identification number for specifying the mark for identification, when displaying the own vehicle position represented by the present location of a member's own vehicle on a map screen.
[0049]
When the registration data is transmitted, registration processing means (not shown) of the CPU 54 performs registration processing, registers a group, and assigns a member ID as an identification number for identifying and recognizing a representative member. Then, it is transmitted to the navigation device 14 of the representative member and recorded in the RAM 32 in the navigation device 14. The member ID is assigned in association with the group ID, password, nickname, and mark ID. The group ID, password, nickname, mark ID, and member ID are recorded in the recording device 57, a group is registered, and a representative member is specified.
[0050]
Subsequently, when a member who intends to participate in a group that has already been registered (hereinafter referred to as “participating member”) operates the input unit 34 of the navigation device 14 mounted on the vehicle belonging to the participating member, the CPU 31 A second registration data transmission processing unit (not shown) performs a second registration data transmission process, and transmits registration data having a data structure as shown in FIG. In the data structure, the group ID is the group ID shown in FIG. 4 obtained from the representative member, and the password is the password shown in FIG. 4 obtained from the representative member. The nickname is a name such as a nickname consisting of an arbitrary character string for recognizing that it is a member, and the mark ID is used when displaying the vehicle position of the member on the map screen. This is an identification number for specifying an identification mark.
[0051]
When the registration data is transmitted, the registration processing means identifies a member who participates based on the registration data and assigns a member ID serving as an identification number for recognition, and navigation of the participant The data is transmitted to the device 14 and recorded in the RAM 32 in the navigation device 14. Similarly, the member ID is assigned in association with the group ID, password, nickname and mark ID, and is recorded in the recording device 57. In this way, participating members are identified.
[0052]
Next, the operation of the navigation system when the members drive each vehicle with a predetermined point as a destination in a group will be described.
[0053]
FIG. 6 is a main flowchart showing the operation of the navigation system according to the first embodiment of the present invention, and FIG. 7 is a data structure of transmission data transmitted by each navigation device according to the first embodiment of the present invention to the information center. FIG. 8 is a diagram showing a data structure of received data received from the information center by each navigation device according to the first embodiment of the present invention.
[0054]
First, when the input unit 34 (FIG. 2) is operated by a member who is an operator and the navigation device 14 is activated, a navigation initialization processing unit (not shown) of the CPU 31 performs a navigation initialization process. Subsequently, a position information acquisition processing unit (not shown) of the CPU 31 performs a position information acquisition process, reads the group ID to which the member belongs and the member ID of the member from the RAM 32, and displays the current location detected by the GPS 21 as the vehicle position information. Read as.
[0055]
A navigation information acquisition processing unit (not shown) of the CPU 31 performs navigation information acquisition processing, refers to a map data file, road data file, search data file, etc. from the data recording unit 16, and maps data, road data, search data, etc. The navigation information is read and acquired.
[0056]
In the present embodiment, the navigation information acquisition processing means reads and acquires the navigation information from the data recording unit 16, but can also acquire it by receiving it via the communication unit 38. . In that case, the navigation information acquisition processing means downloads and acquires the received navigation information to a flash memory, a hard disk or the like.
[0057]
Next, the host vehicle information transmission processing means (not shown) of the CPU 31 performs host vehicle information transmission processing, determines whether or not a predetermined cycle (control cycle) has passed since the previous transmission of transmission data, and has a predetermined cycle. 7, transmission data including the group ID, the member ID of the member, and the own vehicle position information as shown in FIG. 7 is transmitted to the information center 51 as own vehicle information, that is, own vehicle information.
[0058]
Then, a group determination processing unit (not shown) of the CPU 54 performs a group determination process, and when receiving transmission data transmitted from each navigation device 14, refers to the recording device 57 and determines a group based on the group ID. . Subsequently, current location information recording processing means (not shown) of the CPU 54 performs current location information recording processing, and records the vehicle position information of each member in the recording device 57 in association with the group ID and member ID.
[0059]
Subsequently, a search processing means (not shown) of the CPU 54 performs a search process to search for all members belonging to the group ID. Then, current location information transmission processing means (not shown) of the CPU 54 performs current location information transmission processing, reads out the vehicle position information of each member from the recording device 57 as the other vehicle position information for each member, member ID, The mark ID and nickname are read out, and the mark ID is converted into image data to be used as mark information. The other vehicle position information, member ID, mark information, and nickname are transmitted to the navigation device 14 as other vehicle information, that is, other vehicle information. Send as.
[0060]
The other vehicle information reception processing means (not shown) of the CPU 31 performs other vehicle information reception processing and receives each other vehicle information as reception data. As shown in FIG. 8, the received data includes other vehicle position information, member ID, mark information, and a nickname.
[0061]
Next, the other vehicle position acquisition processing unit 92 (FIG. 1) of the CPU 31 performs other vehicle position acquisition processing, reads each received data, and acquires the other vehicle position from the other vehicle position information of the received data.
[0062]
Then, the display processing means 90 (FIG. 1) of the CPU 31 performs display processing, forms a map screen on the display, and displays the position of the host vehicle, the position of other vehicles, etc. on the map screen.
[0063]
In the present embodiment, the vehicle direction information transmitted from the navigation device 14 to the information center 51 does not include the vehicle direction, but the vehicle direction information can include the vehicle direction. In that case, since the other vehicle position information transmitted from the information center 51 to the navigation device 14 can include the own vehicle direction, not only the other vehicle position but also the other vehicle direction can be displayed together with the mark. it can.
[0064]
When the navigation device 14 is used as a route search device, when a member inputs a destination by operating the input unit 34, a destination setting processing means (not shown) of the CPU 31 performs a destination setting process. Set the ground. And a departure place can also be set as needed. The route search processing means (not shown) of the CPU 31 performs route search processing. Then, the route search processing means reads the current location, the destination, the search data, etc., and searches for a route from the departure point represented by the current location to the destination based on the search data.
[0065]
Subsequently, a search route guidance processing unit (not shown) of the CPU 31 performs a search route guidance process and guides the member to the search route. For this purpose, the search route display processing means of the search route guidance processing means performs search route display processing, forms a search route display screen on the display, and displays the search route on the search route display screen. The voice output processing means 94 of the search route guidance processing means performs voice output processing and outputs the search route from the voice output unit 37 by voice. Therefore, the member can drive the vehicle according to the guided search route.
[0066]
When the member operates the input unit 34 in order to obtain traffic information, the navigation device 14 receives and receives the traffic information transmitted from the VICS center via the communication unit 38. Traffic information is displayed together with the map screen.
[0067]
Next, a flowchart will be described.
Step S1: The group ID, member ID, and own vehicle position information are read.
Step S2 Waits for a predetermined period to elapse from the previous transmission, and proceeds to step S3 when the predetermined period elapses from the previous transmission.
Step S3: The group ID, member ID, and own vehicle position information are transmitted.
Step S4 It waits for the reception of other vehicle information, and proceeds to step S5 when the other vehicle information is received.
Step S5 A display process is performed and the process is terminated.
[0068]
Next, the operation of the display processing means 90 will be described.
[0069]
FIG. 9 is a diagram showing a subroutine for display processing in the first embodiment of the present invention, FIG. 10 is a diagram showing a subroutine for second region display processing in the first embodiment of the present invention, and FIG. The figure which shows the 1st example of the map screen in 1st Embodiment of invention, FIG. 12 is the figure which shows the 2nd example of the map screen in 1st Embodiment of this invention, FIG. 13 is FIG. FIG. 14 is a diagram illustrating an example of a voice guidance setting screen according to the first embodiment, and FIG. 14 is a diagram illustrating an example of voice guidance according to the first embodiment of the present invention.
[0070]
First, the display processing means 90 reads map data from the data recording unit 16 (FIG. 2), forms a map screen on the display, and displays a map around the vehicle position according to the map data on the map screen. In addition, the vehicle position and the vehicle direction are displayed. When the member operates the input unit 34 to select a multi-screen, the display processing unit 90 divides the map screen into a multi-screen, and the first and second maps are displayed as shown in FIG. First and second display areas AR1 and AR2 are formed as display areas. Then, a first area display processing means (not shown) of the display processing means 90 performs a first area display process, and maps a map around the vehicle position to the first (predetermined) display area AR1. While displaying at a reduced scale, the vehicle position and vehicle direction are displayed on the map, and similarly, a map around the vehicle position is displayed at a predetermined scale in the second (other) display area AR2. The vehicle position and the vehicle direction are displayed on the map. In this case, the scale is set to an initial value when the map is displayed last time. However, each member operates the input unit 34, for example, to operate the first and second display areas AR1, The scale in AR2 can be set arbitrarily. In FIG. 11, m1 is a vehicle position that represents the vehicle direction by an arrow, and q1 and q2 are scales that represent the scale.
[0071]
By the way, when each vehicle travels with a predetermined point as a destination in a group, each member can operate the input unit 34 to select a group travel mode. When the group travel mode is set, the second area display processing means (not shown) of the display processing means 90 performs the second area display processing, and the vehicle position is displayed in the second display area AR2. In addition to the vehicle direction, a map around the vehicle position is displayed at a predetermined scale, and the other vehicle position is displayed on the map.
[0072]
Next, the operation of the second area display processing means will be described.
[0073]
By the way, in order to form the map screen, a drawing area corresponding to the map screen is set in the RAM 32, and drawing is performed in the drawing area in order to perform a predetermined display on the map screen. Yes.
[0074]
A drawing range calculation processing means (not shown) of the second area display processing means performs a drawing range calculation process. First, in the image memory of the RAM 32, the second display area AR2 is scaled by a member. A drawing area is calculated, and a predetermined position in the drawing area, in the present embodiment, the center of the drawing area is set as a reference position, and the vehicle position is placed at the reference position.
[0075]
Subsequently, the other vehicle position determination processing means of the CPU 31 performs other vehicle position determination processing, and for other vehicles belonging to the group, when the other vehicle position is displayed centering on the own vehicle position, each other vehicle position is It is determined whether it is within the drawing range. Therefore, the coordinates on the drawing area of each other vehicle position (hereinafter referred to as “other vehicle position coordinates”) when the vehicle position is placed in the center of the drawing area, and the coordinates of each corner portion of the drawing area (hereinafter referred to as “other vehicle position coordinates”). "Corner part coordinates") is read, and it is determined whether or not each other vehicle position falls within the drawing range based on each other vehicle position coordinate and each said corner part coordinate.
[0076]
For example, the other vehicles belonging to the group are Ha to He, and the other vehicle position coordinates are (xa, ya), (xb, yb), (xc, yc), (xd, yd), (xe, ye), If each corner portion coordinate is (X1, Y1), (X2, Y1), (X1, Y2), (X2, Y2), whether the other vehicle Ha is within the drawing range is determined by the values xa, ya
X1 <xa <X2
Y1 <ya <Y2
It can be judged by whether or not. Whether the other vehicle Hb is within the drawing range is determined by the values xb and yb,
X1 <xb <X2
Y1 <yb <Y2
It can be judged by whether or not. Furthermore, whether or not the other vehicle Hc is within the drawing range is determined by the values xc and yc,
X1 <xc <X2
Y1 <yc <Y2
It can be judged by whether or not. Whether or not the other vehicle Hd falls within the drawing range is determined by the values xd and yd,
X1 <xd <X2
Y1 <yd <Y2
It can be judged by whether or not. Whether the other vehicle He is within the drawing range is determined by the values xe and ye,
X1 <xe <X2
Y1 <ye <Y2
It can be judged by whether or not.
[0077]
Then, when the other vehicle position falls within the drawing range for the predetermined other vehicles Ha to Hc and the other vehicle position deviates from the drawing range for the predetermined other vehicles Hd and He, as shown in FIG. The area display processing means displays a map around the own vehicle position m1 in the second display area AR2, displays the own vehicle position m1 indicating the own vehicle direction by an arrow on the map, and other vehicles Ha to Hc. The other vehicle position is displayed with marks ha to hc, and the audio output processing means 94 of the CPU 31 performs audio output processing, and the audio output unit 37 guides the other vehicle positions of the other vehicles Hd and He by voice.
[0078]
By the way, when the member operates the input unit 34, it is possible to set the necessity of voice guidance for each other vehicle position and the order of voice guidance. For this purpose, a voice guidance setting screen as shown in FIG. 13 is formed on the display. In the voice guidance setting screen, the nicknames MA to ME of each member, the necessity of voice guidance for each member (“Yes” and “No”), the order of voice guidance, etc. The member can display the necessity of voice guidance and change the order of voice guidance by operating the input unit 34. The setting contents of the voice guidance on the voice guidance setting screen are recorded in the RAM 32.
[0079]
In FIG. 12, q1 and q3 are scales representing scales.
[0080]
For example, as shown in FIG. 13, when voice guidance is set, if the other vehicles being run by members having the nicknames MA to ME are Ha to He, FIG. As shown, the other vehicle positions of the other vehicles Ha to Hc are within the drawing range, and the other vehicle positions are displayed with marks ha to hc in the second display area AR2, whereas the other vehicles Hd and He are displayed. The position of the other vehicle does not fall within the drawing range, and the position of the other vehicle is not displayed in the second display area AR2.
[0081]
Then, as shown in FIG. 13, when the other vehicle Hd is set to perform voice guidance and the other vehicle He does not perform voice guidance, the other vehicle position of the other vehicle Hd is determined. Only voice guidance is performed.
[0082]
For example, as shown in FIG. 14, the voice guidance in this case is “MD is traveling near the intersection of XX”, “MD is traveling on the road XX”, “MD is Δ △ (The name of the facility is running.) "And" MD is running near the MA. " In this case, the audio output processing means 94 reads the coordinates of the other vehicle position, reads the coordinates of the intersection, road, facility, etc., and compares the coordinates to compare the intersection, road, facility, etc. near the other vehicle position. A guided object such as another vehicle traveling in the vicinity of the vehicle position is specified, and the name of the guided object corresponding to the coordinates is guided by voice.
[0083]
Note that voice data for voice guidance is recorded in the ROM 33, and the voice output processing means 94 reads voice data from the ROM 33 by referring to the voice guidance setting contents recorded in the RAM 32. Synthesize speech.
In this way, since the predetermined other vehicle position can be displayed in the second display area AR2, the member can drive the vehicle while recognizing the own vehicle position and the other vehicle position displayed on the map screen. Can do. Further, for other vehicle positions outside the drawing range of the second display area AR2, the other vehicle positions are guided by voice, so the members were guided by the own vehicle position and voice displayed on the map screen. The vehicle can be driven while recognizing the position of the other vehicle.
[0084]
Since the map around the vehicle position can be displayed in a sufficiently large scale in the first display area AR1, the information that can be displayed in the first display area AR1 is increased accordingly. Therefore, the member can easily recognize the road conditions around the vehicle position.
[0085]
Next, the flowchart of FIG. 9 will be described.
Step S5-1: A map around the vehicle position, the vehicle position and the vehicle direction are displayed on the map screen.
Step S5-2: It is determined whether or not a multi-screen has been selected. If the multi-screen is selected, the process proceeds to step S5-3. If not selected, the process returns.
Step S5-3: A first area display process is performed.
Step S5-4: It is determined whether the group travel mode is set. If the group travel mode is set, the process proceeds to step S5-5, and if not set, the process returns.
Step S5-5 Performs the second area display process and returns.
[0086]
Next, the flowchart of FIG. 10 will be described.
Step S5-5-1: A drawing range calculation process is performed.
Step S5-5-2: It is determined whether or not the other vehicle position is within the drawing range. If the position of the other vehicle falls within the drawing range, the process proceeds to step S5-5-5. If not, the process proceeds to step S5-5-3.
Step S5-5-3: The vehicle position m1 is displayed on the map.
Step S5-5-4: The other vehicle position is guided by voice and the process returns.
Step S5-5-5: The own vehicle position m1 and the other vehicle position are displayed on the map, and the process returns.
[0087]
By the way, in the first embodiment, when the other vehicle position is out of the drawing range, all other vehicle positions that have been set to perform voice guidance in advance are guided by voice. ing. However, if the size of the group is large and the number of members is large, if you try to give a voice guidance to all other vehicle positions that are set to give voice guidance in advance, the guidance will end. Time will be extremely long. Therefore, a second embodiment of the present invention in which voice guidance is not performed for a predetermined number of other vehicle positions will be described.
[0088]
FIG. 15 is a diagram showing a subroutine of second area display processing in the second embodiment of the present invention.
[0089]
In this case, the drawing range calculation processing means of the second area display processing means performs the drawing range calculation processing. First, on the image memory of the RAM 32, the second display area AR2 (with the scale set by the member) The drawing area of FIG. 12) is calculated, and a predetermined position of the drawing area, in the present embodiment, the center of the drawing area is set as a reference position, and the vehicle position is placed at the reference position.
[0090]
Subsequently, when the second area display processing means displays other vehicle positions centered on the own vehicle position for other vehicles belonging to the group, a map around the own vehicle position is displayed in the second display area AR2. Is displayed, and the position of the own vehicle is displayed on the map, and the position of the other vehicle that falls within the drawing range among the positions of the other vehicles is displayed. Further, the second area display processing means acquires the number N of other vehicle positions out of the drawing range, and when the number N is equal to or greater than the threshold value Nth, the sound output processing means 94 of the CPU 31 performs sound output processing. When the number N is smaller than the threshold value Nth, the voice output processing unit 94 uses the voice output unit 37 to check the position of the other vehicle outside the drawing range. Guide by voice.
[0091]
Thus, since guidance is performed by voice only when the number N of other vehicle positions out of the drawing range is small, the time required for voice guidance can be shortened.
Next, a flowchart will be described.
Step S5-5-11: A drawing range calculation process is performed.
Step S5-5-12: Displays the position of the other vehicle in the drawing range.
Step S5-5-13: The number N of other vehicle positions out of the drawing range is acquired.
Step S5-5-14—Determines whether the number N is greater than or equal to a threshold value Nth. If the number N is greater than or equal to the threshold Nth, the process proceeds to step S5-5-15. If the number N is smaller than the threshold Nth, the process proceeds to step S5-5-16.
Step S5-5-15: Return without guidance by voice.
Step S5-5-16 Guidance is made by voice and the process returns.
[0092]
Next, when the position of the other vehicle deviates from the drawing range, the third embodiment of the present invention can display not only the position of the other vehicle by voice but also the direction of the other vehicle position on the map screen. Will be described.
[0093]
FIG. 16 is a diagram showing an example of a map screen according to the third embodiment of the present invention.
[0094]
In this case, when the other vehicle position falls within the drawing range for the predetermined other vehicles Ha to Hc and the other vehicle position deviates from the drawing range for the predetermined other vehicles Hd and He, as shown in FIG. The area display processing means displays a map around the own vehicle position m1 in the second display area AR3, displays the own vehicle position m1 indicating the own vehicle direction by an arrow on the map, and also displays the other vehicles Ha to Hc. An arrow indicating the direction of the other vehicle position of the other vehicle Hd, He viewed from the own vehicle position m1, and the other vehicle are displayed on the periphery of the second display area AR3, and the other vehicle position is indicated by marks ha to hc. The marks hd and he representing the other vehicle positions of Hd and He are displayed, and the audio output processing means 94 of the CPU 31 performs audio output processing. invite. In the figure, AR1 is the first display area, and q1 and q3 are scales representing the scale.
[0095]
Thus, not only the position of the other vehicle outside the drawing range can be recognized by voice guidance, but also the direction of the other vehicle position viewed from the own vehicle position is recognized by the arrow displayed in the second display area AR3. can do.
[0096]
In each of the above embodiments, when displaying a map on the map screen, the heading-up display method is adopted so that the direction of the vehicle is directed upward on the map screen. The north-up display method can also be adopted so as to face upward on the screen.
[0097]
In each of the above embodiments, the display processing means 90 of the CPU 31 (FIG. 2) performs display processing. However, the center side display processing means (not shown) of the CPU 54 (FIG. 3) performs center processing. A side display process can be performed to form a map screen.
[0098]
In that case, the first area display processing means of the center side display processing means performs the first area display processing, and based on the own vehicle information transmitted from the navigation device 14 of a predetermined member, Is generated in the first display area AR1, and the other vehicle position acquisition processing means of the center side display processing means transmits the own vehicle information transmitted from the navigation device 14 of each other member. And the second area display processing means of the center side display processing means performs a second area display process, based on the own vehicle information transmitted from the navigation device 14. The second image data for displaying the own vehicle position and the other vehicle position within the drawing range in the second display area AR1 is created. The voice data creation processing means (not shown) of the CPU 54 performs voice data creation processing, and creates voice data to guide the other vehicle position outside the drawing range by voice.
[0099]
Subsequently, data transmission processing means (not shown) of the CPU 54 performs data transmission processing and transmits the first and second image data and audio data to the navigation device 14. Then, the data reception processing means (not shown) of the CPU 31 performs data reception processing, and when the first and second image data and audio data are received, the display processing means enters the first display area AR1 of the map screen. In addition to displaying a map around the vehicle position at a predetermined scale, the vehicle position and the vehicle direction are displayed on the map, and a map around the vehicle position is displayed in the second display area AR2. The vehicle position and the other vehicle position that falls within the drawing range are displayed. The voice output processing means 94 performs voice output processing and guides other vehicle positions outside the drawing range by voice according to the voice data.
[0100]
In each of the above-described embodiments, the case where the multi-screen is selected and the first and second display areas are formed is described. However, the present invention can be applied to the case where the map screen is formed by one screen. Can be applied. In this case, the drawing range corresponding to the map screen is calculated, the other vehicle position that falls within the drawing range is displayed on the map screen, and the other vehicle position outside the drawing range is guided by voice.
[0101]
In each of the above embodiments, the order of voice guidance is displayed on the voice guidance setting screen, and the member changes the order of voice guidance by operating the input unit 34. However, it is also possible to guide in the order from the longest to the shortest distance from the own vehicle position to the other vehicle position. In that case, the voice output processing means 94 reads the coordinates of the own vehicle position and the coordinates of the other vehicle position, calculates a linear distance between the own vehicle position and the other vehicle position, and compares each linear distance. Decide the order of guidance.
[0102]
In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.
[0103]
【The invention's effect】
As described above in detail, according to the present invention, the position of the other vehicle that falls within the drawing range can be displayed on the display unit, and the position of the other vehicle outside the drawing range can be guided by voice. Can drive the vehicle while recognizing the position of the host vehicle and the position of the other vehicle.
[0104]
Moreover, since the vehicle position can be displayed on the display unit, the member can easily recognize the road conditions around the vehicle position.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a navigation system according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of the navigation device according to the first embodiment of the present invention.
FIG. 3 is a conceptual diagram of the navigation system according to the first embodiment of the present invention.
FIG. 4 is a diagram showing a data structure of registration data necessary for registering a group in the first embodiment of the present invention.
FIG. 5 is a diagram showing a data structure of registration data necessary for joining a group in the first embodiment of the present invention.
FIG. 6 is a main flowchart showing the operation of the navigation system in the first embodiment of the present invention.
FIG. 7 is a diagram showing a data configuration of transmission data transmitted by each navigation device to the information center according to the first embodiment of the present invention.
FIG. 8 is a diagram showing a data configuration of received data received from the information center by each navigation device in the first embodiment of the present invention.
FIG. 9 is a diagram showing a subroutine of display processing according to the first embodiment of the present invention.
FIG. 10 is a diagram showing a second area display processing subroutine in the first embodiment of the invention.
FIG. 11 is a diagram showing a first example of a map screen in the first embodiment of the present invention.
FIG. 12 is a diagram showing a second example of the map screen in the first embodiment of the present invention.
FIG. 13 is a diagram showing an example of a voice guidance setting screen according to the first embodiment of the present invention.
FIG. 14 is a diagram showing an example of voice guidance according to the first embodiment of the present invention.
FIG. 15 is a diagram showing a second area display processing subroutine in the second embodiment of the invention;
FIG. 16 is a diagram showing an example of a map screen in the third embodiment of the present invention.
[Explanation of symbols]
14 Navigation device
17 Navigation processor
21 GPS
31 CPU
35 Display section
37 Audio output unit
43 Network
51 Information Center
53 servers
90 Display processing means
92 Other vehicle position acquisition processing means
94 Sound output processing means

Claims (7)

現在地を検出する現在地検出部と、表示部と、音声出力部と、他車の現在地によって表される他車位置を取得する他車位置取得処理手段と、自車の現在地によって表される自車位置、自車位置の周辺の地図、及び描画範囲内に収まる他車位置を前記表示部によって表示する表示処理手段と、描画範囲から外れた他車位置を前記音声出力部によって音声で案内する音声出力処理手段とを有することを特徴とするナビゲーションシステム。Current position detection unit for detecting the current position, display unit, audio output unit, other vehicle position acquisition processing means for acquiring the position of other vehicle represented by the current position of the other vehicle, and own vehicle represented by the current position of the own vehicle Display processing means for displaying the position, a map around the vehicle position, and other vehicle positions within the drawing range by the display unit, and voice for guiding the other vehicle position out of the drawing range by voice by the voice output unit An output processing means. 前記表示処理手段は、自車位置を第1の地図表示領域に表示する第1の領域表示処理手段、及び自車位置及び描画範囲内に収まる他車位置を第2の地図表示領域に表示する第2の領域表示処理手段を有する請求項1に記載のナビゲーションシステム。The display processing means displays a first area display processing means for displaying the host vehicle position in the first map display area, and a host vehicle position and the other vehicle position within the drawing range in the second map display area. The navigation system according to claim 1, further comprising second area display processing means. 他車位置が描画範囲内に収まるかどうかを判断する他車位置判定処理手段を有する請求項1又は2に記載のナビゲーションシステム。The navigation system according to claim 1, further comprising: another vehicle position determination processing unit that determines whether or not the other vehicle position is within a drawing range. 自車の情報を情報センタに送信する自車情報送信処理手段と、他車の情報を情報センタから受信する他車情報受信処理手段とを有するとともに、前記他車位置取得処理手段は、受信した他車の情報から他車位置を取得する請求項1又は2に記載のナビゲーションシステム。The vehicle information transmission processing means for transmitting the information of the own vehicle to the information center and the other vehicle information reception processing means for receiving the information of the other vehicle from the information center. The navigation system according to claim 1, wherein the position of the other vehicle is acquired from the information of the other vehicle. 前記音声出力処理手段は、あらかじめ設定された音声の案内の必要性の有無に従って案内する請求項1又は2に記載のナビゲーションシステム。The navigation system according to claim 1 or 2, wherein the voice output processing means guides according to the necessity of voice guidance set in advance. 前記音声出力処理手段は、描画範囲から外れた他車位置の数が閾値より小さい場合に音声の案内を行う請求項1又は2に記載のナビゲーションシステム。The navigation system according to claim 1 or 2, wherein the voice output processing means performs voice guidance when the number of other vehicle positions outside the drawing range is smaller than a threshold value. コンピュータを、他車の現在地によって表される他車位置を取得する他車位置取得処理手段、自車の現在地によって表される自車位置、自車位置の周辺の地図、及び描画範囲内に収まる他車位置を前記表示部によって表示する表示処理手段、並びに描画範囲から外れた他車位置を前記音声出力部によって音声で案内する音声出力処理手段として機能させることを特徴とする地図表示方法のプログラム。The other vehicle position acquisition processing means for acquiring the other vehicle position represented by the current location of the other vehicle, the own vehicle position represented by the current location of the own vehicle, a map around the own vehicle position, and the drawing range. Display processing means for displaying the position of another vehicle on the display unit, and a program for a map display method for causing the other vehicle position outside the drawing range to function as voice output processing means for guiding by voice using the voice output unit .
JP2002253684A 2002-08-30 2002-08-30 NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM Expired - Fee Related JP4023259B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002253684A JP4023259B2 (en) 2002-08-30 2002-08-30 NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002253684A JP4023259B2 (en) 2002-08-30 2002-08-30 NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM

Publications (2)

Publication Number Publication Date
JP2004093284A JP2004093284A (en) 2004-03-25
JP4023259B2 true JP4023259B2 (en) 2007-12-19

Family

ID=32059623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002253684A Expired - Fee Related JP4023259B2 (en) 2002-08-30 2002-08-30 NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM

Country Status (1)

Country Link
JP (1) JP4023259B2 (en)

Also Published As

Publication number Publication date
JP2004093284A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
JP4622126B2 (en) Navigation device, navigation method, and navigation program
WO2006101012A1 (en) Map information update device, map information update method, map information update program, and computer-readable recording medium
JP4078923B2 (en) Navigation system and program
JP3969356B2 (en) Navigation system and point search method program
JP3832284B2 (en) Navigation system and navigation program
JP4211505B2 (en) Navigation system and program
JP4114523B2 (en) Navigation system and route guidance method program
JP4321326B2 (en) Navigation system and program
JP4111127B2 (en) Route guidance system and route guidance method program
JP4023259B2 (en) NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM
JP4292887B2 (en) Navigation system and program
JP2007086087A (en) Information display system
JP4403736B2 (en) Navigation system and program
JP2005283890A (en) Point retrieval system and program of point retrieval method
JP4442279B2 (en) Direction guidance system and program
JP4241214B2 (en) Navigation system and program
JP2004170376A (en) Information indicating system, informer and program of information indicating method
JP3982317B2 (en) NAVIGATION SYSTEM AND NAVIGATION SYSTEM SETTING METHOD PROGRAM
JP4556976B2 (en) Information acquisition system and program
JP4228790B2 (en) Navigation system and program
JP2005283291A (en) Route guide system, and program for route guide method
JP2004170377A (en) Information display system, information provider, and program of information display method
JP4502053B2 (en) Navigation system and program
JP3801467B2 (en) Navigation device
JP4140361B2 (en) Navigation system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070924

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141012

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees