JP2004093285A - Navigation system and program for map display method - Google Patents

Navigation system and program for map display method Download PDF

Info

Publication number
JP2004093285A
JP2004093285A JP2002253685A JP2002253685A JP2004093285A JP 2004093285 A JP2004093285 A JP 2004093285A JP 2002253685 A JP2002253685 A JP 2002253685A JP 2002253685 A JP2002253685 A JP 2002253685A JP 2004093285 A JP2004093285 A JP 2004093285A
Authority
JP
Japan
Prior art keywords
vehicle
information
processing means
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002253685A
Other languages
Japanese (ja)
Other versions
JP4078923B2 (en
Inventor
Etsuko Azugawa
阿津川 悦子
Kihachi Hayashida
林田 機八
Takeshi Yanagikubo
柳久保 武志
Atsushi Ishibashi
石橋 厚
Teruhiro Nakajima
中嶋 彰宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2002253685A priority Critical patent/JP4078923B2/en
Publication of JP2004093285A publication Critical patent/JP2004093285A/en
Application granted granted Critical
Publication of JP4078923B2 publication Critical patent/JP4078923B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a driver able to drive a vehicle while recognizing his own vehicles position and other vehicles position on a map screen. <P>SOLUTION: The navigation system is provided with a present location detector for detecting present location, a display part 35, a first region display processing means 91 for indicating his own vehicles position shown by a present position of his own vehicle in a first map indication region in the display part 35, an other vehicle location obtaining processing means 92 for obtaining other vehicles position shown by present location of other vehicle, and a second region display processing means 93 for indicating his own vehicles position and the other vehicles position in a second map indication region in the display part 35. The his own vehicles position and the other vehicles position can be indicated in the second map indication region, so that a member can drive his own vehicle while recognizing the his own vehicles position and the other vehicles positions. His own vehicles position can be indicated in the first map indication region, so that the surrounding road status of his own vehicle position can be recognized easily. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ナビゲーションシステム及び地図表示方法のプログラムに関するものである。
【0002】
【従来の技術】
従来、ナビゲーション装置においては、例えば、GPS(グローバルポジショニングシステム)によって車両の現在の位置、すなわち、現在地が検出されるとともに、ジャイロセンサによって検出された車両の回転角速度、すなわち、旋回角に基づいて、車両の方位(以下「自車方位」という。)が検出され、データ記録部から地図データが読み出され、表示部のディスプレイに地図画面が形成され、該地図画面に、現在地、現在地の周辺の地図及び自車方位が表示されるようになっている。したがって、操作者である運転者は、前記地図画面に表示された現在地、現在地の周辺の地図及び自車方位に従って車両を走行させることができる。
【0003】
また、運転者が目的地を設定し、探索条件を設定すると、探索条件に基づいて現在地から目的地までの経路が探索される。そして、探索された経路、すなわち、探索経路は、前記ディスプレイに形成された探索経路表示画面に画像で表示されるか、音声出力部によるメッセージによって音声で出力されるかして、運転者に案内される。したがって、運転者は案内された探索経路に従って車両を走行させることができる。
【0004】
ところで、自分の車両、すなわち、自車と、他の車両、すなわち、他車との間で通信を行い、前記地図画面に自車の現在地によって表される自車位置、他車の現在地によって表される他車位置等を表示するようにしたナビゲーション装置が提供されている。
【0005】
この場合、一つの地図画面に自車位置及び他車位置を表示する必要があるので、画像メモリ上の描画範囲内における自車位置と他車位置との間の距離(以下「車両間距離」という。)を算出し、算出された車両間距離に対応させて地図画面を形成する際の縮尺を算出し、決定するようにしている(特開平9−189561号公報)。
【0006】
したがって、運転者は、地図画面で自車位置及び他車位置を認識しながら車両を走行させることができる。
【0007】
【発明が解決しようとする課題】
しかしながら、前記従来のナビゲーション装置においては、前記車両間距離が大きい場合は、一つの地図画面に自車位置及び他車位置を表示するために、縮尺がその分小さくされ、地図画面に広域地図を表示し、該広域地図に自車位置及び他車位置を表示する必要が生じる。その結果、地図画面に表示することができる情報がその分少なくなり、自車位置の周辺の道路状況を認識することが困難になってしまう。
【0008】
本発明は、前記従来のナビゲーション装置の問題点を解決して、地図画面で自車位置及び他車位置を認識しながら車両を走行させることができ、自車位置の周辺の道路状況を容易に認識することができるようにしたナビゲーションシステム及び地図表示方法のプログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
そのために、本発明のナビゲーションシステムにおいては、現在地を検出する現在地検出部と、表示部と、自車の現在地によって表される自車位置を前記表示部における第1の地図表示領域に表示する第1の領域表示処理手段と、他車の現在地によって表される他車位置を取得する他車位置取得処理手段と、前記自車位置及び他車位置を前記表示部における第2の地図表示領域に表示する第2の領域表示処理手段とを有する。
【0010】
本発明の他のナビゲーションシステムにおいては、さらに、自車の情報を情報センタに送信する自車情報送信処理手段と、他車の情報を情報センタから受信する他車情報受信処理手段とを有する。
【0011】
そして、前記他車位置取得処理手段は、受信した他車の情報から他車位置を取得する。
【0012】
本発明の更に他のナビゲーションシステムにおいては、さらに、前記第2の領域表示処理手段は、画像メモリ上の描画範囲内に自車位置及び他車位置が収まるように縮尺を設定する。
【0013】
本発明の更に他のナビゲーションシステムにおいては、さらに、前記第2の領域表示処理手段は、基準位置に自車位置を置く。
【0014】
本発明の更に他のナビゲーションシステムにおいては、さらに、前記第2の領域表示処理手段は、基準位置に目的地を置く。
【0015】
本発明の地図表示方法のプログラムにおいては、コンピュータを、自車の現在地によって表される自車位置を表示部における第1の地図表示領域に表示する第1の領域表示処理手段、他車の現在地によって表される他車位置を取得する他車位置取得処理手段、並びに前記自車位置及び他車位置を前記表示部における第2の地図表示領域に表示する第2の領域表示処理手段として機能させる。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0017】
図1は本発明の第1の実施の形態におけるナビゲーションシステムの機能ブロック図である。
【0018】
図において、21は現在地を検出する現在地検出部としてのGPS、35は表示部、91は自車の現在地によって表される自車位置を前記表示部35における第1の地図表示領域としての第1の表示領域に表示する第1の領域表示処理手段、92は他車の現在地によって表される他車位置を取得する他車位置取得処理手段、93は前記自車位置及び他車位置を前記表示部35における第2の地図表示領域としての第2の表示領域に表示する第2の領域表示処理手段である。
【0019】
図2は本発明の第1の実施の形態におけるナビゲーション装置の説明図、図3は本発明の第1の実施の形態におけるナビゲーションシステムの概念図である。
【0020】
図において、14は車両に搭載された車載装置としてのナビゲーション装置であり、該ナビゲーション装置14は、現在地等を検出する現在地検出処理部15、地図データ、道路データ、探索データ等のナビゲーション情報が記録された情報記録部としてのデータ記録部16、各種のプログラム、データ等に基づいてコンピュータとして機能し、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、操作部及び第1の入力装置としての入力部34、表示手段及び第1の出力装置としての表示部35、第2の入力装置としての音声入力部36、第2の出力装置としての音声出力部37、第1の送受信部としての通信部38、並びに第2の送受信部としての通信端末39を有し、前記ナビゲーション処理部17に車速センサ41が接続される。
【0021】
そして、前記現在地検出処理部15は、現在地検出部としてのGPS(グローバルポジショニングシステム)21、地磁気センサ22、距離センサ23、ステアリングセンサ24、方位検出部としてのジャイロセンサ26、図示されない高度計等から成る。
【0022】
前記GPS21は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、前記地磁気センサ22は、地磁気を測定することによって自車方位を検出し、前記距離センサ23は、道路上の所定の位置間の距離等を検出する。距離センサ23としては、例えば、図示されない車輪の回転速度を測定し、該回転速度に基づいて距離を検出するもの、加速度を測定し、該加速度を2回積分して距離を検出するもの等を使用することができる。
【0023】
また、前記ステアリングセンサ24は、舵(だ)角を検出し、ステアリングセンサ24としては、例えば、図示されないステアリングホイールの回転部に取り付けられた光学的な回転センサ、回転抵抗センサ、車輪に取り付けられた角度センサ等が使用される。
【0024】
そして、前記ジャイロセンサ26は旋回角を検出し、ジャイロセンサ26としては、例えば、ガスレートジャイロ、振動ジャイロ等が使用される。また、前記ジャイロセンサ26によって検出された旋回角を積分することにより、自車方位を検出することができる。
【0025】
なお、前記GPS21は単独で現在地を検出することができる。そして、距離センサ23によって検出された距離と、地磁気センサ22によって検出された自車方位、又はジャイロセンサ26によって検出された旋回角とを組み合わせることにより現在地を検出することもできる。また、距離センサ23によって検出された距離と、ステアリングセンサ24によって検出された舵角とを組み合わせることにより現在地を検出することもできる。
【0026】
前記データ記録部16は、地図データファイル、交差点データファイル、ノードデータファイル、道路データファイル、探索データファイル、施設情報データファイル等のデータファイルから成るデータベースを備え、前記各データファイルには、前記表示部35の図示されないディスプレイに形成された地図画面に、所定の地図、探索経路、目的地等を表示したり、交差点又は経路における特徴的なコマ図等を表示したり、次の交差点までの距離、次の交差点における進行方向等の案内情報を表示したりするための各種のデータが記録される。
【0027】
例えば、前記交差点データファイルには各交差点に関する交差点データが、ノードデータファイルにはノード点に関するノードデータが、道路データファイルには道路に関する道路データが、探索データファイルには経路を探索するための探索データがそれぞれ記録され、前記交差点データ、ノードデータ、道路データ、探索データ等によって道路状況を表す道路状況データが構成される。なお、前記ノードデータは、実際の道路の分岐点(交差点、T字路等も含む)、ノード点、各ノード点間を連結するノード点間リンク等を示すデータから成る。
【0028】
そして、前記道路データによって、道路自体について、幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所等が、コーナについて、曲率半径、交差点、T字路、コーナの入口等が、道路属性について、降坂路、登坂路等が、道路種別について、国道、県道、細街路等の一般道のほか、高速道路、都市高速道路、有料道路等の高速・有料道がそれぞれ表される。さらに、道路データによって、踏切、高速道路の入口及び出口の取付道(ランプウェイ)、高速・有料道の料金所等が表される。
【0029】
また、前記施設情報データファイルには、各地域のホテル、ガソリンスタンド、駐車場、観光地等の施設の施設情報が施設情報データとして記録される。なお、前記データ記録部16には、所定の情報を音声出力部37によって出力するための各種のデータも記録される。
【0030】
前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う演算装置及び制御装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用される第1の記録媒体としての、DRAM、SRAM、MRAM、FeRAM等のRAM32、及び制御用のプログラムのほか、目的地までの経路の探索、経路案内、特定区間の決定等を行うための各種のプログラムが記録された第2の記録媒体としてのROM33を備え、前記ナビゲーション処理部17に、前記入力部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。なお、前記RAM32、ROM33等として半導体メモリ、磁気コア等が使用される。また、ナビゲーション処理部17に、RAM32、ROM33等のほかに第3の記録媒体としての図示されないフラッシュメモリを配設することもできる。そして、演算装置及び制御装置としてCPU31に代えてMPU等を使用することもできる。
【0031】
前記データ記録部16は、外部記憶媒体として配設された第4の記録媒体としての図示されないハードディスク、フレキシブルディスク等の磁気ディスクのほかに、同様に外部記憶媒体として配設された第5の記録媒体としての磁気テープ、磁気ドラム、CD、MD、DVD、光ディスク、MO、ICカード、光カード等から成り、各種の情報を読み出したり、書き込んだりするための図示されない読出・書込ヘッド等のヘッドを備える。
【0032】
本実施の形態においては、前記ROM33に各種のプログラムが記録され、前記データ記録部16に各種のデータが記録されるようになっているが、プログラム、データ等を同じ外部記憶装置に記録することもできる。この場合、例えば、前記ナビゲーション処理部17に前記フラッシュメモリを配設し、前記外部記憶装置から前記プログラム、データ等を読み出してフラッシュメモリに書き込むこともできる。したがって、外部記憶装置を交換することによって前記プログラム、データ等を更新することができる。また、車両に搭載された図示されない自動変速機の制御を行うために自動変速機制御装置が搭載されている場合には、自動変速機制御装置の制御用のプログラム、データ等も前記外部記憶装置に記録することができる。
【0033】
前記入力部34は、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通信部38を操作したりするためのものであり、前記ディスプレイに形成された画面に画像で表示された各種のキー、スイッチ、ボタン等から成る。したがって、該操作スイッチをタッチ(押下)することによって入力を行うことができる。なお、入力部34として、表示部35と別に配設されたキーボード、マウス、バーコードリーダ、ライトペン、遠隔操作用のリモートコントロール装置、ジョイスティック等を使用することもできる。
【0034】
そして、前記ディスプレイに形成された各種の画面には、操作案内、操作メニュー、キーの案内、現在地から目的地までの探索経路、該探索経路に沿った案内情報、FM多重放送の番組等が画像で表示される。前記表示部35としては、CRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ等のディスプレイを使用したり、車両のフロントガラスにホログラムを投影するホログラム装置等を使用したりすることができる。
【0035】
また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。さらに、音声出力部37は、図示されない音声合成装置及びスピーカを備え、音声出力部37から、前記探索経路、案内情報、変速情報等が、例えば、音声合成装置によって合成された音声で出力される。なお、音声合成装置によって合成された音声のほかに、各種の音、あらかじめテープ、メモリ等に録音された各種の案内情報等を出力することもできる。
【0036】
そして、前記通信部38は、第1の情報提供者としての図示されないVICS(道路交通情報通信システム:Vehicle Information and Communication System)センタから送信された情報を、道路に沿って配設された図示されない電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信する第1の受信装置としての図示されないビーコンレシーバ、FM放送局を介してFM多重放送として受信する第2の受信装置としての図示されないFM受信機等を備え、前記ビーコンレシーバによって、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等の各情報から成る交通情報を受信したり、前記FM受信機によって前記交通情報のほかに、ニュース、天気予報等の情報をFM多重情報として受信したりすることができる。前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。
【0037】
また、通信部38は、基地局から送信されたGPS21の検出誤差を検出するD−GPS情報等の各種のデータを受信することもできる。なお、電波ビーコン、光ビーコン等に基づいて位置情報を受信し、現在地を検出することもでき、その場合、前記ビーコンレシーバは、現在地検出部として機能する。
【0038】
そして、前記ナビゲーション装置14においては、第2の情報提供者としての情報センタ51から、他車の情報、本実施の形態においては、他車位置を表す情報、すなわち、他車位置情報等のほかに、ナビゲーション情報、交通情報等の各種の情報を受信することもできる。また、ナビゲーション装置14から現在地検出処理部15に自車の情報、本実施の形態においては、自車位置を表す情報、すすなわち、自車位置情報等を送信することもできる。そのために、前記通信部38に通信機能を備えた端末、すなわち、通信端末39が接続され、通信部38と情報センタ51とは、通信端末39及びネットワーク43を介して接続されたり、通信端末39を介することなくネットワーク43を介して接続されたりする。なお、前記通信部38と通信端末39とを一体にすることもできる。
【0039】
前記ナビゲーション装置14、情報センタ51、ネットワーク43等によってナビゲーションシステムが構成され、前記通信部38及び通信端末39と情報センタ51の通信部58との間で送受信が行われる。
【0040】
本実施の形態においては、通信端末39として、携帯電話、自動車電話、PHS等の移動電話を使用したり、携帯用コンピュータ、個人用携帯情報端末、電子手帳、テレビ電話、ゲーム機等に通信機能を持たせたものを使用したりすることができる。また、ネットワーク43としては、LAN(Local Area Network)、WAN(Wide Area Network)、イントラネット、携帯電話回線網、電話回線網、公衆通信回線網、専用通信回線網、インターネット等の通信回線網等から成る各種の通信手段を使用することができる。そして放送衛星によるCS放送、BS放送、地上波ディジタルテレビ放送、FM多重放送等を利用する通信手段を使用することもできる。さらに、高度道路交通システム(ITS)において利用されるノンストップ自動料金支払いシステム(ETC)、境域通信システム(DSRC)等の通信手段を使用することもできる。
【0041】
また、前記情報センタ51は、個人、企業、団体、地方自治体、政府関係機関等のいずれであってもよく、前記VICSセンタであってもよい。
【0042】
前記情報センタ51はサーバ53を備え、該サーバ53によって、情報センタ51とナビゲーション装置14との間で双方向の通信が行われ、交通情報の提供が行われる。そのために、前記サーバ53は、演算装置及び制御装置としてのCPU54、RAM55、ROM56、前記通信部58等を備え、所定のプログラム、データ等に基づいてコンピュータとして機能する。なお、前記サーバ53及びナビゲーション処理部17によってコンピュータを構成することもできる。
【0043】
また、前記サーバ53には、情報記録部としての記録装置57が接続され、該記録装置57に登録されたグループの関する情報、交通情報、ニュース、天気予報、統計データ等の情報が記録される。
【0044】
そして、前記CPU54の図示されない情報処理手段は、情報処理を行い、前記VICSセンタ等から送信された交通情報、ニュース、天気予報等の情報を受信し、一次情報として記録装置57に記録する。また、前記情報処理手段の情報加工処理手段は、情報加工処理を行い、前記交通情報、ニュース、天気予報等の情報に統計処理を施し、渋滞状況等を予測する予測交通情報等を構成する統計データを生成し、該統計データを二次情報として記録装置57に記録する。このようにして、前記情報処理手段は、交通情報、ニュース、天気予報等の情報及び統計データを取得する。
【0045】
ところで、2台以上の複数の車両を利用し、所定の目的地まで車両を走行させようとしたときに、各車両の運転者によってグループを構成し、グループ内で各車両の情報を共有し、共有する情報に従って目的地まで車両を走行させることができるようになっている。この場合、各車両の運転者はグループの構成員となる。
【0046】
図4は本発明の第1の実施の形態におけるグループを登録するのに必要な登録データのデータ構造を示す図、図5は本発明の第1の実施の形態におけるグループに参加するのに必要な登録データのデータ構造を示す図である。
【0047】
この場合、グループを登録しようとする場合に代表となる構成員(以下「代表構成員」という。)が、まず、車両に搭載されたナビゲーション装置14(図2)の入力部34を操作すると、CPU31の図示されない第1の登録データ送信処理手段は、第1の登録データ送信処理を行い、図4に示されるようなデータ構造の登録データを情報センタ51(図3)に送信する。前記データ構造において、グループIDは、結成しようとするグループを特定するための、例えば、メールアドレスのような数字、英字、記号等の列から成る識別番号であり、パスワードは、代表構成員がグループの正当な構成員であることを認識するための、任意の文字列から成る暗号である。また、マークIDは、地図画面に代表構成員の自車の現在地によって表される自車位置を表示する際に、識別用のマークを特定するための識別番号である。
【0048】
前記登録データが送信されると、CPU54の図示されない登録処理手段は、登録処理を行い、グループを登録するとともに、代表構成員を特定し、かつ、認識するための識別番号となるメンバーIDを付与し、前記代表構成員のナビゲーション装置14に送信する。なお、前記メンバーIDは、前記グループID、パスワード及びマークIDに対応させて付与され、記録装置57に記録され、グループが登録される。このようにして、代表構成員が特定される。
【0049】
続いて、登録されたグループに参加しようとする構成員(以下「参加構成員」という。)が、参加構成員の車両に搭載されたナビゲーション装置14の入力部34を操作すると、CPU31の図示されない第2の登録データ送信処理手段は、第2の登録データ送信処理を行い、図5に示されるようなデータ構造の登録データを情報センタ51に送信する。前記データ構造において、グループIDは、代表構成員から入手した図4に示されるグループIDであり、パスワードは、代表構成員から入手した図4に示されるパスワードである。また、マークIDは、地図画面上に自車位置を表示する際に、識別用のマークを特定するための識別番号である。
【0050】
前記登録データが送信されると、前記登録処理手段は、前記登録データに基づいて参加構成員を特定し、かつ、認識するための識別番号となるメンバーIDを付与し、前記参加構成員のナビゲーション装置14に送信する。なお、前記メンバーIDは、前記グループID、パスワード及びマークIDに対応させて付与され、記録装置57に記録される。このようにして、参加構成員が特定される。
【0051】
次に、前記各所定の構成員がグループで所定の地点を目的地として各車両を走行させる場合の、ナビゲーションシステムの動作について説明する。
【0052】
図6は本発明の第1の実施の形態におけるナビゲーションシステムの動作を示すメインフローチャート、図7は本発明の第1の実施の形態における各ナビゲーション装置が情報センタに送信する送信データのデータ構成を示す図、図8は本発明の第1の実施の形態における各ナビゲーション装置が情報センタから受信する受信データのデータ構成を示す図である。
【0053】
まず、操作者である構成員によって入力部34(図2)が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行う。続いて、CPU31の図示されない位置情報取得処理手段は、位置情報取得処理を行い、構成員が属するグループID及び構成員のメンバーIDを読み込むとともに、GPS21によって検出され、自車位置を表す現在地を自車位置情報として読み込む。
【0054】
また、CPU31の図示されないナビ情報取得処理手段は、ナビ情報取得処理を行い、データ記録部16から地図データファイル、道路データファイル、探索データファイル等を参照し、地図データ、道路データ、探索データ等のナビゲーション情報を読み出して取得する。
【0055】
なお、本実施の形態において、前記ナビ情報取得処理手段は、ナビゲーション情報を、データ記録部16から読み出して取得するようになっているが、通信部38を介して受信して取得することもできる。その場合、前記ナビ情報取得処理手段は、受信したナビゲーション情報をフラッシュメモリ、ハードディスク等にダウンロードして取得する。
【0056】
次に、前記CPU31の図示されない自車情報送信処理手段は、自車情報送信処理を行い、送信データの前回の送信から所定の周期(制御周期)が経過したかどうかを判断し、所定の周期が経過すると、図7に示されるような、前記グループID、構成員のメンバーID及び自車位置情報から成る送信データを情報センタ51(図3)に自車情報として送信する。
【0057】
そして、前記CPU54の図示されないグループ判定処理手段は、グループ判定処理を行い、各ナビゲーション装置14から送信された送信データを受信すると、前記記録装置57を参照し、グループIDに基づいてグループを判定する。前記CPU54の図示されない現在地情報記録処理手段は、現在地情報記録処理を行い、各構成員の自車位置情報を、前記グループID及びメンバーIDに対応させて記録装置57に記録する。
【0058】
続いて、前記CPU54の図示されない検索処理手段は、検索処理を行い、前記グループIDに属するすべての構成員を検索する。そして、前記CPU54の図示されない現在地情報送信処理手段は、現在地情報送信処理を行い、記録装置57から前記各構成員の自車位置情報を他車位置情報として読み出し、メンバーID及びマークIDを読み出すとともに、該マークIDを画像データに変換してマーク情報とし、前記他車位置情報、メンバーID及びマーク情報をナビゲーション装置14に他車情報として送る。
【0059】
前記CPU31の図示されない他車情報受信処理手段は、他車情報受信処理を行い、前記他車情報を受信データとして受信する。該受信データは、図8に示されるように、他車位置情報、メンバーID及びマーク情報から成る。
【0060】
次に、前記CPU31の図示されない他車位置取得処理手段は、他車位置取得処理を行い、受信データを読み込み、受信データの他車位置情報から他車位置を取得する。
【0061】
そして、前記CPU31の図示されない表示処理手段は、表示処理を行い、前記ディスプレイに地図画面を形成し、該地図画面に自車位置、他車位置等を表示する。
【0062】
本実施の形態においては、ナビゲーション装置14から情報センタ51に送信される自車位置情報に自車方位は含まれないが、自車位置情報に自車方位を含めることができる。その場合、前記マークによって他車位置だけでなく、他車方位を併せて表示することができる。
【0063】
なお、前記ナビゲーション装置14を経路探索装置として使用する場合、構成員が入力部34を操作して目的地を入力すると、CPU31の図示されない目的地設定処理手段は、目的地設定処理を行い、目的地を設定する。そして、必要に応じて出発地を設定することもできる。また、CPU31の図示されない経路探索処理手段は、経路探索処理を行う。そして、経路探索処理手段は、前記現在地、目的地、前記探索データ等を読み込み、該探索データに基づいて、現在地で表される出発地から目的地までの経路を探索する。
【0064】
続いて、前記CPU31の図示されない探索経路案内処理手段は、探索経路案内処理を行い、運転者に探索経路を案内する。そのために、前記探索経路案内処理手段の探索経路表示処理手段は、探索経路表示処理を行い、前記ディスプレイに探索経路表示画面を形成し、該探索経路表示画面に探索経路を表示する。また、前記探索経路案内処理手段の音声出力処理手段は、音声出力処理を行い、音声出力部37から探索経路を音声で出力する。したがって、運転者は、案内された探索経路に従って車両を走行させることができる。
【0065】
そして、運転者が、交通情報を取得しようとして、前記入力部34を操作すると、前記ナビゲーション装置14は、前記通信部38を介して前記VICSセンタから送信される交通情報を受信し、受信された交通情報を前記地図画面に併せて表示する。
【0066】
次に、フローチャートについて説明する。
ステップS1 グループID、メンバーID及び自車位置情報を読み込む。
ステップS2 前回の送信から所定の周期が経過するのを待機する。
ステップS3 グループID、メンバーID及び自車位置情報を送信する。
ステップS4 他車情報を受信するのを待機する。
ステップS5 表示処理を行い、処理を終了する。
【0067】
次に、前記表示処理手段の動作について説明する。
【0068】
図9は本発明の第1の実施の形態における表示処理のサブルーチンを示す図、図10は本発明の第1の実施の形態における第2の領域表示処理のサブルーチンを示す図、図11は本発明の第1の実施の形態における地図画面の第1の例を示す図、図12は本発明の第1の実施の形態における地図画面の第2の例を示す図である。
【0069】
まず、前記表示処理手段は、データ記録部16(図2)から地図データを読み出し、前記ディスプレイに地図画面を形成し、該地図画面に、前記地図データに従って自車位置の周辺の地図を表示するとともに、自車位置及び自車方位を表示する。そして、構成員が入力部34を操作してマルチ画面を選択すると、前記表示処理手段は、地図画面を分割してマルチ画面とし、第1、第2の地図表示領域としての第1、第2の表示領域AR1、AR2を形成する。また、前記表示処理手段の第1の領域表示処理手段91(図1)は、第1の領域表示処理を行い、第1の(所定の)表示領域AR1に、自車位置の周辺の地図を所定の縮尺で表示するとともに、該地図に自車位置及び自車方位を表示し、第2の(他の)表示領域AR2に、同様に、自車位置の周辺の地図を所定の縮尺で表示するとともに、前記地図に自車位置及び自車方位を表示する。この場合、前記縮尺は、前回地図が表示されたときの値が初期値とされるが、入力部34を操作することによって任意の縮尺に変更することができる。なお、図11において、m1は矢印によって自車方位を表す自車位置、q1、q2は縮尺を表すスケールである。
【0070】
ところで、前記各所定の構成員がグループで所定の地点を目的地として各車両を走行させる場合、各構成員は、入力部34を操作してグループ走行モードを選択することができるようになっている。そして、該グループ走行モードが設定されると、前記表示処理手段の第2の領域表示処理手段93は、第2の領域表示処理を行い、前記第2の表示領域AR2に、他車位置の周辺の地図を所定の縮尺で表示するとともに、前記地図に他車位置を表示する。
【0071】
次に、第2の領域表示処理手段の動作について説明する。
【0072】
ところで、前記地図画面を形成するために、RAM32内に地図画面に対応させて描画領域が設定され、前記地図画面に所定の表示を行うために、前記描画領域において描画が行われるようになっている。
【0073】
そして、前記第2の領域表示処理手段93の図示されない描画範囲算出処理手段は、描画範囲算出処理を行い、まず、RAM32の画像メモリ上において、あらかじめ決められた縮尺、例えば、第1の表示領域AR1における縮尺と同じ縮尺で第2の表示領域AR2の描画領域を算出し、該描画領域の所定の箇所、本実施の形態においては、描画領域の中央を基準位置とし、該基準位置に自車位置を置く。なお、あらかじめ決められた縮尺として固定のスケール、例えば、200〔m〕のスケールを使用することができる。
【0074】
続いて、前記第2の領域表示処理手段93は、グループに属する他車について、前記自車位置を中心として他車位置を表示した場合、すべての他車位置が前記描画範囲内に収まるかどうかを判断する。そのために、前記描画領域の中央に自車位置を置いたときの各他車位置の描画領域上の座標(以下「他車位置座標」という。)、及び描画領域の各コーナ部の座標(以下「コーナ部座標」という。)を読み込み、各他車位置座標及び前記各コーナ部座標に基づいて、すべての他車位置が描画範囲内に収まるかどうかを判断する。
【0075】
例えば、グループに属する他車をHa〜Hcとし、各他車位置座標を(xa、ya)、(xb、yb)、(xc、yc)とし、各コーナ部座標を(X1、Y1)、(X2、Y1)、(X1、Y2)、(X2、Y2)とすると、他車Haが描画範囲内に収まるかどうかは、値xa、yaが、
X1<xa<X2
Y1<ya<Y2
になるかどうかによって判断することができる。また、他車Hbが描画範囲内に収まるかどうかは、値xb、ybが、
X1<xb<X2
Y1<yb<Y2
になるかどうかによって判断することができる。さらに、他車Hcが描画範囲内に収まるかどうかは、値xc、ycが、
X1<xc<X2
Y1<yc<Y2
になるかどうかによって判断することができる。
【0076】
そして、すべての他車位置が描画範囲内に収まる場合、前記第2の領域表示処理手段93は第2の表示領域AR2に、自車位置、各他車位置、並びに自車及び各他車Ha〜Hcの周辺の地図を表示する。また、所定の他車について他車位置が描画範囲から外れた場合、前記第2の領域表示処理手段93は縮尺を小さくし、再びすべての他車位置が前記描画範囲内に収まるかどうかを再び判断する。このように、前記第2の領域表示処理手段93は、描画範囲内に自車位置及び他車位置が収まるように縮尺を設定する。
【0077】
なお、縮尺を小さくすることによって、各他車位置座標(xa、ya)、(xb、yb)、(xc、yc)の各値xa〜xcが、値X1に対して大きく、値X2に対して小さくされ、各値ya〜ycが、値Y1に対して大きく、値Y2に対して小さくされ、他車位置が描画範囲内に収まりやすくなる。
【0078】
このようにして、すべての他車位置が描画範囲内に収まるようになると、図12に示されるように、その縮尺で自車及び各他車Ha〜Hcの周辺の地図を表示し、該地図に自車位置m1及び他車位置を表示する。なお、図12において、m1は矢印によって自車方位を表す自車位置、q1、q3は縮尺を表すスケール、ha〜hcは他車位置を表示するマークである。また、必ずしもすべての他車位置を描画範囲内に収める必要はなく、所定の数の他車位置を描画範囲内に収めるようにすることもできる。
【0079】
このように、第2の表示領域AR2にすべての他車位置を表示することができるので、構成員は、地図画面に表示された自車位置及び他車位置を認識しながら車両を走行させることができる。
【0080】
また、第1の表示領域AR1には、十分に大きい縮尺で自車位置及び自車の周辺の地図を表示することができるので、第1の表示領域AR1に表示することができる情報がその分多くなる。したがって、運転者は、自車位置の周辺の道路状況を容易に認識することができる。
【0081】
次に、図9のフローチャートについて説明する。
ステップS5−1 地図画面に自車位置の周辺の地図、自車位置及び自車方位を表示する。
ステップS5−2 マルチ画面を選択したかどうかを判断する。マルチ画面を選択した場合はステップS5−3に進み、選択していない場合はリターンする。
ステップS5−3 第1の領域表示処理を行う。
ステップS5−4 グループ走行モードが設定されているかどうかを判断する。グループ走行モードが設定されている場合はステップS5−5に進み、設定されていない場合はリターンする。
ステップS5−5 第2の領域表示処理を行い、リターンする。
【0082】
次に、図10のフローチャートについて説明する。
ステップS5−5−1 描画範囲算出処理を行う。
ステップS5−5−2 すべての他車位置が描画範囲内に収まるかどうかを判断する。すべての他車位置が描画範囲内に収まる場合はステップS5−5−3に、収まらない場合はステップS5−5−5に進む。
ステップS5−5−3 地図を表示する。
ステップS5−5−4 自車位置及び他車位置を表示し、処理を終了する。
ステップS5−5−5 縮尺を小さくし、ステップS5−5−2に戻る。
【0083】
ところで、前記第1の実施の形態においては、RAM32の画像メモリ上において、第1の表示領域AR1における縮尺と同じ縮尺で第2の表示領域AR2の描画領域を設定し、該描画領域の中央を基準位置とし、該基準位置に自車位置を置くようにしている。
【0084】
したがって、常に、第2の表示領域AR2の中央に自車位置が表示されるので、自車位置に対する各他車位置の関係を認識することができるが、所定の他車が自車から見て目的地より先を走行している場合には、前記目的地より先に他車位置が表示されるので、第2の表示領域AR2の表示される地図がその分広域になってしまう。そこで、他車が走行している位置に対応させて描画領域の基準位置を変更することができるようにした本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0085】
図13は本発明の第2の実施の形態における描画範囲算出処理のサブルーチンを示す図、図14は本発明の第2の実施の形態における地図画面の例を示す図である。
【0086】
この場合、CPU31(図2)に図示されない表示処理手段が配設され、該表示処理手段に第2の領域表示処理手段93(図1)が、該第2の領域表示処理手段93に更に描画範囲算出処理手段が配設される。そして、該描画範囲算出処理手段は、描画範囲算出処理を行い、自車位置、他車位置及び目的地の各座標を読み込み、各座標に基づいて、自車位置及び他車位置から目的地への方向を算出する。
【0087】
続いて、前記描画範囲算出処理手段の方向判断処理手段は、方向判断処理を行い、算出された方向が、すべて同じ方向であるかどうかを判断し、すべて同じ方向である場合、前記描画範囲算出処理手段の基準位置設定処理手段は、基準位置設定処理を行い、図12に示されるように、第2の表示領域AR2の描画範囲の中央を基準位置とし、該基準位置に自車位置m1を置く。また、少なくとも一つの方向が他の方向と異なる場合、前記基準位置設定処理手段は、図14に示されるように、第2の表示領域AR21の描画範囲の中央を基準位置とし、該基準位置に目的地gを置く。なお、図14において、m1は矢印によって自車方位を表す自車位置、q1、q4は縮尺を表すスケール、he〜hgは他車位置を表示するマークである。
【0088】
この場合、自車位置m1、及びマークhe、hgで示される他車位置から目的地gへの方向と、マークheで示される他車位置から目的地gへの方向とが異なる。
【0089】
また、方向判断処理において、前記算出された方向が同じ方向であるかどうかは、自車位置m1と目的地gとを結ぶ線分と他車位置と目的地gとを結ぶ線分の成す角度をθとしたとき、角度θが、
−90〔°〕≦θ≦+90〔°〕
であるときに、前記算出された方向が同じ方向であるとし、
θ<−90〔°〕
又は、
θ>+90〔°〕
であるときに、前記算出された方向が異なる方向であるとする。
【0090】
続いて、前記描画範囲算出処理手段は、あらかじめ決められた縮尺を設定し、第2の表示領域AR2の描画領域を算出し、該描画領域の中央を基準位置とし、該基準位置に目的地gを設定し、該目的地g、自車位置m1及び他車位置の周辺の地図を表示し、該地図に目的地g、自車位置m1及び各他車位置を表示する。このようにして描画範囲算出処理が行われると、基準位置に自車位置m1又は目的地gが置かれた状態で、自車位置m1及びすべての他車位置が描画範囲内に収まるように縮尺が設定される。そして、その縮尺で、自車位置m1、目的地g及び各他車Ha〜Hcの周辺の地図が表示され、該地図に自車位置m1、目的地g及び他車位置が表示される。
【0091】
この場合、所定の他車が自車から見て目的地より先を走行している場合に、前記目的地より先に他車位置が表示されるが、他車が走行している位置に対応させて描画領域の基準位置を変更することができるので、第2の表示領域AR2の表示される地図が広域になるのを抑制することができる。
【0092】
次に、図13のフローチャートについて説明する。
ステップS5−5−1−1 自車位置及び他車位置から目的地への方向を算出する。
ステップS5−5−1−2 すべて同じ方向であるかどうかを判断する。すべて同じ方向である場合はステップS5−5−1−3に、すべて同じ方向でない場合はステップS5−5−1−4に進む。
ステップS5−5−1−3 自車位置を基準位置にする。
ステップS5−5−1−4 目的地を基準位置にする。
ステップS5−5−1−5 あらじめ決められた縮尺を設定する。
ステップS5−5−1−6 描画範囲を算出し、処理を終了する。
【0093】
なお、前記実施の形態においては、方向判断処理手段による方向判断処理の判断結果に基づいて、自車位置を基準位置にしたり、目的地を基準位置にしたりするようになっているが、常に、目的地を基準位置にすることができる。
【0094】
また、自車位置と目的地との間の所定の位置、例えば、中間地点を基準位置にすることもできる。
【0095】
そして、前記各実施の形態においては、地図画面に地図を表示する際に、自車方位が地図画面上の上方に向くように、ヘディングアップの表示法が採用されているが、絶対方位における北が地図画面上の上方に向くように、ノースアップの表示法を採用することもできる。
【0096】
また、前記各実施の形態においては、第2の領域表示処理手段93は、すべての他車位置が描画範囲内に収まるまで縮尺を小さくするようにしているが、あらかじめすべての他車位置が収まるように所定の枠領域を算出し、その後、自車位置及び前記枠領域が第2の表示領域AR2内に収まるまで縮尺を小さくすることもできる。その場合、枠領域は所定の形状、例えば、四角形の形状を有し、枠領域を特定するための画像メモリ上の座標が算出される。
【0097】
さらに、基準位置(自車位置又は目的地)と各他車位置との間の直線距離を算出し、直線距離の最も長い他車位置、すなわち、基準位置から最も離れた他車位置を算出し、該他車位置が描画範囲内に収まるように縮尺を設定することもできる。
【0098】
そして、前記各実施の形態においては、CPU31の前記表示処理手段が、表示処理を行うようになっているが、CPU54の図示されないセンタ側表示処理手段によって、センタ側表示処理を行い、地図画面を形成することもできる。
【0099】
その場合、前記センタ側表示処理手段の第1の領域表示処理手段91は、第1の領域表示処理を行い、ナビゲーション装置14から送信された自車情報に基づいて、自車位置を第1の表示領域AR1に表示するための第1の画像データを作成し、他車位置取得処理手段はナビゲーション装置14から送信された自車情報の自車位置を他車位置として取得し、前記センタ側表示処理手段の第2の領域表示処理手段93は、第2の領域表示処理を行い、ナビゲーション装置14から送信された自車情報に基づいて、前記自車位置及び他車位置を第2の表示領域AR2に表示するための第2の画像データを作成する。
【0100】
続いて、前記CPU54の図示されないデータ送信処理手段は、データ送信処理を行い、前記第1、第2の画像データをナビゲーション装置14に送信する。そして、CPU31の図示されないデータ受信処理手段は、データ受信処理を行い、前記第1、第2の画像データを受信すると、前記表示処理手段は、地図画面の第1の表示領域AR1に、自車位置の周辺の地図を所定の縮尺で表示するとともに、該地図に自車位置及び自車方位を表示し、また、第2の表示領域AR2に、自車位置、各他車位置、並びに自車位置及び各他車位置の周辺の地図を表示する。
【0101】
なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。
【0102】
【発明の効果】
以上詳細に説明したように、本発明によれば、第2の地図表示領域に自車位置及び他車位置を表示することができるので、構成員は、自車位置及び他車位置を認識しながら車両を走行させることができる。
【0103】
また、第1の地図表示領域に自車位置を表示することができるので、構成員は、自車位置の周辺の道路状況を容易に認識することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態におけるナビゲーションシステムの機能ブロック図である。
【図2】本発明の第1の実施の形態におけるナビゲーション装置の説明図である。
【図3】本発明の第1の実施の形態におけるナビゲーションシステムの概念図である。
【図4】本発明の第1の実施の形態におけるグループを登録するのに必要な登録データのデータ構造を示す図である。
【図5】本発明の第1の実施の形態におけるグループに参加するのに必要な登録データのデータ構造を示す図である。
【図6】本発明の第1の実施の形態におけるナビゲーションシステムの動作を示すメインフローチャートである。
【図7】本発明の第1の実施の形態における各ナビゲーション装置が情報センタに送信する送信データのデータ構成を示す図である。
【図8】本発明の第1の実施の形態における各ナビゲーション装置が情報センタから受信する受信データのデータ構成を示す図である。
【図9】本発明の第1の実施の形態における表示処理のサブルーチンを示す図である。
【図10】本発明の第1の実施の形態における第2の領域表示処理のサブルーチンを示す図である。
【図11】本発明の第1の実施の形態における地図画面の第1の例を示す図である。
【図12】本発明の第1の実施の形態における地図画面の第2の例を示す図である。
【図13】本発明の第2の実施の形態における描画範囲算出処理のサブルーチンを示す図である。
【図14】本発明の第2の実施の形態における地図画面の例を示す図である。
【符号の説明】
17  ナビゲーション処理部
21    GPS
31  CPU
35  表示部
51  情報センタ
53  サーバ
91、93  第1、第2の領域表示処理手段
92  他車位置取得処理手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a program for a navigation system and a map display method.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a navigation device, for example, a current position of a vehicle, that is, a current position is detected by a GPS (global positioning system), and based on a rotational angular velocity of the vehicle, that is, a turning angle detected by a gyro sensor, The direction of the vehicle (hereinafter referred to as “vehicle direction”) is detected, map data is read from the data recording unit, a map screen is formed on the display of the display unit, and the current location and the vicinity of the current location are displayed on the map screen. The map and the own vehicle direction are displayed. Therefore, the driver, who is the operator, can drive the vehicle according to the current location, the map around the current location, and the own vehicle direction displayed on the map screen.
[0003]
When the driver sets a destination and sets search conditions, a route from the current position to the destination is searched based on the search conditions. The searched route, that is, the searched route is guided to the driver by being displayed as an image on a searched route display screen formed on the display or output as a voice by a message from a voice output unit. Is done. Therefore, the driver can drive the vehicle according to the guided search route.
[0004]
By the way, communication between one's own vehicle, that is, the own vehicle, and another vehicle, that is, another vehicle, is performed, and the own vehicle position represented by the current position of the own vehicle and the current position of the other vehicle are displayed on the map screen. There is provided a navigation device for displaying the position of another vehicle to be displayed.
[0005]
In this case, it is necessary to display the position of the own vehicle and the position of the other vehicle on one map screen. Therefore, the distance between the position of the own vehicle and the position of the other vehicle within the drawing range on the image memory (hereinafter referred to as “inter-vehicle distance”) ) Is calculated, and the scale at which the map screen is formed is calculated and determined in accordance with the calculated inter-vehicle distance (JP-A-9-189561).
[0006]
Therefore, the driver can drive the vehicle while recognizing the own vehicle position and the other vehicle position on the map screen.
[0007]
[Problems to be solved by the invention]
However, in the conventional navigation device, when the inter-vehicle distance is large, the scale is reduced accordingly to display the own vehicle position and the other vehicle position on one map screen, and a wide area map is displayed on the map screen. It is necessary to display the position of the own vehicle and the position of another vehicle on the wide area map. As a result, the information that can be displayed on the map screen decreases accordingly, and it becomes difficult to recognize the road conditions around the own vehicle position.
[0008]
The present invention solves the problems of the conventional navigation device, and allows the vehicle to travel while recognizing the position of the own vehicle and the position of another vehicle on the map screen, and can easily determine the road conditions around the own vehicle position. It is an object of the present invention to provide a navigation system and a map display method program that can be recognized.
[0009]
[Means for Solving the Problems]
For this purpose, in the navigation system of the present invention, a current position detection unit for detecting the current position, a display unit, and a vehicle position indicated by the current position of the vehicle in a first map display area on the display unit are displayed. 1 area display processing means, another vehicle position acquisition processing means for obtaining another vehicle position represented by the current position of another vehicle, and the own vehicle position and the other vehicle position in a second map display area in the display unit. Second area display processing means for displaying.
[0010]
Another navigation system according to the present invention further includes own vehicle information transmission processing means for transmitting information on the own vehicle to the information center, and other vehicle information reception processing means for receiving information on the other vehicle from the information center.
[0011]
The other vehicle position acquisition processing means acquires the other vehicle position from the received information of the other vehicle.
[0012]
In still another navigation system according to the present invention, the second area display processing means sets the scale so that the position of the own vehicle and the position of the other vehicle fall within the drawing range on the image memory.
[0013]
In still another navigation system according to the present invention, the second area display processing means sets the own vehicle position at a reference position.
[0014]
In still another navigation system according to the present invention, the second area display processing means sets a destination at a reference position.
[0015]
In the program of the map display method according to the present invention, the computer displays the own vehicle position represented by the current position of the own vehicle in a first map display area on a display unit, a first area display processing means, and a current position of another vehicle. And a second area display processing means for displaying the own vehicle position and the other vehicle position in a second map display area on the display unit. .
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0017]
FIG. 1 is a functional block diagram of the navigation system according to the first embodiment of the present invention.
[0018]
In the figure, reference numeral 21 denotes a GPS as a current position detecting unit for detecting a current position; 35, a display unit; and 91, a vehicle position represented by the current position of the vehicle as a first map display area on the display unit 35 as a first map display area. The first area display processing means for displaying in the display area of the other vehicle, 92 is another vehicle position acquisition processing means for acquiring another vehicle position represented by the current location of another vehicle, 93 is the display of the own vehicle position and the other vehicle position This is a second area display processing means for displaying in the second display area as the second map display area in the unit 35.
[0019]
FIG. 2 is an explanatory diagram of a navigation device according to the first embodiment of the present invention, and FIG. 3 is a conceptual diagram of a navigation system according to the first embodiment of the present invention.
[0020]
In the figure, reference numeral 14 denotes a navigation device as a vehicle-mounted device mounted on a vehicle. The navigation device 14 records a current position detection processing unit 15 for detecting a current position and the like, and records navigation information such as map data, road data, search data, and the like. A data recording unit 16 as an information recording unit, a navigation processing unit 17 that functions as a computer based on various programs, data, and the like, and performs various arithmetic processes such as a navigation process based on input information; Unit and an input unit 34 as a first input device, a display unit and a display unit 35 as a first output device, an audio input unit 36 as a second input device, and an audio output unit 37 as a second output device , A communication unit 38 as a first transmission / reception unit, and a communication terminal 39 as a second transmission / reception unit. A vehicle speed sensor 41 is connected to the down processor 17.
[0021]
The current position detection processing unit 15 includes a GPS (global positioning system) 21 as a current position detection unit, a geomagnetic sensor 22, a distance sensor 23, a steering sensor 24, a gyro sensor 26 as a direction detection unit, an altimeter (not shown), and the like. .
[0022]
The GPS 21 detects the current location on the earth by receiving radio waves generated by artificial satellites, the geomagnetic sensor 22 detects the direction of the vehicle by measuring geomagnetism, and the distance sensor 23 The distance between predetermined positions on the road is detected. Examples of the distance sensor 23 include a sensor that measures the rotation speed of a wheel (not shown) and detects a distance based on the rotation speed, a sensor that measures acceleration, and detects a distance by integrating the acceleration twice. Can be used.
[0023]
The steering sensor 24 detects a rudder angle. As the steering sensor 24, for example, an optical rotation sensor, a rotation resistance sensor, and a wheel mounted on a rotating portion of a steering wheel (not shown) are mounted on wheels. An angle sensor or the like is used.
[0024]
The gyro sensor 26 detects a turning angle. As the gyro sensor 26, for example, a gas rate gyro, a vibration gyro, or the like is used. In addition, by integrating the turning angle detected by the gyro sensor 26, the azimuth of the own vehicle can be detected.
[0025]
Note that the GPS 21 alone can detect the current location. The current position can also be detected by combining the distance detected by the distance sensor 23 with the vehicle direction detected by the geomagnetic sensor 22 or the turning angle detected by the gyro sensor 26. Further, the current position can be detected by combining the distance detected by the distance sensor 23 and the steering angle detected by the steering sensor 24.
[0026]
The data recording unit 16 includes a database including data files such as a map data file, an intersection data file, a node data file, a road data file, a search data file, and a facility information data file. A predetermined map, a searched route, a destination, and the like are displayed on a map screen formed on a display (not shown) of the unit 35, a characteristic frame diagram at an intersection or a route is displayed, and a distance to the next intersection is displayed. And various kinds of data for displaying guidance information such as the traveling direction at the next intersection.
[0027]
For example, the intersection data file contains intersection data about each intersection, the node data file contains node data about node points, the road data file contains road data about roads, and the search data file contains search data for searching for a route. Data is recorded, and the intersection data, node data, road data, search data, and the like constitute road condition data representing the road condition. The node data is composed of data indicating actual branch points (including intersections, T-shaped roads, etc.), node points, links between node points connecting the node points, and the like.
[0028]
Then, according to the road data, the width of the road itself, the slope (gradient), the cant, the bank, the state of the road surface, the number of lanes of the road, the point where the number of lanes decreases, the point where the width decreases, etc. Radius of curvature, intersections, T-shaped roads, corner entrances, etc., road attributes, downhill roads, uphill roads, etc., road types, general roads such as national roads, prefectural roads, narrow streets, expressways, urban expressways , Expressways and toll roads, respectively. Furthermore, the road data represents railroad crossings, attachment roads (ramp ways) at entrances and exits of expressways, tollgates on expressways and toll roads, and the like.
[0029]
In the facility information data file, facility information of facilities such as hotels, gas stations, parking lots, and sightseeing spots in each region is recorded as facility information data. The data recording unit 16 also records various data for outputting predetermined information by the audio output unit 37.
[0030]
The navigation processing unit 17 includes a CPU 31 as an arithmetic device and a control device that performs overall control of the navigation device 14, and a DRAM as a first recording medium used as a working memory when the CPU 31 performs various arithmetic processes. , SRAM, MRAM, FeRAM and other RAM 32, and a control program, as well as a second recording medium on which various programs for searching for a route to a destination, guiding a route, determining a specific section, and the like are recorded. The input unit 34, the display unit 35, the audio input unit 36, the audio output unit 37, and the communication unit 38 are connected to the navigation processing unit 17. Note that a semiconductor memory, a magnetic core, or the like is used as the RAM 32, the ROM 33, and the like. Further, a flash memory (not shown) as a third recording medium may be provided in the navigation processing unit 17 in addition to the RAM 32, the ROM 33, and the like. Then, an MPU or the like can be used instead of the CPU 31 as an arithmetic device and a control device.
[0031]
The data recording unit 16 includes a fourth recording medium provided as an external storage medium, such as a hard disk and a magnetic disk such as a flexible disk (not shown), and a fifth recording medium similarly provided as an external storage medium. A medium such as a magnetic tape, a magnetic drum, a CD, a MD, a DVD, an optical disk, an MO, an IC card, an optical card, and the like, such as a read / write head (not shown) for reading and writing various information. Is provided.
[0032]
In the present embodiment, various programs are recorded in the ROM 33, and various data are recorded in the data recording unit 16. However, programs and data may be recorded in the same external storage device. Can also. In this case, for example, the flash memory can be provided in the navigation processing unit 17, and the program, data, and the like can be read from the external storage device and written to the flash memory. Therefore, the programs, data, and the like can be updated by exchanging the external storage device. When an automatic transmission control device is mounted for controlling an automatic transmission (not shown) mounted on the vehicle, the control program, data, and the like for the automatic transmission control device are also stored in the external storage device. Can be recorded.
[0033]
The input unit 34 is used to correct the current position at the start of traveling, to input a departure point and a destination, and to operate the communication unit 38, and to display an image on a screen formed on the display. It consists of various keys, switches, buttons, etc. displayed. Therefore, input can be performed by touching (pressing) the operation switch. In addition, as the input unit 34, a keyboard, a mouse, a barcode reader, a light pen, a remote control device for remote operation, a joystick, and the like, which are provided separately from the display unit 35, can also be used.
[0034]
The various screens formed on the display include operation guidance, operation menus, key guidance, a search route from the current location to the destination, guidance information along the search route, FM multiplex broadcast programs, and the like. Displayed with. As the display unit 35, a display such as a CRT display, a liquid crystal display, and a plasma display can be used, or a hologram device that projects a hologram on a windshield of a vehicle can be used.
[0035]
The voice input unit 36 is configured by a microphone (not shown) or the like, and can input necessary information by voice. Further, the voice output unit 37 includes a voice synthesizer and a speaker (not shown), and the search route, the guidance information, the shift information, and the like are output from the voice output unit 37, for example, as voice synthesized by the voice synthesizer. . In addition to the voice synthesized by the voice synthesizer, it is also possible to output various sounds, various guidance information previously recorded on a tape, a memory, or the like.
[0036]
The communication unit 38 transmits information transmitted from a VICS (Vehicle Information and Communication System) center (not shown) as a first information provider, which is arranged along the road, not shown. A beacon receiver (not shown) as a first receiving device that receives a radio beacon, an optical beacon, or the like via a radio beacon device, an optical beacon device, or the like, and a second receiving device that receives an FM multiplex broadcast via an FM broadcast station And the like, which receives traffic information including traffic congestion information, regulation information, parking lot information, traffic accident information, and congestion information of a service area by the beacon receiver. Depending on the receiver, in addition to the traffic information, Information such as news, weather forecast, etc., can be received as FM multiplex information. The beacon receiver and the FM receiver are unitized and arranged as a VICS receiver, but they can be arranged separately.
[0037]
The communication unit 38 can also receive various data such as D-GPS information for detecting a detection error of the GPS 21 transmitted from the base station. In addition, it is also possible to receive the position information based on a radio beacon, an optical beacon, or the like, and detect the current location. In this case, the beacon receiver functions as a current location detection unit.
[0038]
Then, in the navigation device 14, from the information center 51 as a second information provider, information of another vehicle, in this embodiment, information indicating the position of another vehicle, that is, In addition, various information such as navigation information and traffic information can be received. Further, information about the own vehicle, in this embodiment, information indicating the own vehicle position, that is, own vehicle position information, etc., can also be transmitted from the navigation device 14 to the current position detection processing unit 15. For this purpose, a terminal having a communication function, that is, a communication terminal 39 is connected to the communication unit 38, and the communication unit 38 and the information center 51 are connected via the communication terminal 39 and the network 43, Or via the network 43 without passing through. Note that the communication unit 38 and the communication terminal 39 may be integrated.
[0039]
A navigation system is configured by the navigation device 14, the information center 51, the network 43, and the like, and transmission and reception are performed between the communication unit 38 and the communication terminal 39 and the communication unit 58 of the information center 51.
[0040]
In the present embodiment, a mobile phone such as a mobile phone, a car phone, or a PHS is used as the communication terminal 39, and a communication function is provided to a portable computer, a personal portable information terminal, an electronic organizer, a videophone, a game machine, and the like. Can be used. The network 43 may be a local area network (LAN), a wide area network (WAN), an intranet, a mobile telephone network, a telephone network, a public communication network, a dedicated communication network, or a communication network such as the Internet. Various communication means can be used. Communication means using CS broadcasting, BS broadcasting, terrestrial digital television broadcasting, FM multiplex broadcasting, or the like by a broadcasting satellite can also be used. Further, communication means such as a non-stop automatic toll payment system (ETC) and a border communication system (DSRC) used in the Intelligent Transport System (ITS) can be used.
[0041]
Further, the information center 51 may be any one of an individual, a company, an organization, a local government, a governmental agency, and the like, and may be the VICS center.
[0042]
The information center 51 includes a server 53. The server 53 performs two-way communication between the information center 51 and the navigation device 14 to provide traffic information. To this end, the server 53 includes a CPU 54 as an arithmetic device and a control device, a RAM 55, a ROM 56, the communication unit 58, and the like, and functions as a computer based on predetermined programs, data, and the like. Note that the server 53 and the navigation processing unit 17 may constitute a computer.
[0043]
Further, a recording device 57 as an information recording unit is connected to the server 53, and information such as information on a group registered in the recording device 57, traffic information, news, weather forecast, and statistical data is recorded. .
[0044]
The information processing means (not shown) of the CPU 54 performs information processing, receives information such as traffic information, news, and weather forecast transmitted from the VICS center or the like, and records the information in the recording device 57 as primary information. The information processing means of the information processing means performs information processing, performs statistical processing on the information such as the traffic information, news, weather forecast, and the like, and generates statistics that constitute predicted traffic information for predicting a traffic congestion state and the like. Data is generated, and the statistical data is recorded in the recording device 57 as secondary information. In this way, the information processing means acquires information such as traffic information, news, weather forecast, and the like, and statistical data.
[0045]
By the way, when two or more vehicles are used and a vehicle is to be driven to a predetermined destination, a group is formed by drivers of each vehicle, and information of each vehicle is shared within the group, The vehicle can be driven to the destination according to the shared information. In this case, the driver of each vehicle becomes a member of the group.
[0046]
FIG. 4 is a diagram showing a data structure of registration data necessary for registering a group according to the first embodiment of the present invention, and FIG. 5 is a diagram showing a data structure necessary for joining the group according to the first embodiment of the present invention. FIG. 4 is a diagram showing a data structure of various registered data.
[0047]
In this case, when a representative member (hereinafter referred to as a “representative member”) who wants to register a group first operates the input unit 34 of the navigation device 14 (FIG. 2) mounted on the vehicle, First registration data transmission processing means (not shown) of the CPU 31 performs first registration data transmission processing, and transmits registration data having a data structure as shown in FIG. 4 to the information center 51 (FIG. 3). In the above data structure, the group ID is an identification number for identifying a group to be formed, for example, a column of numbers, alphabets, symbols, etc., such as an e-mail address. This is a cipher consisting of an arbitrary character string for recognizing that the user is a valid member of. The mark ID is an identification number for identifying a mark for identification when displaying the own vehicle position represented by the current position of the own member's own vehicle on the map screen.
[0048]
When the registration data is transmitted, a registration processing means (not shown) of the CPU 54 performs a registration process, registers the group, and assigns a member ID as an identification number for identifying and recognizing the representative member. Then, the information is transmitted to the navigation device 14 of the representative member. The member ID is given in association with the group ID, password and mark ID, recorded in the recording device 57, and the group is registered. In this way, the representative member is specified.
[0049]
Subsequently, when a member who intends to participate in the registered group (hereinafter referred to as “participating member”) operates the input unit 34 of the navigation device 14 mounted on the vehicle of the participating member, the CPU 31 is not shown. The second registration data transmission processing means performs a second registration data transmission process, and transmits registration data having a data structure as shown in FIG. 5 to the information center 51. In the data structure, the group ID is the group ID shown in FIG. 4 obtained from the representative member, and the password is the password shown in FIG. 4 obtained from the representative member. The mark ID is an identification number for identifying an identification mark when displaying the position of the vehicle on the map screen.
[0050]
When the registration data is transmitted, the registration processing means specifies the participating member based on the registration data, and assigns a member ID serving as an identification number for recognition, and performs navigation of the participating member. Transmit to the device 14. The member ID is given in association with the group ID, the password, and the mark ID, and is recorded in the recording device 57. In this way, the participating members are specified.
[0051]
Next, an operation of the navigation system when each of the predetermined members drives each vehicle in a group at a predetermined point as a destination will be described.
[0052]
FIG. 6 is a main flowchart showing the operation of the navigation system according to the first embodiment of the present invention, and FIG. 7 is a diagram showing the data structure of transmission data transmitted from each navigation device to the information center according to the first embodiment of the present invention. FIG. 8 is a diagram showing a data configuration of received data received from the information center by each navigation device according to the first embodiment of the present invention.
[0053]
First, when the input unit 34 (FIG. 2) is operated by a member as an operator to activate the navigation device 14, a navigation initialization processing unit (not shown) of the CPU 31 performs a navigation initialization process. Subsequently, a position information acquisition processing unit (not shown) of the CPU 31 performs position information acquisition processing, reads the group ID to which the member belongs and the member ID of the member, and detects the current position detected by the GPS 21 and indicating the own vehicle position. Read as car location information.
[0054]
Further, a navigation information acquisition processing unit (not shown) of the CPU 31 performs navigation information acquisition processing, refers to a map data file, a road data file, a search data file, and the like from the data recording unit 16, and outputs map data, road data, search data, and the like. The navigation information is read and obtained.
[0055]
Note that, in the present embodiment, the navigation information acquisition processing means reads and acquires the navigation information from the data recording unit 16, but may also receive and acquire the navigation information via the communication unit 38. . In this case, the navigation information acquisition processing means downloads and receives the received navigation information to a flash memory, a hard disk, or the like.
[0056]
Next, the own vehicle information transmission processing means (not shown) of the CPU 31 performs own vehicle information transmission processing, determines whether a predetermined period (control period) has elapsed since the previous transmission of the transmission data, and determines a predetermined period. After the time elapses, the transmission data including the group ID, the member IDs of the members, and the vehicle position information as shown in FIG.
[0057]
Then, the group determination processing means (not shown) of the CPU 54 performs a group determination process, and upon receiving the transmission data transmitted from each navigation device 14, refers to the recording device 57 and determines the group based on the group ID. . A current position information recording processing unit (not shown) of the CPU 54 performs a current position information recording process, and records the own vehicle position information of each member in the recording device 57 in association with the group ID and the member ID.
[0058]
Subsequently, a search processing unit (not shown) of the CPU 54 performs a search process to search for all members belonging to the group ID. Then, the current position information transmission processing means (not shown) of the CPU 54 performs a current position information transmission process, reads the own vehicle position information of each member from the recording device 57 as other vehicle position information, and reads out the member ID and the mark ID. The mark ID is converted into image data and used as mark information, and the other vehicle position information, member ID and mark information are sent to the navigation device 14 as other vehicle information.
[0059]
The other vehicle information reception processing means (not shown) of the CPU 31 performs another vehicle information reception processing, and receives the other vehicle information as reception data. The received data includes, as shown in FIG. 8, other vehicle position information, member ID, and mark information.
[0060]
Next, another vehicle position acquisition processing means (not shown) of the CPU 31 performs another vehicle position acquisition processing, reads the received data, and acquires another vehicle position from the other vehicle position information of the received data.
[0061]
Then, a display processing means (not shown) of the CPU 31 performs a display process, forms a map screen on the display, and displays the own vehicle position, the position of another vehicle, and the like on the map screen.
[0062]
In the present embodiment, the vehicle position information transmitted from the navigation device 14 to the information center 51 does not include the vehicle direction, but the vehicle position information can include the vehicle direction. In this case, the mark can display not only the position of the other vehicle but also the direction of the other vehicle.
[0063]
When the navigation device 14 is used as a route search device, when a member operates the input unit 34 to input a destination, a destination setting processing unit (not shown) of the CPU 31 performs a destination setting process. Set the ground. And a departure place can be set up as needed. A route search processing unit (not shown) of the CPU 31 performs a route search process. Then, the route search processing means reads the current location, the destination, the search data, and the like, and searches for a route from the departure point represented by the current location to the destination based on the search data.
[0064]
Subsequently, a search route guidance processing unit (not shown) of the CPU 31 performs a search route guidance process and guides the driver to the search route. To this end, the search route display processing means of the search route guidance processing means performs a search route display process, forms a search route display screen on the display, and displays the search route on the search route display screen. The voice output processing means of the search route guidance processing means performs a voice output process, and outputs the search route from the voice output unit 37 by voice. Therefore, the driver can drive the vehicle according to the guided search route.
[0065]
When the driver operates the input unit 34 to obtain traffic information, the navigation device 14 receives the traffic information transmitted from the VICS center via the communication unit 38 and receives the traffic information. The traffic information is displayed together with the map screen.
[0066]
Next, the flowchart will be described.
Step S1 The group ID, the member ID and the vehicle position information are read.
Step S2: Wait for a predetermined period to elapse from the previous transmission.
Step S3: The group ID, the member ID and the vehicle position information are transmitted.
Step S4: Wait for reception of other vehicle information.
Step S5: A display process is performed, and the process ends.
[0067]
Next, the operation of the display processing means will be described.
[0068]
FIG. 9 is a diagram showing a subroutine of a display process in the first embodiment of the present invention, FIG. 10 is a diagram showing a subroutine of a second region display process in the first embodiment of the present invention, and FIG. FIG. 12 is a diagram illustrating a first example of a map screen according to the first embodiment of the present invention, and FIG. 12 is a diagram illustrating a second example of a map screen according to the first embodiment of the present invention.
[0069]
First, the display processing means reads map data from the data recording unit 16 (FIG. 2), forms a map screen on the display, and displays a map around the vehicle position on the map screen according to the map data. At the same time, the vehicle position and the vehicle direction are displayed. When a member operates the input unit 34 to select a multi-screen, the display processing means divides the map screen into a multi-screen, and the first and second map display areas as first and second map display areas. Are formed in the display areas AR1 and AR2. Further, the first area display processing means 91 (FIG. 1) of the display processing means performs the first area display processing and displays a map around the own vehicle position in the first (predetermined) display area AR1. In addition to displaying the vehicle at a predetermined scale, the vehicle position and the vehicle direction are displayed on the map, and a map around the vehicle position is similarly displayed at a predetermined scale in a second (other) display area AR2. At the same time, the vehicle position and the vehicle direction are displayed on the map. In this case, the scale is initially set to the value when the map was displayed last time, but can be changed to an arbitrary scale by operating the input unit 34. In FIG. 11, m1 is a vehicle position indicating the own vehicle direction by an arrow, and q1 and q2 are scales indicating a scale.
[0070]
By the way, when each of the predetermined members drives each vehicle in a group with a predetermined point as a destination, each member can operate the input unit 34 to select a group driving mode. I have. Then, when the group driving mode is set, the second area display processing means 93 of the display processing means performs a second area display processing, and the second area display processing means 93 displays the area around the position of another vehicle in the second display area AR2. Is displayed on a predetermined scale, and the position of another vehicle is displayed on the map.
[0071]
Next, the operation of the second area display processing means will be described.
[0072]
By the way, in order to form the map screen, a drawing area is set in the RAM 32 corresponding to the map screen, and in order to perform a predetermined display on the map screen, drawing is performed in the drawing area. I have.
[0073]
Then, a drawing range calculation processing unit (not shown) of the second region display processing unit 93 performs a drawing range calculation process, and first, on the image memory of the RAM 32, a predetermined scale, for example, the first display region The drawing area of the second display area AR2 is calculated at the same scale as the scale of AR1, and a predetermined position of the drawing area, in this embodiment, the center of the drawing area is set as a reference position, and the vehicle is positioned at the reference position. Put the position. Note that a fixed scale, for example, a 200 [m] scale can be used as the predetermined scale.
[0074]
Subsequently, the second area display processing means 93 determines whether all the other vehicle positions fall within the drawing range when the other vehicle positions of the other vehicles belonging to the group are displayed around the own vehicle position. Judge. For this purpose, the coordinates of each other vehicle position on the drawing area when the vehicle position is located at the center of the drawing area (hereinafter, referred to as “other vehicle position coordinates”), and the coordinates of each corner portion of the drawing area (hereinafter, referred to as “other vehicle position coordinates”) “Corner portion coordinates” are read, and it is determined based on each other vehicle position coordinate and each corner portion coordinate whether or not all other vehicle positions fall within the drawing range.
[0075]
For example, the other vehicles belonging to the group are Ha to Hc, the other vehicle position coordinates are (xa, ya), (xb, yb), (xc, yc), and the corner coordinates are (X1, Y1), ( X2, Y1), (X1, Y2), (X2, Y2), it is determined whether or not the other vehicle Ha falls within the drawing range by the values xa and ya.
X1 <xa <X2
Y1 <ya <Y2
It can be determined by whether or not. Whether the other vehicle Hb falls within the drawing range is determined by the values xb and yb.
X1 <xb <X2
Y1 <yb <Y2
It can be determined by whether or not. Further, whether or not the other vehicle Hc falls within the drawing range is determined by the values xc and yc.
X1 <xc <X2
Y1 <yc <Y2
It can be determined by whether or not.
[0076]
If all other vehicle positions fall within the drawing range, the second area display processing means 93 displays the own vehicle position, each other vehicle position, and the own vehicle and each other vehicle Ha in the second display area AR2. A map around Hc is displayed. When the position of the other vehicle deviates from the drawing range for the predetermined other vehicle, the second area display processing means 93 reduces the scale and again determines whether or not all the other vehicle positions fall within the drawing range. to decide. Thus, the second area display processing means 93 sets the scale so that the position of the own vehicle and the position of the other vehicle fall within the drawing range.
[0077]
By reducing the scale, the values xa to xc of the other vehicle position coordinates (xa, ya), (xb, yb), (xc, yc) are larger than the value X1 and larger than the value X2. Each value ya-yc is larger than the value Y1 and smaller than the value Y2, so that the position of the other vehicle can easily fall within the drawing range.
[0078]
In this manner, when all the other vehicle positions fall within the drawing range, as shown in FIG. 12, the map around the own vehicle and each of the other vehicles Ha to Hc is displayed at the reduced scale, and the map is displayed. , The own vehicle position m1 and the position of the other vehicle are displayed. In FIG. 12, m1 is the vehicle position indicating the own vehicle direction by an arrow, q1 and q3 are scales indicating a scale, and ha to hc are marks indicating the positions of other vehicles. Further, it is not always necessary to keep all other vehicle positions within the drawing range, and a predetermined number of other vehicle positions may be placed within the drawing range.
[0079]
As described above, since all other vehicle positions can be displayed in the second display area AR2, the member can drive the vehicle while recognizing the own vehicle position and the other vehicle position displayed on the map screen. Can be.
[0080]
In the first display area AR1, a map of the position of the own vehicle and the surroundings of the own vehicle can be displayed on a sufficiently large scale, so that information that can be displayed in the first display area AR1 is accordingly reduced. More. Therefore, the driver can easily recognize the road condition around the own vehicle position.
[0081]
Next, the flowchart of FIG. 9 will be described.
Step S5-1: A map around the own vehicle position, the own vehicle position, and the own vehicle direction are displayed on the map screen.
Step S5-2: It is determined whether or not the multi-screen has been selected. If the multi-screen has been selected, the process proceeds to step S5-3, and if not, the process returns.
Step S5-3: Perform a first area display process.
Step S5-4: It is determined whether or not the group traveling mode is set. If the group traveling mode has been set, the process proceeds to step S5-5, and if not, the process returns.
Step S5-5: Perform the second area display processing and return.
[0082]
Next, the flowchart of FIG. 10 will be described.
Step S5-5-1 A drawing range calculation process is performed.
Step S5-5-2: It is determined whether or not all other vehicle positions fall within the drawing range. If all other vehicle positions fall within the drawing range, the process proceeds to step S5-5-3; otherwise, the process proceeds to step S5-5-5.
Step S5-5-3 Displays the map.
Step S5-5-4: The own vehicle position and the other vehicle position are displayed, and the process ends.
Step S5-5-5 Reduce the scale and return to step S5-5-2.
[0083]
By the way, in the first embodiment, the drawing area of the second display area AR2 is set on the image memory of the RAM 32 at the same scale as the scale of the first display area AR1, and the center of the drawing area is set. The reference position is set, and the vehicle position is set at the reference position.
[0084]
Therefore, the position of the own vehicle is always displayed in the center of the second display area AR2, so that the relationship between the position of each other vehicle and the position of the own vehicle can be recognized. When the vehicle is traveling ahead of the destination, the position of the other vehicle is displayed ahead of the destination, so that the map displayed in the second display area AR2 becomes wider accordingly. Thus, a second embodiment of the present invention will be described in which the reference position of the drawing area can be changed in accordance with the position where another vehicle is traveling. In addition, about what has the same structure as 1st Embodiment, the description is abbreviate | omitted by attaching the same code | symbol.
[0085]
FIG. 13 is a diagram illustrating a subroutine of a drawing range calculation process according to the second embodiment of the present invention, and FIG. 14 is a diagram illustrating an example of a map screen according to the second embodiment of the present invention.
[0086]
In this case, a display processing means (not shown) is provided in the CPU 31 (FIG. 2), and the display processing means is provided with a second area display processing means 93 (FIG. 1), and the second area display processing means 93 is further rendered. Range calculation processing means is provided. Then, the drawing range calculation processing means performs a drawing range calculation process, reads the coordinates of the own vehicle position, the other vehicle position, and the destination, and, based on each coordinate, moves from the own vehicle position and the other vehicle position to the destination. Is calculated.
[0087]
Subsequently, the direction determination processing unit of the drawing range calculation processing unit performs a direction determination process to determine whether all the calculated directions are the same direction. The reference position setting processing means of the processing means performs reference position setting processing, as shown in FIG. 12, sets the center of the drawing range of the second display area AR2 as the reference position, and sets the own vehicle position m1 as the reference position. Put. When at least one direction is different from the other directions, the reference position setting processing unit sets the center of the drawing range of the second display area AR21 as the reference position, as shown in FIG. Place destination g. In FIG. 14, m1 is a vehicle position indicating an own vehicle direction by an arrow, q1 and q4 are scales indicating a reduced scale, and he to hg are marks indicating other vehicle positions.
[0088]
In this case, the direction from the own vehicle position m1 and the other vehicle position indicated by the marks he and hg to the destination g is different from the direction from the other vehicle position indicated by the mark he to the destination g.
[0089]
In the direction determination process, whether the calculated directions are the same direction is determined by an angle formed by a line connecting the own vehicle position m1 and the destination g and a line connecting the other vehicle position and the destination g. Is θ, the angle θ is
-90 [°] ≤ θ ≤ +90 [°]
When the calculated direction is the same direction,
θ <-90 [°]
Or
θ> +90 [°]
, It is assumed that the calculated directions are different directions.
[0090]
Subsequently, the drawing range calculation processing means sets a predetermined scale, calculates a drawing region of the second display region AR2, sets the center of the drawing region as a reference position, and sets the destination g at the reference position. Is displayed, and a map around the destination g, the own vehicle position m1, and the other vehicle position is displayed, and the destination g, the own vehicle position m1, and each other vehicle position are displayed on the map. When the drawing range calculation process is performed in this manner, the scale is reduced so that the own vehicle position m1 and all other vehicle positions fall within the drawing range in a state where the own vehicle position m1 or the destination g is placed at the reference position. Is set. Then, at that scale, a map around the own vehicle position m1, the destination g, and each of the other vehicles Ha to Hc is displayed, and the own vehicle position m1, the destination g, and the other vehicle position are displayed on the map.
[0091]
In this case, when the predetermined other vehicle is traveling ahead of the destination as viewed from the own vehicle, the position of the other vehicle is displayed ahead of the destination, but corresponds to the position where the other vehicle is traveling. Since the reference position of the drawing area can be changed in this way, it is possible to prevent the map displayed in the second display area AR2 from becoming wide.
[0092]
Next, the flowchart of FIG. 13 will be described.
Step S5-5-1-1 The direction from the own vehicle position and the other vehicle position to the destination is calculated.
Step S5-5-1-2 It is determined whether or not all directions are the same. If the directions are all the same, the process proceeds to step S5-5-1-3. If the directions are not all the same, the process proceeds to step S5-5-1-4.
Step S5-5-1-3 The own vehicle position is set as the reference position.
Step S5-5-1-4 The destination is set as the reference position.
Step S5-5-1-5: A predetermined scale is set.
Step S5-5-1-6: The drawing range is calculated, and the process ends.
[0093]
In the above-described embodiment, the own vehicle position is set to the reference position or the destination is set to the reference position based on the determination result of the direction determination processing by the direction determination processing unit. The destination can be the reference position.
[0094]
Further, a predetermined position between the own vehicle position and the destination, for example, a waypoint can be set as the reference position.
[0095]
In each of the above embodiments, the heading-up display method is adopted so that the own vehicle direction is directed upward on the map screen when displaying the map on the map screen. The north-up display method can be adopted so that the icon faces upward on the map screen.
[0096]
Further, in each of the above embodiments, the second area display processing means 93 reduces the scale until all other vehicle positions fall within the drawing range. However, all other vehicle positions fall in advance. After calculating the predetermined frame area as described above, the scale can be reduced until the position of the own vehicle and the frame area fall within the second display area AR2. In this case, the frame region has a predetermined shape, for example, a rectangular shape, and coordinates on the image memory for specifying the frame region are calculated.
[0097]
Further, a linear distance between the reference position (own vehicle position or destination) and each other vehicle position is calculated, and another vehicle position having the longest linear distance, that is, another vehicle position furthest from the reference position is calculated. The scale can be set so that the position of the other vehicle falls within the drawing range.
[0098]
In each of the above embodiments, the display processing means of the CPU 31 performs the display processing. However, the center display processing means (not shown) of the CPU 54 performs the center display processing and displays the map screen. It can also be formed.
[0099]
In this case, the first area display processing means 91 of the center side display processing means performs the first area display processing, and based on the own vehicle information transmitted from the navigation device 14, sets the own vehicle position to the first area display processing means. The first image data to be displayed in the display area AR1 is created, the other vehicle position acquisition processing means acquires the own vehicle position of the own vehicle information transmitted from the navigation device 14 as the other vehicle position, and displays the center side display. The second area display processing means 93 of the processing means performs the second area display processing and, based on the own vehicle information transmitted from the navigation device 14, displays the own vehicle position and the other vehicle position in the second display area. The second image data to be displayed on AR2 is created.
[0100]
Subsequently, a data transmission processing unit (not shown) of the CPU 54 performs a data transmission process and transmits the first and second image data to the navigation device 14. Then, when the data reception processing means (not shown) of the CPU 31 performs the data reception processing and receives the first and second image data, the display processing means places the own vehicle in the first display area AR1 of the map screen. The map around the position is displayed on a predetermined scale, the vehicle position and the vehicle direction are displayed on the map, and the vehicle position, each other vehicle position, and the vehicle position are displayed in the second display area AR2. A map of the position and the surroundings of each other vehicle position is displayed.
[0101]
It should be noted that the present invention is not limited to the above-described embodiment, but can be variously modified based on the gist of the present invention, and they are not excluded from the scope of the present invention.
[0102]
【The invention's effect】
As described in detail above, according to the present invention, the own vehicle position and the other vehicle position can be displayed in the second map display area, so that the member can recognize the own vehicle position and the other vehicle position. The vehicle can be driven while traveling.
[0103]
Further, since the own vehicle position can be displayed in the first map display area, the members can easily recognize the road conditions around the own vehicle position.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a navigation system according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of a navigation device according to the first embodiment of the present invention.
FIG. 3 is a conceptual diagram of a navigation system according to the first embodiment of the present invention.
FIG. 4 is a diagram showing a data structure of registration data necessary for registering a group according to the first embodiment of the present invention.
FIG. 5 is a diagram showing a data structure of registration data required to participate in a group according to the first embodiment of the present invention.
FIG. 6 is a main flowchart showing an operation of the navigation system according to the first embodiment of the present invention.
FIG. 7 is a diagram illustrating a data configuration of transmission data transmitted from each navigation device to the information center according to the first embodiment of the present invention.
FIG. 8 is a diagram illustrating a data configuration of received data received from the information center by each navigation device according to the first embodiment of the present invention.
FIG. 9 is a diagram illustrating a subroutine of a display process according to the first embodiment of the present invention.
FIG. 10 is a diagram showing a subroutine of a second area display process according to the first embodiment of the present invention.
FIG. 11 is a diagram showing a first example of a map screen according to the first embodiment of the present invention.
FIG. 12 is a diagram showing a second example of a map screen according to the first embodiment of the present invention.
FIG. 13 is a diagram illustrating a subroutine of a drawing range calculation process according to the second embodiment of the present invention.
FIG. 14 is a diagram illustrating an example of a map screen according to the second embodiment of the present invention.
[Explanation of symbols]
17 Navigation processing unit
21 GPS
31 CPU
35 Display
51 Information Center
53 server
91, 93 First and second area display processing means
92 Other vehicle position acquisition processing means

Claims (6)

現在地を検出する現在地検出部と、表示部と、自車の現在地によって表される自車位置を前記表示部における第1の地図表示領域に表示する第1の領域表示処理手段と、他車の現在地によって表される他車位置を取得する他車位置取得処理手段と、前記自車位置及び他車位置を前記表示部における第2の地図表示領域に表示する第2の領域表示処理手段とを有することを特徴とするナビゲーションシステム。A current position detecting unit for detecting a current position; a display unit; first area display processing means for displaying a vehicle position represented by the current position of the vehicle in a first map display area on the display unit; Another vehicle position acquisition processing means for acquiring another vehicle position represented by the current location; and second area display processing means for displaying the own vehicle position and the other vehicle position in a second map display area on the display unit. A navigation system comprising: 自車の情報を情報センタに送信する自車情報送信処理手段と、他車の情報を情報センタから受信する他車情報受信処理手段とを有するとともに、前記他車位置取得処理手段は、受信した他車の情報から他車位置を取得する請求項1に記載のナビゲーションシステム。The vehicle information transmission processing means for transmitting the information of the vehicle to the information center, and the other vehicle information reception processing means for receiving the information of the other vehicle from the information center, and the other vehicle position acquisition processing means, The navigation system according to claim 1, wherein another vehicle position is acquired from information on another vehicle. 前記第2の領域表示処理手段は、画像メモリ上の描画範囲内に自車位置及び他車位置が収まるように縮尺を設定する請求項1に記載のナビゲーションシステム。2. The navigation system according to claim 1, wherein the second area display processing unit sets the scale so that the position of the own vehicle and the position of the other vehicle fall within the drawing range on the image memory. 前記第2の領域表示処理手段は、基準位置に自車位置を置く請求項1に記載のナビゲーションシステム。The navigation system according to claim 1, wherein the second area display processing unit sets the own vehicle position at a reference position. 前記第2の領域表示処理手段は、基準位置に目的地を置く請求項1に記載のナビゲーションシステム。The navigation system according to claim 1, wherein the second area display processing unit sets a destination at a reference position. コンピュータを、自車の現在地によって表される自車位置を表示部における第1の地図表示領域に表示する第1の領域表示処理手段、他車の現在地によって表される他車位置を取得する他車位置取得処理手段、並びに前記自車位置及び他車位置を前記表示部における第2の地図表示領域に表示する第2の領域表示処理手段として機能させることを特徴とする地図表示方法のプログラム。A first area display processing means for displaying a position of the own vehicle represented by the current position of the own vehicle in a first map display area on the display unit; a method of obtaining another vehicle position represented by the current position of another vehicle; A program for functioning as a vehicle position acquisition processing means, and a second area display processing means for displaying the own vehicle position and the other vehicle position in a second map display area on the display unit.
JP2002253685A 2002-08-30 2002-08-30 Navigation system and program Expired - Fee Related JP4078923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002253685A JP4078923B2 (en) 2002-08-30 2002-08-30 Navigation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002253685A JP4078923B2 (en) 2002-08-30 2002-08-30 Navigation system and program

Publications (2)

Publication Number Publication Date
JP2004093285A true JP2004093285A (en) 2004-03-25
JP4078923B2 JP4078923B2 (en) 2008-04-23

Family

ID=32059624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002253685A Expired - Fee Related JP4078923B2 (en) 2002-08-30 2002-08-30 Navigation system and program

Country Status (1)

Country Link
JP (1) JP4078923B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195426A (en) * 2004-01-06 2005-07-21 Nec Fielding Ltd Group terminal system and group action grasping method
JP2006064534A (en) * 2004-08-26 2006-03-09 Clarion Co Ltd Group guidance navigation system
JP2006275673A (en) * 2005-03-29 2006-10-12 Alpine Electronics Inc Navigation system
JP2008286713A (en) * 2007-05-18 2008-11-27 Fujitsu Ltd Moving object display method, and moving object management device
JP2010032541A (en) * 2009-11-09 2010-02-12 Xanavi Informatics Corp Route search device
JP2010145089A (en) * 2008-12-16 2010-07-01 Furuno Electric Co Ltd Information display apparatus and marine radio apparatus
JP2016128834A (en) * 2016-02-25 2016-07-14 パイオニア株式会社 Navigation device, navigation method, and navigation program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195426A (en) * 2004-01-06 2005-07-21 Nec Fielding Ltd Group terminal system and group action grasping method
JP2006064534A (en) * 2004-08-26 2006-03-09 Clarion Co Ltd Group guidance navigation system
JP4515861B2 (en) * 2004-08-26 2010-08-04 クラリオン株式会社 Group guidance navigation system
JP2006275673A (en) * 2005-03-29 2006-10-12 Alpine Electronics Inc Navigation system
JP4480613B2 (en) * 2005-03-29 2010-06-16 アルパイン株式会社 Navigation device
JP2008286713A (en) * 2007-05-18 2008-11-27 Fujitsu Ltd Moving object display method, and moving object management device
JP2010145089A (en) * 2008-12-16 2010-07-01 Furuno Electric Co Ltd Information display apparatus and marine radio apparatus
JP2010032541A (en) * 2009-11-09 2010-02-12 Xanavi Informatics Corp Route search device
JP2016128834A (en) * 2016-02-25 2016-07-14 パイオニア株式会社 Navigation device, navigation method, and navigation program

Also Published As

Publication number Publication date
JP4078923B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
EP1371950A2 (en) Navigation system, method and computer program
JP4675375B2 (en) Program recording apparatus, program recording method, program recording program, and computer-readable recording medium
JP4078923B2 (en) Navigation system and program
JP3969356B2 (en) Navigation system and point search method program
JP4211505B2 (en) Navigation system and program
JP4114523B2 (en) Navigation system and route guidance method program
JP4321326B2 (en) Navigation system and program
JP4111127B2 (en) Route guidance system and route guidance method program
JP4292887B2 (en) Navigation system and program
JP4403736B2 (en) Navigation system and program
JP4556976B2 (en) Information acquisition system and program
JP2005283890A (en) Point retrieval system and program of point retrieval method
JP4023259B2 (en) NAVIGATION SYSTEM AND MAP DISPLAY METHOD PROGRAM
JP2004170376A (en) Information indicating system, informer and program of information indicating method
JP2004170377A (en) Information display system, information provider, and program of information display method
JP4442279B2 (en) Direction guidance system and program
JP4241214B2 (en) Navigation system and program
JP4502053B2 (en) Navigation system and program
JP4228790B2 (en) Navigation system and program
JP3801467B2 (en) Navigation device
JP4110320B2 (en) Navigation system and program
JP4140361B2 (en) Navigation system and program
JP4453419B2 (en) Route guidance system and program
JP4396158B2 (en) Navigation system and program
JP4182737B2 (en) Navigation system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees