JP3660644B2 - Bird's-eye view creation method, map display device, and navigation system - Google Patents

Bird's-eye view creation method, map display device, and navigation system Download PDF

Info

Publication number
JP3660644B2
JP3660644B2 JP2002119766A JP2002119766A JP3660644B2 JP 3660644 B2 JP3660644 B2 JP 3660644B2 JP 2002119766 A JP2002119766 A JP 2002119766A JP 2002119766 A JP2002119766 A JP 2002119766A JP 3660644 B2 JP3660644 B2 JP 3660644B2
Authority
JP
Japan
Prior art keywords
map
bird
eye view
projection angle
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002119766A
Other languages
Japanese (ja)
Other versions
JP2003036022A (en
Inventor
芳則 遠藤
敏雄 藤原
弘之 佐竹
正嶋  博
則政 岸
眞幸 渡部
元幹 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Xanavi Informatics Corp
Nissan Motor Co Ltd
Original Assignee
Hitachi Ltd
Xanavi Informatics Corp
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Xanavi Informatics Corp, Nissan Motor Co Ltd filed Critical Hitachi Ltd
Priority to JP2002119766A priority Critical patent/JP3660644B2/en
Publication of JP2003036022A publication Critical patent/JP2003036022A/en
Application granted granted Critical
Publication of JP3660644B2 publication Critical patent/JP3660644B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、移動体の位置を測定しユーザに現在位置を知らせるナビゲーションシステムと、該システムに使用する地図表示装置に関する。
【0002】
【従来の技術】
移動体に搭載するナビゲーションシステムでは、各種センサからの情報を演算処理することで移動体の位置を測定し、その位置を表示するといった処理を実行する。
【0003】
このナビゲーションシステムは、移動体の絶対位置を測定する位置測定装置と、道路や構造物等の地上の点をユニバーサル横メルカトル投影でメッシュ分割した平面に投射し、得られた2次元ベクトルデータとこれらに付随する文字データで構成される地図データが格納された記憶装置と、外部からの指示を受ける入力装置と、入力装置から入力された指示に従い記憶装置に格納された地図メッシュから必要なベクトルデータを読み出し、そのデータを変換処理することでディスプレイに地図を表示する表示装置とで構成される。
【0004】
ここでデータ変換処理には、地図の表示位置を変更する移動変換と、地図を任意の縮尺で表示するために用いる拡大/縮小といった縮尺変換と、地図の表示する向きを変更する回転変換とがある。これら処理により、ディスプレイ上には地面を真上からの正射影で描いた平面地図が表示される。
【0005】
【発明が解決しようとする課題】
従来のナビゲーションシステムでは、地図を表示する際に地面を真上からの正射影で描いた平面地図表示を行なっていた。そのため、互いに距離の離れた2地点間を同時に表示しようとすると必然的に縮尺が大きくなり詳細な情報が表示できなくなるという問題があった。
【0006】
そこで、本発明は、平面(地面)を任意の高さの視点から斜め方向に見おろしたとき、該平面(地面)と視点との間にある任意の平面に投射される投影図である鳥瞰図を用いて地図を表現する鳥瞰図作成方法と、地図表示装置と、該装置を備えるナビゲーションシステムとを提供することを目的とする。
【0007】
【問題を解決するための手段】
上記目的を達成するために、本発明では、地図データを用いて鳥瞰図で表現された地図の描画データを作成する鳥瞰図作成方法であって、定められた位置を視点として、定められた投射平面に、上記地図データに含まれる座標データを透視変換して、鳥瞰図の描画データを作成することを特徴とする鳥瞰図作成方法が提供される。
【0008】
なお、本発明の鳥瞰図作成方法は、上記視点の位置の入力を受け付けるステップと、上記地図データに含まれるあらかじめ定められた2地点(例えば、現在地および目的地)の座標、および、上記入力された視点位置をもとに、上記透視変換後の上記2地点の描画位置があらかじめ定められた位置になるように、上記投射平面を決定するステップとを備えることが望ましい。
【0009】
あるいは、縮尺率の入力を受け付けるステップと、上記地図データに含まれるあらかじめ定められた2地点の座標、および、上記入力された縮尺率をもとに、上記透視変換後の上記2地点の描画位置があらかじめ定められた位置になり、描画の縮尺率が上記入力された縮尺率になるように、上記視点の位置および上記投射平面を決定するステップとを備えるようにしてもよい。
【0010】
また、上記地図データの定義された平面と、上記投射平面とのなす角度である投射角度の入力を受け付けるステップと、上記入力された投射角度、および、定められた視点位置をもとに、上記投射平面を決定するステップとを備えるようにすることもできる。
【0011】
さらに、本発明では、上述の鳥瞰図描画方法を用いて鳥瞰図を表示する地図表示装置と、該地図表示装置により地図を表示するナビゲーションシステムとが提供される。
【0012】
【作用】
本発明の鳥瞰図表示装置およびナビゲーションシステムは、地図描画手段が座標変換手段を備え、この座標変換手段が透視変換を行うことにより、地図を鳥瞰図に変換して表示する。従って、本発明によれば、ユーザは、見やすく、地図内に表示される地点の位置関係が認識しやすい鳥瞰地図表示を得ることができる。本発明の鳥瞰図作成方法によれば、視点位置を任意に設定することができるため、ユーザのニーズに的確に応じることができる。
【0013】
なお、つぎの第1〜7の問題を解決する構成にすれば、さらに操作性、利便性のよいナビゲーションシステムを得ることができる。
【0014】
第1に、鳥瞰図表示におけるスクロール処理の処理速度が、平面表示のスクロール処理よりも遅い場合には、鳥瞰図表示で所定の地点を捜すようにスクロール処理を多用する場合、操作性が悪くなってしまうことがある。
【0015】
そこで、本発明は、平面地図表示と鳥瞰図表示とを任意に切り替えることができるようにすることが望ましい。このようにすれば、ユーザの要求に従って、平面図および鳥瞰図の両方を表示することができ、利便性が向上する。
【0016】
なお、このようにした場合には、平面地図表示と鳥瞰図表示との切り替えに際して、ユーザによる位置関係の把握が困難になるという第2の問題が生じることがある。これは、地図を見る視点が変化するため、ある同一地点が画面上に表示される位置が大きく変化するとともに、これまで表示されていなかった地点が表示されたり、あるいは表示されなくなったりするためである。
【0017】
そこで、本発明では、平面地図表示と鳥瞰図表示との切り替えを可能にする場合、鳥瞰図表示および平面地図表示の切り替えに際して、地図を投射する平面と地図データが含まれる平面のなす角度を時系列で徐々に増加ないし減少させることが望ましい。すなわち、本発明では、平面地図表示と鳥瞰図表示との変換において、鳥瞰図を得るための視点が滑らかに移動するようにすることが望ましい。このようにすれば、平面図と鳥瞰図との間の移行が滑らかに行われるため、平面地図に表示された地点と鳥瞰地図に表示された地点との相関関係を容易に認識できる。
【0018】
第3に、地図を鳥瞰図表示する場合は、透視変換のパラメータである視点位置が固定されてしまうと現在地の移動と共に画面に表示される現在位置のマーク表示する位置が移動してゆき、表示している地図領域を逸脱したときは現在位置のマークが表示されなくなってしまうという問題がある。
【0019】
そこで、本発明では、鳥瞰図を得るための視点を、常に現在位置からある一定方向、一定距離離れた位置に固定するようにすることができる。また、操作入力に従って、視点の高さを変更できるようにすることもできる。上述のように視点を固定すれば、常に画面のある一点に現在地が固定されるように鳥瞰図表示されるため、ユーザは現在地を容易に把握できるようになる。また、視点位置をユーザの所望の位置に設定することができるようにすれば、利便性が向上する。
【0020】
さらに、ある2地点を同一画面に表示しようとしたとき、従来の平面地図表示では2地点間の距離に応じ縮尺を更新すれば良かったが、地図の鳥瞰図表示では縮尺を更新しただけでは最適に地図が表示できないという第4の問題がある。
【0021】
そこで、本発明では、2地点(例えば、現在地と目的地)の位置の指定を受け付け、その2地点が画面上の定められた位置に表示されるように視点及び地図を投射する平面と地図データが含まれる平面のなす角度を決定し、その結果を用い鳥瞰図表示を実行するようにしてもよい。このようにすれば、当該2地点の位置的関係を容易に判断することができる。また、当該2地点の位置が変化した場合でも、常に同じ画面内に表示されるので、ユーザは複雑な操作をすることなく2地点の位置的関係を把握できる。
【0022】
また、本発明では、鳥瞰図表示に際して道路や線路などの線背景、川や緑地帯などの面背景、文字列を透視変換し描画する。しかし、文字列を透視変換すると、視点遠方の文字の形状が小さく、かつゆがみ、一方視点近傍の文字が拡大されてしまい文字列が読みにくくなることがあるという第5の問題がある。
【0023】
そこで、本発明の座標変換手段は、文字イメージについては透視変換を行わないようにすることが望ましい。このようにすれば、鳥瞰図に含まれる文字が、同じ大きさに正立して表示されるため、文字列の判読が容易になる。
【0024】
また、多くの文字データを表示する場合には、文字列が重なりあって表示されることになる。特に、鳥瞰図では、視点遠方は、視点からの俯角が小さいため、縮小率が大きくなり、単位面積当たりに表示される文字データが多くなる性質がある。従って、鳥瞰図では、視点遠方で文字データと文字データの重なりが発生しやすくなるという第6の問題がある。
【0025】
そこで、本発明の描画判定手段は、地図データ中の文字データ位置の視点からの距離が近いほど、該文字データの表示の優先順位を高くすることが望ましい。このようにすれば、優先順位の高いものを、低いものの上に重ねて表示することにより、文字列の欠損を防止して、判読を容易にすることができる。
【0026】
なお、現在地を底辺近傍、または視点近傍にする場合、この優先順位の基準として、表示される高さや、視点からの距離を基準にすることが好ましい。重なって表示される2以上の文字列がある場合、表示される高さ(表示画面における底辺からの高さ)が低い(あるいは視点からの距離が近い)ほど優先して(すなわち、他の文字列に覆われないように、他の文字列の上に重ねて)表示するようにすれば、現在地近傍の文字データが、他の表示に覆われるて欠損することなく表示される。そこで、このようにすれば、ユーザが希望するであろう現在地に近い文字情報の欠損を防止でき、その文字列の判読が容易になる。
【0027】
上述のように、鳥瞰図表示を行うと、視点から遠い領域(俯角の小さい領域)では、単位面積当たりに描画される線データ、面背景データ、および文字データが大量になる。従って、これらのデータのうち文字データを、他のデータの上に重ねて描画する場合には、視点遠方領域では、文字データによって線データや面背景データが覆い隠されてしまうため、視点遠方の道路等の形状を読みとることが困難になることがあるという第7の問題がある。
【0028】
そこで、本発明の描画判定手段は、地図を透視変換した結果得られる画面上での文字列を描画する高さが、所定の値より高い場合は、描画対象から削除することが望ましい。あるいは、描画判定手段は、視点から所定の距離以遠の位置に定義された文字列について、描画対象から削除するようにしてもよい。このように、所定の高さ以上または所定の距離以遠の領域、すなわち、鳥瞰図表示した場合に、俯角が小さくなるため単位面積当たりに描画されるデータ量が非常に多くなる領域については文字列を描画しないようにすることにより、この領域の道路表示や面背景表示等が文字列表示により覆われなくなる。従って、このようにすれば、鳥瞰図表示をしても、視点遠方の道路等の認識が阻害されにくいという利点がある。
【0029】
【実施例】
以下、図面を用いて、本発明の一実施例について説明する。
本実施例のナビゲーションシステムに搭載された鳥瞰地図表示装置により表示される鳥瞰地図の例を図1に示す。本実施例の鳥瞰地図表示装置は、2次元地図データ(図1では101として図示)の投影図として、特定位置から鳥瞰した状態を示す鳥瞰図102を作成し、ディスプレイ2の表示画面に表示する。なお、図1に示した鳥瞰図102において、路線104は、径路を示すために強調表示されている(図1では線の幅を太くすることにより強調を表現しているが、点滅や変色により強調してもよい)。マーク105は現在位置を示すための記号である。また、図1において、矢印は、2次元地図データ101から鳥瞰図102への投影関係を表している。
【0030】
本実施例の移動体ナビゲーションシステムの外観斜視図を図17に示す。本実施例のナビゲーションシステムは、筐体69に収納されており、筐体69には、ディスプレイ2の表示画面と、スクロールキー66と、縮尺変更キー67と、投射角度変更キー68とディスプレイ2の表示画面上に設けられたタッチパネル70などを備える。
【0031】
スクロールキー66は、表示画面に表示される画像のスクロール指示を受け付けるためのキーであり、上下左右へのスクロール指示をそれぞれ受け付けるための4つの方向指定キー660を備える。縮尺変更キー67は、表示画面に表示される地図の縮尺の変更を受け付けるためのキーであり、拡大、縮小をそれぞれ受け付けるための2つの縮尺指定キー67a,67bを備える。投射角度変更キー68は、表示画面に表示される鳥瞰図の投射面の角度の指定を受け付けるためのキーであり、投射角度の上昇、下降をそれぞれ受け付けるための2つの角度指定キー68a,68bを備える。また、タッチパネル70は、該タッチパネル70表面への接触を検出して、接触された位置を出力する入力手段である。
【0032】
本実施例の移動体ナビゲーションシステムは、図2に示すように、演算処理部1と、該演算処理部1に信号線S1を介して接続されたディスプレイ2と、該演算処理部1に信号線S2を介して接続された地図記憶装置3と、該演算処理部1に信号線S3を介して接続された音声入出力装置4と、該演算処理部1に信号線S4を介して接続された入力装置5と、該演算処理部1に信号線S5を介して接続された車輪速センサ6と、該演算処理部1に信号線S6を介して接続された地磁気センサ7と、該演算処理部1に信号線S7を介して接続されたジャイロ8と、該演算処理部1に信号線S8を介して接続されたGPS(Global Positioning System)受信装置9と、該演算処理部1に信号線S9を介して接続された交通情報受信装置10とを備える。なお、各信号線S1〜S9は、信号を伝達することができれば、有線であると、無線であるとを問わないが、本実施例では有線回線が用いられている。
【0033】
演算処理部1は、各種センサ6〜9から出力される情報を基に現在位置を検出し、得られた現在位置情報をもとに必要な地図情報を地図記憶装置3から読み込むと共に、地図データをグラフィックス展開し、そこに現在地マークを重ね表示したり、ユーザから指示された目的地と現在地を結ぶ最適な道路を選択し、音声やグラフィック表示を用いてユーザに知らせる、等といった様々な処理を行う中心的なユニットである。
【0034】
ディスプレイ2は、演算処理部1で生成されたグラフィックス情報を表示するユニットで、CRTや液晶ディスプレイで構成される。また、通常演算処理部とディスプレイとの間S1は、通常のシステムと同様に、本実施例でも、RGB(Red Green Blue)信号やNTSC(National Television System Committee)信号で接続する。
【0035】
地図記憶装置3は、CD−ROM(Compact Disk - Read Only Memory)やIC(Integrated Circuit)カードといった大容量記憶媒体を備え、演算処理部1の要求に応じて、該大容量記憶媒体に保持されたデータを読み出してこれを演算処理部1に通知する読み出し処理や、演算処理部1より通知されたデータを該大容量記憶媒体に格納する書き込み処理を行う。
【0036】
また、音声入出力装置4は、演算処理部1で生成したユーザへのメッセージを変換し、音声出力を行うと共に、音声入力を受け付けて、その内容を認識し、演算処理部1に転送する処理を行う。
【0037】
入力装置5は、外部からの指示入力を受け付けるユニットであり、本実施例では、上述のスクロールキー66、縮尺変更キー67、投射角度変更キー68、およびタッチパネル70を備える。なお、入力装置5の構成はこれに限られず、ジョイスティック、キーボードやマウス、ペン入力装置など、他の入力手段を用いてもよい。
【0038】
また、移動体ナビゲーションで位置を検出するために使用するセンサとして、本実施例のナビゲーションシステムは、車輪の円周と計測される車輪の回転数の積から距離を測定し、さらに対となる車輪の回転数の差から移動体が曲がった角度を計測する車輪速センサ6、地球が保持している磁場を検知し移動体が向いている方位を測定する地磁気センサ7、移動体が回転した角度を測定し、光ファイバジャイロ、振動ジャイロなどで構成されるジャイロ8、および、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率を3個以上の衛星に対して測定することで移動体の現在位置、進行方向及び進行方位を測定するGPS受信装置9を備える。
【0039】
さらに、本実施例のナビゲーションシステムは、道路の渋滞、工事、通行止め情報や駐車場情報といった交通情報を発するビーコン送信機やFM放送からの信号を受けるため、交通情報受信装置10を備える。
【0040】
上述した演算処理部1のハードウェア構成を、図3に示す。演算処理部1は、数値演算および各デバイス22〜31の制御といった処理を実行するCPU(Central Processing Unit)21と、地図や演算データを保持するためのRAM(Random Access Memory)22と、プログラムを保持するためのROM(Read Only Memory)23と、高速にメモリ−メモリ間及びメモリ−各デバイス間のデータ転送を実行するDMA(Direct Memory Access)24と、ベクトルデータをイメージに展開するといったグラフィックス描画を高速に実行し、かつ表示制御を行う描画コントローラ25と、グラフィックスイメージデータを蓄えるVRAM(Video Random Access Memory)26と、イメージデータをRGB信号に変換するカラーパレット27と、アナログ信号をデジタル信号に変換するA/D(Analog/Digital)変換器28と、シリアル信号をバスに同期したパラレル信号に変換するSCI(Serial Communication Interface)29と、パラレル信号と同期をとりバス上にのせるI/O(Input/Output)装置30と、パルス信号を積分するカウンタ31とを備える。これらのデバイス21〜31は、相互にバスで接続されている。
【0041】
つぎに、図4を用いて演算処理部1の機能構成について説明する。演算処理部1は、ユーザ操作解析手段41と、径路計算手段42と、径路誘導手段43と、地図描画手段44と、現在位置演算手段45と、マップマッチ処理手段46と、データ読み込み処理手段47と、メニュー描画手段48と、グラフィックス処理手段49とを備える。これらの各手段41〜49は、ROM23に保持されたインストラクションをCPU21が実行することにより実現される。
【0042】
現在位置演算手段45は、車輪速センサ6で計測される距離パルスデータ、およびジャイロ8で計測される角加速度データを各々積分した結果得られる距離データ及び角度データを用い、そのデータを時間軸で積分していくことにより、初期位置(X,Y)をもとに移動体走行後の位置(X’,Y’)を演算する処理を行う。ここで、現在位置演算手段45は、移動体の回転した角度と進む方位の関係を一致させるため、地磁気センサ7から得られる方位データとジャイロから得られる角度データから進む方向の絶対方位を補正する。上述のようにセンサから得られたデータを積分してゆくとセンサの誤差が蓄積する。そこで、現在位置演算手段45は、あるあらかじめ定められた時間周期(本実施例では1秒ごと)で、GPS受信装置9より得られる位置データをもとに、蓄積された誤差をキャンセルするという補正処理を施し、現在位置情報としてこの補正後のデータを出力する。
【0043】
このようにして得られた現在位置情報には、依然として、センサに起因する微小な誤差が含まれている。そこで、さらに位置精度を高めるため、本実施例のナビゲーションシステムでは、マップマッチ処理手段46により、マップマッチ処理を行う。これは、データ読み込み処理手段47によって読み込まれた現在地周辺の地図に含まれる道路データと、現在位置演算手段45から得られた走行軌跡を互いに照らし合わせ、形状の相関が最も高い道路に現在地を合わせ込むという処理である。マップマッチ処理を施すことで現在地は多くの場合走行道路と一致するようになるため精度よく現在位置情報を出力することができる。
【0044】
一方、ユーザ操作解析手段41は、入力装置5を介して受け付けられた操作指示の要求内容を解析し、対応する処理が実行されるよう各ユニット42〜48を制御する。例えば、目的地までの経路誘導要求が入力されたときは、目的地を設定するため地図を表示する処理を地図描画手段44に要求した後、現在地から目的地までの経路を演算する処理を経路計算手段42に要求し、そして経路誘導手段43に経路誘導情報をユーザに提示する処理を要求するように動作する。
【0045】
経路計算手段42は、ダイキストラ法等を用い指定された2地点間の結ぶノードを検索し、最も優先順位の高い径路を求める。径路計算手段42は、優先順位の基準を複数備え、径路の決定に、操作指示により指定された基準を用いる。本実施例では、操作指示に応じて、2地点間の距離が最短になる経路、最も短い時間で到達可能な経路、あるいは最もコストが安くなる経路等が求められる。
【0046】
経路誘導手段43は、経路計算手段42で求められた誘導経路のリンク情報と現在位置演算手段45及びマップマッチ処理手段46で求められる現在位置情報を比較し、交差点等を通過する前に直進すべきか、右左折すべきかなどの方向指示情報を音声入出力装置4に通知し、音声として出力させたり、ディスプレイ2の表示画面に表示された地図上に進行すべき方向を描画したりする。
【0047】
データ読み込み処理手段47は、要求された領域の地図データを地図記憶装置3から読み込み準備するように動作する。また地図描画手段44は、表示の指定がされた地点周辺の地図データをデータ読み込み処理手段47から受け取り、指定された縮尺で、指定された方角を上方向に、指定されたオブジェクトを描画するコマンドをグラフィック処理手段49に転送するように動作する。
【0048】
一方、メニュー描画手段48は、ユーザ操作解析手段41から出力される命令を受け、要求される様々な種類のメニューを描画するコマンドをグラフィック処理手段49に転送するように動作する。
【0049】
グラフィックス処理手段49は地図描画手段44およびメニュー描画手段48で生成される描画コマンドを受け、VRAM26にイメージを展開する。
【0050】
つぎに、地図描画手段44の機能を図5を用いて説明する。地図描画手段44は、初期データクリップ手段61と、座標変換手段62と、描画判定手段63と、データクリップ手段64と、描画命令発行手段65とを備える。
【0051】
初期データクリップ手段61は、データ読み込み処理手段47によって地図記憶装置3より取り込まれた地図データの各メッシュから、以後の処理に必要な領域に関する道路データ、面及び線背景データ、文字データをクリップ処理で選択して、その結果を座標変換手段62に通知する。本実施例では、初期データクリップ手段61は、0.5秒周期で起動される。また、ユーザ操作解析手段41からの操作指示通知によっても起動される。
【0052】
ここで使用するクリップ処理アルゴリズムとして、道路データや線データに関してはCohen−Sutherland線クリップアルゴリズム、面データに関してはSutherland−Hodgmanポリゴンクリップアルゴリズム等がある(Foley, van Dam, Feiner, Hughes : Computer Graphics : Addison-Wesley Publishing Company pp.111-127)。この処理により、以後の座標変換や描画処理をすべきデータ量を削減することが可能になるため高速化が見込まれる。
【0053】
座標変換手段62は、クリップ処理により得られた地図データの拡大縮小、回転、投影処理など、地図データの各座標値を変換する処理を行う。座標変換手段62は、初期データクリップ手段61またはユーザ操作解析手段41からの通知に応じて起動される。
【0054】
描画判定手段63は、座標変換手段62で得られた地図データで実際に描画する必要のあるデータを選択するように働く。例えば、描画判定手段63は、縮尺が大きくなったときには実質的に描画するデータ量が増えるため、細い道路や省略可能な地名などを削除するように動作する。これにより、描画のための処理速度が極端に遅くなるのを防ぐことができる。描画判定手段63は、座標変換手段62またはユーザ操作解析手段41からの通知に応じて起動される。
【0055】
データクリップ手段64は、描画判定手段63によって得られる地図データから、描画領域に関する地図データをクリップ処理により選択するように動作する。ここで使用するクリップ処理アルゴリズムは初期データクリップ手段と同じアルゴリズムを使用可能である。データクリップ手段64は、描画判定手段63またはユーザ操作解析手段41からの通知に応じて起動される。なお、データクリップ手段64は省略してもよい。
【0056】
描画命令発行手段65は、データクリップ手段64により得られた地図データに含まれる道路や面および線、背景データ、文字データなどを指定された色や模様で描画するため、ライン、ポリゴン、文字等を描画するコマンドや色、模様を設定するコマンドをグラフィックス処理手段49に発行するように動作する。描画命令発行手段65は、データクリップ手段64からの通知に応じて起動される。
【0057】
本実施例では、初期データクリップ手段61は、0.5秒ごとに起動され、クリップ処理の結果得られたデータを座標変換手段62に通知する。従って、本実施例では、外部からの操作指示の場合を除いて、0.5秒ごとに描画が行われることになる。
【0058】
つぎに、鳥瞰図表示の概要を図6を用いて説明する。
印刷された地図帳や従来のナビゲーションシステムでは、地図を表示するとき、地上から無限遠点から見るという平面地図表示で表現している。平面地図表示では、同一画面内はその地点によらず縮尺が一定になるという利点があるため距離感を掴みやすい。しかし、ある2地点間を同一画面に表示しようとすると、地図を表示する縮尺が最適になるように調整するという操作が必要になるとともに、その2地点間の距離が離れていると一度に表示可能な情報量はディスプレイの大きさや精細度によって制約されるため限られた情報しか表示できないという欠点がある。この問題を解決する手段として鳥瞰図表示がある。
【0059】
鳥瞰図表示は、平面Aの2次元的ないし3次元的な地図情報3を、平面Aとある角度θをなす平面Bに投射して投影図情報4を得るという透視変換により実現される。図6に示した概念図では、座標(Tx,Ty,Tz)の点55を視点として、平面A(四角形51として図示)上の矩形で表現された地図53(点a,点b,点c,点dを頂点とする四角形で表されている)を、平面Aと角度θをなす平面B(四角形52として図示)に投影して投影図54(点a’,点b’,点c’,点d’を頂点とする四角形で表されている)を得る場合が図示されている。ここで、地図53の点a,点b,点c,点dは、それぞれ点a’,点b’,点c’,点d’に投影されている。なお、本明細書においては、投影処理において視点座標系の原点である視点55を、単に「視点」と呼ぶ。本明細書では、単に「視点」という場合、ユーザの目の位置としての「視点」は意味しない。
【0060】
鳥瞰図表現を行うと、視点55に近い部分(例えば直線ab)の情報は拡大され、視点から遠い部分(例えば直線cd)の情報は縮小されて表現される。これにより、ある2地点間を同一画面に表示する場合には、より詳細な情報を得たい地点を視点の近くに、もう一方を視点の遠くとし、2地点を同一画面に表示することで、互いの位置間隔をわかりやすく表現できると共に、視点の近くの情報についてはより大量の情報をユーザに提供することが可能になる。
【0061】
本実施例では、鳥瞰図表示に使用する地図情報に2次元的な地図データを使用することが可能なので、従来のナビゲーションシステムにこのような透視変換を行う手段を付加することで、新たな地図データ量を加えることなく鳥瞰図表示を実現することができる。本実施例では、座標変換手段62により、この透視変換が実行される。なお、鳥瞰図表示の実現にあたっては、後述するような、様々な工夫を行うことが望ましい。
【0062】
まず、基本的な鳥瞰図表示の実現方法について図7を用いて説明する。
最初に、座標変換手段62は、視点の位置を定め、該視点位置からどの方角を見るか、そして、投影面の角度(図6では角度θとして図示)を決定する(ステップ1)。これにより、鳥瞰図表示すべき領域が決定される。矩形の表示画面に鳥瞰図を表示する場合、視点近傍の領域は狭く、視点遠方の領域は広くなる。そこで、最終的に描画される地図データは、地図メッシュ71内の台形領域72となる。
【0063】
次に、座標変換手段62は、初期データクリップ手段61を用い、鳥瞰図表示すべき領域を含む地図メッシュデータ71から、実際に描画する台形領域72に外接する矩形領域73の地図データを抽出する(ステップ2)。
【0064】
次に、座標変換手段62は、抽出されたデータを拡大ないし縮小した後、アフィン変換をかけ、台形が正立するようにしたのち、さらに透視変換により地図データの各座標値をデータ変換する(ステップ3)。このときの、アフィン変換のによる座標変換は、平面Aと平面Bがなす角度をθ、変換前の地図データ座標値を(x,y)、変換後の地図データ座標値を(x’,y’)とすると、つぎの(数1)により表現される。
【0065】

【数1】

Figure 0003660644
【0066】
また、このときの透視処理における座標変換は、視点の位置座標を(Tx,Ty,Tz)、平面Aと平面Bがなす角度をθ、変換前の地図データ座標値を(x,y)、変換後の地図データ座標値を(x’,y’)とすると、つぎの(数2)および(数3)により表現される。
【0067】

【数2】
Figure 0003660644
【0068】

【数3】
Figure 0003660644
【0069】
ステップ3において、ステップ2の時点では台形72であった描画対象領域は、矩形領域74に変換され、台形72に外接する矩形73は、矩形に外接する四角形75に座標変換される。ここで、四角形75内の領域のうち、描画対象領域74外の部分は描画する必要がない。そこで、座標変換手段62は、データクリップ手段64を用いて、描画対象の矩形領域74外の領域をクリップ処理して除く(ステップ4)。
【0070】
このようにして得られた地図データは、描画命令発行手段65に通知される。描画命令発行手段65は、通知された地図データを用い、描画コマンドを生成してグラフィックス処理手段49に描画データを作成させる。グラフィックス処理手段49は、描画データを作成してVRAM26へ格納し、ディスプレイ2に表示を指示する。ディスプレイ2は、VRAM26に保持された描画データを表示画面に表示する。これにより、図1に示すような鳥瞰地図102がディスプレイ2の表示画面に表示される。
【0071】
ところで、鳥瞰図表示を用いれば、任意の2地点間の方位や位置関係の認識が容易になる。さらに、鳥瞰図表示は、ある地点周辺については詳細な情報を提供し、他の地点周辺については概略の情報を提供する場合に適している。このように、特定の地点周辺について詳細情報または概略情報を提供する場合、その特定の地点の座標をあらかじめ定めておいてもよく、あるいは、あらかじめ定められた条件を満たす座標を求めることによりその位置を定めてもよく、該地点の位置の入力を受け付けてもよい。
【0072】
ナビゲーションシステムでは、一方の地点に現在地が選ばれる場合が多い。この現在地の位置情報は、現在位置演算手段45ないしマップマッチ処理手段46から得られる。そこで、入力装置5を介して、詳細情報表示地点および概略情報表示地点のいずれかに対して現在地が指示された場合、地図描画手段44は、現在位置演算手段45ないしマップマッチ処理手段46から得られる現在地の座標を用いる。
【0073】
しかし、表示画面に表示された地図上の位置の指定を受け付けて、詳細情報表示地点および概略情報表示地点のいずれかとする場合には、ユーザが詳細情報または概略情報を表示する地点を探すために、地図をスクロール表示しなければならないことが多い。しかし、鳥瞰図表示は、表示する領域を変更する度に全面再描画する必要があるため、スクロール速度が遅い。従って、スクロール表示を多様する操作は、使い勝手が悪いという問題がある。
【0074】
この問題を解決するため、本実施例では、座標変換において、図8に示す処理を行う。
【0075】
まず、座標変換手段62は、地図の拡大または縮小が必要であれば(ステップ1000)、処理対象の領域について、拡大または縮小演算を行い(ステップ1010)、地図の回転が必要であれば(ステップ1020)、回転変換処理(ステップ1030)を実行する。なお、回転変換処理(ステップ1030)には、回転角度演算(ステップ1031)とアフィン変換演算(ステップ1032)とが含まれる。
【0076】
つぎに、座標変換手段62は、鳥瞰図表示をするか否か判定する(ステップ1040)。ここで、例えば、入力装置5を介して、任意の地点を地図中から探し出す操作の指示が入力された場合や、入力装置5を介して、平面図の表示の指示が入力された場合は、座標変換手段62は、鳥瞰図表示判定(ステップ1040)において、透視変換を行わないと判定し、透視変換処理(ステップ1050)を実行せずに、座標変換処理を終了する。この場合、透視変換処理が実行されないため、ディスプレイ2の表示画面には、平面地図が表示される。
【0077】
本実施例によれば、任意の地点を地図中から探し出す操作においては、地図が鳥瞰図ではなく平面地図で表示されるため、素早く目標とする地点を探し出すことができる。
【0078】
また、例えば、入力装置5を介して鳥瞰図の表示指示が入力された場合や、平面図表示中に、入力装置5を介して任意の地点が目的地として指示された場合などには、それらの指示をユーザ操作解析手段41を介して受け付けた座標変換手段62は、ステップ1040における鳥瞰図表示判定において、透視変換を要すると判定し、透視変換処理(ステップ1050)を実行する。
【0079】
この透視変換処理(ステップ1050)には、投射角度の演算(ステップ1051)と、投射面の位置演算(ステップ1052)と、透視変換演算(ステップ1053)とが含まれている。これにより、描画命令発行手段65に通知される地図データは、鳥瞰図に変換されたものになるので、グラフィックス処理手段49が作成しVRAM26へ格納する描画データも、鳥瞰図のものになる。従って、ディスプレイ2に表示される地図も、平面図から鳥瞰図に切り替わる。
【0080】
このように、鳥瞰図から平面図へ、平面図から鳥瞰図へ、任意に切り替えることができるため、本実施例によれば、わかりやすい地図表現を提供することができる。
【0081】
また、上記処理に於いて発生する平面地図から鳥瞰図への画面切り替え、または入力装置5などを介しユーザから平面地図表示から鳥瞰図表示への切り替え、ないし鳥瞰図から平面地図への切り替え指示された場合に、平面地図と鳥瞰図を直ちに切り替えてしまうと画面内の地図表現が大きく変わるため、ユーザは地図の認識が困難になってしまう。そこで、平面図と鳥瞰図との間の移行が徐々に行われるようにすることが望ましい。
【0082】
本実施例では、平面地図から鳥瞰図に画面切り替えが発生したときには、透視変換処理(ステップ1050)における投射角度θ演算(ステップ1051)において、投射角度θを0°から経時的に(本実施例では0.5秒ごとに)徐々に(本実施例では5°ずつ)増加させ、目的の投射角度になった時点で増加を中止するように動作させる。このとき増加する投射角度単位は一定値にすると良い。
【0083】
このように、経時的に投射角度を増加させ、透視変換演算(ステップ1053)することで平面地図から鳥瞰図へ滑らかに変化するため、ユーザは平面地図と鳥瞰図に表示された地点の位置関係を容易に把握することができるようになる。なお、鳥瞰図から平面地図に切り替える場合にも最初に設定されていた投射角度から0度まで時系列的に徐々に減少させることで、上述同様の効果を得ることができる。
【0084】
つぎに、鳥瞰図表示における透視変換パラメータである地図と投射面とのなす角θ(投射角)、および、地図平面が含まれる物体座標系から見た投射面が含まれる視点座標系の原点座標(Tx,Ty,Tz)、即ち投射面の位置の決定方法について図8、図9を用いて説明する。
【0085】
ナビゲーションシステムでは、一般に、ユーザが現在走行している地点、即ち現在地の周辺を詳細に表示することが望まれている。そこで、まず、図9の(c)に示すように、現在地が画面中央下側に位置するように鳥瞰図表示する場合について説明する。この場合、画面上には現在地から見た進行方向前方と、これまで走行してきた道路地図が鳥瞰図表示される。なお、図9(a)に地図メッシュ91における視界(描画表示される範囲)92を示し、図9(b)に鳥瞰図を得るための視点位置および投射角度を示す。また、図9(c)に、得られる鳥瞰図表示における現在地の位置と進行方向を示す。なお、図9において点線の矢印は進行方向を示す。
【0086】
図9(c)のような鳥瞰図表示を実現するため、座標変換手段62は、まず、必要な拡大/縮小処理を実行したのち(ステップ1000および1010)、回転を要すると判断して(ステップ1020)、図9(a)に示すように進行方向ベクトルと地図メッシュの底辺がなす角度φを求め(ステップ1031)、さらに描画する地図データについて角度φだけ回転するというアフィン変換を各座標値に対して行う(ステップ1032)。
【0087】
ステップ1040では鳥瞰図表示すると判定されるので、座標変換手段62は、投射角度θおよび視点位置を演算する処理を実行する(ステップ1051および1052)。
【0088】
投射角度θは、例えば、0°の近傍に設定すれば、視点近傍と視点遠方の縮尺の差が小さくなり、90°の近傍に設定すれば、視点近傍と視点遠方の縮尺の差が大きくなる。本実施例では、通常、投射角度θを30°〜45°程度に設定する。
【0089】
なお、本実施例では、座標変換手段62は、ユーザ操作解析手段41から通知された角度変更方向指示(投射角度変更キー68により入力されたもの)に応じて、投射角度θを変更する。すなわち、ユーザ操作解析手段41は、上昇を示す角度指示キー68aの押下を検出すると、投射角度の上昇指示を座標変換手段62に通知する。また、押下が、この投射角度上昇指示の通知から0.5秒継続されたことを検出するたびに、座標変換手段62に投射角度の上昇指示を通知する。この上昇指示の通知を受けた座標変換手段62は、投射角度θを5°増加させる(すなわち、投射角度を5°上昇させる)。また、投射角度の下降指示についても、同様であり、下降を示す角度指示キー68bの押下および0.5秒間の継続のたびに、ユーザ操作解析手段41は、投射角度下降指示を座標変換手段62に通知し、これを受けた座標変換手段62は、投射角度θを5°減少させる(すなわち、投射角度を5°下降させる)。
【0090】
このようにすることで、本実施例では、鳥瞰図地図表示で表示すべき地図領域をユーザが任意に設定できる。このようにして、投射角度の増加が指示された場合は、投射角度θが増えるためより遠方の地図が表示される。また投射角度を減少すると操作された場合は投射角度θが減るために現在地近傍の地図が表示されるようになる。
【0091】
つぎに、座標変換手段62は、投射面の位置(Tx,Ty,Tz)を、現在地(x,y,z)から投射面の位置(Tx,Ty,Tz)を引いた差分値(Δx,Δy,Δz)が常に一定値になるように求める(ステップ1052)。また、座標変換手段62は、絶対量としては、Δxは0を、Δzには地図を表示する縮尺に合わせ小さな縮尺で表示するときはΔzに小さな値を、大きな縮尺で表示するときはΔzに大きな値を設定する。通常は、平面図の縮尺と鳥瞰図表示の中央付近のある一点の縮尺が一致するようにΔzを選択すると良い。
【0092】
また、地図の縮尺はユーザの要求に応じ変更できることが望まれる。そこで、本実施例では、座標変換手段62は、ユーザ操作解析手段41から通知された縮尺変更指示(縮尺変更キー67により入力されたもの)に応じて、表示される地図の縮尺を変更する。すなわち、ユーザ操作解析手段41は、拡大指示キー67aの押下を検出すると、拡大指示を座標変換手段62に通知する。また、押下が、この拡大指示の通知から0.5秒継続されたことを検出するたびに、座標変換手段62に拡大指示を通知する。この拡大指示の通知を受けた座標変換手段62は、ステップ1052において、Δzを所定の値だけ増加させる。縮小指示についても、同様であり、縮小指示キー67bの押下および0.5秒間の継続のたびに、ユーザ操作解析手段41は、縮小指示を座標変換手段62に通知し、これを受けた座標変換手段62は、ステップ1052において、Δzを所定の値だけ減少させる。
【0093】
本実施例では、Δyは、図9に示すように負の値を採ることもできるが、図15に示すように正の値を取ることもできる。本実施例では、視点位置が、現在地の前方及び後方のどちらになった場合でも、何ら問題なく鳥瞰図表示ができる。なお、図15は、図9に示したものと同様の範囲の異なる視点の鳥瞰図を得る場合の説明図である。図15(a)に地図メッシュ151における視界(描画表示される範囲)152を示し、図15(b)に鳥瞰図を得るための視点位置および投射角度を示す。また、図15(c)に、得られる鳥瞰図表示における現在地の位置と進行方向を示す。なお、図15において点線の矢印は進行方向を示す。
【0094】
本実施例では、座標変換手段62は、ユーザ操作解析手段41から通知された視点位置(タッチセンサ70により入力されたもの)に応じて、視点の位置(具体的にはΔy)を決定する。すなわち、ユーザ操作解析手段41は、タッチセンサ70への接触を検出すると、接触位置を座標変換手段62に通知する。この位置情報の通知を受けた座標変換手段62は、ステップ1052において、視点が通知された位置になるようにΔyを設定する。
【0095】
上述のように、本実施例では、ユーザの指示に応じて、Δyを正〜負の広い範囲の任意の値に設定できる。従って、本実施例によれば、詳細に表示される位置を柔軟性に設定することができる。
【0096】
最後に、座標変換手段62は、このようにして得られた投射角度θおよび投射面の位置(Tx,Ty,Tz)を用いて地図データの各座標値を透視変換(ステップ1053)する。得られた地図データを用いてグラフィックス処理手段49が描画処理することで、図9(c)および図15(c)に示す地図の鳥瞰図表示において、進行方向が常に上方向になり、かつ現在地が画面上の同一地点に表示されるようになる。
【0097】
ナビゲーションシステムでは、ユーザが現在走行している地点、即ち現在地周辺を詳細に表示することが望まれている。そこで、上述のように、本実施例のナビゲーションシステムでは、図9(c)、図10(c)、図15(c)および図16(c)に示すように、現在地を画面中央下側に表示する。
【0098】
本実施例のナビゲーションシステムでは、タッチパネル70への接触を介して、目的地の指定を受け付けることができる。本実施例のナビゲーションシステムは、目的地が指定されると、その目的地が視野(表示画面に描画される範囲)に含まれるように描画する。この際、座標変換手段62は、上述のように現在地が画面中央下側になるように、さらに、目的地が画面中央上側になるように(図10(c)および図16(c)に図示)、回転角度φを定める。
【0099】
この場合の鳥瞰図表示方法について図8、図10、図16を用いて説明する。なお、図10は、現在地と目的地とが両方同一画面(視野)に描画されるような鳥瞰図を得る場合の説明図であり、図16は、図10に示したものと同様の範囲の異なる視点の鳥瞰図を得る場合の説明図である。図10(a)および図16(a)に地図メッシュ161における視界(描画表示される範囲)162を示し、図10(b)および図16(b)に鳥瞰図を得るための視点位置および投射角度を示す。また、図10(c)および図16(c)に、得られる鳥瞰図表示における現在地と目的地の位置を示す。図10および図16における点線の矢印は、目的地の方向を表す。
【0100】
なお、ここでは、画面中央下側を現在地、画面中央上側を目的地として表示する場合を例に説明するが、任意の二点の指定入力を受け付けて、該二点の一方を画面中央下側に、他方を画面中央上側に表示する場合も、同様にして処理される。
【0101】
図10(c)、図16(c)のような鳥瞰図表示を実現するため、座標変換手段62は、ステップ1031において、図10(a)および図16(a)に示すように現在地と目的地を結ぶ線分に垂直な線と地図メッシュの底辺がなす角度φを求め、ステップ1032において、描画する地図データの各座標値を角度φだけアフィン変換する。
【0102】
ステップ1040では鳥瞰図表示すると判定されるので、つぎに、座標変換手段62は、投射角度θおよび視点位置を演算する処理に移る(ステップ1051および1052)。上述のように、投射角度θの初期値は30〜40°のあらかじめ定められた値であり、投射角度変更キー68による入力に応じて変更される。また、投射面の初期位置も、上述のように現在地の座標から投射面の位置座標を引いた差分値があらかじめ定められた値になる用に決定され、縮尺指定キー67による入力に応じて変更される。また、座標の回転には、上記(数2)および(数3)に示した変換式が用いられ、アフィン変換には、上記(数1)に示した変換式が用いられる。なお、投射面の位置を示すパラメータTy及びTzは、Txにある適当な値、例えば0を代入し、現在地及び目的地の位置座標及び表示する位置を代入し、連立1次方程式を解くことで求められる。
【0103】
つぎに、座標変換手段62は、透視変換演算処理(ステップ1053)を実行する。すなわち、座標変換手段62は、上述のようにして得られた投射角度θおよび投射面の位置を用い、地図データの各座標値を透視変換する。
【0104】
これにより、得られた地図データを用いてグラフィックス処理手段49が描画処理することで、現在地及び目的地を同一画面に表示することが可能になる。また、これらの処理を現在地が変わる度に実行すれば、経時的に現在地が変化しても、現在地と目的地が同一画面の同一位置に表示される。なお、鳥瞰図表示中は常にステップ1040における判定において透視変換処理が必要と判断されるようにすれば、常に、現在地の経時的変化に対応して画面表示が変更されることになる。また、ステップ1040における判定において、現在地があらかじめ定められた距離以上に移動した場合のみ、透視変換処理が必要であると判断するようにすれば、現在地が一定距離移動するまでは、同じ鳥瞰地図上で現在地を示すマーク105のみが移動し、現在地が一定距離移動して目的地に近づくと、地図の表示が拡大されたものに変化するようになる。
【0105】
上記処理を現在地が変わる度に実行し、かつ画面上に表示する現在地及び目的地の位置を固定することで、目的地に近づくにつれて地図が拡大表示されるようにすることもできる。
【0106】
また、現在地と目的地との距離が短くなるほど投射角度θを小さな値に変更してゆくことで、現在地と目的地との距離が離れている場合は鳥瞰図表示により互いの関係を理解しやすいように、そして現在地と目的地の距離が近づいた場合は平面図に近い表示にすることもできる。あるいは、逆に、現在地と目的地の距離が短くなるほど投射角度θを大きな値に変更してゆくことで、現在地と目的地との距離が離れている場合は全体の位置関係の把握が容易になるように、平面図を表示し、現在地と目的地との距離が近づくにつれて徐々に視点位置が上昇するように表示することで、距離感を把握しやすいようにしてもよい。
【0107】
つぎに、鳥瞰図表示における文字データの描画方法について説明する。まず、座標変換手段62の透視変換演算(ステップ1053)の詳細を、図11を用いて説明する。
【0108】
座標変換手段62は、まず、入力された地図データが面データか判定する(ステップ1100)。面データと判定すると、座標変換手段62は、投射角度θ演算(ステップ1051)および視点位置演算(ステップ1052)で求められたパラメータを用いて、与えられた面データの各ノード座標値を透視変換する(ステップ1101)。このノードの透視変換処理(ステップ1101)は、入力された全ノードに関する処理が終了するまで繰り返される(ステップ1102)。
【0109】
つぎに、座標変換手段62は、線データについても、面データ同様の処理を実行し、各ノードの座標値を透視変換する(ステップ1103〜1105)。
【0110】
線データに関する処理が終了すると、座標変換手段62は、入力された地図データが文字データか判定する(ステップ1106)。文字データと判定されると、透視変換手段62は、与えられた文字列の描画を開始する地点の座標値について、ステップ1051および1052で求められた投射角度θ及び視点位置座標値を用いて透視変換を行う(ステップ1107)。なお、本実施例では、文字イメージに関して透視変換を行わない。このステップ1107におけるノードの透視変換処理は、入力された全ノードに関する処理が終了するまで繰り返される(ステップ1108)。
【0111】
得られた透視変換結果を用いてグラフィックス描画すると、例えば、図1に示した地図103のような鳥瞰図が得られる。本実施例では、ステップ1107において、文字イメージの透視変換を行わないため、図1の地図103に示すように、文字は全て同じ大きさでかつ正立するように描画される。
【0112】
つぎに、描画判定手段63の処理について図12を用いて説明する。地図データに含まれる各データについて、描画するか否か判定する手段である。
【0113】
まず、描画判定手段63は、入力される地図データに面データが含まれるか判定する(ステップ1200)。面データが含まれると判定した場合、描画判定手段63は、あらかじめ定められた面データ描画判定処理を行う(ステップ1201)。ここで行われる面データ描画判定処理(ステップ1201)は、例えば、あらかじめ面データごとに定められた属性を判断し、必要とする所定の面データを選択する処理である。
【0114】
この面データに関する処理が終了すると、描画判定手段63は、次に、入力される地図データに道路や線背景などの線データが含まれるか判定する(ステップ1202)。線データが含まれると判定すると、描画判定手段63は、あらかじめ定められた線データ描画判定処理を行う(ステップ1203)。ここで行われる線データ描画判定処理(ステップ1203)は、例えば、あらかじめ線データごとに定められた属性を判断し、必要とする所定の線データを選択する処理である。
【0115】
この線データに関する処理も終了すると、描画判定手段63は、次に、入力された地図データに文字データが含まれるか判定する(ステップ1204)。文字データが含まれると判定すると、描画判定手段63は、まず、文字列の描画を開始する地点の座標値について、視点遠方から視点近傍の並びになるように並び替え処理を行う(ステップ1205)。
【0116】
次に、描画判定手段63は、並び替えられた各文字列の描画を開始する地点の高さyと、表示画面上のあらかじめ定められた高さhとの大小関係を比較する(ステップ1206)。なお、本実施例では、高さhは、表示画面の高さを1としたとき、底辺から2/3の高さであり、あらかじめ定めらた一定の値である。これは、通常、底辺からの高さが2/3以上の場合、俯角が非常に小さくなり、描画すべきノードの密度が非常に高くなってしまうからである。しかし、この基準値(高さh)は、視点の高さ等に応じて定められるようにしてもよい。
【0117】
また、文字列を描画するか否かの基準として、その高さではなく、視点からの距離を用いてもよい。例えば、視点と目的地との距離を1とするとき、視点からの距離が2/3以下である文字列のみを描画し、2/3より距離が長い文字列については、描画対象から削除するようにしてもよい。
【0118】
描画判定手段63は、位置判定の結果、画面上で文字列の描画を開始する地点の高さyが高さhより低ければ、その文字列を描画対象とし、高ければ、その文字列を描画対象文字列から削除する(ステップ1207)。このようにして、本実施例では、描画判定手段63により取捨選択された地図データを用いてグラフィックス処理手段49が描画することにより、鳥瞰図表示が繁雑になるのを防ぎ、すっきりと見やすい表示を得ることができる。
【0119】
なお、本実施例では、表示される高さのみを基準として、文字列の描画の有無を決定するが、文字列ごとに優先度をあらかじめ定めておき、表示される高さ(または視点からの距離)に応じて表示する文字列の優先度の範囲を定め、その範囲に含まれる優先度の付された文字列のみを描画するようにしてもよい。例えば、表示する文字列の優先度の上限は、高さに無関係に一定とし、表示する文字列の優先度の下限は、表示画面における高さに応じて高くなるようにすれば、表示画面の上辺に近い領域では、優先度の高い文字列のみが表示され、表示画面の底辺に近い領域では、優先度の高い文字列のみならず、優先度の低い文字列までも表示されることになる。そこで、現在位置を表示画面の底辺付近としている場合には、現在位置に近いほど詳細な文字情報を得ることができ、現在位置から遠ければ、重要な情報のみが表示されることになり、利便性が高い。
【0120】
また、文字列ごとにあらかじめ属性(表示文字の字体、文字列の意味内容等)が定められている場合には、上記優先度の代わりに、この属性を用い、領域ごとにあらかじめ定められた属性の文字のみを表示するようにしてもよい。
【0121】
なお、目的地としてあらかじめ定められた地点に文字列が定義されていれば、該文字列のみは表示するようにしてもよい。
【0122】
上述したステップ1205〜1207は、省略することもできるが、実行することが望ましい。これらのステップの効果を、図13および図14を用いて説明する。なお、図13(a)は、ステップ1205〜1207の並び替え処理および描画文字列選択処理を行わずに描画した場合に得られる鳥瞰図である。図13(b)および図14()は、ステップ1205の並び替え処理を実行し、ステップ1206および1207の描画文字列選択処理を行わずに描画した場合に得られる鳥瞰図である。図14(b)は、本実施例により得られる鳥瞰図、すなわち、ステップ1205〜1207の処理を実行した場合に得られる鳥瞰図である。なお、図13および図14では、面データおよび線データを元に描画される図形等の図示は省略した。
【0123】
ステップ1205の並び替え処理を行わずに鳥瞰図表示すると、図13(a)に示すように、各文字列が、視点との遠近にかかわりなく、文字列の格納順序に従って表示されるため、視点近傍の文字列の上に視点遠方の文字列が重ねて表示されてしまうことがある。
【0124】
一方、ステップ1205による文字列の並び替え処理を実行すると、図13(b)に示すように、視点遠方の文字列と視点近傍の文字列とが重なる場合には、視点から近い方が遠い方の文字列の上に重ねて表示される。このように表示された鳥瞰図は、現在地に近い情報ほど容易に読みとることができるので望ましい。
【0125】
また、ステップ1206および1207による描画文字列選択処理を行わずに鳥瞰図表示すると、図14(a)に示すように、視点から遠くなるほど、視点からの俯角が小さくなるため縮小圧縮され、単位面積当たりに描画される線、面、文字のデータ量が増大する。これらのデータのうち文字データは、他のデータの上に重ねて描画されるため、描画される文字データにより線や面背景が文字データで隠されてしまう。このような鳥瞰図では、遠方の道路や川、緑地帯などの面情報を表示画面から読みとることが非常に困難である。
【0126】
一方、本実施例では、ステップ1206および1207の描画文字列選択処理を実行するため、図14(b)に示すように、表示画面の底辺から高さがhまでの範囲(文字描画範囲)にある文字データは描画され、それ以外の文字データは描画されない。従って、本実施例により描画される鳥瞰図では、視点遠方の道路や川、緑地帯などの面情報を、表示画面から容易に読みとることができる。
【0127】
本実施例の鳥瞰図表示装置およびナビゲーションシステムは、鳥瞰図により表現された地図を表示することができる。従って、本実施例によれば、ユーザは、見やすく、地図内に表示される地点の位置関係が認識しやすい地図表示を得ることができる。このような効果に加えて、本実施例には、つぎに列挙するような効果があると考えられる。
【0128】
第1に、本実施例では、平面地図表示と鳥瞰図表示とを任意に切り替えることができる。従って、本実施例では、ユーザの要求に従って、平面図および鳥瞰図の両方を表示することができる。
【0129】
第2に、本実施例では、鳥瞰図表示および平面地図表示の切り替えるに際して、地図を投射する平面と地図データが含まれる平面のなす角度を時系列で徐々に増加ないし減少させる。すなわち、本実施例では、平面地図表示と鳥瞰図表示との変換において、鳥瞰図を得るための視点が滑らかに移動するようにした。従って、本実施例では、平面図と鳥瞰図との間の移行が滑らかに行われるため、平面地図に表示された地点と鳥瞰地図に表示された地点との相関関係を容易に認識できる。
【0130】
第3に、本実施例では、鳥瞰図を得るための視点を、常に現在位置からある一定方向、一定距離離れた位置に固定することができ、また、操作入力に従って、視点の高さを変更することもできる。視点を固定すれば、常に画面のある一点に現在地が固定されるように鳥瞰図表示されるため、ユーザは現在地を容易に把握できるようになる。また、本実施例によれば、視点位置をユーザの所望の位置に設定することもできる。
【0131】
第4に、本実施例では、2地点(例えば、現在地と目的地)の位置が指定されると、その2地点が画面上の定められた位置に表示されるように視点及び地図を投射する平面と地図データが含まれる平面のなす角度を決定し、その結果を用い鳥瞰図表示を実行する。従って、本実施例によれば、当該2地点の位置的関係を容易に判断することができる。また、当該2地点の位置が変化した場合でも、常に同じ画面内に表示されるので、ユーザは複雑な操作をすることなく2地点の位置的関係を把握できる。
【0132】
第5に、本実施例の座標変換手段は、文字イメージについては透視変換を行わない。従って、本実施例では、鳥瞰図に含まれる文字は、すべて同じ大きさで正立して表示されるため、判読しやすい。
【0133】
第6に、本実施例の描画判定手段は、地図データ中の文字データ位置の視点からの距離に応じて、文字データ列をソーティングする。すなわち、視点からの位置が近い文字列ほど、表示の優先順位が高いものとして扱われる。従って、本実施例では、視点近傍の文字データが、他の表示に覆われるて欠損することなく表示されるので、視点に近い文字情報の識別が容易になる。
【0134】
第7に、本実施例の描画判定手段は、地図を透視変換した結果得られる画面上での文字列を描画する高さが、所定の値より高い場合は、描画対象から削除する。あるいは、描画判定手段は、視点から所定の距離以遠の位置に定義された文字列について、描画対象から削除するようにしてもよい。このように、所定の高さ以上または所定の距離以遠の領域、すなわち、鳥瞰図表示した場合に、俯角が小さくなるため単位面積当たりに描画されるデータ量が非常に多くなる領域については文字列を描画しないようにすることにより、この領域の道路表示や面背景表示等が文字列表示により覆われなくなるため、本実施例では、鳥瞰図表示をしても、視点遠方の道路等の認識が阻害されない。
【0135】
【発明の効果】
本発明の鳥瞰図表示装置および該装置を備えるナビゲーションシステムは、鳥瞰図により表現された地図を表示することができる。従って、本発明によれば、見やすく、地図内に表示される地点の位置関係が認識しやすい地図表示が得られる。
【図面の簡単な説明】
【図1】 本発明により描画される地図の鳥瞰図表示例を示す説明図である。
【図2】 実施例のナビゲーションシステムの構成図である。
【図3】 演算処理部のハードウェア構成図である。
【図4】 演算処理部の機能ブロック図である。
【図5】 地図描画手段の機能ブロック図である。
【図6】 地図の透視変換を示す説明図である。
【図7】 鳥瞰図表示のための座標変換過程を示す説明図である。
【図8】 座標変換手段の処理の流れを示すフローチャートである。
【図9】 鳥瞰図表示のための視点および投射面の設定方法を示す説明図である。
【図10】 鳥瞰図表示のための視点および投射面の設定方法を示す説明図である。
【図11】 透視変換演算の流れを示すフローチャートである。
【図12】 描画判定手段の処理の流れを示すフローチャートである。
【図13】 文字列の並び替え処理の効果を示す説明図である。
【図14】 描画文字列選択処理の効果を示す説明図である。
【図15】 鳥瞰図表示のための視点および投射面の設定方法を示す説明図である。
【図16】 鳥瞰図表示のための視点および投射面の設定方法を示す説明図である。
【図17】 実施例のナビゲーションシステムの外観斜視図である。
【符号の説明】
1…演算処理部、2…ディスプレイ、3…地図記憶装置、4…音声入出力装置、5…入力装置、6…車輪速センサ、7…地磁気センサ、8…ジャイロ、9…GPS受信装置、10…交通情報受信装置、21…CPU、22…RAM、23…ROM、24…DMA、25…描画コントローラ、26…VRAM、27…カラーパレット、28…A/D変換器、29…SCI、30…I/O装置、31…カウンタ、41…ユーザ操作解析手段、42…経路計算手段、43…経路誘導手段、44…地図描画手段、45…現在位置演算手段、46…マップマッチ処理手段、47…データ読み込み処理手段、48…メニュー描画手段、49…グラフィックス処理手段、61…初期データクリップ手段、62…座標変換手段、63…描画判定手段、64…データクリップ手段、65…描画命令発行手段、66…スクロールキー、67…縮尺変更キー、68…投射角度変更キー、69…筐体、70…タッチセンサ。[0001]
[Industrial application fields]
The present invention relates to a navigation system that measures the position of a moving body and informs a user of the current position, and a map display device used in the system.
[0002]
[Prior art]
In a navigation system mounted on a moving body, processing is performed such as measuring the position of the moving body by calculating information from various sensors and displaying the position.
[0003]
This navigation system projects a position measurement device that measures the absolute position of a moving body, two-dimensional vector data obtained by projecting ground points such as roads and structures onto a plane that is mesh-divided by universal horizontal Mercator projection, and these Vector data required from a storage device storing map data composed of character data attached to the input device, an input device receiving an external instruction, and a map mesh stored in the storage device according to the instruction input from the input device And a display device that displays a map on the display by converting the data.
[0004]
Here, the data conversion processing includes movement conversion for changing the display position of the map, scale conversion such as enlargement / reduction used for displaying the map at an arbitrary scale, and rotation conversion for changing the display direction of the map. is there. As a result of these processes, a planar map depicting the ground with an orthographic projection from directly above is displayed on the display.
[0005]
[Problems to be solved by the invention]
In a conventional navigation system, when displaying a map, a planar map display in which the ground is drawn by an orthogonal projection from directly above is performed. For this reason, there is a problem that, if an attempt is made to simultaneously display two points that are separated from each other, the scale is inevitably increased and detailed information cannot be displayed.
[0006]
Therefore, the present invention provides a bird's-eye view that is a projection view projected onto an arbitrary plane between the plane (ground) and the viewpoint when the plane (ground) is viewed obliquely from the viewpoint of an arbitrary height. It is an object of the present invention to provide a bird's-eye view creation method for expressing a map using a map display device and a navigation system including the device.
[0007]
[Means for solving problems]
In order to achieve the above object, according to the present invention, there is provided a bird's-eye view creation method for creating drawing data of a map represented by a bird's-eye view using map data, with a predetermined position as a viewpoint and a predetermined projection plane. There is provided a bird's-eye view creation method characterized by perspectively transforming coordinate data included in the map data to create bird's-eye view drawing data.
[0008]
The bird's-eye view creation method of the present invention includes a step of receiving an input of the position of the viewpoint, coordinates of two predetermined points (for example, a current location and a destination) included in the map data, and the input It is desirable to include the step of determining the projection plane based on the viewpoint position so that the drawing positions of the two points after the perspective transformation become predetermined positions.
[0009]
Alternatively, the step of accepting the input of the scale factor, the coordinates of the two predetermined points included in the map data, and the drawing position of the two points after the perspective transformation based on the input scale factor Determining the position of the viewpoint and the projection plane so that the scale becomes a predetermined position and the drawing scale ratio becomes the input scale ratio.
[0010]
The step of receiving an input of a projection angle that is an angle formed between the plane defined by the map data and the projection plane, the input projection angle, and the determined viewpoint position, Determining a projection plane.
[0011]
Furthermore, the present invention provides a map display device that displays a bird's-eye view using the above-described bird's-eye view drawing method, and a navigation system that displays a map using the map display device.
[0012]
[Action]
In the bird's eye view display device and navigation system of the present invention, the map drawing means includes coordinate conversion means, and the coordinate conversion means performs perspective transformation to convert the map into a bird's eye view and display the map. Therefore, according to the present invention, it is possible for the user to obtain a bird's-eye view map display that is easy to see and in which the positional relationship between points displayed in the map is easy to recognize. According to the bird's-eye view creation method of the present invention, the viewpoint position can be arbitrarily set, so that the user's needs can be accurately met.
[0013]
In addition, if it is set as the structure which solves the following 1st-7th problem, a operability and the convenience navigation system can be obtained further.
[0014]
First, when the processing speed of the scroll process in the bird's-eye view display is slower than the scroll process in the flat-view display, the operability deteriorates when the scroll process is frequently used to search for a predetermined point in the bird's-eye view display. Sometimes.
[0015]
Therefore, it is desirable that the present invention can arbitrarily switch between a planar map display and a bird's eye view display. In this way, both a plan view and a bird's eye view can be displayed according to the user's request, and convenience is improved.
[0016]
In this case, a second problem that it becomes difficult for the user to grasp the positional relationship may occur when switching between the planar map display and the bird's eye view display. This is because the position where the same point is displayed on the screen changes greatly because the viewpoint of viewing the map changes, and the point that has not been displayed so far may or may not be displayed. is there.
[0017]
Therefore, in the present invention, when switching between the planar map display and the bird's eye view display is enabled, when switching between the bird's eye view display and the planar map display, the angle formed between the plane on which the map is projected and the plane including the map data is time-sequentially. It is desirable to increase or decrease gradually. That is, in the present invention, it is desirable that the viewpoint for obtaining the bird's-eye view moves smoothly in the conversion between the planar map display and the bird's-eye view display. In this way, since the transition between the plan view and the bird's eye view is smoothly performed, the correlation between the point displayed on the plan map and the point displayed on the bird's eye map can be easily recognized.
[0018]
Third, when displaying a bird's eye view of a map, a viewpoint that is a parameter for perspective transformation the position is If it is fixed, the current position mark displayed on the screen will move with the current location, and the current position mark will not be displayed when it deviates from the displayed map area. There is.
[0019]
Therefore, in the present invention, the viewpoint for obtaining the bird's-eye view can always be fixed at a position away from the current position in a certain direction and a certain distance. In addition, the height of the viewpoint can be changed according to the operation input. As mentioned above If the viewpoint is fixed, the bird's-eye view is displayed so that the current location is always fixed to a certain point on the screen, so that the user can easily grasp the current location. Further, if the viewpoint position can be set to a user's desired position, convenience is improved.
[0020]
Furthermore, when trying to display two points on the same screen, it was only necessary to update the scale according to the distance between the two points in the conventional planar map display, but it is optimal if only the scale is updated in the bird's eye view display of the map. There is a fourth problem that the map cannot be displayed.
[0021]
Accordingly, in the present invention, designation of the position of two points (for example, the current location and the destination) is accepted, and the viewpoint is set so that the two points are displayed at predetermined positions on the screen. , as well as , A plane that projects the map and a plane that contains the map data When May be determined, and a bird's eye view display may be executed using the result. In this way, the positional relationship between the two points can be easily determined. Further, even when the position of the two points is changed, it is always displayed on the same screen, so that the user can grasp the positional relationship between the two points without performing a complicated operation.
[0022]
In the present invention, line backgrounds such as roads and tracks, surface backgrounds such as rivers and green zones, and character strings are perspective-transformed and drawn when a bird's eye view is displayed. However, when perspective transformation is performed on the character string, the shape of the character far from the viewpoint is small and distorted. , Characters near the viewpoint are enlarged, making it difficult to read the string Sometimes There is a fifth problem.
[0023]
Therefore, it is desirable that the coordinate conversion means of the present invention does not perform perspective conversion for character images. In this way, since the characters included in the bird's-eye view are displayed upright in the same size, the character string can be easily read.
[0024]
When a large amount of character data is displayed, the character strings are displayed overlapping each other. In particular, in the bird's eye view, the far view point has a small depression angle from the view point, so that the reduction rate is large and the character data displayed per unit area is large. Therefore, in the bird's eye view, there is a sixth problem that the overlapping of character data and character data is likely to occur far from the viewpoint.
[0025]
Therefore, it is desirable that the drawing determination unit of the present invention increases the display priority of the character data as the distance from the viewpoint of the character data position in the map data is shorter. In this way, it is possible to prevent the character string from being lost and facilitate reading by displaying the one with the higher priority on top of the one with the lower priority.
[0026]
When the current location is near the bottom or near the viewpoint, it is preferable to use the displayed height or the distance from the viewpoint as the reference for this priority. If there are two or more character strings that overlap, the lower the displayed height (the height from the bottom of the display screen) (or the shorter the distance from the viewpoint), the higher the priority (ie, other characters). If it is displayed so as not to be covered by the column, it is displayed on the other character string so as to be covered with the other display without being lost. Thus, in this way, it is possible to prevent the loss of character information close to the current location that the user would like, and the character string can be easily read.
[0027]
As described above, when bird's-eye view display is performed, a large amount of line data, surface background data, and character data are drawn per unit area in a region far from the viewpoint (region having a small depression angle). Therefore, when character data of these data is drawn on top of other data, the line data and the surface background data are obscured by the character data in the far view area. It becomes difficult to read the shape of roads, etc. Sometimes There is a seventh problem.
[0028]
Therefore, it is desirable that the drawing determination unit of the present invention deletes the drawing character string from the drawing target when the height of drawing the character string on the screen obtained as a result of perspective transformation of the map is higher than a predetermined value. Alternatively, the drawing determination unit may delete a character string defined at a position beyond a predetermined distance from the viewpoint from the drawing target. In this way, a character string is used for an area that is more than a predetermined height or more than a predetermined distance, i.e., an area where the amount of data drawn per unit area is very large because the depression angle is small when a bird's-eye view is displayed. By not drawing, the road display and surface background display in this area are not covered by the character string display. Therefore, in this way, even if a bird's-eye view is displayed, there is an advantage that recognition of a road or the like far away from the viewpoint is hardly hindered.
[0029]
【Example】
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
An example of a bird's-eye view map displayed by the bird's-eye view map display device mounted on the navigation system of this embodiment is shown in FIG. The bird's-eye view map display apparatus according to the present embodiment creates a bird's-eye view 102 showing a bird's-eye view from a specific position as a projection view of two-dimensional map data (illustrated as 101 in FIG. 1), and displays it on the display screen of the display 2. In addition, in the bird's eye view 102 shown in FIG. 1, the route 104 is highlighted to show the path (in FIG. 1, the emphasis is expressed by increasing the width of the line, but it is emphasized by blinking or discoloration. You may). A mark 105 is a symbol for indicating the current position. In FIG. 1, an arrow represents a projection relationship from the two-dimensional map data 101 to the bird's eye view 102.
[0030]
An external perspective view of the mobile navigation system of this embodiment is shown in FIG. The navigation system of the present embodiment is housed in a housing 69, and the housing 69 includes a display screen of the display 2, a scroll key 66, a scale change key 67, a projection angle change key 68, and a display 2. A touch panel 70 provided on the display screen is provided.
[0031]
The scroll key 66 is a key for accepting an instruction to scroll an image displayed on the display screen, and includes four direction designation keys 660 for accepting an up / down / left / right scroll instruction. The scale change key 67 is a key for accepting a change in the scale of the map displayed on the display screen, and includes two scale designation keys 67a and 67b for accepting enlargement and reduction, respectively. The projection angle change key 68 is a key for accepting designation of the angle of the projection surface of the bird's eye view displayed on the display screen, and includes two angle designation keys 68a and 68b for accepting the rise and fall of the projection angle, respectively. . The touch panel 70 is an input unit that detects contact with the surface of the touch panel 70 and outputs the touched position.
[0032]
As shown in FIG. 2, the mobile navigation system of this embodiment includes an arithmetic processing unit 1, a display 2 connected to the arithmetic processing unit 1 via a signal line S1, and a signal line connected to the arithmetic processing unit 1. The map storage device 3 connected via S2, the voice input / output device 4 connected to the arithmetic processing unit 1 via the signal line S3, and the arithmetic processing unit 1 connected via the signal line S4 Input device 5, wheel speed sensor 6 connected to arithmetic processing unit 1 via signal line S5, geomagnetic sensor 7 connected to arithmetic processing unit 1 via signal line S6, and arithmetic processing unit 1, a gyro 8 connected to the arithmetic processing unit 1 via a signal line S8, a GPS (Global Positioning System) receiver 9 connected to the arithmetic processing unit 1 via a signal line S8, and a signal line S9 to the arithmetic processing unit 1 And a traffic information receiving apparatus 10 connected via Each signal line S1 to S9 may be wired or wireless as long as it can transmit a signal, but a wired line is used in this embodiment.
[0033]
The arithmetic processing unit 1 detects the current position based on information output from the various sensors 6 to 9, reads necessary map information from the map storage device 3 based on the obtained current position information, and maps data The graphics are expanded and the current location mark is superimposed on them. The It is a central unit that performs various processes such as displaying or selecting an optimum road connecting the destination and the current location instructed by the user, and notifying the user using voice or graphic display.
[0034]
The display 2 is a unit that displays graphics information generated by the arithmetic processing unit 1 and is configured by a CRT or a liquid crystal display. Further, S1 between the normal arithmetic processing unit and the display is connected by an RGB (Red Green Blue) signal or an NTSC (National Television System Committee) signal in this embodiment as well as the normal system.
[0035]
The map storage device 3 includes a large-capacity storage medium such as a CD-ROM (Compact Disk-Read Only Memory) or an IC (Integrated Circuit) card, and is held in the large-capacity storage medium in response to a request from the arithmetic processing unit 1. The data is read out and notified to the arithmetic processing unit 1 and the data notified from the arithmetic processing unit 1 is written into the large-capacity storage medium.
[0036]
In addition, the voice input / output device 4 converts the message to the user generated by the arithmetic processing unit 1, performs voice output, accepts voice input, recognizes the contents thereof, and transfers it to the arithmetic processing unit 1. I do.
[0037]
The input device 5 is a unit that receives an instruction input from the outside. In this embodiment, the input device 5 includes the scroll key 66, the scale change key 67, the projection angle change key 68, and the touch panel 70 described above. The configuration of the input device 5 is not limited to this, and other input means such as a joystick, a keyboard, a mouse, and a pen input device may be used.
[0038]
Further, as a sensor used for detecting a position in mobile navigation, the navigation system of the present embodiment measures the distance from the product of the wheel circumference and the measured wheel rotation speed, and further forms a pair of wheels. The wheel speed sensor 6 that measures the angle at which the moving body is bent from the difference in the number of rotations, the geomagnetic sensor 7 that detects the magnetic field held by the earth and measures the direction in which the moving body is facing, and the angle at which the moving body is rotated , And a gyro 8 composed of an optical fiber gyro, a vibration gyro, etc. A GPS receiver 9 that measures the current position, traveling direction, and traveling direction of the moving body by measuring is provided.
[0039]
Furthermore, the navigation system of the present embodiment includes a traffic information receiver 10 for receiving signals from beacon transmitters and FM broadcasts that generate traffic information such as traffic jams, construction, road closure information and parking lot information.
[0040]
The hardware configuration of the arithmetic processing unit 1 described above is shown in FIG. The arithmetic processing unit 1 includes a CPU (Central Processing Unit) 21 that executes processing such as numerical calculation and control of each device 22 to 31, a RAM (Random Access Memory) 22 that holds maps and arithmetic data, and a program. Graphics such as ROM (Read Only Memory) 23 for holding, DMA (Direct Memory Access) 24 for executing data transfer between the memory and the memory at high speed, and memory and each device, and vector data developed into an image A drawing controller 25 that performs drawing at high speed and performs display control, a video random access memory (VRAM) 26 that stores graphics image data, a color palette 27 that converts image data into RGB signals, and analog signals that are digital A / D (Analog / Digital) converter 28 for converting the signal into a bus It includes a SCI (Serial Communication Interface) 29 for converting the synchronized parallel signal, and I / O (Input / Output) device 30 to put on the bus takes a parallel signal synchronized, and a counter 31 for integrating a pulse signal. These devices 21 to 31 are connected to each other via a bus.
[0041]
Next, using FIG. Arithmetic processing A functional configuration of the unit 1 will be described. Arithmetic processing The unit 1 includes a user operation analysis unit 41, a path calculation unit 42, a path guidance unit 43, a map drawing unit 44, a current position calculation unit 45, a map match processing unit 46, a data reading processing unit 47, A menu drawing unit 48 and a graphics processing unit 49 are provided. Each of these means 41 to 49 is realized by the CPU 21 executing instructions held in the ROM 23.
[0042]
The current position calculation means 45 uses distance data and angle data obtained as a result of integrating the distance pulse data measured by the wheel speed sensor 6 and the angular acceleration data measured by the gyro 8, respectively. By integrating, a process for calculating the position (X ′, Y ′) after the moving body is performed based on the initial position (X, Y). Here, the current position calculation means 45 corrects the absolute azimuth in the advancing direction from the azimuth data obtained from the geomagnetic sensor 7 and the angle data obtained from the gyro in order to match the relationship between the rotation angle of the moving body and the advancing azimuth. . As described above, when the data obtained from the sensor is integrated, a sensor error accumulates. Therefore, the current position calculation unit 45 cancels the accumulated error based on the position data obtained from the GPS receiver 9 at a predetermined time period (in this embodiment, every second). Processing is performed, and the corrected data is output as current position information.
[0043]
The current position information obtained in this way still contains a minute error due to the sensor. Therefore, in order to further improve the position accuracy, the map matching processing is performed by the map matching processing means 46 in the navigation system of the present embodiment. This is because the road data included in the map around the current location read by the data reading processing means 47 and the travel locus obtained from the current position calculating means 45 are compared with each other, and the current location is matched with the road having the highest shape correlation. Process. By applying the map matching process, the current location often coincides with the traveling road, so the current position information can be output with high accuracy.
[0044]
On the other hand, the user operation analysis means 41 analyzes the request content of the operation instruction received via the input device 5 and controls the units 42 to 48 so that the corresponding processing is executed. For example, when a route guidance request to the destination is input, the map drawing unit 44 is requested to display a map for setting the destination, and then the processing for calculating the route from the current location to the destination is performed. It operates to request the calculation means 42 and to request the route guidance means 43 to present the route guidance information to the user.
[0045]
The route calculation means 42 searches for a node connecting two designated points using the Dijkstra method or the like, and obtains the route with the highest priority. The route calculation means 42 includes a plurality of priority criteria, and uses the criteria specified by the operation instruction for determining the route. In this embodiment, a route with the shortest distance between two points, a route that can be reached in the shortest time, a route with the lowest cost, or the like is required in accordance with an operation instruction.
[0046]
The route guidance unit 43 compares the link information of the guidance route obtained by the route calculation unit 42 with the current position information obtained by the current position calculation unit 45 and the map match processing unit 46, and should proceed straight before passing the intersection. The voice input / output device 4 is notified of direction indication information such as whether to turn left or right, and is output as voice, or the direction to travel on the map displayed on the display screen of the display 2 is drawn.
[0047]
The data reading processing unit 47 operates to read and prepare the map data of the requested area from the map storage device 3. The map drawing unit 44 receives map data around the point designated for display from the data reading processing unit 47, and draws a specified object at a specified scale in a specified direction upward. Is transferred to the graphic processing means 49.
[0048]
On the other hand, the menu drawing unit 48 operates to receive a command output from the user operation analysis unit 41 and transfer a command for drawing various types of requested menus to the graphic processing unit 49.
[0049]
The graphics processing unit 49 receives a drawing command generated by the map drawing unit 44 and the menu drawing unit 48 and develops an image in the VRAM 26.
[0050]
Next, the function of the map drawing means 44 will be described with reference to FIG. The map drawing unit 44 includes an initial data clip unit 61, a coordinate conversion unit 62, a drawing determination unit 63, a data clip unit 64, and a drawing command issue unit 65.
[0051]
The initial data clip means 61 clips road data, surface and line background data, and character data related to areas necessary for the subsequent processing from each mesh of map data fetched from the map storage device 3 by the data reading processing means 47. And the coordinate conversion means 62 is notified of the result. In this embodiment, the initial data clip means 61 is activated at a cycle of 0.5 seconds. It is also activated by an operation instruction notification from the user operation analysis means 41.
[0052]
Clip processing algorithms used here include Cohen-Superland line clip algorithm for road data and line data, Sutherland-Hodgman polygon clip algorithm for surface data, etc. (Foley, van Dam, Feiner, Hughes: Computer Graphics: Addison -Wesley Publishing Company pp.111-127). Since this process makes it possible to reduce the amount of data to be subjected to subsequent coordinate conversion and drawing processing, speeding up is expected.
[0053]
The coordinate conversion means 62 performs processing for converting each coordinate value of the map data, such as enlargement / reduction, rotation, projection processing of the map data obtained by the clip processing. The coordinate conversion unit 62 is activated in response to a notification from the initial data clip unit 61 or the user operation analysis unit 41.
[0054]
The drawing determination unit 63 serves to select data that actually needs to be drawn from the map data obtained by the coordinate conversion unit 62. For example, the drawing determination unit 63 operates to delete thin roads, place names that can be omitted, and the like because the amount of data to be drawn substantially increases when the scale increases. This can prevent the processing speed for drawing from becoming extremely slow. The drawing determination unit 63 is activated in response to a notification from the coordinate conversion unit 62 or the user operation analysis unit 41.
[0055]
The data clip means 64 operates so as to select map data related to the drawing area from the map data obtained by the drawing determination means 63 by clip processing. The clip processing algorithm used here can use the same algorithm as the initial data clip means. The data clip unit 64 is activated in response to a notification from the drawing determination unit 63 or the user operation analysis unit 41. The data clip means 64 may be omitted.
[0056]
The drawing command issuing unit 65 draws roads, planes and lines, background data, character data, and the like included in the map data obtained by the data clip unit 64 with a designated color or pattern, so that lines, polygons, characters, etc. Operates to issue to the graphics processing means 49 a command for drawing and a command for setting a color and a pattern. The drawing command issuing unit 65 is activated in response to a notification from the data clip unit 64.
[0057]
In this embodiment, the initial data clip unit 61 is activated every 0.5 seconds, and notifies the coordinate conversion unit 62 of data obtained as a result of the clip process. Therefore, in this embodiment, drawing is performed every 0.5 seconds, except in the case of an operation instruction from the outside.
[0058]
Next, an overview of bird's-eye view display will be described with reference to FIG.
In a printed map book and a conventional navigation system, when a map is displayed, it is expressed by a planar map display in which the map is viewed from a point at infinity from the ground. In the planar map display, it is easy to get a sense of distance because there is an advantage that the scale is constant regardless of the point in the same screen. However, if you want to display between two points on the same screen, you will need to adjust the map display scale to be optimal, and if the distance between the two points is far away, it will be displayed at once. Since the amount of possible information is limited by the size and definition of the display, there is a disadvantage that only limited information can be displayed. There is a bird's-eye view display as means for solving this problem.
[0059]
Bird's-eye view display is 2D or 3D map information of plane A 5 3 is projected onto a plane B that forms an angle θ with the plane A. 5 This is realized by perspective transformation of obtaining 4. In the conceptual diagram shown in FIG. 6, a map 53 (point a, point b, point c) represented by a rectangle on the plane A (shown as a square 51) with the point 55 of coordinates (Tx, Ty, Tz) as a viewpoint. , Represented by a quadrangle having a point d as a vertex) and projected onto a plane B (shown as a quadrangle 52) that forms an angle θ with the plane A, and is projected 54 (point a ′, point b ′, point c ′) , Represented by a quadrangle having a point d ′ as a vertex). Here, point a, point b, point c, and point d on map 53 are projected onto point a ′, point b ′, point c ′, and point d ′, respectively. In the present specification, the viewpoint 55 that is the origin of the viewpoint coordinate system in the projection processing is simply referred to as “viewpoint”. In this specification, when simply referred to as “viewpoint”, it does not mean “viewpoint” as the position of the user's eyes.
[0060]
When bird's-eye view representation is performed, information on a portion close to the viewpoint 55 (for example, a straight line ab) is enlarged, and information on a portion far from the viewpoint (for example, a straight line cd) is reduced and expressed. By this, when displaying between two points on the same screen, the point where you want to get more detailed information is near the viewpoint, the other is far from the viewpoint, and two points are displayed on the same screen, It is possible to express each other's position interval in an easy-to-understand manner, and to provide a user with a larger amount of information about information near the viewpoint.
[0061]
In this embodiment, two-dimensional map data can be used for the map information used for bird's eye view display. Therefore, new map data can be obtained by adding a means for performing such perspective transformation to the conventional navigation system. A bird's eye view display can be realized without adding an amount. In the present embodiment, this perspective transformation is executed by the coordinate transformation means 62. In realizing the bird's-eye view display, it is desirable to make various ideas as described later.
[0062]
First, a method for realizing a basic bird's-eye view display will be described with reference to FIG.
First, the coordinate conversion means 62 determines the position of the viewpoint, determines which direction is viewed from the viewpoint position, and determines the angle of the projection plane (shown as an angle θ in FIG. 6) (step 1). Thereby, the area to be displayed in the bird's eye view is determined. When a bird's eye view is displayed on a rectangular display screen, the area near the viewpoint is narrow and the area far from the viewpoint is wide. Therefore, the finally drawn map data is a trapezoidal region 72 in the map mesh 71.
[0063]
Next, the coordinate conversion means 62 uses the initial data clip means 61 to extract the map data of the rectangular area 73 circumscribing the trapezoid area 72 to be actually drawn from the map mesh data 71 including the area to be displayed as a bird's eye view ( Step 2).
[0064]
Next, the coordinate conversion means 62 enlarges or reduces the extracted data, performs affine transformation so that the trapezoid is erected, and further converts each coordinate value of the map data by perspective transformation ( Step 3). At this time, the coordinate transformation by the affine transformation is that the angle between the plane A and the plane B is θ, the map data coordinate value before the transformation is (x, y), and the map data coordinate value after the transformation is (x ′, y If '), it is expressed by the following (Equation 1).
[0065]

[Expression 1]
Figure 0003660644
[0066]
In addition, coordinate conversion in the perspective processing at this time is (Tx, Ty, Tz) as the position coordinate of the viewpoint, θ is the angle formed by the plane A and the plane B, (x, y) is the map data coordinate value before conversion, When the converted map data coordinate value is (x ′, y ′), it is expressed by the following (Equation 2) and (Equation 3).
[0067]

[Expression 2]
Figure 0003660644
[0068]

[Equation 3]
Figure 0003660644
[0069]
In step 3, the drawing target area that was the trapezoid 72 at the time of step 2 is converted into a rectangular area 74, and the rectangle 73 circumscribing the trapezoid 72 is coordinate-transformed into a rectangle 75 circumscribing the rectangle. Here, it is not necessary to draw a portion outside the drawing target area 74 in the area inside the quadrangle 75. Therefore, the coordinate conversion means 62 uses the data clip means 64 to clip and remove the area outside the rectangular area 74 to be drawn (step 4).
[0070]
The map data obtained in this way is notified to the drawing command issuing means 65. Using the notified map data, the drawing command issuing unit 65 generates a drawing command and causes the graphics processing unit 49 to create drawing data. The graphics processing unit 49 creates drawing data, stores it in the VRAM 26, and instructs the display 2 to display it. The display 2 displays the drawing data held in the VRAM 26 on the display screen. Thereby, a bird's-eye view map 102 as shown in FIG. 1 is displayed on the display screen of the display 2.
[0071]
By the way, using the bird's eye view display, the direction between any two points position Recognize relationships. Furthermore, the bird's-eye view display is suitable for providing detailed information about a certain point and providing general information about another point. Thus, when providing detailed information or outline information about a specific point, the coordinates of the specific point may be determined in advance, or the position of the specific point may be determined by obtaining coordinates satisfying a predetermined condition. Or an input of the position of the point may be accepted.
[0072]
In the navigation system, the current location is often selected as one point. The current position information is obtained from the current position calculation means 45 or the map match processing means 46. Therefore, when the current location is instructed to either the detailed information display point or the summary information display point via the input device 5, the map drawing unit 44 obtains from the current position calculation unit 45 or the map match processing unit 46. Use the coordinates of the current location.
[0073]
However, when the designation of the position on the map displayed on the display screen is accepted and it is set as one of the detailed information display point and the summary information display point, the user searches for the point where the detailed information or the summary information is displayed. Often, the map must be scrolled. However, the bird's eye view display has a slow scrolling speed because it is necessary to redraw the entire surface every time the display area is changed. Accordingly, there is a problem in that the operations for diversifying the scroll display are unusable.
[0074]
In order to solve this problem, in this embodiment, the process shown in FIG. 8 is performed in the coordinate conversion.
[0075]
First, if the map needs to be enlarged or reduced (step 1000), the coordinate conversion means 62 performs an enlargement or reduction operation on the processing target area (step 1010), and if the map needs to be rotated (step 10). 1020) and the rotation conversion process (step 1030) is executed. The rotation conversion process (step 1030) includes a rotation angle calculation (step 1031) and an affine conversion calculation (step 1032).
[0076]
Next, the coordinate conversion means 62 determines whether or not to display a bird's eye view (step 1040). Here, for example, when an instruction for searching for an arbitrary point in the map is input via the input device 5 or when an instruction for displaying a plan view is input via the input device 5, In the bird's eye view display determination (step 1040), the coordinate conversion unit 62 determines that the perspective conversion is not performed, and ends the coordinate conversion process without executing the perspective conversion process (step 1050). In this case, since the perspective transformation process is not executed, a planar map is displayed on the display screen of the display 2.
[0077]
According to the present embodiment, in the operation of searching for an arbitrary point from the map, the map is displayed not as a bird's eye view but as a planar map, so that the target point can be quickly found.
[0078]
For example, when a bird's eye view display instruction is input via the input device 5 or when an arbitrary point is specified as a destination via the input device 5 during the plan view display, The coordinate conversion unit 62 that has received the instruction via the user operation analysis unit 41 determines that the perspective conversion is required in the bird's eye view display determination in step 1040, and executes the perspective conversion process (step 1050).
[0079]
This perspective transformation process (step 1050) includes a projection angle calculation (step 1051), a projection plane position calculation (step 1052), and a perspective transformation calculation (step 1053). As a result, the map data notified to the drawing command issuing means 65 is converted into a bird's eye view, so the drawing data created by the graphics processing means 49 and stored in the VRAM 26 is also a bird's eye view. Therefore, the map displayed on the display 2 is also switched from the plan view to the bird's eye view.
[0080]
Thus, since it can be arbitrarily switched from a bird's eye view to a plan view and from a plan view to a bird's eye view, according to the present embodiment, an easy-to-understand map expression can be provided.
[0081]
Further, the screen switching from the plane map to the bird's eye view generated in the above processing, or the user switching from the plane map display to the bird's eye view display via the input device 5 or the like, or the switching from the bird's eye view to the plane map. The When instructed, if the plane map and the bird's-eye view are immediately switched, the map representation on the screen changes greatly, and the user becomes difficult to recognize the map. Therefore, it is desirable that the transition between the plan view and the bird's eye view is gradually performed.
[0082]
In this embodiment, when the screen is switched from the planar map to the bird's eye view, the projection angle θ is changed from 0 ° over time in the projection angle θ calculation (step 1051) in the perspective conversion process (step 1050). It is increased gradually (every 0.5 seconds) (in this embodiment, by 5 °), and is operated to stop the increase when the target projection angle is reached. The projection angle unit that increases at this time is preferably a constant value.
[0083]
Thus, since the projection angle is increased with time and the perspective transformation calculation (step 1053) is performed to smoothly change from the planar map to the bird's eye view, the user can easily determine the positional relationship between the planar map and the points displayed in the bird's eye view. To be able to grasp. Even when switching from the bird's eye view to the plane map, the same effect as described above can be obtained by gradually decreasing the projection angle set initially to 0 degree in time series.
[0084]
Next, the angle θ (projection angle) between the map and the projection plane, which is a perspective transformation parameter in the bird's eye view display, and the origin coordinates of the viewpoint coordinate system including the projection plane viewed from the object coordinate system including the map plane ( Tx, Ty, Tz), that is, a method for determining the position of the projection surface will be described with reference to FIGS.
[0085]
In a navigation system, it is generally desired to display in detail the location where the user is currently traveling, that is, the vicinity of the current location. Therefore, first, as shown in FIG. 9C, a case where a bird's eye view is displayed so that the current location is located on the lower center side of the screen will be described. In this case, a bird's eye view is displayed on the screen in front of the traveling direction as viewed from the current location and the road map that has been traveled so far. FIG. 9A shows a field of view (range to be drawn and displayed) 92 in the map mesh 91, and FIG. 9B shows a viewpoint position and a projection angle for obtaining a bird's-eye view. FIG. 9C shows the position and traveling direction of the current location in the obtained bird's-eye view display. In FIG. 9, the dotted arrow indicates the traveling direction.
[0086]
In order to realize the bird's eye view display as shown in FIG. 9C, the coordinate conversion means 62 first executes necessary enlargement / reduction processing (steps 1000 and 1010), and then determines that rotation is required (step 1020). 9), the angle φ formed by the traveling direction vector and the base of the map mesh is obtained as shown in FIG. 9A (step 1031), and the map data to be drawn is affine transformed by rotating the angle φ for each coordinate value. (Step 1032).
[0087]
Since it is determined in step 1040 that the bird's-eye view is displayed, the coordinate conversion unit 62 executes processing for calculating the projection angle θ and the viewpoint position (steps 1051 and 1052).
[0088]
For example, if the projection angle θ is set in the vicinity of 0 °, the difference between the scales near the viewpoint and the viewpoint is small, and if it is set near 90 °, the difference between the scales near the viewpoint and the viewpoint is large. . In the present embodiment, the projection angle θ is normally set to about 30 ° to 45 °.
[0089]
In the present embodiment, the coordinate conversion unit 62 changes the projection angle θ according to the angle change direction instruction (input by the projection angle change key 68) notified from the user operation analysis unit 41. That is, when detecting that the angle instruction key 68a indicating the increase is pressed, the user operation analysis unit 41 notifies the coordinate conversion unit 62 of a projection angle increase instruction. Further, every time it is detected that the pressing is continued for 0.5 seconds from the notification of the projection angle increase instruction, the coordinate conversion means 62 is notified of the projection angle increase instruction. The coordinate conversion means 62 that has received the notification of the increase instruction increases the projection angle θ by 5 ° (that is, increases the projection angle by 5 °). The same applies to the projection angle lowering instruction. Whenever the angle instruction key 68b indicating the lowering is pressed and continued for 0.5 seconds, the user operation analysis unit 41 sends the projection angle lowering instruction to the coordinate conversion unit 62. In response to this, the coordinate conversion means 62 that receives this reduces the projection angle θ by 5 ° (ie, lowers the projection angle by 5 °).
[0090]
By doing in this way, in a present Example, the user can set arbitrarily the map area | region which should be displayed by a bird's-eye view map display. In this way, when an increase in the projection angle is instructed, the map at a further distance is displayed because the projection angle θ increases. When the operation is performed to decrease the projection angle, the map near the current location is displayed because the projection angle θ decreases.
[0091]
Next, the coordinate conversion means 62 calculates a difference value (Δx, Tz) obtained by subtracting the position (Tx, Ty, Tz) of the projection plane from the current position (x, y, z) for the position (Tx, Ty, Tz) of the projection plane. (Δy, Δz) is always determined to be a constant value (step 1052). In addition, the coordinate conversion means 62 has an absolute value of Δx of 0, Δz to a scale for displaying a map, a small value for Δz when displayed at a small scale, and Δz for a large scale. Set a large value. Usually, it is preferable to select Δz so that the scale of the plan view coincides with the scale of one point near the center of the bird's eye view display.
[0092]
Further, it is desirable that the scale of the map can be changed according to the user's request. Therefore, in the present embodiment, the coordinate conversion means 62 changes the scale of the displayed map in accordance with the scale change instruction (input by the scale change key 67) notified from the user operation analysis means 41. That is, when the user operation analysis unit 41 detects that the enlargement instruction key 67a is pressed, the user operation analysis unit 41 notifies the coordinate conversion unit 62 of the enlargement instruction. Further, every time it is detected that the pressing has continued for 0.5 seconds from the notification of the enlargement instruction, the coordinate conversion means 62 is notified of the enlargement instruction. In response to the notification of the enlargement instruction, the coordinate conversion means 62 increases Δz by a predetermined value in Step 1052. The same applies to the reduction instruction. Whenever the reduction instruction key 67b is pressed and continued for 0.5 seconds, the user operation analysis unit 41 notifies the coordinate conversion unit 62 of the reduction instruction, and receives the coordinate conversion. In step 1052, the means 62 decreases Δz by a predetermined value.
[0093]
In this embodiment, Δy can take a negative value as shown in FIG. 9, but can also take a positive value as shown in FIG. In the present embodiment, the bird's-eye view can be displayed without any problem regardless of whether the viewpoint position is in front of or behind the current location. FIG. 15 is an explanatory diagram for obtaining a bird's-eye view of different viewpoints in the same range as that shown in FIG. FIG. 15A shows a field of view (range to be drawn and displayed) 152 in the map mesh 151, and FIG. 15B shows a viewpoint position and a projection angle for obtaining a bird's eye view. FIG. 15C shows the position and traveling direction of the current location in the obtained bird's-eye view display. In FIG. 15, a dotted arrow indicates the traveling direction.
[0094]
In the present embodiment, the coordinate conversion unit 62 determines the viewpoint position (specifically, Δy) according to the viewpoint position notified from the user operation analysis unit 41 (input by the touch sensor 70). That is, when the user operation analysis unit 41 detects contact with the touch sensor 70, the user operation analysis unit 41 notifies the coordinate conversion unit 62 of the contact position. Upon receiving the notification of the position information, the coordinate conversion unit 62 sets Δy so that the viewpoint is the notified position in step 1052.
[0095]
As described above, in this embodiment, Δy can be set to an arbitrary value in a wide range from positive to negative in accordance with a user instruction. Therefore, according to the present embodiment, the position displayed in detail can be set flexibly.
[0096]
Finally, the coordinate conversion means 62 performs perspective conversion of each coordinate value of the map data using the projection angle θ and the position of the projection plane (Tx, Ty, Tz) obtained in this way (step 1053). The graphics processing means 49 performs drawing processing using the obtained map data, so that the traveling direction is always upward in the bird's eye view display of the map shown in FIGS. Will be displayed at the same point on the screen.
[0097]
In the navigation system, it is desired to display in detail the location where the user is currently traveling, that is, the vicinity of the current location. Therefore, as described above, in the navigation system of the present embodiment, as shown in FIG. 9C, FIG. 10C, FIG. 15C, and FIG. indicate.
[0098]
In the navigation system of the present embodiment, designation of a destination can be received through contact with the touch panel 70. When the destination is designated, the navigation system of the present embodiment draws the destination so that it is included in the field of view (the range drawn on the display screen). At this time, the coordinate conversion means 62 is shown in FIGS. 10 (c) and 16 (c) so that the current location is at the lower center of the screen and the destination is at the upper center of the screen as described above. ) To determine the rotation angle φ.
[0099]
A bird's eye view display method in this case will be described with reference to FIGS. 8, 10, and 16. FIG. 10 is an explanatory diagram for obtaining a bird's eye view in which both the current location and the destination are drawn on the same screen (field of view), and FIG. 16 is different in the same range as that shown in FIG. It is explanatory drawing in the case of obtaining the bird's-eye view of a viewpoint. FIGS. 10 (a) and 16 (a) show the field of view (range to be displayed) 162 in the map mesh 161, and FIGS. 10 (b) and 16 (b) show the viewpoint position and projection angle for obtaining a bird's eye view. Indicates. FIGS. 10C and 16C show the positions of the current location and the destination in the obtained bird's-eye view display. The dotted arrows in FIGS. 10 and 16 indicate the direction of the destination.
[0100]
In this example, the case where the lower center of the screen is displayed as the current location and the upper center of the screen is displayed as an example will be described. Similarly, when the other is displayed at the upper center of the screen, the same processing is performed.
[0101]
In order to realize the bird's eye view display as shown in FIG. 10C and FIG. 16C, the coordinate conversion means 62 in step 1031 displays the current location and the destination as shown in FIG. 10A and FIG. An angle φ formed by a line perpendicular to the line segment connecting to the bottom of the map mesh is obtained, and in step 1032, each coordinate value of the map data to be drawn is affine transformed by the angle φ.
[0102]
Since it is determined in step 1040 that the bird's eye view is displayed, the coordinate conversion means 62 proceeds to processing for calculating the projection angle θ and the viewpoint position (steps 1051 and 1052). As described above, the initial value of the projection angle θ is a predetermined value of 30 to 40 °, and is changed according to the input by the projection angle change key 68. Also, the initial position of the projection surface is , A difference value obtained by subtracting the position coordinates of the projection plane from the coordinates of the current location is determined to be a predetermined value, and is changed according to the input by the scale designation key 67. Further, the transformation formulas shown in the above (Equation 2) and (Equation 3) are used for rotating the coordinates, and the transformation formula shown in the above (Equation 1) is used for the affine transformation. Parameters Ty and Tz indicating the position of the projection plane are substituted with appropriate values in Tx, for example, 0, and the coordinates of the current position and the destination and the positions to be displayed are substituted, and the simultaneous linear equations are solved. Desired.
[0103]
Next, the coordinate conversion means 62 performs a perspective conversion calculation process (step 1053). That is, the coordinate conversion means 62 performs perspective conversion of each coordinate value of the map data using the projection angle θ and the position of the projection plane obtained as described above.
[0104]
As a result, the graphics processing unit 49 performs drawing processing using the obtained map data, so that the current location and the destination can be displayed on the same screen. If these processes are executed each time the current location changes, even if the current location changes over time, the current location and the destination are displayed at the same position on the same screen. If it is determined that the perspective transformation process is always required in the determination in step 1040 during the bird's eye view display, the screen display is always changed in accordance with the temporal change of the current location. In addition, in the determination in step 1040, if it is determined that the perspective transformation process is necessary only when the current location has moved beyond a predetermined distance, the current location will remain on the same bird's-eye view map until the current location moves a certain distance. When only the mark 105 indicating the current location moves and the current location moves a certain distance and approaches the destination, the map display changes to an enlarged one.
[0105]
The map can be enlarged and displayed as the destination is approached by executing the above process every time the current location changes and fixing the positions of the current location and the destination displayed on the screen.
[0106]
In addition, by changing the projection angle θ to a smaller value as the distance between the current location and the destination becomes shorter, it is easier to understand the relationship between each other by displaying a bird's eye view when the distance between the current location and the destination is far In addition, when the distance between the current location and the destination approaches, the display can be made close to a plan view. Or, conversely, by changing the projection angle θ to a larger value as the distance between the current location and the destination becomes shorter, it becomes easier to grasp the overall positional relationship when the distance between the current location and the destination is far away. In this way, a plan view may be displayed so that the viewpoint position gradually rises as the distance between the current location and the destination approaches, so that the sense of distance can be easily grasped.
[0107]
Next, a method of drawing character data in the bird's eye view display will be described. First, Coordinate Details of the perspective transformation calculation (step 1053) of the transformation means 62 will be described with reference to FIG.
[0108]
Coordinate The conversion means 62 first determines whether the input map data is surface data (step 1100). If it is determined as surface data, Coordinate The conversion means 62 performs perspective conversion of each node coordinate value of the given surface data using the parameters obtained by the projection angle θ calculation (step 1051) and the viewpoint position calculation (step 1052) (step 1101). The perspective transformation process (step 1101) of this node is repeated until the processes related to all input nodes are completed (step 1102).
[0109]
Next, Coordinate The conversion means 62 performs the same process as the surface data for the line data, and perspective-transforms the coordinate value of each node (steps 1103 to 1105).
[0110]
When the process related to line data ends, Coordinate The conversion means 62 determines whether the input map data is character data (step 1106). When the character data is determined, the perspective conversion means 62 uses the projection angle θ and the viewpoint position coordinate value obtained in steps 1051 and 1052 for the coordinate value of the point at which drawing of the given character string is started. Conversion is performed (step 1107). In this embodiment, the perspective transformation is not performed on the character image. The node perspective transformation processing in step 1107 is repeated until the processing for all input nodes is completed (step 1108).
[0111]
When graphics are drawn using the obtained perspective transformation result, for example, a bird's-eye view like the map 103 shown in FIG. 1 is obtained. In this embodiment, since the perspective transformation of the character image is not performed in step 1107, the characters are all drawn with the same size and upright as shown in the map 103 of FIG.
[0112]
Next, processing of the drawing determination unit 63 will be described with reference to FIG. It is means for determining whether or not each data included in the map data is drawn.
[0113]
First, the drawing determination unit 63 determines whether the input map data includes plane data (step 1200). When it is determined that the surface data is included, the drawing determination unit 63 performs a predetermined surface data drawing determination process (step 1201). The surface data drawing determination process (step 1201) performed here is, for example, a process of determining an attribute predetermined for each surface data and selecting necessary predetermined surface data.
[0114]
When the process related to the surface data is completed, the drawing determination unit 63 next determines whether the input map data includes line data such as roads and line backgrounds (step 1202). If it is determined that the line data is included, the drawing determination unit 63 performs a predetermined line data drawing determination process (step 1203). The line data drawing determination process (step 1203) performed here is, for example, a process of determining an attribute predetermined for each line data and selecting necessary predetermined line data.
[0115]
When the processing relating to the line data is also completed, the drawing determination unit 63 next determines whether the input map data includes character data (step 1204). If it is determined that the character data is included, the drawing determination unit 63 first performs a rearrangement process so that the coordinate value of the point where the drawing of the character string is started is arranged from the far viewpoint to the vicinity of the viewpoint (step 1205).
[0116]
Next, the drawing determination means 63 compares the magnitude y between the height y of the point where drawing of each rearranged character string is started and the predetermined height h on the display screen (step 1206). . In this embodiment, the height h is 2/3 from the bottom when the height of the display screen is 1, and is a predetermined constant value. This is because, when the height from the base is 2/3 or more, the depression angle becomes very small, and the density of nodes to be drawn becomes very high. However, the reference value (height h) may be determined according to the height of the viewpoint or the like.
[0117]
Further, as a reference for whether or not to draw a character string, a distance from the viewpoint may be used instead of its height. For example, when the distance between the viewpoint and the destination is 1, only a character string whose distance from the viewpoint is 2/3 or less is drawn, and a character string whose distance is longer than 2/3 is deleted from the drawing target. You may do it.
[0118]
As a result of the position determination, the drawing determination unit 63 renders the character string to be drawn if the height y of the starting point of drawing the character string on the screen is lower than the height h, and draws the character string if it is higher. Delete from the target character string (step 1207). In this way, in this embodiment, the graphics processing unit 49 draws the map data selected by the drawing determination unit 63, thereby preventing the bird's eye view display from becoming complicated and providing a clear and easy-to-view display. Can be obtained.
[0119]
In this embodiment, whether or not to draw a character string is determined based on only the displayed height. However, a priority is determined in advance for each character string, and the displayed height (or from the viewpoint) is determined. A range of priority of character strings to be displayed may be determined in accordance with (distance), and only character strings with priorities included in the range may be drawn. For example, if the upper limit of the priority of the character string to be displayed is constant regardless of the height, and the lower limit of the priority of the character string to be displayed is increased according to the height on the display screen, In the area close to the top side, only the high priority character string is displayed, and in the area close to the bottom side of the display screen, not only the high priority character string but also the low priority character string is displayed. . Therefore, when the current position is near the bottom of the display screen, the closer to the current position, the more detailed character information can be obtained, and if it is far from the current position, only important information is displayed, which is convenient. High nature.
[0120]
In addition, when attributes (characters of display characters, meaning contents of character strings, etc.) are determined in advance for each character string, this attribute is used instead of the above priority, and attributes determined in advance for each region Only the characters may be displayed.
[0121]
If a character string is defined at a predetermined point as the destination, only the character string may be displayed.
[0122]
Steps 1205 to 1207 described above can be omitted, but it is desirable to execute them. The effect of these steps will be described with reference to FIGS. FIG. 13A is a bird's eye view obtained when drawing is performed without performing the rearrangement process and the drawing character string selection process in steps 1205 to 1207. FIG. 13B and FIG. a ) Is a bird's-eye view obtained when the rearrangement process of step 1205 is executed and the drawing character string selection process of steps 1206 and 1207 is not performed. FIG. 14B is a bird's-eye view obtained by the present embodiment, that is, a bird's-eye view obtained when the processing of steps 1205 to 1207 is executed. In FIG. 13 and FIG. 14, illustrations of figures drawn based on the plane data and line data are omitted.
[0123]
When the bird's-eye view is displayed without performing the rearrangement process in step 1205, as shown in FIG. 13A, each character string is displayed according to the storage order of the character strings regardless of the perspective with respect to the viewpoint. A character string far from the viewpoint may be superimposed on the character string.
[0124]
On the other hand, when the character string rearrangement process in step 1205 is executed, as shown in FIG. 13B, when the character string far from the viewpoint overlaps with the character string near the viewpoint, the one closer to the viewpoint is farther away. It is displayed over the character string. The bird's eye view displayed in this way is desirable because information closer to the current location can be easily read.
[0125]
When the bird's-eye view is displayed without performing the drawing character string selection process in steps 1206 and 1207, as shown in FIG. 14 (a), the farther from the viewpoint, the smaller the depression angle from the viewpoint, the smaller the compression angle, and the per unit area. The amount of data of lines, faces, and characters drawn on the screen increases. Of these data, the character data is drawn on top of other data, so that lines and surface backgrounds are hidden by the character data by the drawn character data. In such a bird's-eye view, it is very difficult to read surface information such as distant roads, rivers, and green zones from the display screen.
[0126]
On the other hand, in this embodiment, since the drawing character string selection processing in steps 1206 and 1207 is executed, as shown in FIG. 14B, the range from the bottom of the display screen to the height h (character drawing range). Some character data is drawn, and other character data is not drawn. Therefore, in the bird's-eye view drawn according to the present embodiment, it is possible to easily read surface information such as roads, rivers, and green zones far from the viewpoint from the display screen.
[0127]
The bird's eye view display device and the navigation system of the present embodiment can display a map expressed by a bird's eye view. Therefore, according to the present embodiment, the user can obtain a map display that is easy to see and in which the positional relationship between the points displayed in the map can be easily recognized. In addition to these effects, the present embodiment is considered to have the following effects.
[0128]
1stly, in a present Example, a plane map display and a bird's-eye view display can be switched arbitrarily. Therefore, in this embodiment, both a plan view and a bird's-eye view can be displayed according to the user's request.
[0129]
Secondly, in this embodiment, when switching between the bird's eye view display and the planar map display, the angle formed by the plane on which the map is projected and the plane including the map data is gradually increased or decreased in time series. That is, in this embodiment, the viewpoint for obtaining the bird's-eye view is smoothly moved in the conversion between the planar map display and the bird's-eye view display. Therefore, in this embodiment, since the transition between the plan view and the bird's eye view is smoothly performed, the correlation between the spot displayed on the plan map and the spot displayed on the bird's eye map can be easily recognized.
[0130]
Thirdly, in this embodiment, the viewpoint for obtaining the bird's-eye view can always be fixed at a certain direction and a certain distance away from the current position, and the height of the viewpoint is changed according to the operation input. You can also. If the viewpoint is fixed, the bird's-eye view is displayed so that the current location is always fixed to a certain point on the screen, so that the user can easily grasp the current location. Further, according to the present embodiment, the viewpoint position can be set to a user's desired position.
[0131]
Fourth, in this embodiment, when the positions of two points (for example, the current location and the destination) are designated, the viewpoint and the map are projected so that the two points are displayed at the predetermined positions on the screen. The angle formed by the plane and the plane including the map data is determined, and the bird's-eye view display is executed using the result. Therefore, according to this embodiment, the positional relationship between the two points can be easily determined. Further, even when the position of the two points is changed, it is always displayed on the same screen, so that the user can grasp the positional relationship between the two points without performing a complicated operation.
[0132]
Fifth, the coordinate conversion means of the present embodiment does not perform perspective conversion for character images. Therefore, in this embodiment, all the characters included in the bird's-eye view are displayed upright with the same size, and are easy to read.
[0133]
6thly, the drawing determination means of a present Example sorts a character data string according to the distance from the viewpoint of the character data position in map data. In other words, a character string closer to the position from the viewpoint is treated as having a higher display priority. Therefore, in this embodiment, the character data near the viewpoint is displayed without being covered with another display and missing, so that the character information close to the viewpoint can be easily identified.
[0134]
Seventh, the drawing determination means of the present embodiment deletes the drawing character string from the drawing target when the height of the character string on the screen obtained as a result of the perspective transformation of the map is higher than a predetermined value. Alternatively, the drawing determination unit may delete a character string defined at a position beyond a predetermined distance from the viewpoint from the drawing target. In this way, a character string is used for an area that is more than a predetermined height or more than a predetermined distance, i.e., an area where the amount of data drawn per unit area is very large because the depression angle is small when a bird's-eye view is displayed. By not drawing, the road display and the surface background display in this area are not covered by the character string display. Therefore, in this embodiment, even if the bird's-eye view is displayed, recognition of roads far from the viewpoint is not hindered. .
[0135]
【The invention's effect】
The bird's-eye view display device of the present invention and the navigation system including the device can display a map expressed by the bird's-eye view. Therefore, according to the present invention, it is possible to obtain a map display that is easy to see and in which the positional relationship between points displayed in the map can be easily recognized.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing a bird's eye view display example of a map drawn according to the present invention.
FIG. 2 is a configuration diagram of the navigation system of the embodiment.
FIG. 3 is a hardware configuration diagram of an arithmetic processing unit.
FIG. 4 is a functional block diagram of an arithmetic processing unit.
FIG. 5 is a functional block diagram of map drawing means.
FIG. 6 is an explanatory diagram showing perspective transformation of a map.
FIG. 7 is an explanatory diagram showing a coordinate conversion process for displaying a bird's eye view.
FIG. 8 is a flowchart showing a flow of processing of coordinate conversion means.
FIG. 9 is an explanatory diagram showing a method for setting a viewpoint and a projection plane for bird's-eye view display;
FIG. 10 is an explanatory diagram showing a viewpoint and projection plane setting method for bird's-eye view display.
FIG. 11 is a flowchart showing a flow of perspective transformation calculation.
FIG. 12 is a flowchart showing a flow of processing of a drawing determination unit.
FIG. 13 is an explanatory diagram showing an effect of a character string rearrangement process;
FIG. 14 is an explanatory diagram showing an effect of a drawn character string selection process.
FIG. 15 is an explanatory diagram showing a method for setting a viewpoint and a projection plane for bird's-eye view display;
FIG. 16 is an explanatory diagram showing a method for setting a viewpoint and a projection plane for bird's-eye view display;
FIG. 17 is an external perspective view of the navigation system according to the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Arithmetic processing part, 2 ... Display, 3 ... Map storage device, 4 ... Voice input / output device, 5 ... Input device, 6 ... Wheel speed sensor, 7 ... Geomagnetic sensor, 8 ... Gyro, 9 ... GPS receiver, 10 ... traffic information receiving device, 21 ... CPU, 22 ... RAM, 23 ... ROM, 24 ... DMA, 25 ... drawing controller, 26 ... VRAM, 27 ... color palette, 28 ... A / D converter, 29 ... SCI, 30 ... I / O device, 31 ... counter, 41 ... user operation analysis means, 42 ... route calculation means, 43 ... route guidance means, 44 ... map drawing means, 45 ... current position calculation means, 46 ... map match processing means, 47 ... Data reading processing means 48 ... Menu drawing means 49 ... Graphics processing means 61 ... Initial data clipping means 62 ... Coordinate conversion means 63 ... Drawing determination means 64 ... Decoding Data clipping means, 65 ... drawing command issuing means, 66 ... scroll key, 67 ... scale change key, 68 ... projection angle changing key, 69 ... housing, 70 ... touch sensor.

Claims (6)

道路データを含む地図データを格納する地図データ格納手段と、  Map data storage means for storing map data including road data;
車両の現在位置地点を検出する現在位置検出手段と、  Current position detecting means for detecting the current position of the vehicle;
前記車両の現在位置地点を基にした視点位置から前記地図データを透視変換して鳥瞰地図を作成し、前記鳥瞰地図を前記車両の現在位置地点と共にディスプレイに表示すると共に前記車両の進行に伴って前記鳥瞰地図を更新表示する地図描画手段とを備えたナビゲーション装置であって、  The map data is perspective-transformed from the viewpoint position based on the current position point of the vehicle to create a bird's-eye view map, the bird's-eye view map is displayed on the display together with the current position point of the vehicle, and as the vehicle progresses A navigation device comprising map drawing means for updating and displaying the bird's eye view map,
前記地図描画手段は、  The map drawing means includes:
前記車両の現在位置地点から設定された目的地点までの距離に応じて前記視点位置からの投射角度を算出する投射角度算出手段と、  A projection angle calculating means for calculating a projection angle from the viewpoint position according to a distance from the current position point of the vehicle to a set destination point;
前記車両の進行に伴って前記投射角度と前記視点位置に基づいて前記鳥瞰地図を更新表示する地図更新手段と  Map updating means for updating and displaying the bird's eye view map based on the projection angle and the viewpoint position as the vehicle travels;
を備えていることを特徴とするナビゲーション装置。A navigation device comprising:
請求項1において、前記投射角度算出手段は前記車両の現在位置地点から前記目的地点までの距離が短いほど前記投射角度が小さくなるように前記投射角度を算出することを特徴とするナビゲーション装置。  The navigation apparatus according to claim 1, wherein the projection angle calculation unit calculates the projection angle such that the projection angle becomes smaller as the distance from the current position of the vehicle to the destination point becomes shorter. 請求項1において、前記投射角度算出手段は前記車両の現在位置地点から前記目的地点までの距離が短いほど前記投射角度が大きくなるように前記投射角度を算出することを特徴とするナビゲーション装置。  The navigation apparatus according to claim 1, wherein the projection angle calculation unit calculates the projection angle such that the projection angle increases as the distance from the current position of the vehicle to the destination point is shorter. 道路データを含む地図データを格納する地図データ格納手段と、  Map data storage means for storing map data including road data;
車両の現在位置地点を検出する現在位置検出手段と、  Current position detecting means for detecting the current position of the vehicle;
前記車両の現在位置地点を基にした視点位置から前記地図データを透視変換して鳥瞰地図を作成し、前記鳥瞰地図を前記車両の現在位置地点と共にディスプレイに表示すると共に前記車両の進行に伴って前記鳥瞰地図を更新表示する地図描画手段とを備えたナビゲーション装置の地図表示方法であって、  The map data is perspective-converted from the viewpoint position based on the current position point of the vehicle to create a bird's eye view map, the bird's eye view map is displayed on the display together with the current position point of the vehicle, and as the vehicle advances A map display method of a navigation device comprising map drawing means for updating and displaying the bird's eye view map,
前記地図描画手段は、  The map drawing means includes:
前記車両の現在位置地点から設定された目的地点までの距離に応じて前記視点位置からの投射角度を求め、前記車両の進行に伴って前記投射角度と前記視点位置に基づいて前記鳥瞰地図を更新表示することを特徴とするナビゲーション装置の地図表示方法。  The projection angle from the viewpoint position is obtained according to the distance from the current position point of the vehicle to the set destination point, and the bird's-eye view map is updated based on the projection angle and the viewpoint position as the vehicle travels A map display method of a navigation device, characterized by displaying.
道路データを含む地図データを格納する地図データ格納手段と、  Map data storage means for storing map data including road data;
車両の現在位置地点を検出する現在位置検出手段と、  Current position detecting means for detecting the current position of the vehicle;
前記車両の現在位置地点を基にした視点位置から前記地図データを透視変換して鳥瞰地図を作成し、前記鳥瞰地図を前記車両の現在位置地点と共にディスプレイに表示すると共に前記車両の進行に伴って前記鳥瞰地図を更新表示する地図描画手段とを備えたナビゲーション装置であって、  The map data is perspective-converted from the viewpoint position based on the current position point of the vehicle to create a bird's eye view map, the bird's eye view map is displayed on the display together with the current position point of the vehicle, and as the vehicle advances A navigation device comprising map drawing means for updating and displaying the bird's eye view map,
前記地図描画手段は、  The map drawing means includes:
現在の投射角度から予め定められた所定角度分だけ変化させることによって新たな投射角度を算出する投射角度算出手段と、  A projection angle calculating means for calculating a new projection angle by changing the current projection angle by a predetermined angle,
前記視点位置および前記新たに算出された投射角度に基づいて前記地図データを透視変換して前記鳥瞰地図を作成して前記ディスプレイに表示する処理を予め定められた所定の投射角度となるまで繰り返す処理を行なう地図更新手段と  A process of repeating the process of perspective-converting the map data based on the viewpoint position and the newly calculated projection angle to create the bird's eye view map and displaying it on the display until a predetermined projection angle is reached. Map update means to perform
を備えたことを特徴とするナビゲーション装置。A navigation device characterized by comprising:
道路データを含む地図データを格納する地図データ格納手段と、  Map data storage means for storing map data including road data;
車両の現在位置地点を検出する現在位置検出手段と、  Current position detecting means for detecting the current position of the vehicle;
前記車両の現在位置地点を基にした視点位置から前記地図データを透視変換して鳥瞰地図を作成し、前記鳥瞰地図を前記車両の現在位置地点と共にディスプレイに表示すると共に前記車両の進行に伴って前記鳥瞰地図を更新表示する地図描画手段とを備えたナビゲーション装置の地図表示方法であって、  The map data is perspective-converted from the viewpoint position based on the current position point of the vehicle to create a bird's eye view map, the bird's eye view map is displayed on the display together with the current position point of the vehicle, and as the vehicle advances A map display method of a navigation device comprising map drawing means for updating and displaying the bird's eye view map,
前記地図描画手段は、  The map drawing means includes:
現在の投射角度から予め定められた所定角度分だけ変化させることによって新たな投射角度を求め、前記視点位置および前記新たに算出された投射角度に基づいて前記地図データを透視変換して前記鳥瞰地図を作成して前記ディスプレイに表示する処理を予め定められた所定の投射角度となるまで繰り返すことを特徴とする地図表示方法。  A new projection angle is obtained by changing the current projection angle by a predetermined angle, and the bird's eye map is obtained by perspective-transforming the map data based on the viewpoint position and the newly calculated projection angle. The map display method characterized by repeating the process of creating and displaying on the display until a predetermined projection angle is reached.
JP2002119766A 2002-04-22 2002-04-22 Bird's-eye view creation method, map display device, and navigation system Expired - Lifetime JP3660644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002119766A JP3660644B2 (en) 2002-04-22 2002-04-22 Bird's-eye view creation method, map display device, and navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002119766A JP3660644B2 (en) 2002-04-22 2002-04-22 Bird's-eye view creation method, map display device, and navigation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP09553595A Division JP3474022B2 (en) 1995-04-20 1995-04-20 Map display device, map display method, arithmetic processing unit for map display device, and navigation system

Publications (2)

Publication Number Publication Date
JP2003036022A JP2003036022A (en) 2003-02-07
JP3660644B2 true JP3660644B2 (en) 2005-06-15

Family

ID=19194102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002119766A Expired - Lifetime JP3660644B2 (en) 2002-04-22 2002-04-22 Bird's-eye view creation method, map display device, and navigation system

Country Status (1)

Country Link
JP (1) JP3660644B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4457308B2 (en) * 2005-04-05 2010-04-28 ヤマハ株式会社 Parameter generation method, parameter generation apparatus and program
JP4457307B2 (en) * 2005-04-05 2010-04-28 ヤマハ株式会社 Parameter generation method, parameter generation apparatus and program
JP4896761B2 (en) * 2007-02-16 2012-03-14 株式会社日立製作所 3D map display system, 3D map display method, and program thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344766A (en) * 1989-07-13 1991-02-26 Canon Inc Information display device
JP3212113B2 (en) * 1990-11-07 2001-09-25 株式会社日立製作所 Map information display method and device
JPH04204589A (en) * 1990-11-30 1992-07-24 Matsushita Electric Ind Co Ltd Map display device
JPH0546080A (en) * 1991-08-13 1993-02-26 Furuno Electric Co Ltd Perspective drawing preparing device
JP3218372B2 (en) * 1991-10-04 2001-10-15 株式会社日立製作所 3D graphic display method
JP3376593B2 (en) * 1991-11-14 2003-02-10 株式会社日立製作所 Map data display device
JPH05203457A (en) * 1992-01-29 1993-08-10 Nec Home Electron Ltd Route guidance apparatus
JPH07103783A (en) * 1993-10-06 1995-04-18 Daihatsu Motor Co Ltd Map display method of navigation system
JPH0868645A (en) * 1994-08-29 1996-03-12 Nissan Motor Co Ltd Navigation system
JP3391136B2 (en) * 1995-02-24 2003-03-31 日産自動車株式会社 Route guidance device for vehicles

Also Published As

Publication number Publication date
JP2003036022A (en) 2003-02-07

Similar Documents

Publication Publication Date Title
JP3474022B2 (en) Map display device, map display method, arithmetic processing unit for map display device, and navigation system
US6654014B2 (en) Bird's-eye view forming method, map display apparatus and navigation system
JP3474053B2 (en) Map display method for navigation device and navigation device
JP4486175B2 (en) 3D map display apparatus and method
JP4183426B2 (en) Navigation device
JP4783603B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, MAP DISPLAY PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US20130131978A1 (en) Method and apparatus for displaying three-dimensional terrain and route guidance
JPH08292715A (en) Map display device
JP2002098538A (en) Navigation system and method for displaying information of pseudo three dimensional map
JP4491541B2 (en) 3D map display device and navigation device
JP3642776B2 (en) Map display method of navigation device and navigation device
JP3679777B2 (en) Bird's-eye view creation method, map display device, and navigation system
JP3893325B2 (en) Input display device and input display method
JP4533191B2 (en) 3D map display device and 3D map display program
JP3660644B2 (en) Bird's-eye view creation method, map display device, and navigation system
JP2003344054A (en) Navigation apparatus, map display apparatus, and program
JP3660645B2 (en) Bird's-eye view creation method, map display device, and navigation system
JPH10332396A (en) Navigation device
JP3831679B2 (en) Bird's-eye view creation method, map display device, and navigation system
JP2016176974A (en) Map image display apparatus, navigation apparatus, map image display program and map image display method
JP3848351B2 (en) Navigation device
JP2003030687A (en) Map display device
JP2002311817A (en) Navigation device for mobile object
KR100482227B1 (en) Bird's-eye view creation method, map display device and navigation system
JP2007078774A (en) Vehicle guiding device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110325

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130325

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140325

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term