JP3954178B2 - 3D map display device - Google Patents

3D map display device Download PDF

Info

Publication number
JP3954178B2
JP3954178B2 JP32757897A JP32757897A JP3954178B2 JP 3954178 B2 JP3954178 B2 JP 3954178B2 JP 32757897 A JP32757897 A JP 32757897A JP 32757897 A JP32757897 A JP 32757897A JP 3954178 B2 JP3954178 B2 JP 3954178B2
Authority
JP
Japan
Prior art keywords
map
data
terrain
map data
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32757897A
Other languages
Japanese (ja)
Other versions
JPH11161159A (en
Inventor
秀雄 廣重
芳則 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Xanavi Informatics Corp
Original Assignee
Hitachi Ltd
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Xanavi Informatics Corp filed Critical Hitachi Ltd
Priority to JP32757897A priority Critical patent/JP3954178B2/en
Publication of JPH11161159A publication Critical patent/JPH11161159A/en
Application granted granted Critical
Publication of JP3954178B2 publication Critical patent/JP3954178B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元地形図に地図を重ねディスプレイなどに表示する3次元地図表示装置に関する。
【0002】
【従来の技術】
従来、地図表示装置ではCD−ROMやDVD−ROM等の記憶媒体に記憶されたデジタル地図データを読み出し、構造物や道路,地名等を座標変換することで任意縮尺の平面図として描画し、ディスプレイ等の表示装置に地図を表示していた。さらに特開平8−292720 号に記載されるように、平面地図を任意の高さの視点位置から俯瞰し、該平面地図と視点との間に設けた投影面に投影される俯瞰図を表示する疑似3次元表示もある。疑似3次元表示の特徴は、視点近傍の詳細地図情報及び視点遠方の概略情報を同一画面上で把握できることである。さらに、これらの平面地図や疑似3次元表示された地図に、等高線や等高に応じた色を描画することにより地形の高低差を表現する方法もある。
【0003】
疑似3次元地図表示では2次元の地図データをもとに全ての平面の高さが等しいと仮定し座標変換し描画する。従って、山や谷の起伏といった立体的な形状等を表現することは困難であった。さらに、平面地図や疑似3次元地図に等高線や等高に応じた色を描画する方法においても、表示される地図画面は実際の地形とはかけ離れ、より実際的な俯瞰図を表示することは困難であった。
【0004】
この課題を解決する方法として、標高データが記録された頂点座標を読み出し、各頂点を結ぶことにより形成される地形メッシュを最小単位として3次元モデルを作成し、そこに上記2次元的な地図データを重ねることで3次元的な地形表示を得る3次元地図表示がある。3次元地図表示においては、俯瞰したい地点を含むように視点位置を設定し、投影面、即ちディスプレイ等の表示画面に3次元モデルで構成される地形形状や、それに重なる地図を投影するように動作する。
【0005】
【発明が解決しようとする課題】
3次元地図表示では、設定された視点位置から3次元的な地形形状を俯瞰するように動作する。従って特に山間部においては視点位置と反対側の山の斜面や、手前の山等で隠される地形面、即ち陰面が発生し、その陰面を消去する陰面消去が必須になる。
【0006】
陰面消去方法には、表示画面の各画素に対し奥行き情報を持ち、各画素に対する描画の際に奥行き情報を判定し、手前側であれば描画するZバッファ法,3次元地形図を構成する地形メッシュや地図データを奥行き順に並び替え、視点遠方から手前方向に向かい順に描画するZソート法、及び3次元地形図を構成する地形メッシュや地図データを視点遠方から手前方向に向かい順に選択し描画するペインターアルゴリズムなどの方法がある。
【0007】
ここで、Zバッファは各画素単位に奥行き判定を実行するための比較器を備えた描画プロセッサ、ないし奥行き判定しながら各画素を描画するレンダリングソフトが必要となる。従って、3次元地図表示における陰面消去が画素単位の描画に波及し、一般的に使用される2次元な平面を描画する描画プロセッサを用いて実現することは困難である。そこで2次元平面を描画する描画プロセッサにおいても実現可能なZソート法、ないしペインターアルゴリズムを陰面消去に使用するケースに焦点を絞る。Zソート法、及びペインターアルゴリズムを用い3次元地図表示を実施したとき、陰面消去において以下の課題が発生する。
【0008】
第1の課題は、地図データに含まれる道路データや水系や緑地帯を表現する背景データは、標高データと独立に生成される。従って、地図データを構成する折れ線や面が地形メッシュと交わる場所において頂点が存在するという保証はない。このため、地形メッシュ及び地図データを視野遠方から順にソートないし選択し、描画したとき循環的な重なりが発生し、陰面消去が完全に実施できないという課題がある。
【0009】
第2の課題は、Zソート法において実施する地形データ及び地図データのソーティング、またはペインターアルゴリズムにおいて実施する地形データ及び地図データを奥から順に選択する処理の処理負荷が大きく、3次元地図表示を完了するまでの時間を増大させてしまうという課題がある。さらに地形メッシュの大きさを固定にしてしまうと、視点高さを高くしたとき描画しなければならない地形メッシュ数が増大し、処理負荷が増加してしまうという課題がある。
【0012】
【課題を解決するための手段】
上記課題を解決するため、以下の手段を用いる。
【0013】
第1の課題を解決する手段として、地形メッシュ単位で地図データを分割する手段を用いる。一方で、地形メッシュ単位に地図データを分割する手段は、完全な陰面消去を実施できるが処理負荷が重い。そこで表示する3次元地図内に陰面が存在するか判定する手段を用い、陰面が存在すると判定したときには地形メッシュ単位に地図データを分割し、陰面が存在しないと判定したときには地形メッシュ単位での地図データ分割をスキップするように動作する。
【0014】
第2の課題を解決する手段として、地形メッシュ毎に分割した地図データを描画する描画命令と分岐命令をセットで格納する手段を用いる。さらに、広範囲の領域を見渡せる視点高さや俯角の場合、地形メッシュのサイズを変化させる手段を用いる。
【0017】
【発明の実施の形態】
以下図面を参照し、3次元地図表示装置をナビゲーション装置に適用した一実施例を説明する。
【0018】
図1に本発明の3次元地図表示の表示例を示す。地形及び道路,文字列などの地図データは、地形面を構成する地形メッシュ2001単位に分割し、地形メッシュ及び分割された地図データを視点遠方から視点近傍に向かい順に描画することで3次元地図を出力装置2に表示する。
【0019】
図2にナビゲーション装置の構成を示す。以下、ナビゲーション装置の各構成ユニットについて詳細を説明する。
【0020】
演算処理部1は5〜8の各種センサから出力されるセンサ情報S5〜S8を基に現在位置を検出し、得られた現在位置情報から地図表示に必要な地図データを記憶手段3から読み込み、地図データをグラフィックス展開し、地図を出力装置2へ表示したり、ユーザから指示された目的地と現在地を結ぶ最適な経路を選択し、出力装置2上の地図に重ねて表示することでユーザを目的地に誘導するといった様々な処理を行う中心的なユニットである。
【0021】
出力装置2は、演算処理部1で生成されたグラフィックス情報を表示するユニットで、CRTや液晶ディスプレイで構成される。また演算処理部1と出力装置2の間の信号S1は、RGB信号やNTSC(National Television System Committee)信号で接続するのが一般的である。
【0022】
記憶手段3は、CD−ROMやDVD−ROM,ICカードといった大容量記憶媒体で構成され、地図表示で必要とする地図データ,標高データなどを格納する。
【0023】
入力装置4は、ユーザからの指示を受け付けるユニットで、スクロールキー,縮尺変更キーなどのハードスイッチ,ジョイスティック,ディスプレイ上に貼られたタッチパネルなどで構成される。
【0024】
ナビゲーション装置で位置を検出するために使用するセンサは、車輪の円周と計測される車輪の回転数の積から距離を測定し、さらに対となる車輪の回転数の差から移動体が曲がった角度を計測する車輪速センサ5,地球が保持している磁場を検知し移動体が向いている方角を検出する地磁気センサ6,光ファイバジャイロや振動ジャイロといった移動体が回転した角度を検出するジャイロ7,GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率を3個以上の衛星に対して測定することで移動体の現在位置,進行速度及び進行方位を測定するGPS受信装置8で構成される。さらに、GPS受信装置8ではGPS衛星からの信号を解析することで、時刻情報や日付情報を得ることができる。
【0025】
また、車両の様々な情報、例えばドアの開閉情報,点灯しているライトの種類と状況,エンジンの状況や故障診断結果などを受ける車内LAN装置9を備える。
【0026】
図3は演算処理部1のハードウェア構成について説明した図である。
【0027】
以下、各構成要素について説明する。演算処理部1は、図中21〜31の各デバイス間をバスで接続し構成する。各構成要素は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU21,地図や検索データ,演算データを格納するRAM22,処理プログラムやデータを格納するROM23,高速にメモリとメモリ間及びメモリと各デバイス間のデータ転送を実行するDMA (Direct Memory Access)24,ユニファイドメモリ26に格納された描画命令や分岐命令を受け同ユニファイドメモリ内のフレームメモリ空間に画素情報に高速に展開するグラフィックス描画と表示制御を実行する描画プロセッサ25,描画結果や描画命令等を蓄えるユニファイドメモリ26,各色のパレットIDで構成されるイメージデータをRGBの輝度情報信号に変換するカラーパレット27,アナログ信号をデジタル信号に変換するA/D変換器28,シリアル信号をバスに同期したパラレル信号に変換するSCI29,パラレル信号と同期をとりバス上にのせるPIO30,パルス信号を積分するカウンター31で構成される。図4は演算処理部1の機能構成について説明した図である。以下各構成要素について詳細を説明する。
【0028】
現在位置演算手段42は、車輪速センサ5で計測される距離パルスデータS5、及びジャイロ7で計測される角加速度データS7を各々積分した結果得られる距離データ及び角度データを用い、そのデータを時間軸で積分していくことにより、初期位置(X,Y)から移動体走行後の位置(X′,Y′)を演算する処理を行う。ここで、移動体の回転した角度と進む方位の関係を一致させるため、地磁気センサ6から得られる方位データS6と、ジャイロ7から得られる角加速度データS7を積分した角度データを1対1の関係にマッピングし、移動体が進行している方向の絶対方位を補正する。また上述したセンサから得られたデータを積分してゆくとセンサの誤差が蓄積するため、ある時間周期でGPS受信装置8から得られた位置データS8をもとに蓄積した誤差をキャンセルするという処理を施し現在位置情報を出力する。
【0029】
上記現在位置情報にはセンサの誤差が含まれているため、さらに位置精度を高めることを目的に、マップマッチ手段43を行う。これは、記憶手段3から現在地周辺の地図に含まれる道路データを地図データ読込手段44によって読み込み、現在位置演算手段42から得られた走行軌跡形状と道路形状を互いに照らし合わせ、形状の相関が最も高い道路に現在地を合わせ込むという処理である。マップマッチ処理を施すことで現在地は多くの場合走行道路と一致するようになり、精度よく現在位置情報を出力することができる。
【0030】
ユーザ操作解析手段41は、ユーザからの要求を入力装置4で受け、その要求内容を解析し、対応する処理を実行するよう各ユニットを制御する。
【0031】
地図表示手段45は、記憶手段3から地図データ読込手段44が読み出す地図データと標高データを用い、視点位置から所定俯角かつ所定縮尺で地形を見下ろした3次元地図を描画する描画データを転送するように動作する。なお視点位置は、地図上の現在位置または表示対象となる地点から視線方向と逆方向に所定距離離れた位置に設定するとよい。
【0032】
メニュー表示手段46は、ユーザインタフェースとなるボタンやメニューリストなどを描画し、表示処理手段47に描画データを転送するように動作する。
【0033】
表示処理手段47は、前記説明した地図表示手段45,メニュー表示手段46からの描画データに基づき、ユニファイドメモリ26内のフレームメモリに地図とメニュー画面を表現する線や面,イメージ,文字を画素展開する。
【0034】
以下、3次元地図を表示するための描画データを生成する地図表示手段45につき詳細を説明する。
【0035】
図5は地図表示手段45の機能構成について説明した図である。
【0036】
地図データ要求手段50は、地図表示すべき領域に含まれる地図データ、即ち道路の属性とその形状で構成される道路データ,建物や緑地帯,河川等を表現するポリゴンの属性とその形状で構成される背景データ,地名や施設名称等の文字記号コードとそれらが位置する点の座標データで構成される文字記号データ、及び地図表示すべき領域においてx軸,y軸方向に所定間隔で分割した頂点の標高値で構成される標高データを記憶手段3から読み出す。
【0037】
地形メッシュ演算手段51は、視点位置と俯角より表示画面に表示する地図の可視領域を演算し、その可視領域内に存在する標高データから地形面を表現する矩形形状の地形メッシュを生成する。
【0038】
座標変換手段52は、地図データ要求手段50で読み出した地図データ及び標高データを視線方向がy軸に一致し、かつ視点位置が原点になるように座標変換する。
【0039】
陰面有無判定手段53は、地形メッシュ演算手段51で生成した地形メッシュを投影変換手段57で投影変換し、その投影変換した結果から陰面になる地形メッシュが存在するか判定する。陰面となる地形メッシュが存在すれば地図データ分割手段54へ、存在しなければ地図データ記憶手段56に処理が遷移するように動作する。
【0040】
地図データ分割手段54は、地形メッシュ単位に地図データに含まれる道路データ、及び背景データを分割する。
【0041】
文字列処理手段55は、名称等の文字列及び記号を描画するタイミングと表示画面上での描画位置の補正を実行する。
【0042】
地図データ記憶手段56は、陰面有無判定手段53で陰面が存在すると判定された場合は分割された地図データを、陰面有無判定手段53で陰面が存在しないと判定された場合は読み出した地図データを投影変換し、描画命令と分岐命令を組にして格納する。
【0043】
投影変換手段57は、図6に記載した視点位置1005から任意俯角で、視点位置1005から規定距離離れた位置に存在する投射面(表示画面)に前記地図データを構成するベクトルデータやポイントデータ及び地形メッシュを構成する頂点座標を投影変換する。
【0044】
描画手段58は、任意位置の地形メッシュ及び、その地形メッシュに重ねて描画する地図データを選択し描画する。これら処理を視点遠方から視点近傍の順に実施することで地形図及び地図の陰面消去を実現する。
【0045】
次に、図6を用いて座標変換手段52の詳細を説明する。
【0046】
座標変換手段52は、地図データ要求手段50において読み出した地図データ及び標高データを、図6に記載した視点位置1005が原点(0,0)で視線方向1006がy座標軸に一致し、かつ地図データと標高データの縮尺が一致するように座標変換する。ここで、視点位置は自車位置から視線方向と逆方向に所定距離離れた地点で、かつ自車位置より所定高さだけ高い位置に設定するとよい。さらに視線方向は、自車両の進行方向に設定するとよい。これにより、地形メッシュ2001と地図データが同一座標系となり、かつ各地形メッシュを構成する矩形がx軸及びy軸に平行になるため、後述する地図データを地形ポリゴン毎に分割する地図データ分割手段54を簡略化することができる。
【0047】
次に、図7と図8を用い地形メッシュ演算手段51の詳細を説明する。
【0048】
可視領域演算手段70は、図7に記載した視点位置1005を原点とし、視線方向1006を上(y軸)とする座標系で、自車位置又は表示対象となる地点における標高と、表示対象の全て地点の標高が等しいと仮定し、視点位置から視線方向に見下ろした場合に、表示画面に投影される2次元地図の範囲(可視領域)1004を演算する。
【0049】
次に、地形メッシュサイズ演算71では地形面を構成する地形メッシュのサイズを決定するが、任意視点高さから俯瞰した3次元地図を表示する装置において視点位置が高くなると可視領域1004が広くなる。これにより、地形メッシュサイズdx,dyを固定とすると地形メッシュ数が2乗オーダーで増加し、処理負荷が増す。そこで、視点高さと俯角により地形メッシュサイズdx,dyを決定する処理を用いる。例えば、基準となる視点高さと設定された視点高さとの比率を、基準となる地形メッシュサイズdx,dyに乗算しメッシュサイズを決定するとよい。さらに、各視点高さに対応する地形メッシュサイズdx,dyをテーブルとして備え、このテーブルから任意視点高さに対応する地形メッシュサイズdx,dyを決定してもよい。ここでは視点高さをパラメータとする例を述べたが、俯角をパラメータとして同様の処理を行い地形メッシュのサイズを決定することもできる。また、視点高さと俯角の関係から地形メッシュのサイズを決定してもよい。これにより、描画する地形メッシュ数が著しく増加しないように制御され、可視領域が拡大した場合の処理負荷を低減することができる。
【0050】
地形メッシュ生成72は、地形メッシュサイズ演算71で得られた地形メッシュサイズdx,dy毎に可視領域1004を分割し、地形メッシュ2001を構成する各頂点2002の座標値を演算する。本実施例では地形メッシュ形状を矩形としているが、地形メッシュ形状を三角形としてもよい。
【0051】
最低標高抽出73では、視点位置1005の標高が高く、かつ標高の低い地形領域を見下ろす場合に発生する地形ポリゴン抜けを防ぐために実施され、標高データにおける可視領域1004内に含まれる標高値のなかで最も低い標高値を抽出する。
【0052】
次に、可視領域補正74は視点位置の標高値と最低標高抽出73で抽出された標高値の差分を演算し、この差分値をパラメータとして図7に示すように視線方向と垂直方向に左右に右追加地形メッシュ2003,左追加地形メッシュ2004を追加する。追加する地形メッシュの演算方法には、前記差分値の所定高さ毎に追加するメッシュの数を設定する方法がある。これは例えば差分値が100m単位で地形メッシュを左右に1メッシュずつ追加するという方法である。なお、視点位置標高の変わりに現在位置標高を用いて処理を行ってもよい。
【0053】
上記処理により生成された地形メッシュの各頂点2002は2次元平面上の頂点であり、3次元地図表示を行うためには各頂点における標高値を得る必要がある。そこで、標高値演算75では地図データ要求手段50により読み出した標高データから、地形メッシュを構成する頂点の標高値を演算する。ここで、標高データに記録された頂点座標と地形メッシュを構成する頂点座標は一致しない。そこで、例えば図6のように頂点2002を取り囲む頂点2040,2041,
2042,2043の標高データを読み出し、頂点2002の標高値を演算する。ここで、標高2040の座標を(x1,y1,z1)、標高2041の座標を(x2,y1,z2)、標高2042の座標を(x2,y2,z3)、標高2043の座標を(x1,y2,z4)とすると、頂点2002の座標を(xp,yp)に対する標高値zpは数1,数2,数3を演算することで得られる。
【0054】
【数1】
Za=(yp−y1)×(Z4−Z1)/(y2−y1)+Z1 …(数1)
【0055】
【数2】
Zb=(yp−y2)×(Z3−Z2)/(y2−y1)+Z2 …(数2)
【0056】
【数3】
Zp=(xp−x1)×(Zb−Za)/(x2−x1)+Za …(数3)
次に、図9を用いて陰面有無判定手段53の詳細を説明する。
【0057】
表示する地図に陰面となる地形が存在しない場合、地図データを地形メッシュ単位に分割する処理を省略し、全ての地形面を描画した後、地図データを地形上に重ねて描画しても3次元地図が陰面により隠されるないしは、陰面が表示されるという現象は発生しない。また3次元地図表示において、山間部では陰面となる地形メッシュが発生するが、平野部では陰面となる地形メッシュの発生する確率は極端に低下するという特性を有する。さらに、大都市などの地図データ量が多い地域は平野部に集中するという特性がある。
【0058】
そこで、陰面有無判定手段53では、投影変換手段57により可視領域内の地形メッシュを構成する全ての頂点を投影変換し、ある頂点2010と視点遠方側に隣接する頂点2011の投影面上でのy軸(投影面上方向)座標の大小関係を比較する。この比較結果が図9における陰面メッシュ例b)に示すように、投影面上で頂点2010より視点遠方側の頂点2011のy座標が小さければ、その2頂点を含む地形メッシュは陰面であると判断する。その判定結果を基に、陰面となる地形メッシュが1つでも存在すれば地図データ分割手段54へ、存在しなければ地図データ記憶手段56に処理が遷移する。
【0059】
これにより、陰面となる地形メッシュが存在する場合のみ地図データを地形メッシュ単位に分割するため、平野部での地図データ分割処理に要する処理負荷を低減することができる。
【0060】
次に、図10を用い地図データ分割手段54の詳細を説明する。
【0061】
地図データ取得手段80は、地図フォーマットに従い同一属性で連続する折れ線及び面データを構成する頂点データを取得する。地形メッシュ位置演算手段
81では、この取得した頂点データのy座標(視線方向)の最大値と最小値を抽出し、この2つのy座標を含むカラム位置(y軸方向の地形メッシュ位置)を演算する。この処理は、既に地形メッシュ及び地図データを、視線方向をy軸方向とする座標系に変換されているため、地形メッシュサイズでy座標を割れば容易に求まる。
【0062】
カラム判定手段82では、頂点データの最大値に対するカラム位置と、最小値に対するカラム位置が同一カラム位置か判定する。2つのカラム位置が同一である場合は、複数のカラム領域に頂点データがまたがらないため、領域分割する必要はないが、2つのカラム位置が異なる場合、頂点データが存在するカラム毎にデータを分割する必要がある。そのため補間点生成手段83により、頂点データと各カラムの境界との交点を演算し補間点を生成する。例えば、折れ線3001の場合、y座標の最大値はカラム4,最小値はカラム2に含まれる。そのため、折れ線3001はカラム2,カラム3,カラム4に含まれる頂点データ毎に分割する。よって、各カラムの境界と折れ線3001の交点を演算することで3つの頂点データA,B,Cに分割する。また面データ3003の場合、y座標の最大値はカラム3,最小値はカラム1に含まれる。そのため、面データ3003はカラム1,カラム2,カラム3に含まれる領域毎に分割する。よって、各カラムの境界と面データ3003の交点を演算し、3つの面データE,F,Gをそれぞれ構成する頂点データに分割する。このように、全ての地図データをカラム毎に分割された頂点データに変換する。よって、地形メッシュと地形データの管理領域が同一となるため、循環的な重なりが発生することがなく、高品質な3次元地図を表示することができる。
【0063】
次に、図11,図12を用い文字列処理手段55を説明する。
【0064】
図11に文字列の表示例を示す。文字列や記号の位置を実際の地形に忠実に表現するため、文字列,記号の一部が手前側物体で隠される場合は、物体との重なり部分のみ陰面消去する。そのため、文字列の陰面消去も、道路等のベクトルデータと同様に陰面消去処理を実施する。しかし、ベクトルデータと違い文字列表示では矩形領域を占有するため、文字列の存在する地形メッシュと文字列の矩形領域が一致しないため、文字列4001が地形メッシュ4002によって隠されてしまう。このような重なりで不当に消去される文字列を防ぐため、文字列処理手段55では文字列,記号の描画タイミングの変更及び表示画面での文字列,記号の描画位置補正を行う。
【0065】
以下に図12を用い文字列処理手段55の詳細処理を説明する。
【0066】
文字列データ取得91は、地図データに記録された文字列の描画座標位置,文字数及び文字コード、ないし記号の描画座標位置,記号コード及びシンボルイメージを読み出す。さらに描画座標位置における標高値を標高データから演算する。
【0067】
重なり判定92は、全ての文字列,記号の描画位置座標を投影変換し、文字列の表示画面上で占める矩形領域位置及びサイズを文字数と文字コードより演算する。次に、全ての文字列,記号を表示対象と見なし視点位置からの距離が近い順にソートする。さらに視点位置近傍の文字列,記号を表示優先とし、表示優先文字列,記号の矩形領域と重なりのある文字列,記号を表示対象の文字列,記号から削除する。これにより表示画面で文字列,記号の重なりが削減され、視認性が向上する。
【0068】
文字列位置判定93は、重なり判定92により表示対象となった文字列,記号の描画位置座標のy座標(視線方向)を抽出し、このy座標が含まれるカラム位置(y軸方向の地形メッシュ位置)を演算する。
【0069】
文字列位置補正94は、文字列位置判定93で得られた各文字列や記号に対するカラム位置から、視点位置近傍に隣接するカラム位置を求める。このカラム位置情報を用い、文字列,記号を描画するタイミングを決定する。例えば、図11において文字列4001はカラム3に含まれるが、カラム2に含まれる文字列と補正する(描画位置を補正しない点に注意)。これにより、カラム2における地形メッシュを描画した後、カラム2に含まれる地図データを描画すると同時に文字列4001を描画するように動作する。これにより、文字列や記号が視点手前側の地形メッシュで隠される可能性が小さくなり、陰面消去が正常に行われるようになる。
【0070】
文字列描画位置補正95は、文字列,記号の含まれるカラム位置により、表示画面上での描画オフセット4012を演算し、得られた描画オフセット分だけ表示画面の上方向に文字列や記号をシフトし描画する。これは、視野遠方の地形メッシュにおいて地形メッシュの高さが文字列や記号の高さより小さくなり、文字列位置補正94を用いても陰面消去が完全になされないという課題を解決するために実行される。描画オフセット量の演算方法は、例えば視点位置に最も近いカラムから文字列,記号の描画位置座標を含むカラムまでのカラム数をカウントし、このカラム数を描画オフセット4012とするとよい。ここで、文字列や記号の高さを規定値とすると、描画オフセット4012が規定値より小さければ規定値を描画オフセット4012として文字描画位置に加算し、描画オフセット4012が規定値より大きければ規定値を描画オフセット4012として文字や記号の描画位置に加算するとよい。このような処理を実施することにより、視点手前側の地形メッシュにより文字列,記号の一部又は全部が隠される可能性を最小限に止めることが可能になる。これにより、不当に文字列,記号が地形メッシュに隠れることを防ぎ、文字列,記号の表示品質を向上することができる。
【0071】
次に、各カラム単位に分割した地図データを記憶する地図データ記憶手段56につき詳細を説明する。なお、陰面有無判定手段53で陰面が存在しないと判定されたときは、全てのデータが同一カラムに存在するものとして処理を行う。
【0072】
地図データ記憶手段56において地図データをメモリに記憶するフォーマットの一実施例を図13に示す。この実施例では、各カラム毎に分割された地図データを投影変換した結果得られる頂点座標列と頂点数等で構成される描画命令と分岐命令を組で格納する地図データ記憶メモリ101と、各カラムに対する描画データの格納位置を開始アドレスと終了アドレスで管理する管理テーブル100で構成する。
【0073】
図14を用い地図データ記憶手段56の詳細を説明する。
【0074】
初期化110は、管理テーブル100の開始アドレス及び終了アドレスを所定アドレスに初期化する。例えばここで設定する初期値はNULL値等にするとよい。
【0075】
分割地図データ取得111は、地形メッシュ又はカラム毎に分割されたベクトルデータとカラム位置,頂点データの各頂点に対応する標高値を取得する。
【0076】
格納データ判定112は、分割地図データ取得111で取得した地図データのカラム位置から同カラムの管理テーブル100を参照し、開始アドレスが初期値か判定する。開始アドレスが初期値の場合は開始アドレス設定113に、開始アドレスに初期値以外のアドレスが設定されている場合は分岐アドレス修正114に分岐する。
【0077】
開始アドレス設定113は、地図データ記憶メモリ101にこれから記憶すべき描画命令が格納されるアドレスを管理テーブル100の格納開始アドレスに設定する。例えば、地図データ記憶メモリ101のアドレス1に描画命令1(6001)をこれから記憶する場合は、この描画命令において描画するカラム4の開始アドレスにアドレス1を記憶する。
【0078】
分岐アドレス修正114は、管理テーブル100に格納されている最終アドレスをもとに、同一カラムで前回格納した描画命令と組の分岐命令のアドレスを、これから記憶すべき描画命令の格納先頭アドレスに変更する。例えば、地図データ記憶メモリのアドレス7に描画命令4(6007)をこれから記憶する場合は、この描画命令において描画するカラム4の最終アドレス、即ちアドレス2を管理テーブル100から読み出し、描画データ記憶メモリ内のアドレス2の分岐命令1(6002)のアドレスにアドレス7を記憶する。
【0079】
投影変換115は、投影変換手段57を呼び出すことで、与えられたベクトルデータを投影変換し、表示画面上の頂点座標列に変換する。
【0080】
命令バッファ書込み116は、頂点データを投影変換した頂点座標列と頂点数等で構成される描画命令と分岐命令を組で順に、格納済の最終分岐命令の次の地図データ記憶メモリ101に格納する。例えば、既に分岐命令3(6006)まで格納済で、これから描画命令4(6007)を格納する場合は、アドレス7に描画命令4(6007)を、アドレス8に分岐命令(6008)を格納する。
【0081】
終了アドレス設定117は、命令バッファ書込み116で書き込んだ描画命令に対応するカラム位置の管理テーブル100の終了アドレスを、地図データ記憶メモリ101に格納した分岐命令を格納したアドレスに更新する。例えば、描画命令4(6007)を格納した場合は、管理テーブル100内のカラム4に対応する最終アドレスをアドレス8に修正する(図13においては、この修正がなされる前の値を示す)。
【0082】
終了判定118では全地図データを格納終了か判定し、全データ格納終了となるまで初期化110を除く上記処理を繰り返し行う。
【0083】
このような格納方法を用いれば、任意カラムに対応する地図データを、視点奥から手前の順に簡単に参照することができ、高速に任意カラムに対応する地図データを選択することができる。また、描画コマンドを解釈して線や面等を描画することのできる描画プロセッサを持つナビゲーション装置であれば、この描画命令及び分岐命令を描画コマンドで構成することで、地図データ記憶メモリ101と描画コマンド格納バファを一つのメモリ領域とすることができ、使用するメモリ領域を削減することができる。
【0084】
次に図14及び図15を用い、描画手段58の詳細を説明する。
【0085】
陰面処理描画130は、まず視点最遠方に位置するカラムを選択し、選択したカラムに対応する地形メッシュを投影変換手段57を呼び出し投影変換して描画する。次に管理テーブル100を参照し、選択したカラムに対応する開始アドレスを読み出し、かつ選択したカラムを描画することで、地形メッシュに地図が重なり表示される。さらに、選択したカラムに対応する文字列及び記号を選択し、描画することで地形メッシュ及び地図に重ねて文字列及び記号が表示される。これらの処理を視点遠方のカラムから視点近傍のカラムの順に繰り返し実施する。これにより陰面消去が実現される。
【0086】
なお、地形起伏により視点位置近傍に位置する地形メッシュの標高値が高い場合等は図15のように画面下に地形ポリゴン抜け5000が発生するという課題がある。この課題を解決するため、表示地形判定131は図15に示した可視領域1004内の最近傍地形メッシュ列5001を構成する頂点群を選択し、さらに視点に近い最近傍頂点列5002を抽出して投影変換し、投影変換した最近傍頂点列5002が表示画面下境界5003より上側に存在するか判定する。最近傍頂点列5002が表示画面下境界5003より上側に存在すると判定されたときは表示地形補正132に、存在しないと判定された場合は処理終了にそれぞれ分岐する。
【0087】
表示地形補正132は、投影変換した最近傍頂点列5002と、表示画面下境界5003で囲まれる領域を視点位置標高に応じた地形色で塗りつぶす命令を発行し、描画を実行する。これにより画面下に発生する地形ポリゴン抜けが発生しないようになるため、表示品質を改善することができる。
【0088】
【発明の効果】
以上説明したとおり、本発明の3次元地図表示装置では上記手段を適用することで、地形図に重ねて表示する地図データ、即ち道路データ,背景データ,文字・記号データ等の陰面消去を特殊なハードウェアなしに、完全かつ高速に処理できるようになる。さらに地形面のポリゴン抜けがなくなるように動作するため、表示品質を向上することができる。
【図面の簡単な説明】
【図1】本発明における3次元地図表示例を表した図。
【図2】ナビゲーション装置の各構成ユニットを表した図。
【図3】演算処理部のハードウエア構成を表した図。
【図4】演算処理部の機能構成を表した図。
【図5】地図表示手段の機能構成を表した図。
【図6】座標変換手段を説明するための図。
【図7】地形メッシュ演算手段を説明するための図。
【図8】地形メッシュ演算手段を説明するためのフロー図。
【図9】陰面有無判定手段を説明するための図。
【図10】地図データ分割手段を説明するための図。
【図11】文字列データの表示例を表した図。
【図12】文字列処理手段を説明するためのフロー図。
【図13】地図データ記憶手段のメモリ構成例を表した図。
【図14】地図データ記憶手段を説明するためのフロー図。
【図15】描画手段58を説明するためのフロー図。
【図16】描画手段58を説明するための図。
【符号の説明】
1…演算処理部、2…出力装置、3…記憶手段、4…入力装置、5…車輪速センサ、6…地磁気センサ、7…ジャイロ、8…GPS受信装置、9…車内LAN装置、21…CPU、22…RAM、23…ROM、24…DMA、25…描画プロセッサ、26…ユニファイドメモリ、27…カラーパレット、28…A/D変換器、29…SCI、30…PIO、31…カウンター、41…ユーザ操作解析手段、42…現在位置演算手段、43…マップマッチ手段、44…地図データ読込手段、45…地図表示手段、46…メニュー表示手段、47…表示処理手段、50…地図データ要求手段、51…地形メッシュ演算手段、52…座標変換手段、53…陰面有無判定手段、54…地図データ分割手段、55…文字列処理手段、56…地図データ記憶手段、57…投影変換手段、58…描画手段、70…可視領域演算手段、71…地形メッシュサイズ演算、72…地形メッシュ生成、73…最低標高抽出、74…可視領域補正、75…標高値演算、80…地図データ取得手段、81…地形メッシュ位置演算手段、82…カラム判定手段、83…補間点生成手段、91…文字列データ取得、92…重なり判定、93…文字列位置判定、94…文字列位置補正、95…文字列描画位置補正、100…管理テーブル、101…地図データ記憶メモリ、110…初期化、111…分割地図データ取得、112…格納データ判定、113…開始アドレス設定、114…分岐アドレス修正、115…投影変換、116…命令バッファ書込み、117…終了アドレス設定、118…終了判定、130…陰面処理描画、131…表示地形判定、132…表示地形補正。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional map display device that displays a map on a three-dimensional topographic map on a display or the like.
[0002]
[Prior art]
Conventionally, in a map display device, digital map data stored in a storage medium such as a CD-ROM or DVD-ROM is read, and a structure, a road, a place name, etc. are coordinate-transformed and drawn as an arbitrary scale plan view. A map was displayed on the display device. Further, as described in Japanese Patent Laid-Open No. 8-292720, a planar map is viewed from a viewpoint position of an arbitrary height, and an overhead view projected on a projection plane provided between the planar map and the viewpoint is displayed. There is also a pseudo 3D display. A feature of the pseudo three-dimensional display is that detailed map information in the vicinity of the viewpoint and outline information in the distance from the viewpoint can be grasped on the same screen. Furthermore, there is also a method for expressing the difference in topography by drawing contour lines and colors corresponding to the contours on these two-dimensional maps and maps displayed in a pseudo three-dimensional manner.
[0003]
In the pseudo three-dimensional map display, the coordinates are converted and rendered based on the two-dimensional map data on the assumption that all the planes have the same height. Therefore, it has been difficult to express a three-dimensional shape such as undulations of mountains and valleys. Furthermore, even in a method of drawing contour lines and colors according to contours on a planar map or a pseudo 3D map, the displayed map screen is far from the actual topography, and it is difficult to display a more realistic overhead view. Met.
[0004]
As a method for solving this problem, a vertex coordinate in which elevation data is recorded is read, a three-dimensional model is created with a topographic mesh formed by connecting the vertices as a minimum unit, and the two-dimensional map data is created there. There is a three-dimensional map display that obtains a three-dimensional terrain display by overlaying. In 3D map display, the viewpoint position is set so as to include a point to be overlooked, and the terrain shape constituted by the 3D model and the map overlapping it are projected onto a projection screen, that is, a display screen such as a display. To do.
[0005]
[Problems to be solved by the invention]
In the 3D map display, the 3D terrain shape is looked down on from the set viewpoint position. Therefore, particularly in mountainous areas, a slope of the mountain opposite to the viewpoint position, a topographic surface hidden by a mountain in front or the like, that is, a hidden surface is generated, and it is essential to delete the hidden surface.
[0006]
The hidden surface removal method has depth information for each pixel of the display screen, determines the depth information at the time of drawing for each pixel, and draws if it is on the near side, Z buffer method, terrain constituting a three-dimensional topographic map Sorts meshes and map data in depth order, draws in order from the viewpoint farther toward the front, and selects and draws the terrain mesh and map data constituting the 3D topographic map in order from the viewpoint farther toward the front. There are methods such as a painter algorithm.
[0007]
Here, the Z buffer requires a rendering processor having a comparator for executing depth determination for each pixel, or rendering software for rendering each pixel while determining the depth. Therefore, the hidden surface removal in the three-dimensional map display affects the drawing in units of pixels, and it is difficult to realize it using a drawing processor that draws a generally used two-dimensional plane. Therefore, the focus is on the case of using a Z sort method or a painter algorithm that can be realized in a drawing processor for drawing a two-dimensional plane for hidden surface removal. When a 3D map is displayed using the Z sort method and painter algorithm, the following problems occur in hidden surface removal.
[0008]
A first problem is that road data included in map data and background data representing a water system and a green zone are generated independently of altitude data. Therefore, there is no guarantee that there are vertices where the polygonal lines and faces constituting the map data intersect with the terrain mesh. For this reason, when the terrain mesh and map data are sorted or selected in order from the far field of view and drawn, a cyclical overlap occurs and there is a problem that hidden surface removal cannot be performed completely.
[0009]
The second problem is the large processing load of sorting the terrain data and map data implemented in the Z sort method, or the terrain data and map data implemented in the painter algorithm in order from the back, completing the 3D map display. There is a problem of increasing the time to do so. Furthermore, if the size of the terrain mesh is fixed, there is a problem that the number of terrain meshes that must be drawn increases when the viewpoint height is increased, and the processing load increases.
[0012]
[Means for Solving the Problems]
In order to solve the above problems, the following means are used.
[0013]
As means for solving the first problem, means for dividing the map data in units of terrain mesh is used. On the other hand, the means for dividing the map data into terrain mesh units can perform complete hidden surface removal, but the processing load is heavy. Therefore, a means for determining whether or not a hidden surface exists in the three-dimensional map to be displayed is divided into map data in units of terrain mesh when it is determined that there is a hidden surface, and map in units of terrain mesh when it is determined that there is no hidden surface. Operates to skip data partitioning.
[0014]
As means for solving the second problem, means for storing a drawing instruction and a branch instruction for drawing map data divided for each terrain mesh as a set is used. Furthermore, in the case of a viewpoint height or depression angle over which a wide area can be seen, means for changing the size of the terrain mesh is used.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment in which a three-dimensional map display device is applied to a navigation device will be described below with reference to the drawings.
[0018]
FIG. 1 shows a display example of the three-dimensional map display of the present invention. Map data such as terrain, roads, character strings, etc. is divided into terrain mesh 2001 units constituting the terrain plane, and the terrain mesh and the divided map data are drawn in order from the viewpoint far away to the vicinity of the viewpoint to draw a three-dimensional map. Displayed on the output device 2.
[0019]
FIG. 2 shows the configuration of the navigation device. Hereinafter, details of each component unit of the navigation device will be described.
[0020]
The arithmetic processing unit 1 detects a current position based on sensor information S5 to S8 output from various sensors 5 to 8, reads map data necessary for map display from the obtained current position information from the storage means 3, The user develops the map data in graphics and displays the map on the output device 2, selects the optimum route connecting the destination and the current location instructed by the user, and displays the map superimposed on the map on the output device 2. It is a central unit that performs various processes such as guiding the car to the destination.
[0021]
The output device 2 is a unit that displays graphics information generated by the arithmetic processing unit 1, and is configured by a CRT or a liquid crystal display. The signal S1 between the arithmetic processing unit 1 and the output device 2 is generally connected by an RGB signal or an NTSC (National Television System Committee) signal.
[0022]
The storage means 3 is composed of a large-capacity storage medium such as a CD-ROM, a DVD-ROM, or an IC card, and stores map data, altitude data, and the like necessary for map display.
[0023]
The input device 4 is a unit that receives an instruction from a user, and includes a hardware switch such as a scroll key and a scale change key, a joystick, a touch panel pasted on a display, and the like.
[0024]
The sensor used to detect the position in the navigation device measures the distance from the product of the wheel circumference and the measured wheel rotation speed, and the moving body bends due to the difference in the rotation speed of the paired wheels. Wheel speed sensor 5 that measures the angle, geomagnetic sensor 6 that detects the magnetic field held by the earth and detects the direction in which the moving body is facing, and a gyro that detects the rotation angle of the moving body such as an optical fiber gyroscope and a vibrating gyroscope 7. Measure the current position, traveling speed, and traveling direction of the moving object by receiving the signals from the GPS satellite and measuring the distance between the moving object and the GPS satellite and the rate of change of the distance for three or more satellites. The GPS receiver 8 is used. Further, the GPS receiver 8 can obtain time information and date information by analyzing signals from GPS satellites.
[0025]
In addition, an in-vehicle LAN device 9 is provided for receiving various information on the vehicle, such as door opening / closing information, the type and status of lights that are lit, the status of the engine and the result of failure diagnosis.
[0026]
FIG. 3 is a diagram illustrating the hardware configuration of the arithmetic processing unit 1.
[0027]
Hereinafter, each component will be described. The arithmetic processing unit 1 is configured by connecting the devices 21 to 31 in the figure with a bus. Each component includes a CPU 21 that executes various processes such as numerical calculations and control of each device, a RAM 22 that stores maps and search data, a calculation data, a ROM 23 that stores processing programs and data, a high-speed memory and a memory, DMA (Direct Memory Access) 24 for executing data transfer between the memory and each device, drawing commands and branch commands stored in the unified memory 26 are received and the pixel information is rapidly developed in the frame memory space in the unified memory. A graphics processor 25 for executing graphics rendering and display control, a unified memory 26 for storing rendering results and rendering commands, a color palette 27 for converting image data composed of palette IDs of respective colors into RGB luminance information signals, A / D converter 28 for converting an analog signal into a digital signal, Converting one signal to a parallel signal synchronized with the bus SCI29, composed of counter 31 for integrating PIO30 placed on the bus takes a parallel signal synchronized, the pulse signal. FIG. 4 is a diagram illustrating the functional configuration of the arithmetic processing unit 1. Details of each component will be described below.
[0028]
The current position calculation means 42 uses distance data and angle data obtained as a result of integrating the distance pulse data S5 measured by the wheel speed sensor 5 and the angular acceleration data S7 measured by the gyro 7, respectively. By integrating with the shaft, a process of calculating the position (X ′, Y ′) after traveling the moving body from the initial position (X, Y) is performed. Here, in order to match the relationship between the rotation angle of the moving body and the traveling direction, the angle data obtained by integrating the direction data S6 obtained from the geomagnetic sensor 6 and the angular acceleration data S7 obtained from the gyro 7 are in a one-to-one relationship. And the absolute azimuth in the direction in which the moving object is traveling is corrected. Further, when the data obtained from the above-described sensor is integrated, the sensor error accumulates, so that the accumulated error is canceled based on the position data S8 obtained from the GPS receiver 8 at a certain time period. To output the current position information.
[0029]
Since the current position information includes sensor errors, the map matching means 43 is performed for the purpose of further improving the position accuracy. This is because the road data included in the map around the current location is read from the storage means 3 by the map data reading means 44, the travel locus shape obtained from the current position calculating means 42 and the road shape are compared with each other, and the correlation between the shapes is the most. This is a process of adjusting the current location to a high road. By applying the map matching process, the current location often coincides with the traveling road, and the current position information can be output with high accuracy.
[0030]
The user operation analysis means 41 receives a request from the user by the input device 4, analyzes the request content, and controls each unit so as to execute a corresponding process.
[0031]
The map display means 45 uses the map data and elevation data read by the map data reading means 44 from the storage means 3 and transfers drawing data for drawing a three-dimensional map looking down on the terrain at a predetermined depression angle and a predetermined scale from the viewpoint position. To work. The viewpoint position may be set to a position that is a predetermined distance away from the current position on the map or the point to be displayed in the direction opposite to the line of sight.
[0032]
The menu display means 46 operates to draw buttons and menu lists that serve as user interfaces, and to transfer the drawing data to the display processing means 47.
[0033]
Based on the drawing data from the map display means 45 and the menu display means 46 described above, the display processing means 47 converts pixels, lines, planes, images, and characters representing the map and the menu screen into the frame memory in the unified memory 26. expand.
[0034]
Details of the map display means 45 for generating drawing data for displaying a three-dimensional map will be described below.
[0035]
FIG. 5 is a diagram for explaining the functional configuration of the map display means 45.
[0036]
The map data request means 50 is composed of map data included in the area to be displayed on the map, that is, road data composed of road attributes and shapes thereof, polygon attributes representing buildings, green zones, rivers, etc. and shapes thereof. The background data, the character / symbol data composed of the character / symbol code such as the place name and the facility name and the coordinate data of the point where they are located, and the region to be displayed on the map are divided at predetermined intervals in the x-axis and y-axis directions. The altitude data composed of the altitude values of the vertices are read from the storage means 3.
[0037]
The terrain mesh calculation means 51 calculates the visible area of the map displayed on the display screen from the viewpoint position and the depression angle, and generates a rectangular terrain mesh that expresses the terrain surface from the altitude data existing in the visible area.
[0038]
The coordinate conversion means 52 converts the map data and elevation data read by the map data request means 50 so that the line-of-sight direction coincides with the y-axis and the viewpoint position is the origin.
[0039]
The hidden surface presence / absence determining unit 53 performs projection conversion of the terrain mesh generated by the terrain mesh calculating unit 51 by the projection conversion unit 57, and determines whether or not there is a terrain mesh to be hidden from the result of the projection conversion. If there is a hidden terrain mesh, the process moves to the map data dividing means 54, and if not, the process moves to the map data storage means 56.
[0040]
The map data dividing means 54 divides road data and background data included in the map data for each terrain mesh.
[0041]
The character string processing means 55 corrects the timing for drawing a character string such as a name and a symbol and the drawing position on the display screen.
[0042]
The map data storage means 56 divides the map data when the hidden surface presence determining means 53 determines that a hidden surface exists, and the map data read when the hidden surface presence determining means 53 determines that there is no hidden surface. Projection conversion is performed, and a drawing instruction and a branch instruction are stored as a pair.
[0043]
The projection conversion unit 57 includes vector data and point data constituting the map data on a projection plane (display screen) existing at a specified depression angle from the viewpoint position 1005 shown in FIG. Projects and converts the vertex coordinates that make up the terrain mesh.
[0044]
The drawing means 58 selects and draws a terrain mesh at an arbitrary position and map data to be drawn over the terrain mesh. By performing these processes in the order from the far viewpoint to the vicinity of the viewpoint, the hidden surface removal of the topographic map and the map is realized.
[0045]
Next, details of the coordinate conversion means 52 will be described with reference to FIG.
[0046]
The coordinate conversion means 52 uses the map data and altitude data read by the map data request means 50 as the map data and the viewpoint position 1005 shown in FIG. 6 is the origin (0, 0) and the line-of-sight direction 1006 coincides with the y coordinate axis. And coordinate conversion so that the scale of the altitude data matches. Here, the viewpoint position may be set at a point away from the own vehicle position by a predetermined distance in the direction opposite to the line of sight, and higher than the own vehicle position by a predetermined height. Further, the line-of-sight direction may be set to the traveling direction of the host vehicle. Accordingly, the terrain mesh 2001 and the map data are in the same coordinate system, and the rectangles constituting each terrain mesh are parallel to the x-axis and the y-axis. 54 can be simplified.
[0047]
Next, details of the terrain mesh calculation means 51 will be described with reference to FIGS.
[0048]
The visible region calculation means 70 is a coordinate system in which the viewpoint position 1005 shown in FIG. 7 is the origin, and the line-of-sight direction 1006 is the top (y-axis). Assuming that the altitudes of all the points are the same, the range (visible region) 1004 of the two-dimensional map projected on the display screen is calculated when looking down from the viewpoint position in the line-of-sight direction.
[0049]
Next, in the terrain mesh size calculation 71, the size of the terrain mesh constituting the terrain plane is determined. In the device that displays a three-dimensional map viewed from an arbitrary viewpoint height, the visible region 1004 becomes wider when the viewpoint position becomes higher. As a result, if the terrain mesh sizes dx and dy are fixed, the number of terrain meshes increases in the square order, and the processing load increases. Therefore, processing for determining the terrain mesh sizes dx and dy based on the viewpoint height and the depression angle is used. For example, the mesh size may be determined by multiplying the reference terrain mesh sizes dx and dy by the ratio between the reference viewpoint height and the set viewpoint height. Furthermore, the terrain mesh sizes dx and dy corresponding to each viewpoint height may be provided as a table, and the terrain mesh sizes dx and dy corresponding to the arbitrary viewpoint height may be determined from this table. Although the example using the viewpoint height as a parameter has been described here, the size of the terrain mesh can also be determined by performing the same processing using the depression angle as a parameter. Further, the size of the terrain mesh may be determined from the relationship between the viewpoint height and the depression angle. Thus, the number of terrain meshes to be drawn is controlled so as not to increase significantly, and the processing load when the visible region is enlarged can be reduced.
[0050]
The terrain mesh generation 72 divides the visible region 1004 for each terrain mesh size dx, dy obtained by the terrain mesh size calculation 71, and calculates the coordinate value of each vertex 2002 constituting the terrain mesh 2001. In this embodiment, the terrain mesh shape is rectangular, but the terrain mesh shape may be triangular.
[0051]
The minimum elevation extraction 73 is performed in order to prevent a terrain polygon dropout that occurs when looking down at a terrain area where the elevation of the viewpoint position 1005 is high and the elevation is low, and among the elevation values included in the visible area 1004 in the elevation data. Extract the lowest elevation value.
[0052]
Next, the visible region correction 74 calculates the difference between the elevation value of the viewpoint position and the elevation value extracted by the minimum elevation extraction 73, and uses the difference value as a parameter in the horizontal direction perpendicular to the line-of-sight direction as shown in FIG. A right additional terrain mesh 2003 and a left additional terrain mesh 2004 are added. There is a method of setting the number of meshes to be added for each predetermined height of the difference value as a calculation method of the terrain mesh to be added. This is, for example, a method in which a terrain mesh is added one by one to the left and right with a difference value of 100 m. Note that processing may be performed using the current position altitude instead of the viewpoint position altitude.
[0053]
Each vertex 2002 of the terrain mesh generated by the above processing is a vertex on a two-dimensional plane, and it is necessary to obtain an elevation value at each vertex in order to perform three-dimensional map display. Therefore, in the altitude value calculation 75, the altitude value of the vertex constituting the topographic mesh is calculated from the altitude data read out by the map data request means 50. Here, the vertex coordinates recorded in the elevation data do not match the vertex coordinates constituting the terrain mesh. Therefore, for example, as shown in FIG. 6, vertices 2040, 2041, surrounding the vertex 2002 are displayed.
The elevation data 2042 and 2043 are read, and the elevation value of the vertex 2002 is calculated. Here, the coordinates of the altitude 2040 are (x1, y1, z1), the coordinates of the altitude 2041 are (x2, y1, z2), the coordinates of the altitude 2042 are (x2, y2, z3), and the coordinates of the altitude 2043 are (x1, If y2, z4), the elevation value zp with respect to the coordinates of the vertex 2002 as (xp, yp) is obtained by calculating Equation 1, Equation 2, and Equation 3.
[0054]
[Expression 1]
Za = (yp−y1) × (Z4−Z1) / (y2−y1) + Z1 (Expression 1)
[0055]
[Expression 2]
Zb = (yp−y2) × (Z3−Z2) / (y2−y1) + Z2 (Expression 2)
[0056]
[Equation 3]
Zp = (xp−x1) × (Zb−Za) / (x2−x1) + Za (Equation 3)
Next, details of the hidden surface presence determination means 53 will be described with reference to FIG.
[0057]
If there is no hidden terrain on the map to be displayed, the process of dividing the map data into terrain mesh units is omitted, and after all the terrain surfaces are drawn, the map data can be overlaid on the terrain and drawn in 3D. The phenomenon that the map is hidden by the hidden surface or the hidden surface is displayed does not occur. Further, in the three-dimensional map display, a terrain mesh that is a hidden surface is generated in a mountainous area, but the probability that a terrain mesh that is a hidden surface is generated in a plain part is extremely low. Furthermore, regions with a large amount of map data, such as large cities, have the characteristic of being concentrated in plains.
[0058]
Therefore, in the hidden surface presence / absence determining means 53, the projection conversion means 57 projects and converts all the vertices constituting the terrain mesh in the visible region, and y on the projection plane of a vertex 2010 and a vertex 2011 adjacent to the far side of the viewpoint. Compare the magnitude relation of the axis (upward projection plane) coordinates. As shown in the hidden surface mesh example b) in FIG. 9, if the y coordinate of the vertex 2011 on the farther viewpoint than the vertex 2010 is small on the projection surface, the terrain mesh including the two vertices is determined to be a hidden surface. To do. Based on the determination result, the process transitions to the map data dividing means 54 if there is even one hidden terrain mesh, and to the map data storage means 56 if not.
[0059]
Thereby, since map data is divided | segmented into a terrain mesh unit only when the terrain mesh used as a hidden surface exists, the processing load required for the map data division | segmentation process in a plain part can be reduced.
[0060]
Next, details of the map data dividing means 54 will be described with reference to FIG.
[0061]
The map data acquisition means 80 acquires the vertex data which comprises the continuous line and surface data with the same attribute according to a map format. Terrain mesh position calculation means
In 81, the maximum value and the minimum value of the y coordinate (line-of-sight direction) of the acquired vertex data are extracted, and the column position (terrain mesh position in the y-axis direction) including these two y coordinates is calculated. This processing can be easily obtained by dividing the y-coordinate by the terrain mesh size because the terrain mesh and map data have already been converted into a coordinate system in which the viewing direction is the y-axis direction.
[0062]
The column determination unit 82 determines whether the column position for the maximum value of the vertex data and the column position for the minimum value are the same column position. If the two column positions are the same, the vertex data does not span multiple column areas, so there is no need to divide the area. However, if the two column positions are different, the data for each column in which the vertex data exists is stored. It is necessary to divide. Therefore, the interpolation point generation means 83 calculates the intersection between the vertex data and the boundary of each column to generate an interpolation point. For example, in the case of a broken line 3001, the maximum value of the y coordinate is included in column 4 and the minimum value is included in column 2. Therefore, the broken line 3001 is divided for each vertex data included in the column 2, the column 3, and the column 4. Therefore, the vertex data A, B, and C are divided by calculating the intersection of each column boundary and the broken line 3001. In the case of surface data 3003, the maximum value of the y coordinate is included in column 3 and the minimum value is included in column 1. Therefore, the plane data 3003 is divided for each area included in the column 1, the column 2, and the column 3. Therefore, the intersection of each column boundary and the surface data 3003 is calculated, and the three surface data E, F, and G are divided into vertex data constituting each. In this way, all map data is converted into vertex data divided for each column. Therefore, since the management area of the terrain mesh and the terrain data is the same, a cyclic overlap does not occur and a high-quality three-dimensional map can be displayed.
[0063]
Next, the character string processing means 55 will be described with reference to FIGS.
[0064]
FIG. 11 shows a display example of a character string. In order to faithfully represent the position of the character string or symbol in the actual terrain, when a part of the character string or symbol is hidden by the near object, only the overlapping portion with the object is hidden. For this reason, hidden surface removal of a character string is also performed in the same manner as vector data such as roads. However, unlike vector data, the character string display occupies a rectangular area, and the terrain mesh where the character string exists does not match the rectangular area of the character string. In order to prevent such a character string from being unduly erased due to the overlap, the character string processing unit 55 changes the drawing timing of the character string and the symbol and corrects the drawing position of the character string and the symbol on the display screen.
[0065]
The detailed processing of the character string processing means 55 will be described below with reference to FIG.
[0066]
The character string data acquisition 91 reads the drawing coordinate position, the number of characters and the character code of the character string recorded in the map data, or the drawing coordinate position of the symbol, the symbol code and the symbol image. Further, the altitude value at the drawing coordinate position is calculated from the altitude data.
[0067]
The overlap determination 92 projects and converts the drawing position coordinates of all character strings and symbols, and calculates the position and size of the rectangular area occupied on the character string display screen from the number of characters and the character code. Next, all character strings and symbols are regarded as objects to be displayed, and are sorted in order from the shortest distance from the viewpoint position. Further, display priority is given to character strings and symbols in the vicinity of the viewpoint position, and character strings and symbols that overlap the display priority character strings and symbol rectangular areas are deleted from the character strings and symbols to be displayed. Thereby, the overlapping of character strings and symbols on the display screen is reduced, and visibility is improved.
[0068]
The character string position determination 93 extracts the y-coordinate (line-of-sight direction) of the drawing position coordinates of the character string and symbol that are displayed by the overlap determination 92, and the column position (the terrain mesh in the y-axis direction) that includes the y-coordinate. Position).
[0069]
The character string position correction 94 obtains a column position adjacent to the vicinity of the viewpoint position from the column position for each character string or symbol obtained in the character string position determination 93. Using this column position information, the timing for drawing a character string and a symbol is determined. For example, in FIG. 11, the character string 4001 is included in the column 3, but is corrected to the character string included in the column 2 (note that the drawing position is not corrected). Thus, after the terrain mesh in the column 2 is drawn, the map data included in the column 2 is drawn, and at the same time, the character string 4001 is drawn. As a result, the possibility that the character string or the symbol is hidden by the topographical mesh on the near side of the viewpoint is reduced, and the hidden surface removal is normally performed.
[0070]
The character string drawing position correction 95 calculates a drawing offset 4012 on the display screen based on the column position including the character string and the symbol, and shifts the character string and the symbol upward in the display screen by the obtained drawing offset. Then draw. This is executed in order to solve the problem that the height of the terrain mesh is smaller than the height of the character string or symbol in the terrain mesh far from the field of view, and the hidden surface is not completely erased even if the character string position correction 94 is used. The As a drawing offset amount calculation method, for example, the number of columns from the column closest to the viewpoint position to the column including the drawing position coordinates of character strings and symbols may be counted, and this number of columns may be used as the drawing offset 4012. Here, if the height of the character string or symbol is a specified value, the specified value is added to the character drawing position as the drawing offset 4012 if the drawing offset 4012 is smaller than the specified value, and the specified value if the drawing offset 4012 is larger than the specified value. May be added as a drawing offset 4012 to the drawing position of a character or symbol. By performing such processing, it is possible to minimize the possibility that part or all of the character string and symbols are hidden by the terrain mesh in front of the viewpoint. As a result, it is possible to prevent the character strings and symbols from being unduly hidden in the terrain mesh, and to improve the display quality of the character strings and symbols.
[0071]
Next, the details of the map data storage means 56 for storing the map data divided for each column will be described. When the hidden surface presence / absence determining unit 53 determines that there is no hidden surface, the processing is performed assuming that all data exists in the same column.
[0072]
An example of a format for storing map data in the memory in the map data storage means 56 is shown in FIG. In this embodiment, a map data storage memory 101 for storing a drawing instruction and a branch instruction composed of a vertex coordinate sequence and the number of vertices obtained as a result of projecting the map data divided for each column in pairs, The management table 100 is configured to manage the storage position of the drawing data for the column by the start address and the end address.
[0073]
Details of the map data storage means 56 will be described with reference to FIG.
[0074]
The initialization 110 initializes the start address and end address of the management table 100 to predetermined addresses. For example, the initial value set here may be a NULL value or the like.
[0075]
The divided map data acquisition 111 acquires vector data divided for each terrain mesh or column, column positions, and elevation values corresponding to each vertex of the vertex data.
[0076]
The stored data determination 112 refers to the management table 100 in the column from the column position of the map data acquired in the divided map data acquisition 111, and determines whether the start address is an initial value. When the start address is an initial value, the process branches to the start address setting 113, and when an address other than the initial value is set as the start address, the process branches to the branch address correction 114.
[0077]
The start address setting 113 sets an address at which a drawing command to be stored in the map data storage memory 101 is stored as a storage start address of the management table 100. For example, when the drawing command 1 (6001) is stored in the address 1 of the map data storage memory 101, the address 1 is stored in the start address of the column 4 to be drawn in this drawing command.
[0078]
Based on the last address stored in the management table 100, the branch address correction 114 changes the address of the branch instruction previously combined with the drawing instruction stored in the same column to the storage start address of the drawing instruction to be stored. To do. For example, when the drawing command 4 (6007) is to be stored at the address 7 of the map data storage memory, the final address of the column 4 to be drawn by this drawing command, that is, the address 2 is read from the management table 100 and stored in the drawing data storage memory. Address 7 is stored in the address of branch instruction 1 (6002) at address 2.
[0079]
The projection conversion 115 calls the projection conversion means 57 to perform projection conversion of the given vector data and convert it into a vertex coordinate sequence on the display screen.
[0080]
The instruction buffer write 116 sequentially stores a drawing instruction and a branch instruction composed of a vertex coordinate sequence obtained by projecting the vertex data and the number of vertices and the branch instruction in the map data storage memory 101 next to the stored final branch instruction. . For example, when branch instruction 3 (6006) has already been stored and drawing instruction 4 (6007) is to be stored, drawing instruction 4 (6007) is stored at address 7 and branch instruction (6008) is stored at address 8.
[0081]
The end address setting 117 updates the end address of the column position management table 100 corresponding to the drawing command written by the command buffer write 116 to the address storing the branch command stored in the map data storage memory 101. For example, when the drawing command 4 (6007) is stored, the final address corresponding to the column 4 in the management table 100 is corrected to the address 8 (in FIG. 13, the value before this correction is shown).
[0082]
In the end determination 118, it is determined whether or not all map data has been stored, and the above processing except for the initialization 110 is repeated until all data storage ends.
[0083]
By using such a storage method, map data corresponding to an arbitrary column can be easily referred to from the viewpoint back to the front, and map data corresponding to the arbitrary column can be selected at high speed. In addition, if the navigation apparatus has a drawing processor that can draw a line, a surface, etc. by interpreting a drawing command, the drawing command and the branch command are constituted by the drawing command, thereby drawing the map data storage memory 101 and the drawing command. The command storage buffer can be used as one memory area, and the memory area to be used can be reduced.
[0084]
Next, details of the drawing means 58 will be described with reference to FIGS.
[0085]
The hidden surface processing drawing 130 first selects a column located farthest from the viewpoint, and calls the projection conversion means 57 to draw and convert the terrain mesh corresponding to the selected column to draw. Next, with reference to the management table 100, the start address corresponding to the selected column is read, and the selected column is drawn, so that the map is displayed overlaid on the terrain mesh. Furthermore, a character string and a symbol corresponding to the selected column are selected and drawn so that the character string and the symbol are displayed so as to be superimposed on the terrain mesh and the map. These processes are repeated in the order from the column far from the viewpoint to the column near the viewpoint. This realizes hidden surface removal.
[0086]
In addition, when the elevation value of the terrain mesh located near the viewpoint position is high due to terrain undulation, there is a problem that a terrain polygon dropout 5000 occurs at the bottom of the screen as shown in FIG. In order to solve this problem, the display terrain determination 131 selects a vertex group constituting the nearest terrain mesh row 5001 in the visible region 1004 shown in FIG. 15, and further extracts the nearest vertex row 5002 close to the viewpoint. Projection conversion is performed, and it is determined whether or not the nearest vertex column 5002 subjected to the projection conversion exists above the lower boundary 5003 of the display screen. If it is determined that the nearest vertex column 5002 is present above the lower boundary 5003 of the display screen, the process branches to the display landform correction 132, and if it is determined not to exist, the process is terminated.
[0087]
The display terrain correction 132 issues a command for painting the area surrounded by the projected nearest neighbor vertex row 5002 and the display screen lower boundary 5003 with a terrain color corresponding to the viewpoint position elevation. As a result, the lack of terrain polygons that occur at the bottom of the screen does not occur, so the display quality can be improved.
[0088]
【The invention's effect】
As described above, in the three-dimensional map display device of the present invention, the above-described means is applied to specially delete the hidden surface of the map data displayed on the topographic map, that is, road data, background data, character / symbol data, and the like. It is possible to process completely and quickly without hardware. Furthermore, since the operation is performed so as to eliminate the missing polygons on the terrain surface, the display quality can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a three-dimensional map display example in the present invention.
FIG. 2 is a diagram showing each component unit of the navigation device.
FIG. 3 is a diagram illustrating a hardware configuration of an arithmetic processing unit.
FIG. 4 is a diagram illustrating a functional configuration of an arithmetic processing unit.
FIG. 5 is a diagram showing a functional configuration of map display means.
FIG. 6 is a diagram for explaining coordinate conversion means.
FIG. 7 is a diagram for explaining terrain mesh calculation means.
FIG. 8 is a flowchart for explaining the terrain mesh calculation means.
FIG. 9 is a diagram for explaining hidden surface presence / absence determining means;
FIG. 10 is a diagram for explaining map data dividing means.
FIG. 11 is a diagram showing a display example of character string data.
FIG. 12 is a flowchart for explaining character string processing means.
FIG. 13 is a diagram showing a memory configuration example of map data storage means.
FIG. 14 is a flowchart for explaining map data storage means;
FIG. 15 is a flowchart for explaining the drawing unit 58;
FIG. 16 is a diagram for explaining the drawing unit 58;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Arithmetic processing part, 2 ... Output device, 3 ... Memory | storage means, 4 ... Input device, 5 ... Wheel speed sensor, 6 ... Geomagnetic sensor, 7 ... Gyro, 8 ... GPS receiver, 9 ... In-vehicle LAN device, 21 ... CPU, 22 ... RAM, 23 ... ROM, 24 ... DMA, 25 ... Drawing processor, 26 ... Unified memory, 27 ... Color palette, 28 ... A / D converter, 29 ... SCI, 30 ... PIO, 31 ... Counter, 41 ... User operation analysis means, 42 ... Current position calculation means, 43 ... Map matching means, 44 ... Map data reading means, 45 ... Map display means, 46 ... Menu display means, 47 ... Display processing means, 50 ... Map data request Means 51: Terrain mesh calculation means 52 ... Coordinate conversion means 53 ... Hidden surface presence / absence judging means 54 ... Map data dividing means 55 ... Character string processing means 56 ... Map data Memory means 57 ... Projection conversion means 58 ... Drawing means 70 ... Visible area computing means 71 71 Terrain mesh size calculation 72 ... Terrain mesh generation 73 ... Minimum elevation extraction 74 ... Visible area correction 75 ... Elevation value Calculation: 80 ... Map data acquisition means, 81 ... Terrain mesh position calculation means, 82 ... Column determination means, 83 ... Interpolation point generation means, 91 ... Character string data acquisition, 92 ... Overlapping determination, 93 ... Character string position determination, 94 ... character string position correction, 95 ... character string drawing position correction, 100 ... management table, 101 ... map data storage memory, 110 ... initialization, 111 ... divided map data acquisition, 112 ... stored data determination, 113 ... start address setting, 114 ... Branch address correction, 115 ... Projection conversion, 116 ... Command buffer write, 117 ... End address setting, 118 ... End determination, 130 ... Surface treatment drawing, 131 ... display topographical determination, 132 ... display terrain correction.

Claims (5)

所定間隔で分割したメッシュの各頂点の標高値で構成される標高データと地図データとを記憶媒体から読み込み、所定視点から俯瞰する3次元地形図を標高データから生成し、3次元地形図に地図データを重ねて表示する3次元地図表示装置において、
所定視点からの俯瞰により表示画面に表示する地図の可視領域内に存在する標高データから、地形面を表現する矩形形状または三角形状の地形メッシュを構成する各頂点の座標値を演算する地形メッシュ演算手段と、
各々の地形メッシュに一致するよう地図データを分割する地図データ分割手段と、
地形メッシュに重ねて分割された地図データを描画する描画手段と、
表示範囲内において陰面が存在するか判定する陰面有無判定手段と、
陰面有無判定手段で陰面が存在すると判定されたとき、地図データ分割手段で分割した地図データを記憶し、陰面有無判定手段で陰面が存在しないと判定されたとき、地図データ分割手段で分割せずに地図データを記憶する地図データ記憶手段とを備えることを特徴とする3次元地図表示装置。
Elevation data composed of elevation values at each vertex of the mesh divided at a predetermined interval and map data are read from the storage medium, and a 3D topographic map overlooking from a predetermined viewpoint is generated from the elevation data, and the map is converted to a 3D topographic map In a three-dimensional map display device that displays data in an overlapping manner,
Topographic mesh calculation that calculates the coordinate value of each vertex constituting a rectangular or triangular terrain mesh that represents a terrain surface from elevation data that exists in the visible area of the map displayed on the display screen from a predetermined viewpoint Means,
Map data dividing means for dividing the map data to match each terrain mesh,
A drawing means for drawing map data divided on the terrain mesh;
A hidden surface presence / absence determining means for determining whether a hidden surface exists within the display range;
When the hidden surface presence determining means determines that a hidden surface exists, the map data divided by the map data dividing means is stored, and when the hidden surface presence determining means determines that there is no hidden surface, the map data dividing means does not divide And a map data storage means for storing the map data.
請求項1に記載の3次元地図表示装置において、
視点高さにより地形メッシュのサイズを決定する地形メッシュサイズ演算手段を持つことを特徴とする3次元地図表示装置。
The three-dimensional map display device according to claim 1,
A three-dimensional map display device having a terrain mesh size calculating means for determining a size of a terrain mesh according to a viewpoint height.
請求項1に記載の3次元地図表示装置において、
視点から地図を見下ろす俯角により地形メッシュのサイズを決定する地形メッシュサイズ演算手段を備えることを特徴とする3次元地図表示装置。
The three-dimensional map display device according to claim 1,
A three-dimensional map display device comprising terrain mesh size calculating means for determining the size of a terrain mesh from a depression angle at which the map is looked down from a viewpoint.
請求項1に記載の3次元地図表示装置において、
視点高さと俯角をパラメータとし地形メッシュのサイズを決定する地形メッシュサイズ演算手段を備えることを特徴とする3次元地図表示装置。
The three-dimensional map display device according to claim 1,
A three-dimensional map display device comprising terrain mesh size calculating means for determining the size of the terrain mesh using the viewpoint height and depression angle as parameters.
所定間隔で分割したメッシュの各頂点の標高値で構成される標高データと地図データとを記憶媒体から読み込み、所定視点から俯瞰する3次元地形図を標高データから生成し、3次元地形図に地図データを重ねて表示する3次元地図表示装置において、
所定視点からの俯瞰により表示画面に表示する地図の可視領域内に存在する標高データから、地形面を表現する矩形形状または三角形状の地形メッシュを構成する各頂点の座標値を演算する地形メッシュ演算手段と、
各々の地形メッシュに一致するよう地図データを分割する地図データ分割手段と、
地形メッシュに重ねて分割された地図データを描画する描画手段と、
表示範囲内において陰面が存在するか判定する陰面有無判定手段とを備え、
陰面有無判定手段で陰面が存在すると判定されたとき、地図データ分割手段で地図データを地形メッシュ単位に分割することを特徴とする3次元地図表示装置。
Elevation data composed of elevation values at each vertex of the mesh divided at a predetermined interval and map data are read from the storage medium, and a 3D topographic map overlooking from a predetermined viewpoint is generated from the elevation data, and the map is converted to a 3D topographic map In a three-dimensional map display device that displays data in an overlapping manner,
Topographic mesh calculation that calculates the coordinate value of each vertex constituting a rectangular or triangular terrain mesh that represents a terrain surface from elevation data that exists in the visible area of the map displayed on the display screen from a predetermined viewpoint Means,
Map data dividing means for dividing the map data to match each terrain mesh,
A drawing means for drawing map data divided on the terrain mesh;
A hidden surface presence / absence determining means for determining whether a hidden surface exists within the display range,
A three-dimensional map display device, wherein map data dividing means divides map data into terrain mesh units when it is determined by a hidden surface presence / absence determining means that a hidden surface exists.
JP32757897A 1997-11-28 1997-11-28 3D map display device Expired - Fee Related JP3954178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32757897A JP3954178B2 (en) 1997-11-28 1997-11-28 3D map display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32757897A JP3954178B2 (en) 1997-11-28 1997-11-28 3D map display device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2006133548A Division JP4551356B2 (en) 2006-05-12 2006-05-12 3D map display device
JP2006133547A Division JP4551355B2 (en) 2006-05-12 2006-05-12 3D map display device

Publications (2)

Publication Number Publication Date
JPH11161159A JPH11161159A (en) 1999-06-18
JP3954178B2 true JP3954178B2 (en) 2007-08-08

Family

ID=18200632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32757897A Expired - Fee Related JP3954178B2 (en) 1997-11-28 1997-11-28 3D map display device

Country Status (1)

Country Link
JP (1) JP3954178B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542174B2 (en) 1999-12-09 2003-04-01 Matsushita Electric Industrial Co., Ltd. Map displaying system and map displaying method
JP4587601B2 (en) * 2000-05-30 2010-11-24 パナソニック株式会社 Map display apparatus, map display method, computer program used in map display apparatus, and program recording medium
JP3407883B2 (en) * 2000-09-11 2003-05-19 国際航業株式会社 Earthwork design support system using digital map data
US6573842B2 (en) 2000-10-06 2003-06-03 Matsushita Electric Industrial Co., Ltd. Map display device, map display method, and computer program for use in map display device
JP4541537B2 (en) * 2000-12-28 2010-09-08 パナソニック株式会社 Drawing device
US8368686B2 (en) * 2004-05-26 2013-02-05 Sony Online Entertainment Llc Resource management for rule-based procedural terrain generation
JP4736363B2 (en) * 2004-07-15 2011-07-27 富士ゼロックス株式会社 Image browsing system
JP4684749B2 (en) * 2005-06-03 2011-05-18 三菱電機株式会社 Graphic equipment
WO2006134962A1 (en) * 2005-06-15 2006-12-21 The University Of Tokyo Projection diagram generation system
JP2007133041A (en) 2005-11-08 2007-05-31 Denso Corp Map display control apparatus and map display control program
JP5165851B2 (en) * 2006-04-07 2013-03-21 クラリオン株式会社 3D map display method, 3D map display device, and navigation device
JP4920541B2 (en) * 2007-09-27 2012-04-18 株式会社デンソーアイティーラボラトリ Information provision device
CN102110280B (en) * 2010-01-07 2013-06-26 董福田 Spatial data processing method and device
US20140375638A1 (en) * 2012-07-30 2014-12-25 Mitsubishi Electric Corporation Map display device
JP6149676B2 (en) * 2013-10-09 2017-06-21 富士通株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JPH11161159A (en) 1999-06-18

Similar Documents

Publication Publication Date Title
US6324469B1 (en) Three-dimensional map drawing method and navigation apparatus
JP3954178B2 (en) 3D map display device
KR100406889B1 (en) Map display device
JP4964762B2 (en) Map display device and map display method
US6654014B2 (en) Bird's-eye view forming method, map display apparatus and navigation system
KR0147049B1 (en) Method and apparatus for perspective display of a part of a topographic map
US20040176908A1 (en) Map displaying apparatus
KR19980087403A (en) Navigation device
JPH09292830A (en) Method and device for electronic map display
JP3503385B2 (en) Navigation system and medium storing navigation program used therein
JP3620918B2 (en) Map display method of navigation device and navigation device
JP2009157591A (en) Three-dimensional data processor, three-dimensional image generation device, navigation device and three-dimensional data processing program
CN103076018B (en) image display control system, image display control method
JP4491541B2 (en) 3D map display device and navigation device
JP3460488B2 (en) Navigation system
JP4551355B2 (en) 3D map display device
JPH10332396A (en) Navigation device
JP4551356B2 (en) 3D map display device
JPH1185012A (en) Method of plotting stereoscopic map and navigation system using it, and recording medium in which stereoscopic map plotting program is recorded
US8089496B2 (en) Method for three-dimensional depiction of a digital road map
JP3848351B2 (en) Navigation device
JP3360563B2 (en) 3D terrain display device
JP2003030687A (en) Map display device
JP3766657B2 (en) Map display device and navigation device
JPH07271847A (en) Method and device for modeling formation ground

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Effective date: 20040407

Free format text: JAPANESE INTERMEDIATE CODE: A7422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040407

RD04 Notification of resignation of power of attorney

Effective date: 20040510

Free format text: JAPANESE INTERMEDIATE CODE: A7424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A521 Written amendment

Effective date: 20060512

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060905

A521 Written amendment

Effective date: 20061102

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070426

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350