JP2004219182A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2004219182A
JP2004219182A JP2003005166A JP2003005166A JP2004219182A JP 2004219182 A JP2004219182 A JP 2004219182A JP 2003005166 A JP2003005166 A JP 2003005166A JP 2003005166 A JP2003005166 A JP 2003005166A JP 2004219182 A JP2004219182 A JP 2004219182A
Authority
JP
Japan
Prior art keywords
texture
dimensional
route
texture data
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003005166A
Other languages
Japanese (ja)
Inventor
Takuya Ishii
卓也 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2003005166A priority Critical patent/JP2004219182A/en
Publication of JP2004219182A publication Critical patent/JP2004219182A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system having a simple constitution, capable of shortening a readout time of a texture when performing three-dimensional display, and reducing a cost. <P>SOLUTION: A texture transfer processing part 34 reads out precedently from a map buffer 10, texture data corresponding to a three-dimensional object arranged along a traveling route set by a route search, and writes in a texture region 64 in a VRAM 60. A texture mapping processing part 32 renders a three-dimensional map image corresponding to the actual vehicle position by using the texture data written in the texture region 64 in the VRAM 60. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車両前方に存在する建物等の三次元画像を生成して表示するナビゲーション装置に関する。
【0002】
【従来の技術】
最近のナビゲーション装置には、自車位置周辺の地図表示を行うだけでなく、運転者の目線で見えるであろう建物等の画像を表示する三次元表示機能を有するものがある。このような表示を行うことにより、臨場感のある画像を生成することができ、実際に車両を運転しているときと同じような画像を見ながら右左折しようとしている交差点を探したり、予め指定された施設を探したりすることが容易となる。
【0003】
ところで、画像の三次元表示を行う従来技術としては、建物等の三次元オブジェクトをポリゴンで形成し、テクスチャマッピングでポリゴン表面に模様をつける手法が知られている。よりリアルな画像を得ようとすると、三次元オブジェクトを構成するポリゴン数が多くなり、予め用意されるテクスチャの種類も多くなるため、三次元画像の表示処理を高速化しようとすると、処理能力が高いプロセッサを使用したり、テクスチャマッピングを行う構成を工夫する必要がある。例えば、テクスチャマッピングを行う構成を工夫した従来技術としては、テクスチャマッピングをパイプライン処理で行う描画装置が知られている(例えば、特許文献1参照。)。この描画装置を用いることにより、テクスチャメモリの読み出し回数および読み出し時間を減らして、全体の描画速度を上げることができる。
【0004】
【特許文献1】
特開平9−212680号公報(第3−11頁、図1−21)
【0005】
【発明が解決しようとする課題】
ところで、上述した特許文献1に開示された描画装置では、パイプライン処理を行うために、同種の処理部(エンジン)が複数必要になり、装置構成が複雑になってコスト低減が難しいという問題があった。特に、ナビゲーション装置における三次元表示の場合には、走行位置によって使用するテクスチャに偏りがあるため、全てのテクスチャを高速なVRAM(ビデオRAM)内に保持することは無駄が多いという特徴があり、この特徴を利用して構成が簡素でコスト低減が容易であり、テクスチャの読み出し時間を低減できる手法が望まれている。
【0006】
本発明は、このような点に鑑みて創作されたものであり、その目的は、三次元表示を行う際のテクスチャの読み出し時間を短縮することができ、簡素な構成を有し、コスト低減を図ることができるナビゲーション装置を提供することにある。
【0007】
【課題を解決するための手段】
上述した課題を解決するために、本発明のナビゲーション装置は、車両の走行位置から見える構造物を模擬した三次元オブジェクトを、実際の構造物の設置状態に対応させて仮想三次元空間に配置するとともに、仮想的な視点位置から仮想三次元空間を見た三次元画像を表示するために、仮想三次元空間に含まれる三次元オブジェクトの配置や形状に関するデータと、三次元オブジェクトに対応するテクスチャデータとを格納した地図データ格納手段と、車両位置を検出する車両位置検出手段と、車両の走行経路に沿って配置された三次元オブジェクトに対応するテクスチャデータを地図データ格納手段から読み出して画像メモリに転送するテクスチャ転送手段と、画像メモリに格納されているテクスチャデータを用いて、車両位置検出手段によって検出された車両位置に対応する三次元画像を描画する三次元画像描画手段とを備えている。これにより、走行経路に沿って必要になるテクスチャデータを選択的に画像メモリに格納しておくことができるため、画像メモリのテクスチャデータ用の格納領域を小さくした簡素な構造とすることができ、コスト低減を図ることができる。また、容量の小さな画像メモリを用いる場合であっても、走行経路に沿って必要なテクスチャデータをこの画像メモリから読み出すことが可能になり、テクスチャの読み出し時間を短縮することができる。
【0008】
また、目的地までの走行経路を経路探索処理によって求める経路探索処理手段をさらに備え、テクスチャ転送手段は、経路探索処理手段によって設定された走行経路に沿ってテクスチャデータの転送を行うことが望ましい。これにより、実際に必要になるテクスチャデータを確実に先読みすることができるとともに、本当に三次元表示に必要なテクスチャデータのみを転送することができるため、テクスチャの読み出し時間を長くすることなく画像メモリ内のテクスチャデータ用の格納領域をさらに小さくすることができ、画像メモリの小容量化によるコスト低減が可能になる。
【0009】
また、上述した経路探索処理手段は、経路探索処理手段によって走行経路を求める際に、この走行経路に沿って存在する三次元オブジェクトに対応するテクスチャデータの特定情報を予め抽出し、テクスチャ転送手段は、実際の車両走行時に、特定情報に基づいてテクスチャデータの転送を行うことが望ましい。これにより、画像メモリにテクスチャデータを転送する処理の高速化を図ることができる。
【0010】
【発明の実施の形態】
以下、本発明を適用した一実施形態の車載用のナビゲーション装置について、図面を参照しながら説明する。
図1は、一実施形態のナビゲーション装置の構成を示す図である。図1に示すナビゲーション装置は、ナビゲーションコントローラ1、DVD2、ディスク読取装置3、リモートコントロール(リモコン)ユニット4、車両位置検出部5、ディスプレイ装置6、オーディオ部7を含んで構成されている。
【0011】
ナビゲーションコントローラ1は、ナビゲーション装置の全体動作を制御するものである。このナビゲーションコントローラ1は、CPU、ROM、RAM等を用いて所定の動作プログラムを実行することによりその機能が実現される。ナビゲーションコントローラ1の詳細構成については後述する。
【0012】
DVD2は、地図表示、施設検索、経路探索および高速道路案内画像表示などに必要な地図データが格納されている情報記録媒体である。このDVD2には、経度および緯度で適当な大きさに区切られた矩形形状の図葉を単位とした地図データが格納されている。各図葉の地図データは、図葉番号を指定することにより特定され、読み出すことが可能となる。
【0013】
ディスク読取装置3は、1枚あるいは複数枚のDVD2が装填可能であり、ナビゲーションコントローラ1の制御によっていずれかのDVD2から地図データの読み出しを行う。なお、装填されるディスクは必ずしもDVDでなくてもよく、CDでもよい。また、DVDとCDの双方を選択的に装填可能としてもよい。
【0014】
リモコンユニット4は、上下左右等の方向を指定するジョイスティックと、数字を入力するテンキーや各種の設定などを確定する「決定キー」などの各種の操作キーとを備えており、操作内容に応じた信号をナビゲーションコントローラ1に出力する。
【0015】
車両位置検出部5は、例えば、GPS受信機、方位センサ、距離センサなどを備えており、所定のタイミングで車両位置(経度、緯度)の検出を行い、検出結果を出力する。
ディスプレイ装置6は、ナビゲーションコントローラ1から出力される映像信号に基づいて、自車位置周辺の地図画像を表示する。オーディオ部7は、ナビゲーションコントローラ1から入力される音声信号に基づいて生成した案内音声等を車室内に出力する。
【0016】
次に、ナビゲーションコントローラ1の詳細構成について説明する。図1に示すナビゲーションコントローラ1は、地図バッファ10、地図読出制御部12、2D(二次元)画像描画部14、車両位置計算部20、経路探索処理部22、探索結果格納部24、誘導経路描画部26、音声案内部28、3D(三次元)画像処理部30、テクスチャマッピング処理部32、テクスチャ転送処理部34、入力処理部50、VRAM60、表示処理部68を含んで構成されている。
【0017】
地図バッファ10は、ディスク読取装置3によってDVD2から読み出された地図データを一時的に格納する。この地図データには、二次元の地図表示に必要なデータの他に、三次元の地図表示に必要なデータが含まれる。三次元の地図表示に必要なデータには、車両の走行位置から見える構造物を模擬した三次元オブジェクトの配置やそれらを構成するポリゴンのデータや、ポリゴンに対してテクスチャマッピング処理を行うために必要なテクスチャデータ等が含まれる。地図読出制御部12は、車両位置計算部20により算出される車両位置や入力処理部50からの指示に応じて、所定範囲の地図データの読み出し要求をディスク読取装置3に出力する。2D画像描画部14は、二次元の地図表示を指示されたときに、地図バッファ10に格納された地図データに基づいて、二次元の地図画像を表示するために必要な描画処理を行って地図画像描画データを作成する。この描画データは、VRAM60内のフレームメモリ領域62に格納される。
【0018】
車両位置計算部20は、車両位置検出部5から出力される検出データに基づいて自車位置を計算するとともに、計算した自車位置が地図データの道路上にない場合には、自車位置を修正するマップマッチング処理を行う。
経路探索処理部22は、出発地と目的地(あるいは経由地)との間を所定の探索条件にしたがって結ぶ走行経路(誘導経路)を探索する。また、経路探索処理部22は、経路探索処理と並行して、走行経路に沿って見える範囲に含まれる三次元オブジェクトを抽出するとともに、この抽出した三次元オブジェクトに対応する描画に用いられるテクスチャデータのID(「テクスチャID」と称する)も一緒に探索する。これらの探索結果は探索結果格納部24に格納される。誘導経路描画部26は、経路探索処理部22による探索処理によって得られた誘導経路を地図上に重ねて表示するための誘導経路描画データを生成する。音声案内部28は、経路探索処理部22による探索処理によって得られた誘導経路に沿って車両を誘導するために必要な交差点案内等の音声信号を生成する。
【0019】
3D画像処理部30は、三次元の地図表示が指示されたときに、車両位置計算部20によって算出された車両位置に対応する仮想的な視点位置(例えば、運転者の視点位置)を設定し、仮想的な三次元空間内に配置された三次元オブジェクトに対して透視投影変換を行う。本実施形態では、車両の走行位置から見える構造物を模擬した三次元オブジェクトが作成されている。また、これらの三次元オブジェクトは、ポリゴンによって構成されており、仮想的な視点位置から見える範囲に配置されたこれらの三次元オブジェクトを構成するポリゴンを用いて透視投影変換が行われる。
【0020】
テクスチャマッピング処理部32は、3D画像処理部30によって透視投影変換された結果に対して、ポリゴンの各面にテクスチャを貼り付けるテクスチャマッピング処理を行う。テクスチャマッピング処理によって生成された画像データはVRAM60内のフレームメモリ領域62に格納される。テクスチャ転送処理部34は、経路探索処理時に並行して探索されたテクスチャIDをVRAM60内のテクスチャID領域66に書き込むとともに、経路探索処理によって得られた走行経路に沿って車両が走行しているときに、必要なテクスチャデータを読み出してVRAM60内のテクスチャ領域64に格納する。
【0021】
入力処理部50は、リモコンユニット4から入力される各種の操作指示に対応する動作を行うための命令をナビゲーションコントローラ1内の各部に向けて出力する。
VRAM60は、高速な読み書きが可能な画像メモリであり、フレームメモリ領域62、テクスチャ領域64、テクスチャID領域66を有している。フレームメモリ領域62には、表示画面に対応する描画データが書き込まれる。テクスチャ領域64は、テクスチャ転送処理部34によって地図バッファ10から読み出されるテクスチャデータが書き込まれる。このテクスチャ領域64がテクスチャキャッシュとして機能しており、テクスチャマッピング処理部32は、読み出しに時間がかかるDRAM(ダイナミックRAM)等で構成された地図バッファ10からではなく、高速な読み出しが可能であるVRAM60のテクスチャ領域64からテクスチャデータを読み出す。テクスチャID領域66は、経路探索処理によって走行経路とともに求めたテクスチャIDが書き込まれる。
【0022】
表示処理部68は、VRAM60内のフレームメモリ領域62に書き込まれた描画データを読み出して所定の変換処理を行って映像信号を生成する。この映像信号はディスプレイ装置6に入力され、フレームメモリ領域62に書き込まれた描画データに対応する画像が表示される。
【0023】
上述した地図バッファ10が地図データ格納手段に、車両位置検出部5、車両位置計算部20が車両位置検出手段に、テクスチャ転送処理部34がテクスチャ転送手段に、3D画像処理部30、テクスチャマッピング処理部32が三次元画像描画手段にそれぞれ対応する。
【0024】
本実施形態のナビゲーション装置はこのような構成を有しており、次に、三次元の地図表示に関連する動作を説明する。
図2は、経路探索処理が指示された場合の動作手順を示す流れ図である。経路探索処理部22は、ナビゲーション装置の利用者によって経路探索が指示されたか否かを判定しており(ステップ100)、指示されない場合には否定判断を行ってこの判定を繰り返す。また、リモコンユニット4等を用いて利用者によって経路探索が指示されると、経路探索処理部22は、その時点での車両位置を出発地として設定し、指定された目的地までの最適な走行経路を経路探索処理によって求める(ステップ101)。また、経路探索処理部22は、この経路探索処理と並行して、出発地と目的地とを結ぶ走行経路に沿って見える範囲に含まれる三次元オブジェクトを抽出するとともに、この抽出した三次元オブジェクトに対応する描画に用いられるテクスチャデータのテクスチャIDを探索する(ステップ102)。また、テクスチャ転送処理部34は、ステップ102の探索処理によって得られたテクスチャIDをVRAM60内のテクスチャID領域66に書き込む(ステップ103)。
【0025】
図3は、車両が走行中に三次元の地図表示と並行して行われるテクスチャデータの転送動作を示す流れ図である。
テクスチャ転送処理部34は、ナビゲーション装置の利用者によって三次元の地図表示が指示されたか否かを判定しており(ステップ200)、指示されない場合には否定判断を行ってこの判定を繰り返す。また、リモコンユニット4等を用いて利用者によって三次元の地図表示が指示されると、テクスチャ転送処理部34は肯定判断を行い、次に、経路誘導動作中か否かを判定する(ステップ201)。誘導経路描画部26や音声案内部28を用いた経路誘導動作中でない場合には否定判断が行われ、ステップ200に戻って三次元地図表示指示の有無判定以降が繰り返される。
【0026】
また、三次元の地図表示が指示された時点で経路誘導動作が行われていた場合にはステップ201の判定において肯定判断が行われ、次に、テクスチャ転送処理部34は、テクスチャデータの先行読み出しを行う(ステップ202)。この先行読み出しは、予めVRAM60内のテクスチャID領域66に書き込まれた所定区間分(例えば、現在の車両位置以降の所定距離分)のテクスチャIDを読み出し、これらのテクスチャIDに対応するテクスチャデータを地図バッファ10から読み出すことにより行われる。読み出されたテクスチャデータは、VRAM60内のテクスチャ領域64に書き込まれる。
【0027】
次に、テクスチャ転送処理部34は、車両が所定区間分走行したか否かを判定し(ステップ203)、走行していない場合には否定判断を行って、次に三次元の地図表示が終了したか否かを判定する(ステップ204)。車両が所定区間分走行した場合にはステップ203の判定において肯定判断が行われ、ステップ202に戻って、次の所定区間分のテクスチャデータの先行読み出しが行われる。
【0028】
このようにして、車両が所定区間分走行する毎に、次の所定区間分のテクスチャデータが地図バッファ10から読み出され、VRAM60内のテクスチャ領域64に書き込まれる。したがって、テクスチャマッピング処理部32は、高速読み出しが可能なVRAM60からテクスチャデータを読み出してテクスチャマッピング処理を行うことが可能になる。
【0029】
このように、走行経路に沿って三次元の画像表示を行う際に必要になるテクスチャデータのみを選択的にVRAM60のテクスチャ領域64に格納しておくことができるため、このVRAM60内のテクスチャ領域64を小さくすることができ、容量が小さなVRAM60を用いた簡素な構造とすることができ、コスト低減を図ることができる。また、容量の小さなVRAM60を用いる場合であっても、走行経路に沿って必要なテクスチャデータをこのVRAM60から読み出すことが可能になり、テクスチャの読み出し時間を短縮することができる。
【0030】
ところで、従来のナビゲーション装置では、VRAM内のテクスチャ領域に三次元の地図表示に必要な全てのテクスチャデータを書き込むことにより、高速なテクスチャデータの読み出しを可能にしていたが、テクスチャ領域を所定の大きさ以下にしようとすると、一つ一つのテクスチャデータをあまり大きくすることができない。このため、従来は、実際には外観が異なる建物等であっても、比較的単純で画一的なテクスチャデータを用いることも多く、図5に示すような、臨場感に乏しい三次元地図表示になっていた。
【0031】
しかし、本実施形態のナビゲーション装置では、経路探索によって設定された走行経路に沿って実際に必要になる範囲の三次元オブジェクトに対応するテクスチャデータのみを先行して読み出すことができるため、仮に、従来と同じ容量のVRAMを用いたり、容量の小さなVRAMを用いた場合であっても、一つ一つのテクスチャデータのデータ量を大きくすることができる。このため、図4に示すような、高精細で臨場感のある三次元地図画像を表示することが可能になり、しかも、全てのテクスチャデータをVRAM60から読み出しているため、テクスチャマッピング処理の速度を低下させることもない。
【0032】
また、本実施形態では、経路探索と同時に走行経路に沿って存在する三次元オブジェクトに対応するテクスチャデータのテクスチャIDを予め抽出し、VRAM60内のテクスチャID領域66に格納しているため、実際に地図バッファ10からVRAM60内のテクスチャ領域64にテクスチャデータを転送する際に、転送対象となるテクスチャデータを特定する時間を短縮することができる。
【0033】
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。本実施形態では、経路探索によって走行経路が設定されている場合にテクスチャデータの先行読み出しを行ったが、経路探索による走行経路が設定されていない場合にも適用できる。この場合には、例えば、車両の現在位置周辺の所定範囲についてテクスチャデータの先行読み出しを行う。このようにした場合であっても、先行してVRAMのテクスチャ領域に書き込むテクスチャデータの種類を少なくすることが可能になり、しかも一つ一つのテクスチャデータのデータ量を増やすことが可能になるため高精細で臨場感のある三次元地図画像を表示することができる。
【0034】
【発明の効果】
上述したように、本発明によれば、走行経路に沿って必要になるテクスチャデータを選択的に画像メモリに格納しておくことができるため、画像メモリのテクスチャデータ用の格納領域を小さくした簡素な構造とすることができ、コスト低減を図ることができる。また、容量の小さな画像メモリを用いる場合であっても、走行経路に沿って必要なテクスチャデータをこの画像メモリから読み出すことが可能になり、テクスチャの読み出し時間を短縮することができる。
【図面の簡単な説明】
【図1】一実施形態のナビゲーション装置の構成を示す図である。
【図2】経路探索処理が指示された場合の動作手順を示す流れ図である。
【図3】車両が走行中に三次元の地図表示と並行して行われるテクスチャデータの転送動作を示す流れ図である。
【図4】本実施形態の三次元地図表示の具体例を示す図である。
【図5】従来の三次元地図表示の具体例を示す図である。
【符号の説明】
1 ナビゲーションコントローラ
4 リモコンユニット
5 車両位置検出部
6 ディスプレイ装置
10 地図バッファ
14 2D地図画像描画部
20 車両位置計算部
22 経路探索処理部
24 探索結果格納部
26 誘導経路描画部
28 音声案内部
30 3D画像処理部
32 テクスチャマッピング処理部
34 テクスチャ転送処理部34
50 入力処理部
60 VRAM(ビデオRAM)
62 フレームメモリ領域
64 テクスチャ領域
66 テクスチャID領域
68 表示処理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a navigation device that generates and displays a three-dimensional image of a building or the like existing in front of a vehicle.
[0002]
[Prior art]
Some recent navigation devices have a three-dimensional display function of not only displaying a map around the position of the vehicle but also displaying an image of a building or the like that can be seen from the driver's eyes. By performing such display, it is possible to generate an image with a sense of reality, search for an intersection that is about to turn left or right while looking at an image similar to that when actually driving a vehicle, or specify in advance It becomes easy to search for a facility that has been set.
[0003]
By the way, as a conventional technique for performing three-dimensional display of an image, a technique is known in which a three-dimensional object such as a building is formed by polygons and a pattern is formed on a polygon surface by texture mapping. In order to obtain a more realistic image, the number of polygons constituting the 3D object increases, and the types of textures prepared in advance also increase. It is necessary to use a high processor or devise a configuration for performing texture mapping. For example, as a conventional technique devising a configuration for performing texture mapping, a drawing apparatus that performs texture mapping by pipeline processing is known (for example, see Patent Literature 1). By using this drawing apparatus, the number of times of reading the texture memory and the reading time can be reduced, and the whole drawing speed can be increased.
[0004]
[Patent Document 1]
JP-A-9-212680 (page 3-11, FIG. 1-21)
[0005]
[Problems to be solved by the invention]
By the way, in the drawing apparatus disclosed in Patent Document 1 described above, a plurality of processing units (engines) of the same type are required to perform pipeline processing, and the apparatus configuration is complicated, and it is difficult to reduce costs. there were. In particular, in the case of three-dimensional display in a navigation device, since textures to be used are biased depending on the traveling position, it is wasteful to hold all textures in a high-speed VRAM (video RAM). There is a demand for a technique that utilizes this feature, has a simple configuration, can easily reduce cost, and can reduce the texture reading time.
[0006]
The present invention has been made in view of the above points, and an object of the present invention is to reduce the time required to read textures when performing three-dimensional display, have a simple configuration, and reduce cost. An object of the present invention is to provide a navigation device that can be designed.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, the navigation device of the present invention arranges a three-dimensional object simulating a structure seen from a traveling position of a vehicle in a virtual three-dimensional space corresponding to an installation state of an actual structure. In addition, in order to display a three-dimensional image of the virtual three-dimensional space viewed from the virtual viewpoint position, data on the arrangement and shape of the three-dimensional object included in the virtual three-dimensional space and texture data corresponding to the three-dimensional object , A vehicle position detecting means for detecting a vehicle position, and texture data corresponding to a three-dimensional object arranged along the traveling route of the vehicle are read from the map data storing means and stored in an image memory. Texture transfer means for transferring, and vehicle position detecting means using texture data stored in an image memory Therefore and a three-dimensional image drawing unit that draws a three-dimensional image corresponding to the detected vehicle position. Thereby, the texture data required along the traveling route can be selectively stored in the image memory, so that a simple structure in which the storage area for the texture data in the image memory is reduced, Cost can be reduced. Further, even when a small-capacity image memory is used, necessary texture data can be read from the image memory along the traveling route, and the texture reading time can be reduced.
[0008]
It is preferable that the apparatus further includes a route search processing unit that obtains a travel route to the destination by a route search process, and the texture transfer unit transfers the texture data along the travel route set by the route search processing unit. This makes it possible to reliably read ahead the texture data that is actually needed, and to transfer only the texture data that is really necessary for three-dimensional display. The storage area for the texture data can be further reduced, and the cost can be reduced by reducing the capacity of the image memory.
[0009]
When the route search processing means obtains a travel route by the route search processing means, the route search processing means previously extracts specific information of texture data corresponding to a three-dimensional object existing along the travel route, and the texture transfer means It is desirable to transfer the texture data based on the specific information when the vehicle actually travels. This makes it possible to speed up the process of transferring the texture data to the image memory.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an in-vehicle navigation device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a navigation device according to an embodiment. The navigation device shown in FIG. 1 includes a navigation controller 1, a DVD 2, a disk reader 3, a remote control (remote control) unit 4, a vehicle position detector 5, a display device 6, and an audio unit 7.
[0011]
The navigation controller 1 controls the entire operation of the navigation device. The function of the navigation controller 1 is realized by executing a predetermined operation program using a CPU, a ROM, a RAM, and the like. The detailed configuration of the navigation controller 1 will be described later.
[0012]
The DVD 2 is an information recording medium that stores map data necessary for map display, facility search, route search, expressway guidance image display, and the like. The DVD 2 stores map data in units of rectangular figures divided into appropriate sizes by longitude and latitude. The map data of each leaf is specified by specifying the leaf number and can be read out.
[0013]
The disk reader 3 can load one or a plurality of DVDs 2 and reads map data from any one of the DVDs 2 under the control of the navigation controller 1. Note that the disc to be loaded is not necessarily a DVD, but may be a CD. Alternatively, both a DVD and a CD may be selectively loaded.
[0014]
The remote control unit 4 includes a joystick for designating directions such as up, down, left, and right, and various operation keys such as a numeric keypad for inputting numbers and a "decision key" for confirming various settings. A signal is output to the navigation controller 1.
[0015]
The vehicle position detection unit 5 includes, for example, a GPS receiver, a direction sensor, a distance sensor, and the like, detects a vehicle position (longitude, latitude) at a predetermined timing, and outputs a detection result.
The display device 6 displays a map image around the own vehicle position based on a video signal output from the navigation controller 1. The audio unit 7 outputs a guidance voice or the like generated based on a voice signal input from the navigation controller 1 into the vehicle interior.
[0016]
Next, a detailed configuration of the navigation controller 1 will be described. The navigation controller 1 shown in FIG. 1 includes a map buffer 10, a map readout control unit 12, a 2D (two-dimensional) image drawing unit 14, a vehicle position calculation unit 20, a route search processing unit 22, a search result storage unit 24, and a guide route drawing. It includes a unit 26, a voice guidance unit 28, a 3D (three-dimensional) image processing unit 30, a texture mapping processing unit 32, a texture transfer processing unit 34, an input processing unit 50, a VRAM 60, and a display processing unit 68.
[0017]
The map buffer 10 temporarily stores map data read from the DVD 2 by the disk reader 3. The map data includes data necessary for displaying a three-dimensional map in addition to data necessary for displaying a two-dimensional map. The data required for displaying a 3D map includes the arrangement of 3D objects that simulate structures seen from the vehicle's running position, the data of the polygons that make them up, and the texture mapping processing for the polygons. Texture data and the like are included. The map reading control unit 12 outputs a read request for map data in a predetermined range to the disk reading device 3 in accordance with the vehicle position calculated by the vehicle position calculating unit 20 and an instruction from the input processing unit 50. When instructed to display a two-dimensional map, the 2D image drawing unit 14 performs a drawing process necessary for displaying a two-dimensional map image based on the map data stored in the map buffer 10 to perform map processing. Create image drawing data. This drawing data is stored in the frame memory area 62 in the VRAM 60.
[0018]
The vehicle position calculation unit 20 calculates the own vehicle position based on the detection data output from the vehicle position detection unit 5, and calculates the own vehicle position when the calculated own vehicle position is not on the road in the map data. A map matching process to be corrected is performed.
The route search processing unit 22 searches for a traveling route (guidance route) that connects a departure place and a destination (or a waypoint) according to predetermined search conditions. Further, in parallel with the route search process, the route search processing unit 22 extracts a three-dimensional object included in a range that can be viewed along the traveling route, and extracts texture data used for drawing corresponding to the extracted three-dimensional object. (Also referred to as “texture ID”). These search results are stored in the search result storage unit 24. The guidance route drawing unit 26 generates guidance route drawing data for displaying the guidance route obtained by the search processing by the route search processing unit 22 in a superimposed manner on a map. The voice guidance unit 28 generates a voice signal such as an intersection guidance necessary for guiding the vehicle along the guidance route obtained by the search processing by the route search processing unit 22.
[0019]
When a three-dimensional map display is instructed, the 3D image processing unit 30 sets a virtual viewpoint position (for example, a driver's viewpoint position) corresponding to the vehicle position calculated by the vehicle position calculation unit 20. And performs perspective projection transformation on the three-dimensional object arranged in the virtual three-dimensional space. In the present embodiment, a three-dimensional object that simulates a structure that can be seen from the traveling position of the vehicle is created. In addition, these three-dimensional objects are configured by polygons, and perspective projection conversion is performed using the polygons that configure these three-dimensional objects and that are arranged in a range that can be seen from a virtual viewpoint position.
[0020]
The texture mapping processing unit 32 performs a texture mapping process of attaching a texture to each surface of the polygon on the result of the perspective projection conversion performed by the 3D image processing unit 30. Image data generated by the texture mapping process is stored in the frame memory area 62 in the VRAM 60. The texture transfer processing unit 34 writes the texture ID searched in parallel during the route search process into the texture ID area 66 in the VRAM 60, and when the vehicle is traveling along the travel route obtained by the route search process. Then, necessary texture data is read out and stored in the texture area 64 in the VRAM 60.
[0021]
The input processing unit 50 outputs an instruction for performing an operation corresponding to various operation instructions input from the remote control unit 4 to each unit in the navigation controller 1.
The VRAM 60 is an image memory capable of high-speed reading and writing, and has a frame memory area 62, a texture area 64, and a texture ID area 66. In the frame memory area 62, drawing data corresponding to the display screen is written. In the texture area 64, texture data read from the map buffer 10 by the texture transfer processing unit 34 is written. The texture area 64 functions as a texture cache, and the texture mapping processing unit 32 does not use the VRAM 60 that can read at high speed, but from the map buffer 10 configured by a DRAM (dynamic RAM) or the like, which takes a long time to read. The texture data is read from the texture area 64 of FIG. In the texture ID area 66, the texture ID obtained along with the travel route by the route search processing is written.
[0022]
The display processing unit 68 reads out the drawing data written in the frame memory area 62 in the VRAM 60 and performs a predetermined conversion process to generate a video signal. This video signal is input to the display device 6, and an image corresponding to the drawing data written in the frame memory area 62 is displayed.
[0023]
The above-described map buffer 10 serves as a map data storage unit, the vehicle position detecting unit 5, the vehicle position calculating unit 20 serves as a vehicle position detecting unit, the texture transfer processing unit 34 serves as a texture transfer unit, and the 3D image processing unit 30, a texture mapping process. The units 32 respectively correspond to three-dimensional image drawing means.
[0024]
The navigation device according to the present embodiment has such a configuration. Next, an operation related to a three-dimensional map display will be described.
FIG. 2 is a flowchart showing an operation procedure when a route search process is instructed. The route search processing unit 22 determines whether or not a route search has been instructed by the user of the navigation device (step 100). If not, a negative determination is made and this determination is repeated. When a user instructs a route search using the remote control unit 4 or the like, the route search processing unit 22 sets the vehicle position at that time as a departure place, and optimally travels to the designated destination. A route is obtained by a route search process (step 101). In parallel with this route search processing, the route search processing unit 22 extracts a three-dimensional object included in a range that can be seen along a traveling route connecting the departure place and the destination, and Is searched for the texture ID of the texture data used for drawing corresponding to (step 102). Further, the texture transfer processing unit 34 writes the texture ID obtained by the search processing in step 102 into the texture ID area 66 in the VRAM 60 (step 103).
[0025]
FIG. 3 is a flowchart showing a texture data transfer operation performed in parallel with the three-dimensional map display while the vehicle is traveling.
The texture transfer processing unit 34 determines whether or not a three-dimensional map display has been instructed by the user of the navigation device (step 200). If not, a negative determination is made and this determination is repeated. When the user instructs a three-dimensional map display using the remote control unit 4 or the like, the texture transfer processing unit 34 makes an affirmative determination, and then determines whether or not a route guidance operation is being performed (step 201). ). If the route guidance operation using the guidance route drawing unit 26 or the voice guidance unit 28 is not being performed, a negative determination is made, and the process returns to step 200 to repeat the determination of the presence or absence of the three-dimensional map display instruction.
[0026]
If the route guidance operation has been performed at the time when the three-dimensional map display is instructed, an affirmative determination is made in the determination of step 201, and then the texture transfer processing unit 34 reads the texture data in advance. (Step 202). In this pre-reading, the texture IDs of a predetermined section (for example, a predetermined distance after the current vehicle position) written in the texture ID area 66 in the VRAM 60 are read in advance, and the texture data corresponding to these texture IDs is mapped. This is performed by reading from the buffer 10. The read texture data is written to the texture area 64 in the VRAM 60.
[0027]
Next, the texture transfer processing unit 34 determines whether or not the vehicle has traveled a predetermined section (step 203). If the vehicle has not traveled, a negative determination is made, and then the three-dimensional map display ends. It is determined whether or not the process has been performed (step 204). If the vehicle has traveled for the predetermined section, an affirmative determination is made in the determination of step 203, and the process returns to step 202 to read the texture data for the next predetermined section in advance.
[0028]
In this way, every time the vehicle travels for a predetermined section, the texture data for the next predetermined section is read from the map buffer 10 and written to the texture area 64 in the VRAM 60. Therefore, the texture mapping processing unit 32 can read texture data from the VRAM 60 that can be read at high speed and perform texture mapping.
[0029]
As described above, only the texture data necessary for displaying a three-dimensional image along the traveling route can be selectively stored in the texture area 64 of the VRAM 60. Can be reduced, a simple structure using the VRAM 60 having a small capacity can be achieved, and the cost can be reduced. Further, even when the VRAM 60 having a small capacity is used, necessary texture data can be read from the VRAM 60 along the traveling route, and the time required to read the texture can be reduced.
[0030]
By the way, in the conventional navigation device, high-speed reading of the texture data is enabled by writing all the texture data necessary for displaying the three-dimensional map in the texture area in the VRAM. If it is attempted to make the texture data smaller, it is not possible to make each texture data too large. For this reason, conventionally, even in the case of a building or the like that actually has a different appearance, a relatively simple and uniform texture data is often used, and as shown in FIG. Had become.
[0031]
However, in the navigation device of the present embodiment, only the texture data corresponding to the three-dimensional object in the range actually required along the traveling route set by the route search can be read in advance. Even when a VRAM having the same capacity as that of the VRAM is used or a VRAM having a small capacity is used, the data amount of each piece of texture data can be increased. Therefore, it is possible to display a high-definition and realistic 3D map image as shown in FIG. 4, and since all the texture data is read from the VRAM 60, the speed of the texture mapping process can be reduced. There is no lowering.
[0032]
In the present embodiment, the texture ID of the texture data corresponding to the three-dimensional object existing along the travel route is extracted in advance at the same time as the route search and stored in the texture ID area 66 in the VRAM 60. When the texture data is transferred from the map buffer 10 to the texture area 64 in the VRAM 60, the time for specifying the texture data to be transferred can be reduced.
[0033]
Note that the present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention. In the present embodiment, the texture data is read in advance when the travel route is set by the route search, but the present invention can be applied to the case where the travel route is not set by the route search. In this case, for example, advance reading of the texture data is performed for a predetermined range around the current position of the vehicle. Even in this case, it is possible to reduce the number of types of texture data to be written in the texture area of the VRAM in advance, and it is possible to increase the data amount of each piece of texture data. It is possible to display a high-definition and realistic 3D map image.
[0034]
【The invention's effect】
As described above, according to the present invention, texture data required along a traveling route can be selectively stored in an image memory. And a cost reduction can be achieved. Further, even when a small-capacity image memory is used, necessary texture data can be read from the image memory along the traveling route, and the texture reading time can be reduced.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a navigation device according to an embodiment.
FIG. 2 is a flowchart showing an operation procedure when a route search process is instructed.
FIG. 3 is a flowchart illustrating a texture data transfer operation performed in parallel with a three-dimensional map display while the vehicle is traveling.
FIG. 4 is a diagram showing a specific example of a three-dimensional map display according to the embodiment.
FIG. 5 is a diagram showing a specific example of a conventional three-dimensional map display.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 navigation controller 4 remote control unit 5 vehicle position detection unit 6 display device 10 map buffer 14 2D map image drawing unit 20 vehicle position calculation unit 22 route search processing unit 24 search result storage unit 26 guidance route drawing unit 28 voice guidance unit 30 3D image Processing unit 32 Texture mapping processing unit 34 Texture transfer processing unit 34
50 input processing unit 60 VRAM (video RAM)
62 frame memory area 64 texture area 66 texture ID area 68 display processing unit

Claims (3)

車両の走行位置から見える構造物を模擬した三次元オブジェクトを、実際の前記構造物の設置状態に対応させて仮想三次元空間に配置するとともに、仮想的な視点位置から前記仮想三次元空間を見た三次元画像を表示するナビゲーション装置において、
前記仮想三次元空間に含まれる前記三次元オブジェクトの配置や形状に関するデータと、前記三次元オブジェクトに対応するテクスチャデータとを格納した地図データ格納手段と、
車両位置を検出する車両位置検出手段と、
車両の走行経路に沿って配置された前記三次元オブジェクトに対応する前記テクスチャデータを前記地図データ格納手段から読み出して画像メモリに転送するテクスチャ転送手段と、
前記画像メモリに格納されている前記テクスチャデータを用いて、前記車両位置検出手段によって検出された車両位置に対応する前記三次元画像を描画する三次元画像描画手段と、
を備えることを特徴とするナビゲーション装置。
A three-dimensional object simulating a structure visible from the traveling position of the vehicle is arranged in a virtual three-dimensional space in accordance with the actual installation state of the structure, and the virtual three-dimensional space is viewed from a virtual viewpoint position. Navigation device that displays a three-dimensional image
Map data storage means for storing data relating to the arrangement and shape of the three-dimensional object included in the virtual three-dimensional space, and texture data corresponding to the three-dimensional object;
Vehicle position detecting means for detecting a vehicle position;
Texture transfer means for reading the texture data corresponding to the three-dimensional object arranged along the traveling route of the vehicle from the map data storage means and transferring the texture data to an image memory;
Using the texture data stored in the image memory, three-dimensional image drawing means for drawing the three-dimensional image corresponding to the vehicle position detected by the vehicle position detection means,
A navigation device comprising:
請求項1において、
目的地までの走行経路を経路探索処理によって求める経路探索処理手段をさらに備え、
前記テクスチャ転送手段は、前記経路探索処理手段によって設定された走行経路に沿って前記テクスチャデータの転送を行うことを特徴とするナビゲーション装置。
In claim 1,
Route search processing means for obtaining a travel route to the destination by route search processing;
The navigation device, wherein the texture transfer unit transfers the texture data along a travel route set by the route search processing unit.
請求項2において、
前記経路探索処理手段は、前記経路探索処理手段によって走行経路を求める際に、この走行経路に沿って存在する前記三次元オブジェクトに対応する前記テクスチャデータの特定情報を予め抽出し、
前記テクスチャ転送手段は、実際の車両走行時に、前記特定情報に基づいて前記テクスチャデータの転送を行うことを特徴とするナビゲーション装置。
In claim 2,
The route search processing means, when determining a travel route by the route search processing means, previously extracting the specific information of the texture data corresponding to the three-dimensional object existing along the travel route,
The navigation device, wherein the texture transfer unit transfers the texture data based on the specific information when the vehicle is actually running.
JP2003005166A 2003-01-14 2003-01-14 Navigation system Pending JP2004219182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003005166A JP2004219182A (en) 2003-01-14 2003-01-14 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003005166A JP2004219182A (en) 2003-01-14 2003-01-14 Navigation system

Publications (1)

Publication Number Publication Date
JP2004219182A true JP2004219182A (en) 2004-08-05

Family

ID=32895891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003005166A Pending JP2004219182A (en) 2003-01-14 2003-01-14 Navigation system

Country Status (1)

Country Link
JP (1) JP2004219182A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098225A (en) * 2004-09-29 2006-04-13 Aisin Aw Co Ltd Navigation apparatus
EP2075543A3 (en) * 2007-12-26 2010-04-14 Aisin AW Co., Ltd. Three-dimensional map display navigation device, three-dimensional map display system, and three-dimensional map display program
CN102183261A (en) * 2009-12-14 2011-09-14 罗伯特·博世有限公司 Method for re-using photorealistic 3D landmarks for nonphotorealistic 3D maps
JP2013250268A (en) * 2012-06-01 2013-12-12 Boeing Co:The Sensor-enhanced localization in virtual and physical environments
JP2014231996A (en) * 2013-05-28 2014-12-11 アルパイン株式会社 Navigation apparatus, and map drawing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098225A (en) * 2004-09-29 2006-04-13 Aisin Aw Co Ltd Navigation apparatus
JP4512998B2 (en) * 2004-09-29 2010-07-28 アイシン・エィ・ダブリュ株式会社 Navigation device
EP2075543A3 (en) * 2007-12-26 2010-04-14 Aisin AW Co., Ltd. Three-dimensional map display navigation device, three-dimensional map display system, and three-dimensional map display program
CN102183261A (en) * 2009-12-14 2011-09-14 罗伯特·博世有限公司 Method for re-using photorealistic 3D landmarks for nonphotorealistic 3D maps
JP2013250268A (en) * 2012-06-01 2013-12-12 Boeing Co:The Sensor-enhanced localization in virtual and physical environments
JP2014231996A (en) * 2013-05-28 2014-12-11 アルパイン株式会社 Navigation apparatus, and map drawing method

Similar Documents

Publication Publication Date Title
JP3108122B2 (en) Car navigation system
US6445999B1 (en) Navigation system and method of displaying a quasi-three-dimensional map information
WO2006092853A1 (en) Map display device and map display method
WO1996015515A1 (en) Map display for vehicle
JP2009157053A (en) Three-dimensional map display navigation device, three-dimensional map display system, and three-dimensional map display program
JP4610425B2 (en) Map information updating method and navigation apparatus
JP2008014754A (en) Navigation apparatus
JP2001167288A (en) Three-dimensional map display device
JP2004219182A (en) Navigation system
JP4777786B2 (en) In-vehicle map display device
JP4533191B2 (en) 3D map display device and 3D map display program
JP5232380B2 (en) Map display device
JP3619076B2 (en) Navigation device
JP2004138581A (en) Map display, and method of displaying map
JP2006268550A (en) Navigation device
JP2007057809A (en) Map display device
JP4293893B2 (en) Navigation device and landmark display method
JP5165851B2 (en) 3D map display method, 3D map display device, and navigation device
JP2007212836A (en) Information acquisition device, information display device, information acquiring method, and the like
JP4472423B2 (en) Navigation device
JP3351760B2 (en) Three-dimensional map drawing apparatus and drawing method
JP3892741B2 (en) Navigation device
JP2004333155A (en) Information presenting device, information presenting method, and computer program
JP3942796B2 (en) Navigation device
US9574900B2 (en) Navigation apparatus and method for drawing map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051129

A131 Notification of reasons for refusal

Effective date: 20080812

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20081003

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20081118

Free format text: JAPANESE INTERMEDIATE CODE: A02