JP3836278B2 - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP3836278B2
JP3836278B2 JP28199199A JP28199199A JP3836278B2 JP 3836278 B2 JP3836278 B2 JP 3836278B2 JP 28199199 A JP28199199 A JP 28199199A JP 28199199 A JP28199199 A JP 28199199A JP 3836278 B2 JP3836278 B2 JP 3836278B2
Authority
JP
Japan
Prior art keywords
display
data
intersection
road
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28199199A
Other languages
Japanese (ja)
Other versions
JP2001099670A (en
Inventor
隆 柏崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP28199199A priority Critical patent/JP3836278B2/en
Publication of JP2001099670A publication Critical patent/JP2001099670A/en
Application granted granted Critical
Publication of JP3836278B2 publication Critical patent/JP3836278B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、走行中の車両において地図データに基づいて経路案内を画面上に表示するナビゲーション装置に関し、特に、経路上の交差点の3次元画像を表示することができるナビゲーション装置の技術分野に属する。
【0002】
【従来の技術】
従来から、車両の現在位置を検出し、周辺の道路地図と共に検出された現在位置を表示画面に表示して経路案内を行うナビゲーション装置が広く用いられている。この種のナビゲーション装置を用いると、車両の搭乗者は表示画面に表示される道路地図を視認して走行車両の位置を把握することができる。
【0003】
一方、一般に表示画面に表示される道路地図は平面的な表示となるが、走行経路上の交差点を視覚的に特定するために、搭乗者の位置を視点とした立体的な交差点の表示を行うことが要望されている。搭乗者は、このような立体的な表示を見ることにより、例えば交差点で右折や左折する際に、的確に曲がるべき交差点を判断することができる。
【0004】
【発明が解決しようとする課題】
上記従来のナビゲーション装置では、交差点の立体画像表示を実現するため、例えば、交差点の写真画像をデータ化して記憶手段に保持し、表示画面に交差点の写真画像を表示する方法が採用される。
【0005】
しかし、このような方法では、多数の交差点についての写真画像データを用意すると、データ量が非常に大きくなる。しかも、車両の移動に応じた動画像を表示しようとすると、その分だけの写真画像データを用意しなければならなくなり、記憶手段の容量の面で制約を受ける。
【0006】
一方、交差点付近の3次元ワイヤーフレームモデルを用いてテクスチャマッピング処理により3次元表示を行うことも考えられるが、交差点付近にはビルなど多くの構造物があるため、必要なテクスチャマッピング処理がきわめて増大し、画像処理に多大の時間を要することになる。
【0007】
以上のように、上記従来のナビゲーション装置では、記憶手段に保持可能なデータを用いて簡易な処理により立体的な交差点画像を表示することができない点が問題であった。
【0008】
そこで、本発明はこのような問題に鑑みなされたものであり、走行中の車両において、簡易な画像処理により交差点の立体的な画像を表示して視認性を向上させることができるナビゲーション装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載のナビゲーション装置は、車両の現在位置を検出する現在位置検出手段と、地図データを記憶する地図データ記憶手段と、前記現在位置と前記地図データに基づいて目的地までの経路案内を表示する表示手段とを備えたナビゲーション装置であって、前記地図データに含まれる交差点における複数の進入方向の夫々に対応する道路側面の貼り付け面の3次元配置データを記憶する貼り付け面記憶手段と、前記貼り付け面に貼り付ける画像データを前記交差点における複数の進入方向の夫々に対応する道路側面の貼り付け面に対応付けて記憶する画像データ記憶手段と、前記現在位置から道路を検出し、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し表示する表示制御手段と、を備えることを特徴とする。
【0010】
請求項2に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記画像データ記憶手段は、構造物領域と背景領域に区分して該背景領域を所定の背景色で塗りつぶした画像データを記憶していることを特徴とする。
【0011】
請求項3に記載のナビゲーション装置は、請求項2に記載のナビゲーション装置において、前記背景色は、表示画面の上面部と同一色にて表示されることを特徴とする。
【0012】
請求項4に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記表示制御手段は、前記現在位置から道路を検出し、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し、車両の走行に応じて動画像表示することを特徴とする。
【0013】
請求項5に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記貼り付け面記憶手段は、前記交差点近傍における前記複数の進入方向の夫々に対応する道路側面の貼り付け面の3次元配置データを記憶しており、前記表示制御手段は、前記現在位置検出手段からの現在位置データと交差点との位置関係を比較し、車両が所定距離内にいる場合、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し表示することを特徴とする。
【0014】
請求項6に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記貼り付け面は、前記交差点の中心から所定範囲内における前記複数の進入方向の夫々に対応する道路に夫々面する2の側面の矩形領域として定義されることを特徴とする。
【0015】
請求項7に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記地図データ記憶手段は、道路の道幅情報を記憶し、前記貼り付け面記憶手段は、前記道幅情報に応じて前記貼り付け面の画像位置を算出することを特徴とする。
【0016】
請求項8に記載のナビゲーション装置は、請求項1に記載のナビゲーション装置において、前記表示制御手段によって表示される表示データに対し、所定の情報に基づくデータを重畳する表示データ重畳手段を更に備えることを特徴とする。
【0017】
請求項9に記載のナビゲーション装置は、請求項8に記載のナビゲーション装置において、前記表示データ重畳手段は、車線情報に基づく車線表示データを重畳することを特徴とする。
【0018】
請求項10に記載のナビゲーション装置は、請求項8又は請求項9に記載のナビゲーション装置において、前記表示データ重畳手段は、設定された経路に基づく進行方向案内表示データを重畳することを特徴とする。
【0019】
【発明の実施の形態】
以下、本発明の好適な実施の形態を図面に基づいて説明する。
【0020】
図1は、本実施形態に係るナビゲーション装置の概略構成を示す図である。図1に示すナビゲーション装置は、制御部11と、地図データ記憶部12と、交差点画像データ記憶部13と、センサ部14と、現在位置検出部15と、ディスプレイ16と、スピーカ17と、画像処理部18とを含んで構成されている。
【0021】
以上の構成において、制御部11は、ナビゲーション装置全体の動作を制御する。制御部11はCPU等からなり、図示しないROMに格納される制御プログラムを読み出して実行し、ナビゲーション装置の各構成要素に制御信号を送出すると共に、データを入出力する。また、制御部11は本発明の表示制御手段としても機能し、後述の画像処理部18により実行される3次元画像処理の動作とディスプレイ16の表示タイミングを制御する。
【0022】
地図データ記憶部12は、地図データを格納する記憶容量の大きなメモリであり、例えばCD−ROMやDVD−ROMなどが用いられる。地図データ記憶部12に格納される地図データは、道路形状データ、名称データ、背景データなどを含んで構成される。更に、地図データ記憶部12は、本発明の貼り付け面記憶手段として機能し、本発明に係る交差点表示処理に基づく3次元表示の対象となる複数の表示交差点の位置データや後述の貼り付け面の3次元配置データなどが地図データに付随して格納されている。
【0023】
なお、上記表示交差点としては、十字路に加え、3叉路、5叉路、分岐点や合流点などを対象として含んでいる。
【0024】
交差点画像データ記憶部13は、本発明に係る交差点表示処理に必要となる交差点画像データを保持するメモリであり、本発明の画像データ記憶手段として機能する。この交差点画像データは、上述の地図データ記憶部12に格納される複数の表示交差点に対応して、ディスプレイ16に3次元交差点画像を表示するために必要な画像データとしてのテクスチャデータ等により構成される。なお、交差点画像データについての詳細は後述する。
【0025】
センサ部14は、車両の現在位置を検出するために必要な各種センサを含んでいる。具体的には、車両の速度を検出する車速センサや、車両の方位変化量を検出する方位センサや、GPS(Global Positioning System)衛星からの電波を受信するGPS受信部などを含んで構成される。
【0026】
現在位置検出部15は、センサ部14からの出力信号に基づいて、車両の現在位置を算出し、現在位置データを出力する。なお、現在位置データは、制御部11によって前述の地図データと照合されて、マップマッチング処理等により補正される。
【0027】
ディスプレイ16は、本発明の表示手段として機能し、制御部11の指示の下、地図データが種々の態様で表示されると共に、これに重畳して車両の現在位置がカーマークとして表示される。また、車両が表示交差点に進入するとき、ディスプレイ16には、後述の画像処理により3次元交差点画像が表示される。このディスプレイ16は、例えばCRT、液晶表示素子などから構成される。また、スピーカ17からは、車両の経路に沿った誘導情報が音声により出力される。
【0028】
画像処理部18は、交差点画像データを用いて3次元交差点画像を表示するための3次元画像処理を実行する。画像処理部18により生成された3次元画像データは、制御部11の指示の下、ディスプレイ17に所定周期ごとに出力される。なお、画像処理部18としては、3次元画像処理に対応した画像処理プロセッサを用いることができる。
【0029】
次に、本実施形態に係る3次元画像処理の基本概念について、図2〜図5を参照して説明する。
【0030】
図2は、本実施形態に係るナビゲーション装置において画像表示の対象となる表示交差点について説明する図であり、車両の進行方向前方にある表示交差点と車両の位置関係の例を示している。本実施形態では、例えば、図2のような位置にある車両の搭乗者から見た視野画像を3次元の動画としてディスプレイ16に表示する。ここで、地図データ記憶部12に保持される地図データは、リンクやノードの集合であり、表示交差点の位置データは複数のリンクが接続される1つのノードに対応する。
【0031】
また、図2に示すように、一般に表示交差点の周辺部には複数の建物が存在する。本実施形態では、表示交差点を特徴づける周辺部の建物等の構造物の画像を3次元表示して、表示画面の視認性を高めている。図2の車両位置から見た視野画像を正確に3次元表示するためには、車両の位置及び交差点進入方向を現在位置検出部15の検出出力に基づき把握すると共に、道路の道幅を地図データから判別する必要がある。
【0032】
ここで、図2のような位置関係では、車両の進行方向が表示交差点の方向であり、その視野の両端には建物等の構造物が存在する。従って、リアルな交差点の情景を3次元画像として表示するために、これらの構造物を含む交差点画像データを生成する必要がある。この場合、交差点周辺にある各構造物ごとの画像データを用意する方法もあるが、3次元画像処理に伴う処理量がきわめて大きくなる。そこで、本実施形態では、表示交差点の中心から車両位置にかけての左側側面と右側側面の視野に対し、それぞれ1個づつの側面テクスチャを用意し、これらを後述のテクスチャマッピング処理により表示画面上の所定位置に貼り付けて、3次元交差点画像を表示することとしている。
【0033】
次に図3は、本実施形態に係る3次元画像処理において用いられるテクスチャマッピング処理について説明する図である。図3においては、3次元表示の対象物として立方体を想定し、これを3次元形状データ20としてデータ化する。この3次元形状データ20は、例えば、立方体の各頂点の3次元座標を定義することにより特定できる。そして、この3次元形状データ20に対し、テクスチャを貼り付ける所定の貼り付け面20aを定義する。この貼り付け面20aに2次元形状や模様等が描かれた2次元のテクスチャ21を貼り付けることによりテクスチャマッピング処理が行われる。
【0034】
図3に示すテクスチャ21は正方形である場合を示しているが、貼り付け面20aは3次元形状データ20を見る視点に応じて2次元形状が様々に変化する。例えば図3の場合、貼り付け面20aが平行四辺形の2次元形状となっている。従って、貼り付け面20aの2次元形状に対応させて、テクスチャ21に、拡大・縮小、変形等を施してテクスチャマッピング処理を行う必要がある。
【0035】
また、本実施形態では車両の搭乗者からの視点を考えるため、貼り付け面20aの配置及び形状が車両の移動に伴い時々刻々変動する。従って、3次元交差点画像を動画として表示する場合、テクスチャ21を用いたテクスチャマッピング処理を短時間で実行しなければならず、リアルタイムに動画を表示するため、テクスチャ21の数は少ない方が望ましい。
【0036】
図4は、本実施形態に係る表示交差点の一角を模式的に示す図である。図4に示すように本実施形態では、表示交差点の一角に存在する複数の構造物を含む3次元領域を設定し、一方の道路に面する矩形領域である貼り付け面31と、他方の道路に面する矩形領域である貼り付け面32を定義する。すると、表示交差点の4つの対角にそれぞれ2つの貼り付け面が定義され、全部で8つの貼り付け面が定義されることになる。これらの貼り付け面の3次元配置データは、表示交差点の位置データと関連付けられて地図データ記憶部12に保持される。後述するように、車両の交差点進入方向に応じて処理対象となる貼り付け面を選択して使い分けることになる。
【0037】
図4に示すように、貼り付け面31は、車両が方向Aに向かって表示交差点に進入した場合、視野画像の左側の側面部に見える範囲である。この貼り付け面31には建物等の特徴的な2次元形状や模様の画像をデータ化した側面テクスチャ41が貼り付けられる。同様に図4の貼り付け面32は、車両が方向Bに向かって表示交差点に進入した場合、視野画像の右側の側面部に見える範囲である。この貼り付け面32には、側面テクスチャ42が貼り付けられる。
【0038】
側面テクスチャ41、42は、それぞれ建物等の構造物を取り囲む範囲に設定される構造物領域41a、42aと、構造物が存在しない範囲に設定される背景領域41b、42bとに区分される。図4の側面テクスチャ41では3つの建物を囲む3つの矩形領域の集合が構造物領域41aであり、側面テクスチャ42では2つの建物を囲む2つの矩形領域の集合が構造物領域42aである。そして、側面テクスチャ41、42における構造物領域41a、42a以外の領域が背景領域41b、42bに対応する(図中、斜線で示す)。これら背景領域41b、42bは、所定の背景色で塗りつぶされる。この背景色を透明にしてもよく、この場合は背景領域41b、42bは色情報が付与されない。なお、構造物領域41a、42aは、構造物が複雑な形状を有する場合(例えば、木など)であっても、それを囲む範囲の領域に設定すればよい。
【0039】
図5は、1つの表示交差点に対応する8つの側面テクスチャを説明する図である。上述したように、表示交差点は全部で8つの貼り付け面が定義され、その全てにテクスチャマッピング処理を用いて貼り付けるべき側面テクスチャを用意する必要がある。そこで、図5に示すように、1つの表示交差点の画像データとして全部で8つの側面テクスチャ41〜48を設定し、地図データと関連付けて交差点画像データ記憶部13に格納しておく。
【0040】
図5において、表示交差点への車両の進入方向としては、方向A、B、C、Dの4つが考えられる。車両が方向Aから進入する場合、右側の側面を見た画像が側面テクスチャ48に対応し、左側の側面を見た画像が側面テクスチャ41に対応する。車両が方向Bから進入する場合、右側の側面を見た画像が側面テクスチャ42に対応し、左側の側面を見た画像が側面テクスチャ43に対応する。車両が方向Cから進入する場合、右側の側面を見た画像が側面テクスチャ44に対応し、左側の側面を見た画像が側面テクスチャ45に対応する。車両が方向Dから進入する場合、右側の側面を見た画像が側面テクスチャ46に対応し、左側の側面を見た画像が側面テクスチャ47に対応する。
【0041】
一方、車両の左右両側の各側面テクスチャ41〜48に加え、画面上には道路などの下面部と空などの上面部を表示する必要がある。しかし、これらは一般に道路側面の構造物のような視覚的な特徴が少ないため、テクスチャマッピング処理の対象とする必要はなく、予め設定した所定の画像データを利用することができる。
【0042】
なお、側面テクスチャ41〜48の表示画面上の貼り付け位置を正確に設定するには、地図データに含まれる道幅情報を取得する必要がある。図5の場合は、表示交差点における一方の道路が道幅W1であり、他方の道路が道幅W2である場合を示している。
【0043】
本実施形態では、交差点付近で視覚的に特徴のある道路側面の画像を表示するため、側面テクスチャ41〜48の中から表示すべきものを選択してテクスチャマッピング処理を施す。そのため、建物等の構造物を3次元モデル化して、それぞれの面にテクスチャマッピングを施す場合と比べて、3次元画像処理の対象となるテクスチャの数が限られるので、処理の高速化の面で有利となる。例えば、車両が方向Aから進入する場合、側面テクスチャ41、48の2つを対象としたり、あるいは側面テクスチャ41、44、45、48の4つを対象としたりすることができる。
【0044】
ここで、側面テクスチャ41〜48に対応するテクスチャデータの作成方法について説明する。図5に示す表示交差点において、左右の道路側面に向けた2台のカメラを搭載した車両により、一方の道路と他方の道路を走行しながら道路側面の画像を撮影する。移動の際の位置情報と撮影した画像データの同期関係を把握しつつ、側面テクスチャ41〜48に必要な全ての撮影を行う。そして、画像データから側面テクスチャ41〜48に対応するデータ部分をテクスチャデータとして抽出する。あるいは、表示交差点の中心から全周写真を撮影して、それぞれの側面テクスチャ41〜48を切り出してもよい。
【0045】
このとき、例えば側面テクスチャ41の場合を例にとると、抽出したテクスチャデータに基づいて、図4の3つの建物に対応する構造物領域41aを定め、それ以外の領域を背景領域41bとして定めて所定の背景色で塗りつぶす処理を行う。
【0046】
上述のテクスチャデータは、地図データ記憶部12に格納される地図データに含まれる交差点のうち、予め設定される複数の表示交差点に対し用意しておく。そして、交差点画像データ記憶部13に、地図データに対応させて、1つの表示交差点に例えば8つの側面テクスチャ41〜48に対応するテクスチャデータを格納する。これらのテクスチャデータは、例えばビットマップデータの形式を用いることができる。
【0047】
次に、本実施形態に係るナビゲーション装置における具体的な交差点画像表示処理に関し、図6〜図8を参照して説明する。図6は、車両が所定の表示交差点に近接した場合、3次元交差点画像を動画像としてディスプレイ16に表示する処理を示すフローチャートである。また、図7及び図8は、図6の処理によりディスプレイ16に表示される表示画面の例を示す図である。
【0048】
図6に示す表示処理が開始されると、ステップS1では、車両の現在位置を示す現在位置データを現在位置検出部15から取得する。
【0049】
ステップS2では、取得した現在位置データを予め3次元表示対象として設定された表示交差点の位置データと比較して、所定の表示範囲内に入っているか否かを判断する。すなわち、表示交差点の中心から所定距離だけ手前までの範囲に車両が位置すると共に、車両が交差点方向に向かっている場合に表示処理を行うようにすればよい。
【0050】
ステップS2の判断結果が「NO」であるときは、ステップS1に戻り、表示交差点への接近を監視し続ける。一方、ステップS2の判断結果が「YES」であるときは、ステップS3に移行して、交差点画像データ記憶部13から車両の交差点進入方向に応じたテクスチャデータを読み出す。例えば、図5の方向Aから進入したときは、側面テクスチャ41、42の2つに対応するテクスチャデータか、あるいは側面テクスチャ41、44、45、48の4つに対応するテクスチャデータを読み出せばよい。
【0051】
次いでステップS4では、車両位置における貼り付け面に対する視点及び表示位置を計算する。すなわち、貼り付け面は3次元形状データの一側面であるため、車両の現在位置に基づく視点及び視野方向に応じて、表示画面に配置される座標が変動する。よって、車両の交差点進入方向及び相対的な距離に基づき視点と視野方向を計算すると共に、これに対応して貼り付け面の3次元配置データに座標変換を施すことにより、視野画像内における貼り付け面の座標を計算することができる。
【0052】
このとき、ステップS1で取得した車両の現在位置データに加えて、道路の道幅情報と車両の横方向相対位置に基づいて、より正確な貼り付け面の配置を決定することができる。道路の道幅情報は地図データ記憶部12から読み出して取得でき、車両の横方向相対位置は、例えばCCDカメラを搭載して周辺画像を撮像することにより判別することができる。
【0053】
なお、車両の進入時にCCDカメラで道路側面を撮影して各側面テクスチャを作成し、各貼り付け面に対応する領域を取り込み、変形し、各貼り付け面に貼り付けてテクスチャマッピングしてもよい。
【0054】
ステップS5では、ステップS4で計算された貼り付け面に対する側面テクスチャのテクスチャマッピング処理を行う。例えば、図5の側面テクスチャ41であれば、貼り付け面の配置に適合するように、拡大・縮小、変形等の処理を施して貼り付ければよい。左右の側面テクスチャに対し、それぞれテクスチャマッピング処理を行う。
【0055】
ここで、図7に3次元交差点画像の表示画面の例を示すように、表示交差点に進入する車両の搭乗者の視野に対応した3次元交差点画像がディスプレイ16に表示される。図7の例では、図5のように側面テクスチャ41〜48が設定された表示交差点に方向Aから車両が進入した場合の3次元交差点画像を示している。また、図7の表示交差点の周辺には、図2に示すように建物が配置されているものとする。
【0056】
図7の表示画面の例では、視野方向の近端には、左側の側面テクスチャ41と右側の側面テクスチャ48が表示されている。また、前方にて交差する道路の向こう側にある視野方向の遠端には、左側の側面テクスチャ44と右側の側面テクスチャ45が表示されている。これら各側面テクスチャ41、44、45、48は、対応するそれぞれの貼り付け面の3次元配置データに基づく画像位置にテクスチャマッピング処理により貼り付けられている。図7に示すように、本来は矩形形状である各側面テクスチャ41、44、45、48は、3次元画像において台形形状に変換され、しかも遠方ほどスケールが小さくなるように縮小されていることがわかる。
【0057】
図7の側面テクスチャ41を例にとると、建物等が描かれる構造物領域41aと、背景が描かれる背景領域41bをそれぞれ視認することができる。この構造物領域41aは、上述のように写真画像等に基づいて生成された画像データであるため、実際の建物をリアルに表現できる。また、背景領域41bは上述のように自在に背景色を設定できるので、状況に応じて表示の自由度を高めることができる。
【0058】
なお、図7の表示画面の例では、左右に2つずつ計4つの側面テクスチャ41、44、45、48を表示する場合を示したが、近端側の2つの側面テクスチャ41、48のみを表示するようにしてもよい。車両の現在位置が表示交差点の中心から遠い場合には、このようにしても3次元交差点画像の視認性を高めることができる。
【0059】
次いでステップS6では、3次元交差点画像を含む全体画面を表示する。すなわち、図7に示す側面テクスチャ41、44、45、48以外の表示領域に上面部51と下面部52を含めた全体の画像データを生成し、ディスプレイ16に表示する。通常、上面部51には空が描かれ、下面部52には道路面が描かれる。また、各側面テクスチャの背景領域と上面部を共通の背景色に統一すれば、自然な交差点画像を得ることができる。
【0060】
ここで、各側面テクスチャの背景領域と上面部とを同一色にするには、パレットの種別を同一にすればよい。すなわち、本実施形態の係るナビゲーション装置では、色のデータ量を削減するため、R、G、Bそれぞれに対し、例えば8ビットの数値を用いて表現する。この場合、256色のパレットが定義されるので、その中から同一の種別のパレットを用いればよい。
【0061】
ステップS6を終えると、再びステップS1〜ステップS6の処理を繰り返し、車両の移動に対応して新たに更新された3次元交差点画像を表示し続ける。3次元交差点画像を更新表示する周期は、3次元画像処理に必要な時間が確保される範囲で適宜に設定できる。これにより、表示画面には3次元交差点画像が動画として表示されることになる。なお、この表示処理は、ステップS2において該当する交差点の表示範囲内であると判断される間、続けられる。
【0062】
なお、ナビゲーション装置において時刻情報を取得して、昼夜の区別や太陽の位置を判別し、表示画面における上面部51や背景領域41bの明るさを調整してもよい。また、天気情報等を受信して、晴れや曇りなどの天気の状態に応じて、明るさや色彩を調整してもよい。これにより、3次元交差点画像の視認性がより向上する。
【0063】
次に、図8は、図7の3次元交差点画像に各種の情報を重畳表示する場合の表示画面の例である。図7の例では、下面部52に車線表示及び進行方向案内表示が重畳表示されている。すなわち、下面部52には、両方向で4車線ある道路面を区切る3つのラインと交差する道路を示すラインが表示されると共に、車両が前方交差点にて右折すべきことを示す矢印が表示されている。このように重畳された表示を搭乗者に視認させることができるため、経路案内の利便性を更に高めることができる。
【0064】
ここで、地図データ記憶部12に保持される道路の車線情報に基づいて車線数を判別すると共に、複数の車線がある場合は上述した車両の横方向相対位置に基づいて走行車線を判断することができる。また、目的地への経路と現在位置を照合して、表示交差点において右折や左折を示す案内表示の矢印方向を判断することができる。これらの判断結果に従って、表示交差点の3次元画像データに対し予め設定される車線表示データや進行方向案内表示データなど適宜の表示データを付加して、表示画面の重畳が行われる。なお、制御部11と画像処理部18は相まって本発明の表示データ重畳手段として機能する。
【0065】
以上説明したように本実施形態によれば、3次元交差点画像を表示処理する場合、表示交差点の道路端に貼り付け面を定義し、テクスチャマッピング処理を用いて構造物領域と背景領域に区分される側面テクスチャを貼り付けるようにした。そのため、建物等の構造物を3次元モデル化し、それぞれの面にテクスチャマッピングを施して3次元画像処理を行う場合に比べ、処理量を格段に抑えることができ、高価な画像処理プロセッサを用いる必要もない。従って、簡易な処理により3次元交差点画像を動画像として表示することができる。
【0066】
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。
【0067】
【発明の効果】
以上説明したように、本発明によれば、複雑な手法を用いることなく3次元画像処理の時間を低減でき、車両の搭乗者に容易に交差点を同定させて、使い勝手に優れるナビゲーション装置を提供することが可能となる。
【図面の簡単な説明】
【図1】本実施形態に係るナビゲーション装置の概略構成を示す図である。
【図2】画像表示の対象となる表示交差点について説明する図である。
【図3】テクスチャマッピング処理について説明する図である。
【図4】本実施形態に係る表示交差点の一角を模式的に示す図である。
【図5】本実施形態に係る表示交差点に対応する8つの側面テクスチャを説明する図である。
【図6】本実施形態に係るナビゲーション装置において行われる交差点画像表示処理を示すフローチャートである。
【図7】本実施形態に係るナビゲーション装置のディスプレイに表示される表示画面の例を示す図である。
【図8】本実施形態に係るナビゲーション装置のディスプレイに表示される表示画面に各種の情報を重畳表示した例を示す図である。
【符号の説明】
11…制御部
12…地図データ記憶部
13…交差点画像データ記憶部
14…センサ部
15…現在位置検出部
16…ディスプレイ
17…スピーカ
18…画像処理部
20…3次元形状データ
21…テクスチャ
31、32…貼り付け面
41〜48…側面テクスチャ
41a、42a…構造物領域
41b、42b…背景領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a navigation device that displays route guidance on a screen based on map data in a traveling vehicle, and particularly relates to a technical field of a navigation device that can display a three-dimensional image of an intersection on a route.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, navigation devices that detect the current position of a vehicle and display the detected current position together with surrounding road maps on a display screen to provide route guidance have been widely used. When this type of navigation device is used, the vehicle occupant can visually recognize the road map displayed on the display screen and grasp the position of the traveling vehicle.
[0003]
On the other hand, the road map displayed on the display screen is generally planar, but in order to visually identify the intersection on the travel route, a three-dimensional intersection is displayed with the position of the passenger as a viewpoint. It is requested. By viewing such a three-dimensional display, the passenger can determine an intersection that should be turned accurately when, for example, turning right or left at the intersection.
[0004]
[Problems to be solved by the invention]
In the conventional navigation device described above, in order to realize a stereoscopic image display of an intersection, for example, a method is adopted in which a photograph image of an intersection is converted into data and stored in a storage unit, and the photograph image of the intersection is displayed on a display screen.
[0005]
However, in such a method, if photographic image data for a large number of intersections is prepared, the amount of data becomes very large. Moreover, if a moving image corresponding to the movement of the vehicle is to be displayed, it is necessary to prepare as much photographic image data as that, which is restricted in terms of the capacity of the storage means.
[0006]
On the other hand, it is conceivable to perform 3D display by texture mapping processing using a 3D wireframe model near the intersection. However, since there are many structures such as buildings near the intersection, the required texture mapping processing increases significantly. However, it takes a lot of time for image processing.
[0007]
As described above, the conventional navigation device has a problem in that a three-dimensional intersection image cannot be displayed by simple processing using data that can be stored in the storage unit.
[0008]
Therefore, the present invention has been made in view of such problems, and provides a navigation device that can improve visibility by displaying a stereoscopic image of an intersection by simple image processing in a running vehicle. The purpose is to do.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, a navigation device according to claim 1 includes a current position detection unit that detects a current position of a vehicle, a map data storage unit that stores map data, and the current position and the map data. Display means for displaying route guidance to the destination based on , A navigation device comprising the map data Corresponding to each of multiple approach directions at the intersection A pasting surface storage means for storing three-dimensional arrangement data of a pasting surface of a road side; and image data pasted on the pasting surface. , Said Corresponding to each of multiple approach directions at the intersection Image data storage means for storing in association with the pasting surface of the road side surface, detecting a road from the current position, and extracting image data associated with the pasting surface according to the traveling direction of the vehicle on the road Display control means for displaying.
[0010]
The navigation device according to claim 2 is the navigation device according to claim 1, wherein the image data storage means divides the structure area into a background area and fills the background area with a predetermined background color. Is memorized.
[0011]
According to a third aspect of the present invention, in the navigation device according to the second aspect, the background color is displayed in the same color as the upper surface portion of the display screen.
[0012]
The navigation device according to claim 4 is the navigation device according to claim 1, wherein the display control unit detects a road from the current position and corresponds to a pasting surface corresponding to a traveling direction of a vehicle on the road. The attached image data is extracted and a moving image is displayed according to the running of the vehicle.
[0013]
The navigation device according to claim 5 is the navigation device according to claim 1, wherein the pasting surface storage means is Said Near intersection Corresponding to each of the plurality of approach directions in The three-dimensional arrangement data of the pasting surface of the road side surface is stored, and the display control unit compares the positional relationship between the current position data from the current position detecting unit and the intersection, and the vehicle is within a predetermined distance. In this case, the image data associated with the pasting surface corresponding to the traveling direction of the vehicle on the road is extracted and displayed.
[0014]
The navigation device according to claim 6 is the navigation device according to claim 1, wherein the pasting surface is Said Within a specified range from the center of the intersection Said multiple approaches in direction Corresponding to each of On the road Respectively 2 facing One It is defined as a rectangular region on the side surface of
[0015]
The navigation device according to claim 7 is the navigation device according to claim 1, wherein the map data storage unit stores road width information of a road, and the pasting surface storage unit stores the road width information according to the road width information. The image position of the pasting surface is calculated.
[0016]
The navigation device according to claim 8 further includes display data superimposing means for superimposing data based on predetermined information on display data displayed by the display control means in the navigation device according to claim 1. It is characterized by.
[0017]
The navigation device according to claim 9 is the navigation device according to claim 8, wherein the display data superimposing means superimposes lane display data based on lane information.
[0018]
The navigation device according to claim 10 is the navigation device according to claim 8 or 9, wherein the display data superimposing means superimposes the traveling direction guidance display data based on the set route. .
[0019]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
[0020]
FIG. 1 is a diagram illustrating a schematic configuration of a navigation device according to the present embodiment. 1 includes a control unit 11, a map data storage unit 12, an intersection image data storage unit 13, a sensor unit 14, a current position detection unit 15, a display 16, a speaker 17, and image processing. Part 18.
[0021]
In the above configuration, the control unit 11 controls the operation of the entire navigation device. The control unit 11 includes a CPU and the like, reads out and executes a control program stored in a ROM (not shown), sends control signals to each component of the navigation apparatus, and inputs / outputs data. The control unit 11 also functions as a display control unit of the present invention, and controls the operation of three-dimensional image processing executed by the image processing unit 18 described later and the display timing of the display 16.
[0022]
The map data storage unit 12 is a memory having a large storage capacity for storing map data. For example, a CD-ROM or a DVD-ROM is used. The map data stored in the map data storage unit 12 includes road shape data, name data, background data, and the like. Further, the map data storage unit 12 functions as a pasting surface storage unit of the present invention, and the position data of a plurality of display intersections to be subjected to three-dimensional display based on the intersection display processing according to the present invention and pasting surfaces described later. The three-dimensional arrangement data is stored along with the map data.
[0023]
In addition to the crossroads, the display intersection includes a 3-way, a 5-way, a branch point, a junction, and the like.
[0024]
The intersection image data storage unit 13 is a memory for holding intersection image data necessary for the intersection display processing according to the present invention, and functions as the image data storage means of the present invention. The intersection image data is constituted by texture data as image data necessary for displaying a three-dimensional intersection image on the display 16 corresponding to the plurality of display intersections stored in the map data storage unit 12 described above. The Details of the intersection image data will be described later.
[0025]
The sensor unit 14 includes various sensors necessary for detecting the current position of the vehicle. Specifically, it includes a vehicle speed sensor that detects the speed of the vehicle, a direction sensor that detects the amount of change in the direction of the vehicle, a GPS receiver that receives radio waves from a GPS (Global Positioning System) satellite, and the like. .
[0026]
The current position detection unit 15 calculates the current position of the vehicle based on the output signal from the sensor unit 14 and outputs current position data. The current position data is collated with the above-described map data by the control unit 11 and corrected by a map matching process or the like.
[0027]
The display 16 functions as a display unit of the present invention, and the map data is displayed in various modes under the instruction of the control unit 11, and the current position of the vehicle is displayed as a car mark superimposed on the map data. Further, when the vehicle enters the display intersection, a three-dimensional intersection image is displayed on the display 16 by image processing described later. The display 16 is composed of, for example, a CRT, a liquid crystal display element, or the like. In addition, guidance information along the route of the vehicle is output from the speaker 17 by voice.
[0028]
The image processing unit 18 performs 3D image processing for displaying a 3D intersection image using the intersection image data. The three-dimensional image data generated by the image processing unit 18 is output to the display 17 at predetermined intervals under the instruction of the control unit 11. As the image processing unit 18, an image processor corresponding to three-dimensional image processing can be used.
[0029]
Next, the basic concept of 3D image processing according to the present embodiment will be described with reference to FIGS.
[0030]
FIG. 2 is a diagram for explaining a display intersection that is an object of image display in the navigation device according to the present embodiment, and shows an example of the positional relationship between the display intersection in front of the traveling direction of the vehicle and the vehicle. In the present embodiment, for example, a visual field image viewed from a vehicle occupant at a position as shown in FIG. 2 is displayed on the display 16 as a three-dimensional moving image. Here, the map data stored in the map data storage unit 12 is a set of links and nodes, and the position data of the display intersection corresponds to one node to which a plurality of links are connected.
[0031]
In addition, as shown in FIG. 2, there are generally a plurality of buildings around the display intersection. In the present embodiment, an image of a structure such as a building in the surrounding area that characterizes a display intersection is three-dimensionally displayed to enhance the visibility of the display screen. In order to accurately display the visual field image viewed from the vehicle position of FIG. 2 in three dimensions, the vehicle position and the approach direction of the intersection are grasped based on the detection output of the current position detection unit 15 and the road width of the road is determined from the map data. It is necessary to determine.
[0032]
Here, in the positional relationship as shown in FIG. 2, the traveling direction of the vehicle is the direction of the display intersection, and there are structures such as buildings at both ends of the field of view. Therefore, in order to display a realistic scene of an intersection as a three-dimensional image, it is necessary to generate intersection image data including these structures. In this case, there is a method of preparing image data for each structure around the intersection, but the processing amount associated with the three-dimensional image processing becomes extremely large. Therefore, in the present embodiment, one side texture is prepared for each of the left side surface and the right side field of view from the center of the display intersection to the vehicle position, and these are predetermined on the display screen by texture mapping processing described later. The three-dimensional intersection image is displayed by pasting it at the position.
[0033]
Next, FIG. 3 is a diagram for explaining a texture mapping process used in the three-dimensional image processing according to the present embodiment. In FIG. 3, a cube is assumed as an object for three-dimensional display, and this is converted into data as three-dimensional shape data 20. The three-dimensional shape data 20 can be specified by defining the three-dimensional coordinates of each vertex of the cube, for example. Then, a predetermined pasting surface 20 a to which the texture is pasted is defined for the three-dimensional shape data 20. A texture mapping process is performed by pasting a two-dimensional texture 21 on which a two-dimensional shape or pattern is drawn on the pasting surface 20a.
[0034]
The texture 21 shown in FIG. 3 shows a case where the shape is a square, but the two-dimensional shape of the pasting surface 20a changes variously according to the viewpoint of viewing the three-dimensional shape data 20. For example, in the case of FIG. 3, the pasting surface 20a has a parallelogram two-dimensional shape. Therefore, it is necessary to perform texture mapping processing by enlarging / reducing or deforming the texture 21 in accordance with the two-dimensional shape of the pasting surface 20a.
[0035]
Further, in the present embodiment, since the viewpoint from the vehicle occupant is considered, the arrangement and shape of the pasting surface 20a change from moment to moment as the vehicle moves. Therefore, when a three-dimensional intersection image is displayed as a moving image, the texture mapping process using the texture 21 must be executed in a short time, and the moving image is displayed in real time.
[0036]
FIG. 4 is a diagram schematically showing one corner of the display intersection according to the present embodiment. As shown in FIG. 4, in this embodiment, a three-dimensional area including a plurality of structures existing at one corner of a display intersection is set, a pasting surface 31 that is a rectangular area facing one road, and the other road An affixing surface 32, which is a rectangular area facing, is defined. Then, two pasting surfaces are defined at four diagonals of the display intersection, and eight pasting surfaces are defined in total. The three-dimensional arrangement data of these pasting surfaces is stored in the map data storage unit 12 in association with the position data of the display intersection. As will be described later, the pasting surface to be processed is selected and used in accordance with the intersection approach direction of the vehicle.
[0037]
As shown in FIG. 4, when the vehicle enters the display intersection in the direction A, the pasting surface 31 is a range that can be seen on the left side surface portion of the visual field image. A side texture 41 obtained by converting a characteristic two-dimensional shape or pattern image of a building or the like into data is pasted on the pasting surface 31. Similarly, when the vehicle enters the display intersection in the direction B, the pasting surface 32 in FIG. 4 is a range that can be seen on the right side surface portion of the visual field image. A side texture 42 is affixed to the affixing surface 32.
[0038]
The side textures 41 and 42 are divided into structure regions 41a and 42a set in a range surrounding a structure such as a building, and background regions 41b and 42b set in a range where no structure exists. In the side texture 41 of FIG. 4, a set of three rectangular areas surrounding three buildings is the structure area 41a, and in the side texture 42, a set of two rectangular areas surrounding the two buildings is the structure area 42a. And the area | regions other than the structure area | regions 41a and 42a in the side surface textures 41 and 42 respond | correspond to the background area | regions 41b and 42b (it shows with the oblique line in the figure). These background areas 41b and 42b are filled with a predetermined background color. The background color may be transparent. In this case, the color information is not given to the background areas 41b and 42b. Note that the structure regions 41a and 42a may be set in a region surrounding the structure even if the structure has a complicated shape (for example, a tree).
[0039]
FIG. 5 is a diagram illustrating eight side textures corresponding to one display intersection. As described above, a total of eight pasting surfaces are defined for display intersections, and it is necessary to prepare side textures to be pasted on all of them using a texture mapping process. Therefore, as shown in FIG. 5, a total of eight side textures 41 to 48 are set as image data of one display intersection, and are stored in the intersection image data storage unit 13 in association with the map data.
[0040]
In FIG. 5, four directions A, B, C, and D are conceivable as the approach directions of the vehicle to the display intersection. When the vehicle enters from the direction A, an image viewed from the right side corresponds to the side texture 48, and an image viewed from the left side corresponds to the side texture 41. When the vehicle enters from the direction B, an image viewed from the right side corresponds to the side texture 42, and an image viewed from the left side corresponds to the side texture 43. When the vehicle enters from the direction C, an image viewed from the right side corresponds to the side texture 44, and an image viewed from the left side corresponds to the side texture 45. When the vehicle enters from the direction D, an image viewed from the right side corresponds to the side texture 46, and an image viewed from the left side corresponds to the side texture 47.
[0041]
On the other hand, in addition to the side textures 41 to 48 on the left and right sides of the vehicle, it is necessary to display a lower surface portion such as a road and an upper surface portion such as the sky on the screen. However, since these generally have few visual features such as structures on the side of the road, it is not necessary to make them subject to texture mapping processing, and predetermined image data set in advance can be used.
[0042]
In addition, in order to set correctly the pasting position on the display screen of the side surface textures 41-48, it is necessary to acquire the road width information contained in map data. In the case of FIG. 5, one road at the display intersection has a road width W1 and the other road has a road width W2.
[0043]
In this embodiment, in order to display a visually distinctive road side image in the vicinity of an intersection, a texture mapping process is performed by selecting one of the side textures 41 to 48 to be displayed. Therefore, compared to the case where a structure such as a building is three-dimensionally modeled and texture mapping is applied to each surface, the number of textures subject to three-dimensional image processing is limited. It will be advantageous. For example, when the vehicle enters from the direction A, two side textures 41 and 48 can be targeted, or four side textures 41, 44, 45, and 48 can be targeted.
[0044]
Here, a method of creating texture data corresponding to the side textures 41 to 48 will be described. At the intersection shown in FIG. 5, an image of the road side surface is taken while traveling on one road and the other road by a vehicle equipped with two cameras facing the left and right road sides. All necessary photographing for the side textures 41 to 48 is performed while grasping the synchronization relationship between the positional information at the time of movement and the photographed image data. And the data part corresponding to the side surface textures 41-48 is extracted from image data as texture data. Alternatively, an all-round photograph may be taken from the center of the display intersection, and the side textures 41 to 48 may be cut out.
[0045]
At this time, for example, in the case of the side texture 41, the structure region 41a corresponding to the three buildings in FIG. 4 is defined based on the extracted texture data, and the other region is defined as the background region 41b. A process of painting with a predetermined background color is performed.
[0046]
The above-mentioned texture data is prepared for a plurality of preset display intersections among the intersections included in the map data stored in the map data storage unit 12. Then, in the intersection image data storage unit 13, texture data corresponding to, for example, eight side textures 41 to 48 is stored in one display intersection in association with the map data. For example, a bitmap data format can be used as these texture data.
[0047]
Next, specific intersection image display processing in the navigation device according to the present embodiment will be described with reference to FIGS. FIG. 6 is a flowchart illustrating a process of displaying a three-dimensional intersection image as a moving image on the display 16 when the vehicle approaches a predetermined display intersection. 7 and 8 are diagrams showing examples of display screens displayed on the display 16 by the process of FIG.
[0048]
When the display process shown in FIG. 6 is started, current position data indicating the current position of the vehicle is acquired from the current position detection unit 15 in step S1.
[0049]
In step S2, the acquired current position data is compared with the position data of a display intersection set in advance as a three-dimensional display target, and it is determined whether or not it is within a predetermined display range. That is, the display process may be performed when the vehicle is located in a range from the center of the display intersection to a short distance ahead and the vehicle is moving toward the intersection.
[0050]
When the determination result of step S2 is “NO”, the process returns to step S1 and continues to monitor the approach to the display intersection. On the other hand, when the determination result of step S2 is “YES”, the process proceeds to step S3, and texture data corresponding to the vehicle approach direction is read from the intersection image data storage unit 13. For example, when entering from the direction A in FIG. 5, if texture data corresponding to two of the side textures 41 and 42 or texture data corresponding to four of the side textures 41, 44, 45 and 48 is read out. Good.
[0051]
Next, in step S4, the viewpoint and display position for the pasting surface at the vehicle position are calculated. That is, since the pasting surface is one side of the three-dimensional shape data, the coordinates arranged on the display screen vary according to the viewpoint and the viewing direction based on the current position of the vehicle. Therefore, the viewpoint and field-of-view direction are calculated based on the intersection approach direction and relative distance of the vehicle, and correspondingly, by applying coordinate conversion to the three-dimensional arrangement data of the pasting surface, pasting in the field-of-view image The coordinates of the surface can be calculated.
[0052]
At this time, in addition to the current position data of the vehicle acquired in step S1, more accurate placement of the pasting surface can be determined based on road width information and the lateral relative position of the vehicle. Road width information of the road can be read and acquired from the map data storage unit 12, and the lateral relative position of the vehicle can be determined by, for example, mounting a CCD camera and taking a peripheral image.
[0053]
When a vehicle enters the vehicle, the road side surface may be photographed with a CCD camera to create each side texture, the area corresponding to each pasted surface may be taken in, deformed, and pasted onto each pasted surface for texture mapping. .
[0054]
In step S5, the texture mapping process of the side texture with respect to the pasting surface calculated in step S4 is performed. For example, in the case of the side texture 41 of FIG. 5, it may be pasted by performing processing such as enlargement / reduction and deformation so as to match the arrangement of the pasting surface. A texture mapping process is performed on each of the left and right side textures.
[0055]
Here, as shown in the example of the display screen of the three-dimensional intersection image in FIG. 7, the three-dimensional intersection image corresponding to the field of view of the passenger entering the display intersection is displayed on the display 16. The example of FIG. 7 shows a three-dimensional intersection image when a vehicle enters from a direction A to a display intersection where side textures 41 to 48 are set as shown in FIG. Further, it is assumed that a building is arranged around the display intersection in FIG. 7 as shown in FIG.
[0056]
In the example of the display screen of FIG. 7, a left side texture 41 and a right side texture 48 are displayed at the near end in the viewing direction. Further, a left side texture 44 and a right side texture 45 are displayed at the far end in the viewing direction on the other side of the road intersecting in front. Each of these side surface textures 41, 44, 45, and 48 is pasted to the image position based on the three-dimensional arrangement data of the corresponding pasting surface by texture mapping processing. As shown in FIG. 7, each side texture 41, 44, 45, 48 that is originally a rectangular shape is converted into a trapezoidal shape in a three-dimensional image, and is further reduced so that the scale becomes smaller in the distance. Recognize.
[0057]
Taking the side texture 41 of FIG. 7 as an example, a structure region 41a in which a building or the like is drawn and a background region 41b in which a background is drawn can be visually recognized. Since the structure area 41a is image data generated based on a photographic image or the like as described above, an actual building can be expressed realistically. In addition, since the background color can be freely set in the background area 41b as described above, the degree of freedom of display can be increased according to the situation.
[0058]
In the example of the display screen of FIG. 7, the case where a total of four side textures 41, 44, 45, 48 are displayed on each of the left and right sides is shown. You may make it display. When the current position of the vehicle is far from the center of the display intersection, the visibility of the three-dimensional intersection image can be improved in this way.
[0059]
Next, in step S6, the entire screen including the three-dimensional intersection image is displayed. That is, the entire image data including the upper surface portion 51 and the lower surface portion 52 in the display area other than the side textures 41, 44, 45, and 48 shown in FIG. 7 is generated and displayed on the display 16. Usually, sky is drawn on the upper surface portion 51, and a road surface is drawn on the lower surface portion 52. Further, if the background region and the upper surface of each side texture are unified with a common background color, a natural intersection image can be obtained.
[0060]
Here, in order to make the background region and the upper surface portion of each side texture the same color, the type of palette may be the same. That is, in the navigation device according to the present embodiment, in order to reduce the amount of color data, for example, each of R, G, and B is expressed using a numerical value of 8 bits. In this case, since palettes of 256 colors are defined, the same type of palette may be used.
[0061]
When step S6 is completed, the processing of steps S1 to S6 is repeated again, and the newly updated three-dimensional intersection image corresponding to the movement of the vehicle is continuously displayed. The period for updating and displaying the three-dimensional intersection image can be set as appropriate as long as the time required for the three-dimensional image processing is secured. As a result, the three-dimensional intersection image is displayed as a moving image on the display screen. This display process is continued while it is determined in step S2 that it is within the display range of the corresponding intersection.
[0062]
Note that the navigation device may acquire time information, determine day / night distinction and sun position, and adjust the brightness of the upper surface portion 51 and the background region 41b on the display screen. Further, the weather information or the like may be received, and the brightness and color may be adjusted according to the weather condition such as sunny or cloudy. Thereby, the visibility of a three-dimensional intersection image improves more.
[0063]
Next, FIG. 8 is an example of a display screen when various types of information are superimposed and displayed on the three-dimensional intersection image of FIG. In the example of FIG. 7, a lane display and a traveling direction guidance display are superimposed on the lower surface portion 52. That is, on the lower surface portion 52, a line indicating a road that intersects with three lines that divide a road surface having four lanes in both directions is displayed, and an arrow indicating that the vehicle should turn right at a front intersection is displayed. Yes. Since the passenger can visually recognize the superimposed display in this way, the convenience of route guidance can be further enhanced.
[0064]
Here, the number of lanes is determined based on road lane information held in the map data storage unit 12, and when there are a plurality of lanes, the travel lane is determined based on the lateral relative position of the vehicle described above. Can do. In addition, by comparing the route to the destination with the current position, it is possible to determine the arrow direction of the guidance display indicating a right turn or a left turn at the display intersection. According to these judgment results, appropriate display data such as preset lane display data and traveling direction guidance display data is added to the three-dimensional image data of the display intersection, and the display screen is superimposed. The control unit 11 and the image processing unit 18 together function as display data superimposing means of the present invention.
[0065]
As described above, according to the present embodiment, when a 3D intersection image is displayed, a pasting surface is defined at the road edge of the display intersection, and is divided into a structure area and a background area using a texture mapping process. Added side textures. Therefore, it is necessary to use an expensive image processing processor as compared with a case where a structure such as a building is made into a three-dimensional model and texture mapping is performed on each surface to perform three-dimensional image processing. Nor. Therefore, the three-dimensional intersection image can be displayed as a moving image by simple processing.
[0066]
As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. It can be guessed.
[0067]
【The invention's effect】
As described above, according to the present invention, it is possible to reduce the time for three-dimensional image processing without using a complicated method, and to easily identify the intersection by the vehicle occupant and to provide a navigation device with excellent usability. It becomes possible.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a navigation device according to an embodiment.
FIG. 2 is a diagram for explaining a display intersection that is a target of image display;
FIG. 3 is a diagram illustrating a texture mapping process.
FIG. 4 is a diagram schematically showing one corner of a display intersection according to the present embodiment.
FIG. 5 is a diagram illustrating eight side textures corresponding to a display intersection according to the present embodiment.
FIG. 6 is a flowchart showing intersection image display processing performed in the navigation device according to the present embodiment.
FIG. 7 is a diagram showing an example of a display screen displayed on the display of the navigation device according to the present embodiment.
FIG. 8 is a diagram showing an example in which various types of information are superimposed and displayed on a display screen displayed on the display of the navigation device according to the present embodiment.
[Explanation of symbols]
11. Control unit
12 ... Map data storage
13 ... Intersection image data storage unit
14 ... Sensor part
15 ... Current position detection unit
16 ... Display
17 ... Speaker
18. Image processing unit
20 ... 3D shape data
21 ... Texture
31, 32 ... Pasting surface
41-48 ... side texture
41a, 42a ... structure region
41b, 42b ... background area

Claims (10)

車両の現在位置を検出する現在位置検出手段と、地図データを記憶する地図データ記憶手段と、前記現在位置と前記地図データに基づいて目的地までの経路案内を表示する表示手段とを備えたナビゲーション装置であって、
前記地図データに含まれる交差点における複数の進入方向の夫々に対応する道路側面の貼り付け面の3次元配置データを記憶する貼り付け面記憶手段と、
前記貼り付け面に貼り付ける画像データを前記交差点における複数の進入方向の夫々に対応する道路側面の貼り付け面に対応付けて記憶する画像データ記憶手段と、
前記現在位置から道路を検出し、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し表示する表示制御手段と、
を備えることを特徴とするナビゲーション装置。
Current position detecting means for detecting a current position of the vehicle, comprising: a map data storage means for storing map data, and display means for displaying the route guidance until said current position and the destination based on the map data A navigation device,
A pasting surface storage means for storing three-dimensional arrangement data of a pasting surface of a road side surface corresponding to each of a plurality of approach directions at an intersection included in the map data;
An image data storing means for storing image data to be pasted on the attachment surface, in association with the attachment surface of the road side corresponding to each of the plurality of approach directions of each of the intersections,
Display control means for detecting a road from the current position and extracting and displaying image data associated with a pasting surface corresponding to the traveling direction of the vehicle on the road;
A navigation device comprising:
前記画像データ記憶手段は、構造物領域と背景領域に区分して該背景領域を所定の背景色で塗りつぶした画像データを記憶していることを特徴とする請求項1に記載のナビゲーション装置。  The navigation apparatus according to claim 1, wherein the image data storage means stores image data in which the background area is divided into a structure area and a background area and the background area is filled with a predetermined background color. 前記背景色は、表示画面の上面部と同一色にて表示されることを特徴とする請求項2に記載のナビゲーション装置。  The navigation apparatus according to claim 2, wherein the background color is displayed in the same color as the upper surface portion of the display screen. 前記表示制御手段は、前記現在位置から道路を検出し、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し、車両の走行に応じて動画像表示することを特徴とする請求項1に記載のナビゲーション装置。  The display control means detects a road from the current position, extracts image data associated with a pasting surface according to the traveling direction of the vehicle on the road, and displays a moving image according to the traveling of the vehicle. The navigation device according to claim 1. 前記貼り付け面記憶手段は、前記交差点近傍における前記複数の進入方向の夫々に対応する道路側面の貼り付け面の3次元配置データを記憶しており、
前記表示制御手段は、前記現在位置検出手段からの現在位置データと交差点との位置関係を比較し、車両が所定距離内にいる場合、該道路の車両の進行方向に応じた貼り付け面に対応付けられた画像データを抽出し表示することを特徴とする請求項1に記載のナビゲーション装置。
The attachment surface storage unit stores the three-dimensional arrangement data of the pasted surface of the road side corresponding to the plurality of approach directions each in the intersection neighborhood,
The display control means compares the positional relationship between the current position data from the current position detection means and the intersection, and corresponds to the pasting surface according to the traveling direction of the vehicle on the road when the vehicle is within a predetermined distance. The navigation apparatus according to claim 1, wherein the attached image data is extracted and displayed.
前記貼り付け面は、前記交差点の中心から所定範囲内における前記複数の進入方向の夫々に対応する道路に夫々面する2の側面の矩形領域として定義されることを特徴とする請求項1に記載のナビゲーション装置。The bonding surface is in claim 1, characterized in that it is defined as a rectangular area of the two side surfaces respectively face the road corresponding from the center of the intersection s of the plurality of approach directions husband within a predetermined range The navigation device described. 前記地図データ記憶手段は、道路の道幅情報を記憶し、前記貼り付け面記憶手段は、前記道幅情報に応じて前記貼り付け面の画像位置を算出することを特徴とする請求項1に記載のナビゲーション装置。  The map data storage unit stores road width information of a road, and the pasting surface storage unit calculates an image position of the pasting surface according to the road width information. Navigation device. 前記表示制御手段によって表示される表示データに対し、所定の情報に基づくデータを重畳する表示データ重畳手段を更に備えることを特徴とする請求項1に記載のナビゲーション装置。  The navigation apparatus according to claim 1, further comprising display data superimposing means for superimposing data based on predetermined information on display data displayed by the display control means. 前記表示データ重畳手段は、車線情報に基づく車線表示データを重畳することを特徴とする請求項8に記載のナビゲーション装置。  The navigation device according to claim 8, wherein the display data superimposing unit superimposes lane display data based on lane information. 前記表示データ重畳手段は、設定された経路に基づく進行方向案内表示データを重畳することを特徴とする請求項8又は請求項9に記載のナビゲーション装置。  The navigation device according to claim 8 or 9, wherein the display data superimposing unit superimposes traveling direction guidance display data based on a set route.
JP28199199A 1999-10-01 1999-10-01 Navigation device Expired - Fee Related JP3836278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28199199A JP3836278B2 (en) 1999-10-01 1999-10-01 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28199199A JP3836278B2 (en) 1999-10-01 1999-10-01 Navigation device

Publications (2)

Publication Number Publication Date
JP2001099670A JP2001099670A (en) 2001-04-13
JP3836278B2 true JP3836278B2 (en) 2006-10-25

Family

ID=17646717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28199199A Expired - Fee Related JP3836278B2 (en) 1999-10-01 1999-10-01 Navigation device

Country Status (1)

Country Link
JP (1) JP3836278B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339127A (en) * 2004-05-26 2005-12-08 Olympus Corp Apparatus and method for displaying image information
JP4530214B2 (en) * 2004-10-15 2010-08-25 国立大学法人 東京大学 Simulated field of view generator
JP4848648B2 (en) * 2005-03-14 2011-12-28 日産自動車株式会社 In-vehicle information provider
JP4899746B2 (en) * 2006-09-22 2012-03-21 日産自動車株式会社 Route guidance display device
JP4989495B2 (en) * 2008-01-09 2012-08-01 パイオニア株式会社 Image processing apparatus, image processing method, image processing program, and recording medium therefor
JP5196426B2 (en) * 2008-05-16 2013-05-15 アルパイン株式会社 Navigation device
JP2012188024A (en) * 2011-03-11 2012-10-04 Hitachi Information & Control Solutions Ltd On-vehicle machine having on-vehicle display device

Also Published As

Publication number Publication date
JP2001099670A (en) 2001-04-13

Similar Documents

Publication Publication Date Title
EP1024467B1 (en) Stereoscopic map-display method and navigation system using the method
JP4559555B2 (en) 3D map display method and navigation apparatus
KR100266882B1 (en) Navigation device
US6169516B1 (en) Navigation system and memorizing medium for memorizing operation programs used for the same
EP0884711B1 (en) Map display apparatus for motor vehicle
US5826212A (en) Current-position map and three dimensional guiding objects displaying device for vehicle
CN105628034B (en) Navigation map update method and equipment
EP0875730B1 (en) Device for and method of displaying map information for vehicle navigation apparatus
JPH09138136A (en) Vehicle-mounted navigation apparatus
CN103076018B (en) image display control system, image display control method
JP3836278B2 (en) Navigation device
JP2001167288A (en) Three-dimensional map display device
JP2001273526A (en) Stereoscopic map display device
JPH09127861A (en) Map display device for vehicle
JP3611650B2 (en) Vehicle map display device
JP3848351B2 (en) Navigation device
JP2006126445A (en) Navigation system
JPH11305658A (en) Navigation device
JP2001083872A (en) Navigation device
JP4254553B2 (en) Map display device
JP2009086110A (en) Device for creating landscape picture
JP3892741B2 (en) Navigation device
JP3428194B2 (en) Route guidance device for vehicles
JPH08137390A (en) Map display device for vehicle
JPH09160487A (en) Navigation device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060726

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees