JP2004361112A - Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method - Google Patents

Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method Download PDF

Info

Publication number
JP2004361112A
JP2004361112A JP2003156700A JP2003156700A JP2004361112A JP 2004361112 A JP2004361112 A JP 2004361112A JP 2003156700 A JP2003156700 A JP 2003156700A JP 2003156700 A JP2003156700 A JP 2003156700A JP 2004361112 A JP2004361112 A JP 2004361112A
Authority
JP
Japan
Prior art keywords
viewpoint
data
dimensional
height
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003156700A
Other languages
Japanese (ja)
Inventor
Toshimitsu Minowa
利光 蓑輪
Yasushi Tamakoshi
靖司 玉越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003156700A priority Critical patent/JP2004361112A/en
Publication of JP2004361112A publication Critical patent/JP2004361112A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional viewpoint setting device for displaying a continuous image having improved visibility even if there is a cover for covering a mobile unit from the viewpoint. <P>SOLUTION: The three-dimensional viewpoint setting device comprises: an operation control section 11 for controlling the operation of the entire device; a viewpoint control section 12 for controlling the position of the viewpoint; a disk 13 for storing map data; a disk read-out section 14 for reading out map data; and a drawing processing section 19 for converting map data read by the disk read-out section 14 to a three-dimensional bird's eye view looked down from the viewpoint and for performing three-dimensional drawing processing, so that the continuous image having improved visibility is displayed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、3次元視点設定装置および3次元視点設定方法に関し、さらに詳しくは、例えば、走行中の車両を上空から見下ろす視点の位置を設定する3次元視点設定装置および3次元視点設定方法に関する。
【0002】
【従来の技術】
従来、この種の3次元視点設定装置は、GPS信号を受信するGPS受信機と、地図データが記憶されたDVD―ROMから地図データを読み出すDVDドライブと、装置全体の動作を制御するマイコンと、所定の視点から見下ろした誘導経路を3次元で表示する表示パネルとを備え、車両と視点との間に遮蔽物がある場合は、車両が見える位置まで視点を移動することにより、視点から見下ろした車両を表示パネルに表示できるようになっている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2002−181562号公報(第5頁、第5図)
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の3次元視点設定装置による視点の設定では、例えば、車両が走行している道路にトンネルがある場合、トンネル内を走行中の車両を捕らえることができず、表示パネルにはトンネルに進入する前の画像に続いて車両が現れない画像が表示され、トンネルを出たとき車両の画像が突然表示されるので、画像が不連続になり視認性が悪いという問題があった。
【0005】
本発明は、このような問題を解決するためになされたものであり、車両を視点から遮蔽する遮蔽物がある場合でも、視認性のよい連続した画像を表示することができる3次元視点設定装置を提供するものである。
【0006】
【課題を解決するための手段】
本発明の3次元視点設定装置は、移動体が移動する移動路のデータを含む地図データを記憶する地図データ記憶部と、前記移動体から所定の距離離れた位置に視点を設定する視点設定部と、前記地図データを前記視点から見下ろした3次元の鳥瞰図データに変換する鳥瞰図変換部と、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更する視点変更部とを備えたことを特徴とする構成を有している。
【0007】
この構成により、視点設定部は、移動体から所定の距離離れた位置に視点を設定し、視点変更部は、移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更するので、移動体を視点から遮蔽する遮蔽物がある場合でも、視認性のよい連続した画像を表示することができる。
【0008】
また、本発明の3次元視点設定装置は、前記移動体の前方の前記移動路が前記視点からの視界に入るよう前記視点を変更するようにしたことを特徴とする構成を有している。
【0009】
この構成により、移動路を視点から遮蔽する遮蔽物がある場合でも、視認性のよい連続した画像を表示することができる。
【0010】
また、本発明の3次元視点設定装置は、前記視点変更部は、前記移動体の速度に応じて前記視点の変更速度を変更するようにしたことを特徴とする構成を有している。
【0011】
この構成により、シミュレーション装置、ゲーム装置等において、移動体が高速で移動しているとき、視点の移動を高速にして迫力のある画像を表示することができる。
【0012】
また、本発明の3次元視点設定装置は、前記地図データは、移動路網のリンクのデータおよび前記遮蔽物が存在する遮蔽物存在リンクのデータを含むことを特徴とする構成を有している。
【0013】
この構成により、遮蔽物存在リンクにおいて、視点変更部は移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更することができ、視認性のよい連続した画像を表示することができる。
【0014】
また、本発明の3次元視点設定装置は、前記視点の高度を設定する視点高度設定部を備え、前記視点高度設定部は、前記遮蔽物存在リンクにおいて前記視点が上方および下方のいずれかの方向に移動するよう前記高度を設定するようにしたことを特徴とする構成を有している。
【0015】
この構成により、視点高度設定部は、遮蔽物存在リンクおよび遮蔽物存在リンク以外のリンクにおいて、異なる視点の高度を設定することができる。
【0016】
また、本発明の3次元視点設定装置は、前記視点の高度データを入力する視点高度入力部を備え、前記視点高度設定部は、前記高度データに基づいて前記視点の高度を設定するようにしたことを特徴とする構成を有している。
【0017】
この構成により、使用者は、視点の高度データを入力し、所望の高度からの鳥瞰図を表示することができる。
【0018】
本発明の3次元地図表示装置は、移動体が移動する移動路のデータを含む地図データを記憶する地図データ記憶部と、前記移動体から所定の距離離れた位置に視点を設定する視点設定部と、前記地図データを前記視点から見下ろした3次元の鳥瞰図データに変換する鳥瞰図変換部と、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更する視点変更部とを有する3次元視点設定装置を備えたことを特徴とする構成を有している。
【0019】
この構成により、視点設定部は、移動体から所定の距離離れた位置に視点を設定し、視点変更部は、移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更するので、移動体を視点から遮蔽する遮蔽物がある場合でも、視認性のよい3次元地図を表示することができる。
【0020】
本発明のナビゲーション装置は、移動体が移動する移動路のデータを含む地図データを記憶する地図データ記憶部と、前記移動体から所定の距離離れた位置に視点を設定する視点設定部と、前記地図データを前記視点から見下ろした3次元の鳥瞰図データに変換する鳥瞰図変換部と、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更する視点変更部とを有する3次元視点設定装置を備えたことを特徴とする構成を有している。
【0021】
この構成により、視点設定部は、移動体から所定の距離離れた位置に視点を設定し、視点変更部は、移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更するので、移動体を視点から遮蔽する遮蔽物がある場合でも、視認性のよい3次元地図に基づいてナビゲーションを実行することができる。
【0022】
本発明のシミュレーション装置は、移動体が移動する移動路のデータを含む地図データを記憶する地図データ記憶部と、前記移動体から所定の距離離れた位置に視点を設定する視点設定部と、前記地図データを前記視点から見下ろした3次元の鳥瞰図データに変換する鳥瞰図変換部と、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更する視点変更部とを有する3次元視点設定装置を備えたことを特徴とする構成を有している。
【0023】
この構成により、視点設定部は、移動体から所定の距離離れた位置に視点を設定し、視点変更部は、移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更するので、移動体を視点から遮蔽する遮蔽物がある場合でも、視認性のよい3次元地図に基づいてシミュレーションを実行することができる。
【0024】
本発明の記憶媒体は、移動路を移動する移動体を所定の視点から見下ろすときの前記視点の高度データを前記移動路の属性データとして含む地図データを記憶したことを特徴とする構成を有している。
【0025】
この構成により、移動路を移動する移動体を所定の視点から見下ろすときの視点の高度データをコンピュータに取得させ、視点の高度を設定させることができる。
【0026】
また、本発明の記憶媒体は、前記移動体を前記視点より遮蔽する遮蔽物の情報を前記移動路の属性データとして含む地図データを記憶したことを特徴とする構成を有している。
【0027】
この構成により、移動体を視点より遮蔽する遮蔽物の情報をコンピュータに取得させ、遮蔽物がある区間の高度を設定させることができる。
【0028】
本発明の3次元視点設定方法は、移動体から所定の距離離れた位置に視点を設定し、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更することを特徴とする方法を有している。
【0029】
この方法により、移動体を視点より遮蔽する遮蔽物から移動体までの距離に応じて視点を所定の変化量で連続して変更することができ、視認性のよい連続した画像を表示することができる。
【0030】
また、本発明の3次元視点設定方法は、前記移動体が移動する移動路網のリンクのデータおよび前記遮蔽物が存在する遮蔽物存在リンクのデータを含む地図データを読み出し、前記遮蔽物存在リンクにおいて前記視点を上方および下方のいずれかの方向に移動することを特徴とする方法を有している。
【0031】
この方法により、遮蔽物存在リンクにおいて視点を上方および下方のいずれかの方向に移動することができ、視認性のよい連続した画像を表示することができる。
【0032】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。
【0033】
まず、本実施の形態の3次元視点設定装置を備えたナビゲーション装置の構成について説明する。
【0034】
図1に示すように、本実施の形態のナビゲーション装置10は、装置全体の動作を制御する動作制御部11と、移動体から所定の距離離れた位置に設定された視点の位置を制御する視点制御部12と、移動体が移動する移動路のデータを含む地図データを記憶するディスク13と、ディスク13から地図データを読み出すディスク読出部14と、GPS(Global Positioning System)からの電波を受信するGPS受信部15と、速度センサおよびジャイロセンサを含むセンサ部16と、利用者が操作するリモコン17と、リモコン17から発光される赤外線信号を受光する赤外線受光部18と、ディスク読出部14によって読み出された地図データを視点から見下ろした3次元の鳥瞰図データに変換し、3次元の描画処理を行う描画処理部19と、画像信号および音声信号を出力する信号出力部20と、画像を表示する表示部21と、各信号を伝送するシステムバス22とを備えている。
【0035】
なお、移動体とは、自動車、二輪車、船舶、航空機、歩行者等をいう。また、移動路とは、移動体が移動する道路、航路等をいう。以下の説明において、移動体を車両、移動路を道路という。
【0036】
動作制御部11、視点制御部12、および描画処理部19は、マイクロプロセッサ、メモリ等により構成されている。
【0037】
動作制御部11は、ディスク13に記憶された地図データに基づき車両を出発地から目的地まで誘導案内する案内経路を探索し、探索した案内経路を画像および音声によって誘導案内するようになっている。また、システムバス22によって伝送された信号を所定のプログラムにより処理するようになっている。また、動作制御部11は、地図データに記録された自車周辺の道路、建物等のオブジェクトの座標データに関する座標変換行列および3次元投影後のオブジェクトの座標を計算するようになっている。さらに、動作制御部11は、Zバッファ法によるグラフィックス処理におけるZ値を算出するようになっている。
【0038】
視点制御部12は、ディスク13に記憶された地図データを3次元の鳥瞰図データに変換するための視点を設定するようになっている。具体的には、3次元空間における視点の座標と視点から見る方向とを所定の周期で設定するようになっている。また、車両と視点との間に車両を視点から遮蔽する遮蔽物、例えば山、建物、高架道路等があるとき、視点制御部12は車両が見える位置に視点を所定の変化量で連続して変更するようになっている。さらに、車両と視点との間に車両が進行する道路を視点から遮蔽する遮蔽物があるとき、視点制御部12は車両が進行する道路が見える位置に視点を所定の変化量で連続して変更するようになっている。
【0039】
ディスク13は、磁気ディスク、DVD―ROM、またはCD−ROM等の記録メディアによって構成され、地図データを記憶するようになっている。この地図データは、道路網のノードデータ、エッジデータ、リンクデータ、および遮蔽物の位置データを含んでいる。さらに、エッジデータは、予め設定された視点の標準高度データを有し、遮蔽物があるリンクにおいては標準高度データに代わる所定の高度データを有している。
【0040】
ディスク13に記憶された地図データは、例えば、図2に示すように構成されている。図2には、ノードAからノードDまでの経路が示され、ノードBとノードCとの間には遮蔽物のトンネルが示されている。
【0041】
ノードAのデータは、ノードデータとエッジデータとを含み、エッジデータには視点の標準高度が20mに設定してある。ノードAのデータが1つのエッジデータを持っていることは、ノードAに接続されたリンクAには遮蔽物がないことを示している。
【0042】
また、ノードBのデータは、ノードデータと第1エッジデータおよび第2エッジデータとを含み、第1エッジデータには20mが設定され、第2エッジデータには5mが設定されている。ノードBのデータが2つのエッジデータを持っていることは、ノードBに接続されたリンクAとリンクBとでは視点の高度が異なることを示し、また、第2エッジデータが第1エッジデータよりも小さいので、リンクBには遮蔽物があることを示している。
【0043】
また、ノードCのデータは、ノードデータと第1エッジデータおよび第2エッジデータとを含み、第1エッジデータには5mが設定され、第2エッジデータには20mが設定されている。ノードCのデータが2つのエッジデータを持っていることは、ノードCに接続されたリンクBとリンクCとでは視点の高度が異なることを示し、また、第1エッジデータが第2エッジデータよりも小さいので、リンクBには遮蔽物があることを示している。
【0044】
また、ノードDのデータは、ノードデータとエッジデータとを含み、エッジデータには視点の標準高度が20mに設定してある。ノードDのデータが1つのエッジデータを持っていることは、ノードDに接続されたリンクCには遮蔽物がないことを示している。
【0045】
したがって、動作制御部11が車両をノードAからノードDまで誘導する際、視点制御部12は、ノードAからノードDまでのエッジデータを参照することによって、リンクAとリンクCにおいては視点の高度を標準高度の20mに設定し、リンクBにおいては視点の高度を5mに設定することができる。
【0046】
ディスク読出部14は、ディスク13を駆動するディスク駆動ユニット、磁気ヘッドまたは光ピックアップ等の信号読出素子、および信号読出素子から出力される信号を処理する信号処理回路等によって構成されている。なお、ディスク読出部14は、ディスク13からデータを読み出すだけでなく、使用者が設定する視点の高度データおよび遮蔽物の位置データ等をディスク13に記憶する構成としてもよい。
【0047】
GPS受信部15は、GPSアンテナ、GPS受信ユニット等によって構成され、GPSから受信した信号に基づいて自車の現在位置を検出するようになっている。
【0048】
センサ部16は、自車の速度を検出する速度センサ、加減速および旋回を検出するジャイロセンサ等を備えている。したがって、GPSからの電波が届かないトンネル内においても、センサ部16からのデータに基づき、動作制御部11によって自車の推定位置が算出されるようになっている。
【0049】
リモコン17は、発光ダイオードを含む赤外線発光ユニット、キーボード、ジョイスティック等で構成され、利用者の操作によって車両の出発地、目的地、視点の高度等のデータが設定されるようになっている。
【0050】
赤外線受光部18は、フォトダイオードを含む赤外線受光ユニットによって構成され、リモコン17から送信された赤外線信号によるコマンドに応じた信号を動作制御部11に出力するようになっている。
【0051】
描画処理部19は、例えばZバッファ法によるグラフィックスの描画処理に関わる制御を行う描画制御部19aと、3次元画像を生成するレンダリング部19bと、動作制御部11から出力された描画コマンドをダウンロードするダウンロード用メモリ19c(以下、DL用メモリ19cという。)と、描画データを記憶する描画用メモリ19dとを備えている。
【0052】
なお、描画処理部19は、ハードウェアによって構成することもできる。例えば、ジオメトリエンジンと呼ばれる専用のハードウェアにより描画処理部19を構成し、3次元画像の描画処理を行うようにしてもよい。
【0053】
信号出力部20は、描画処理部19で描画処理された画像信号および動作制御部11による誘導案内の音声信号を出力するようになっている。
【0054】
表示部21は、液晶ディスプレイ、スピーカ等によって構成され、画像および音声を出力するようになっている。
【0055】
なお、動作制御部11および描画処理部19は、鳥瞰図変換部を構成している。また、視点制御部12は、視点設定部、視点変更部、および視点高度設定部を構成している。さらに、ディスク13は地図データ記憶部を構成し、リモコン17および赤外線受光部18は、視点高度入力部を構成している。そして、動作制御部11、視点制御部12、ディスク13、および描画処理部19は、3次元視点設定装置を構成している。
【0056】
次に、本実施の形態のナビゲーション装置10の動作について説明する。
【0057】
図3において、まず、リモコン17によって、車両の出発地および目的地のデータが入力される(ステップS31)。次いで、ディスク読出部14によって、ディスク13から地図データが読み出される(ステップS32)。そして、動作制御部11によって、車両を出発地から目的地まで誘導案内する誘導案内経路の探索および決定が行われ(ステップS33)、後述の鳥瞰図表示処理(ステップS34)に進む。
【0058】
引き続き、動作制御部11によって、車両が目的地に到着したか否かが判断される(ステップS35)。車両が目的地に到着したと判断された場合は処理を終了し、車両が目的地に到着したと判断されなかった場合は、動作制御部11によって、遮蔽物区間が開始されたか否かが判断される(ステップS36)。例えば、図2において、リンクBは遮蔽物のトンネルがある遮蔽物区間であり、車両がノードAからノードBに移動した場合、ノードBのデータは2つのエッジデータを持っているので、動作制御部11によって遮蔽物区間が開始されたと判断される。
【0059】
ステップS36において、遮蔽物区間が開始されたと判断された場合は、後述の視点下降処理(ステップS37)に進み、遮蔽物区間が開始されたと判断されなかった場合は、ステップS34に戻る。
【0060】
さらに、動作制御部11によって、遮蔽物区間が終了したか否かが判断される(ステップS38)。例えば、図2において、車両がノードAからノードCに移動する場合、ノードBのデータが2つのエッジデータを持ち、さらにノードCのデータが2つのエッジデータを持っているので、動作制御部11によって、遮蔽物がノードBからノードCまでの間にあると判断され、ノードCで遮蔽物区間が終了すると判断される。
【0061】
ステップS38において、遮蔽物区間が終了したと判断された場合は、後述の視点上昇処理(ステップS39)に進み、遮蔽物区間が終了したと判断されなかった場合は、ステップS37に戻る。
【0062】
ここで、ステップS34の鳥瞰図表示処理、ステップS37の視点下降処理、およびステップS39の視点上昇処理について説明する。
【0063】
最初にステップS34の鳥瞰図表示処理について図4を参照して説明する。
【0064】
図4において、まず、視点制御部12によって、3次元空間における視点の座標が設定される(ステップS41)。例えば、自車位置の3次元空間の座標を(X,Y,Z)、自車位置に対する視点の平面的な相対位置を(Dx,Dy)、地図データに記憶された視点の高度をHとするとき、3次元空間における視点の座標(Cx,Cy,Cz)は次式で表される。
【0065】
(Cx,Cy,Cz)=(X+Dx,Y+Dy,Z+H) (1)
引き続き、描画処理部19によって、3次元の描画処理が実行される(ステップS42)。具体的には、まず、DL用メモリ19cは、動作制御部11によって発行された描画コマンドを記憶し、描画制御部19aは、DL用メモリ19cから順次描画コマンドを取り出す。さらに、描画制御部19aは、取り出した描画コマンドをレンダリング部19bが解釈することができるプリミティブな描画命令とレンダリングパラメータとに分解し、描画コマンドのパラメータとして与えられたモデリング座標を描画座標に座標変換し、描画コマンドの属性を反映させるようレンダリング部19bに描画命令を発行する。レンダリング部19bは、描画制御部12aが発行した描画命令とレンダリングパラメータとに従って描画用メモリ19dに描画する。
【0066】
続いて、信号出力部20によって、描画用メモリ19dに描画されたデータが画像信号として表示部21に出力され(ステップS43)、表示部21によって、視点から見下ろした3次元の画像が表示される(ステップS44)。
【0067】
なお、前述のステップS41において、ディスク13に記憶された視点の高度データを使用者が設定する視点の高度に比例する相対高度データとして使用することもできる。使用者が設定する視点の標準高度および遮蔽物区間における視点の高度を、それぞれUmax、Uminとし、ディスク13に記憶された視点の高度がHminからHmaxの値をとるとする。ある自車位置においてディスク13に記憶された視点の高度をH(Hmin≦H≦Hmax)とするとき、自車からの視点の相対高さUは次式で表される。
【0068】
U=Umin+(Umax−Umin)×(H−Hmin)÷(Hmax−Hmin) (2)
例えば、使用者が、標準の視点の高度を7m、遮蔽物区間における視点の高度を2mに設定したとき、両者の高度差は5mである。ディスク13に記憶された視点の高度の値が、Hmin=1m、Hmax=11mのとき、両者の高度差10mを前述の高度差5mに比例させる。すなわち、ディスク13に記憶された視点の高度が9mの場合は、自車からの視点の相対高さは式(2)より6mに設定されることとなる。
【0069】
この場合の視点の座標(Cx,Cy,Cz)は、自車位置に対する視点の平面的な相対位置を(Dx,Dy)とするとき、次式で表される。
【0070】
(Cx,Cy,Cz)=(X+Dx,Y+Dy,Z+Umin+(Umax−Umin)×(H−Hmin)÷(Hmax−Hmin) (3)
なお、式(1)および式(3)において、視点の平面的な相対位置(Dx,Dy)を自車の進行方向を基準にした相対位置で表してもよい。
【0071】
次に、ステップS37の視点下降処理について図5および図6を参照して説明する。
【0072】
図5に示すように、山51に設けられたトンネル52を含む経路を車両53が地点N1から地点N7まで移動し、車両53を見下ろす視点が、視点61から視点68まで移動する場合を例に挙げて説明する。
【0073】
視点下降処理とは、視点を標準高度Hcにある視点62から遮蔽物内(以下、トンネル内という。)の設定高度Hsの視点64まで下降させ、視点の下降に応じた鳥瞰図を表示部21に表示する処理をいう。
【0074】
図6において、まず、標準高度Hcの値が視点の高度を示す変数Hに代入される(ステップS71)。標準高度Hcの値は、図5における地点N2のノードデータに含まれている。
【0075】
次いで、視点制御部12によって、現在の視点の高度Hから視点の下降量△dが減算され、視点の新たな高度Hが算出される(ステップS72)。図5において、視点63から△dだけ下降させると視点63となる。ここで視点の下降量△dは、例えば、予め設定された視点の下降速度に基づいて決定される。なお、車両53の速度に応じて視点の下降速度を変化させ、下降量△dが車両53の速度に応じて変化するよう構成してもよい。
【0076】
引き続き、前述の鳥瞰図表示処理が実行される(ステップS73)。そして、視点制御部12によって、視点の高度Hがトンネル内の設定高度Hsと一致するか否かが判断される(ステップS74)。
【0077】
ステップS74において、視点の高度Hがトンネル内の設定高度Hsと一致すると判断された場合は視点下降処理を終了し、視点の高度Hがトンネル内の設定高度Hsと一致すると判断されなかった場合はステップS72に戻る。
【0078】
次に、ステップS39の視点上昇処理について図5および図7を参照して説明する。図5において、視点上昇処理とは、視点をトンネル内の設定高度Hsの視点66から標準高度Hcにある視点68まで上昇させ、視点の上昇に応じた鳥瞰図を表示部21に表示する処理をいう。
【0079】
図7において、まず、トンネル内の設定高度Hsの値が視点の高度を示す変数Hに代入される(ステップS81)。トンネル内の設定高度Hsは、図5における地点N2、地点N3、地点N6、地点N7のノードデータに含まれている。
【0080】
次いで、視点制御部12によって、現在の視点の高度Hに視点の上昇量△uが加算され、視点の新たな高度Hが算出される(ステップS82)。図5において、視点66から△uだけ上昇させると視点67となる。ここで視点の上昇量△uは、例えば、予め設定された視点の上昇速度に基づいて決定される。なお、車両53の速度に応じて視点の上昇速度を変化させ、上昇量△uが車両53の速度に応じて変化するよう構成してもよい。
【0081】
引き続き、前述の鳥瞰図表示処理が実行される(ステップS83)。そして、視点制御部12によって、視点の高度Hが標準高度Hcと一致するか否かが判断される(ステップS84)。
【0082】
ステップS84において、視点の高度Hが標準高度Hcと一致すると判断された場合は視点上昇処理を終了し、視点の高度Hが標準高度Hcと一致すると判断されなかった場合はステップS82に戻る。
【0083】
なお、視点制御部12は、図6および図7に示すような視点の高度のみを制御するものに限定されない。例えば、車両が進行する前方の道路が建物で遮蔽される場合、前方の道路が見えるよう視点を水平方向に移動するようにしてもよい。
【0084】
また、視点を移動する際、図5に示された視点62から視点64までの移動のように直線による移動のみでなく、例えば、視点の下降開始時から視点の下降終了時までにおいて下降速度を所定の関数で変化させるようにしてもよい。
【0085】
また、遮蔽区間が短距離の場合、例えば、高架道路の下を車両が通過する場合は、視点が高架道路の上空を超えて移動するよう視点制御部12が視点の位置を制御する構成としてもよい。
【0086】
また、視点制御部12は、視点を車両の後部の上空に設定するのみでなく、例えば、車両の前方の上空から車両を見下ろすよう視点を設定するようにしてもよい。この場合も遮蔽物区間において視点の位置を変更するように構成することができる。
【0087】
また、視点制御部12が視点の位置を変更する際、エッジデータを参照しない構成とすることができる。例えば、車両または視点の位置から遮蔽区間までの距離を算出する距離算出手段を設け、距離算出手段が算出した距離に応じて視点を変更するよう構成してもよい。また、例えば、遮蔽区間の位置を経度および緯度で定義し、リンクまたはノードとは無関係に設定する構成としてもよい。
【0088】
次に、視点の高度データを道路の属性として含む地図データを作成する手順について説明する。
【0089】
地図上の道路はノードおよびエッジの属性を有している。1つのノードは1つ以上のエッジデータを持っている。1つのノードが2つのエッジデータを持つとき、そのノードを挟んで何らかの属性に差がある2本の道路が直列に接続されていることを示している。また、1つのノードが3つのエッジデータを持つとき、そのノードは三叉路の交差点を示している。
【0090】
道路を表すエッジデータに基づき、遮蔽物区間をマークした地図を作成する。この地図は電子データとして作成してもよいし、例えばカラーペンで紙の地図にマークして作成してもよい。電子データとして作成する場合は、遮蔽物区間の両端はノードになる。この電子データに基づく地図データの作成手順を、例えば、コンピュータに実行させる場合について、図8から図11までのフローチャートを参照して説明する。
【0091】
図8において、まず、作成する地図の全ノードの全エッジデータに対して視点の標準高度が設定され記録される(ステップS91)。例えば、標準高度が20mに設定され、このデータがエッジデータに記録される。次いで、すべての遮蔽物区間における視点の高度が設定される(ステップS92)。この処理については後述する。
【0092】
引き続き、任意のノードが選択され、ノード番号が1にセットされる(ステップS93)。次いで、不連続フラグがゼロにセットされる(ステップS94)。この不連続フラッグの不連続とは、あるノードの前後でエッジデータに含まれる視点の高度データが異なることを意味している。
【0093】
次いで、後述のステップS96からステップS99までの処理が未処理のノードがあるか否かが判断される(ステップS95)。未処理のノードがあると判断された場合は、ノード番号が1つインクリメントされ(ステップS96)、処理対象のノードが次のノードに移される。そして、新たな処理対象のノードが持つエッジデータに含まれる視点の設定高度のデータが、そのノードの前後において一致するか否かが判断される(ステップS97)。例えば、図2に示されたノードBの場合は、ノードBの前後における視点の設定高度は、20mから5mになっており、一致すると判断されない。
【0094】
ステップS97において、ノードの前後で視点の設定高度のデータが一致すると判断されなかった場合は、後述の視点高度変更処理に進み(ステップS98)、不連続フラグが1にセットされる(ステップS99)。一方、ステップS97において、ノードの前後で視点の設定高度のデータが一致すると判断された場合は、ステップS95に戻る。
【0095】
ステップS95において、未処理のノードがあると判断されなかった場合は、不連続フラグがゼロか否かが判断される(ステップS100)。ステップS100において、不連続フラグがゼロと判断された場合は、視点の高度データを地図の道路の属性として保持する処理を終了し、不連続フラグがゼロと判断されなかった場合は、ステップS93に戻る。
【0096】
次に、ステップS92における遮蔽物区間高度設定処理について図9を参照して説明する。
【0097】
図9において、まず、遮蔽物区間の一方の端点を入口ノードと設定する処理が実行される(ステップS101)。さらに、遮蔽物区間の一方の端点を出口ノードと設定する処理が実行される(ステップS102)。ノード設定処理については後述する。
【0098】
続いて、ノードのエッジデータに遮蔽物区間内における視点の高度データが設定される(ステップS103)。次いで、遮蔽区間内にノードがあるか否かが判断される(ステップS104)。ステップS104において、遮蔽区間内にノードがあると判断された場合は、遮蔽区間内における視点の高度データが該当するノードのエッジデータに設定される(ステップS105)。一方、ステップS104において、遮蔽区間内にノードがあると判断されなかった場合は、遮蔽物区間高度設定処理を終了する。
【0099】
次に、ノード設定処理について図10を参照して説明する。
【0100】
図10において、まず、対象ノードが既存のノードか否かが判断される(ステップS111)。ここで対象ノードが既存のノードと判断された場合は、ノード設定処理を終了し、対象ノードが既存のノードと判断されなかった場合は、新規のノード番号が設定される(ステップS112)。次いで、新規のノードの位置座標が設定される(ステップS113)。さらに、新規のノードのエッジデータが設定される(ステップS114)。
【0101】
次に、視点高度変更処理について図11を参照して説明する。
【0102】
図11において、まず、視点の高度変更を開始するノードから視点の高度変更を終了する位置までの距離が算出される(ステップS121)。この距離は、例えば、図5における地点N2から地点N3までの距離に相当し、ノードのエッジデータに記録されている視点の高度データの差、予め設定された視点の高度の変化量、および車両の速度から算出される。
【0103】
次いで、視点の高度変更を開始するノードからステップS121で算出された距離だけ離れた位置、すなわち視点の高度変更を終了する位置に新たにノードが設定される(ステップS122)。例えば、図5における地点N3に相当する位置にノードが設定される。
【0104】
さらに、新たなノードのエッジデータに視点の高度データが設定される(ステップS123)。例えば、遮蔽物が高さ7mのトンネルの場合、視点の高度として5mが設定される。この遮蔽物区間内の視点の高度は、遮蔽物区間毎に設定してもよいし、所定の1つの高度に統一して設定してもよい。なお、視点の高度変更の開始ノードおよび終了ノードに、それぞれ高度変更開始および高度変更終了の情報を記録してもよい。
【0105】
引き続き、視点の高度が変化する区間内にノードがあるか否かが判断される(ステップS124)。この区間は、例えば、図5における地点N2から地点N3までの区間をいう。ステップS124において、視点の高度が変化する区間内にノードがあると判断された場合は、該当ノードの視点の高度データを区間内の視点変化に合わせた値に設定する。一方、ステップS124において、視点の高度が変化する区間内にノードがあると判断されなかった場合は、視点高度変更処理を終了する。
【0106】
なお、前述した視点の高度データを道路の属性として含む地図データを磁気ディスク、DVD―ROM、またはCD−ROM等の記録メディアに記憶し、3次元地図表示装置、ナビゲーション装置、シミュレーション装置、ゲーム装置等で再生させることにより、進行中の道路に遮蔽物がある場合でも視点を連続して移動させることができ、視認性のよい連続した画像を表示させることができる。
【0107】
以上のように、本実施の形態のナビゲーション装置10によれば、ディスク13は、視点の高度データを道路の属性として含む地図データを記憶し、視点制御部12は、車両から所定の距離離れた位置に設定された視点の位置を地図データに含まれる視点の高度データを参照して制御する構成としたので、遮蔽物がある場合でも視点を連続して移動させることができ、視認性のよい連続した画像を表示することができる。
【0108】
【発明の効果】
以上説明したように、本発明によれば、移動体を視点から遮蔽する遮蔽物がある場合でも、視認性のよい連続した画像を表示することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態のナビゲーション装置のブロック図
【図2】地図データの構成例を示す図
【図3】本発明の実施の形態のナビゲーション装置の各ステップのフローチャート
【図4】鳥瞰図表示処理のフローチャート
【図5】トンネルを含む経路を車両が移動する場合の視点の変更例を示す図
【図6】視点下降処理のフローチャート
【図7】視点上昇処理のフローチャート
【図8】地図データの作成手順の一例を示すフローチャート
【図9】遮蔽物区間高度設定処理のフローチャート
【図10】ノード設定処理のフローチャート
【図11】視点高度変更処理のフローチャート
【符号の説明】
10 ナビゲーション装置
11 動作制御部
12 視点制御部
12a 描画制御部
13 ディスク
14 ディスク読出部
15 GPS受信部
16 センサ部
17 リモコン
18 赤外線受光部
19 描画処理部
19a 描画制御部
19b レンダリング部
19c ダウンロード用メモリ
19d 描画用メモリ
20 信号出力部
21 表示部
22 システムバス
51 山
52 トンネル
53 車両
61、62、63、64、66、67、68 視点
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional viewpoint setting device and a three-dimensional viewpoint setting method, and more particularly to, for example, a three-dimensional viewpoint setting device and a three-dimensional viewpoint setting method for setting a position of a viewpoint at which a running vehicle is looked down from above.
[0002]
[Prior art]
Conventionally, this type of three-dimensional viewpoint setting device includes a GPS receiver that receives a GPS signal, a DVD drive that reads map data from a DVD-ROM in which map data is stored, a microcomputer that controls the operation of the entire device, A display panel for displaying a guidance route looked down from a predetermined viewpoint in a three-dimensional manner, and when there is an obstruction between the vehicle and the viewpoint, the viewpoint is moved to a position where the vehicle can be seen, thereby looking down from the viewpoint. The vehicle can be displayed on a display panel (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2002-181562 (page 5, FIG. 5)
[0004]
[Problems to be solved by the invention]
However, in the setting of the viewpoint by such a conventional three-dimensional viewpoint setting device, for example, when there is a tunnel on the road on which the vehicle is traveling, the vehicle traveling in the tunnel cannot be caught, and the display panel does not. There is a problem that the image where the vehicle does not appear is displayed following the image before entering the tunnel, and the image of the vehicle is suddenly displayed when leaving the tunnel, so the image is discontinuous and the visibility is poor .
[0005]
The present invention has been made in order to solve such a problem, and a three-dimensional viewpoint setting device capable of displaying a continuous image with good visibility even when there is a shield that shields the vehicle from the viewpoint. Is provided.
[0006]
[Means for Solving the Problems]
A three-dimensional viewpoint setting device according to the present invention includes a map data storage unit that stores map data including data of a moving path on which a moving object moves, and a viewpoint setting unit that sets a viewpoint at a position separated by a predetermined distance from the moving object. And a bird's-eye view conversion unit that converts the map data into three-dimensional bird's-eye view data looking down from the viewpoint, and sets the viewpoint to a predetermined value according to a distance from the obstruction that obstructs the moving object from the viewpoint to the moving object. And a viewpoint changing unit that changes continuously with the change amount.
[0007]
With this configuration, the viewpoint setting unit sets the viewpoint at a position away from the moving object by a predetermined distance, and the viewpoint changing unit sets the viewpoint according to the distance from the obstruction that blocks the moving object from the viewpoint to the moving object. , A continuous image with good visibility can be displayed even if there is a blocking object that blocks the moving object from the viewpoint.
[0008]
Further, the three-dimensional viewpoint setting device of the present invention has a configuration in which the viewpoint is changed such that the moving path ahead of the moving object enters the field of view from the viewpoint.
[0009]
With this configuration, even if there is a blocking object that blocks the moving path from the viewpoint, a continuous image with good visibility can be displayed.
[0010]
Further, in the three-dimensional viewpoint setting device of the present invention, the viewpoint changing unit changes the viewpoint changing speed in accordance with the speed of the moving object.
[0011]
With this configuration, in a simulation device, a game device, or the like, when the moving body is moving at a high speed, the viewpoint can be moved at a high speed to display a powerful image.
[0012]
Further, the three-dimensional viewpoint setting device of the present invention has a configuration in which the map data includes data of a link of a moving path network and data of a shield existing link where the obstacle exists. .
[0013]
With this configuration, in the shield existing link, the viewpoint changing unit can continuously change the viewpoint by a predetermined change amount according to the distance from the shield that blocks the moving object from the viewpoint to the moving object. A good continuous image can be displayed.
[0014]
Also, the three-dimensional viewpoint setting device of the present invention includes a viewpoint height setting unit that sets the height of the viewpoint, wherein the viewpoint height setting unit is configured such that the viewpoint is located in one of the upward and downward directions in the shield existing link. The altitude is set so as to move to.
[0015]
With this configuration, the viewpoint height setting unit can set the height of a different viewpoint in the shield existing link and the link other than the shield existing link.
[0016]
Further, the three-dimensional viewpoint setting device of the present invention includes a viewpoint height input unit for inputting the viewpoint height data, and the viewpoint height setting unit sets the viewpoint height based on the height data. It has a configuration characterized by the following.
[0017]
With this configuration, the user can input altitude data of the viewpoint and display a bird's-eye view from a desired altitude.
[0018]
A three-dimensional map display device according to the present invention includes a map data storage unit that stores map data including data of a moving path on which a moving object moves, and a viewpoint setting unit that sets a viewpoint at a predetermined distance from the moving object. And a bird's-eye view conversion unit that converts the map data into three-dimensional bird's-eye view data looking down from the viewpoint, and sets the viewpoint to a predetermined value according to a distance from the obstruction that obstructs the moving object from the viewpoint to the moving object. A three-dimensional viewpoint setting device including a viewpoint changing unit that continuously changes the amount of change is provided.
[0019]
With this configuration, the viewpoint setting unit sets the viewpoint at a position away from the moving object by a predetermined distance, and the viewpoint changing unit sets the viewpoint according to the distance from the obstruction that blocks the moving object from the viewpoint to the moving object. , The three-dimensional map with good visibility can be displayed even when there is a blocking object that blocks the moving object from the viewpoint.
[0020]
The navigation device of the present invention is a map data storage unit that stores map data including data of a traveling path on which a moving object moves, a viewpoint setting unit that sets a viewpoint at a position separated by a predetermined distance from the moving object, A bird's-eye view conversion unit that converts map data into three-dimensional bird's-eye view data looking down from the viewpoint, and the viewpoint is changed by a predetermined amount according to a distance from the obstruction that obstructs the moving object from the viewpoint to the moving object. A three-dimensional viewpoint setting device having a viewpoint changing unit that changes continuously is provided.
[0021]
With this configuration, the viewpoint setting unit sets the viewpoint at a position away from the moving object by a predetermined distance, and the viewpoint changing unit sets the viewpoint according to the distance from the obstruction that blocks the moving object from the viewpoint to the moving object. , The navigation can be executed based on a three-dimensional map with good visibility even when there is a blocking object that blocks the moving object from the viewpoint.
[0022]
The simulation device of the present invention is a map data storage unit that stores map data including data of a moving path on which the moving object moves, a viewpoint setting unit that sets a viewpoint at a position separated by a predetermined distance from the moving object, A bird's-eye view conversion unit that converts map data into three-dimensional bird's-eye view data looking down from the viewpoint, and the viewpoint is changed by a predetermined amount according to a distance from the obstruction that obstructs the moving object from the viewpoint to the moving object. A three-dimensional viewpoint setting device having a viewpoint changing unit that changes continuously is provided.
[0023]
With this configuration, the viewpoint setting unit sets the viewpoint at a position away from the moving object by a predetermined distance, and the viewpoint changing unit sets the viewpoint according to the distance from the obstruction that blocks the moving object from the viewpoint to the moving object. , The simulation can be executed based on a three-dimensional map with good visibility even when there is a blocking object that blocks the moving object from the viewpoint.
[0024]
The storage medium of the present invention has a configuration in which map data including altitude data of the viewpoint when looking down on a moving body moving on a moving path from a predetermined viewpoint as attribute data of the moving path is stored. ing.
[0025]
With this configuration, it is possible to cause the computer to acquire the altitude data of the viewpoint when the moving body moving on the moving path is looked down from a predetermined viewpoint, and set the altitude of the viewpoint.
[0026]
Further, the storage medium of the present invention has a configuration in which map data including information on a shielding object that shields the moving object from the viewpoint as attribute data of the moving path is stored.
[0027]
With this configuration, it is possible to cause the computer to acquire information on a shield that blocks the moving object from the viewpoint, and set the altitude of a section where the shield exists.
[0028]
In the three-dimensional viewpoint setting method according to the present invention, a viewpoint is set at a position separated by a predetermined distance from a moving object, and the viewpoint is determined in accordance with a distance from the obstruction that blocks the moving object from the viewpoint to the moving object. The method is characterized in that the change amount is continuously changed with the change amount.
[0029]
According to this method, the viewpoint can be continuously changed by a predetermined change amount according to the distance from the obstruction that blocks the moving object from the viewpoint to the moving object, and a continuous image with good visibility can be displayed. it can.
[0030]
Also, the three-dimensional viewpoint setting method of the present invention reads out map data including data of a link of a movement path network on which the moving object moves and data of a shielding existence link where the shielding exists. Wherein the viewpoint is moved in one of an upward direction and a downward direction.
[0031]
According to this method, the viewpoint can be moved in any of the upward and downward directions in the shield existing link, and a continuous image with good visibility can be displayed.
[0032]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0033]
First, a configuration of a navigation device including the three-dimensional viewpoint setting device of the present embodiment will be described.
[0034]
As shown in FIG. 1, a navigation device 10 according to the present embodiment includes an operation control unit 11 that controls the operation of the entire device, and a viewpoint that controls the position of a viewpoint set at a predetermined distance from the moving object. The control unit 12, a disk 13 for storing map data including data of a moving path on which the moving object moves, a disk reading unit 14 for reading map data from the disk 13, and a radio wave from a GPS (Global Positioning System). A GPS receiver 15, a sensor unit 16 including a speed sensor and a gyro sensor, a remote controller 17 operated by a user, an infrared receiver 18 for receiving an infrared signal emitted from the remote controller 17, and a disk reader 14 for reading. Converts the output map data to 3D bird's-eye view data looking down from the viewpoint, and 3D drawing Processing and drawing processing unit 19 for performing a signal output unit 20 for outputting image signals and audio signals, a display unit 21 for displaying an image, and a system bus 22 for transmitting signals.
[0035]
Note that a moving object refers to an automobile, a motorcycle, a ship, an aircraft, a pedestrian, and the like. In addition, the moving route refers to a road, a sea route, or the like on which the moving body moves. In the following description, a moving object is referred to as a vehicle, and a moving path is referred to as a road.
[0036]
The operation control unit 11, the viewpoint control unit 12, and the drawing processing unit 19 are configured by a microprocessor, a memory, and the like.
[0037]
The operation control unit 11 searches for a guidance route that guides the vehicle from the departure point to the destination based on the map data stored in the disk 13, and guides the searched guidance route by image and voice. . Further, the signal transmitted by the system bus 22 is processed by a predetermined program. Further, the operation control unit 11 calculates a coordinate conversion matrix relating to coordinate data of objects such as roads and buildings around the own vehicle recorded in the map data and coordinates of the object after three-dimensional projection. Further, the operation control unit 11 calculates a Z value in graphics processing by the Z buffer method.
[0038]
The viewpoint controller 12 sets a viewpoint for converting map data stored on the disk 13 into three-dimensional bird's-eye view data. Specifically, the coordinates of the viewpoint in the three-dimensional space and the direction viewed from the viewpoint are set at a predetermined cycle. In addition, when there is an obstacle between the vehicle and the viewpoint that shields the vehicle from the viewpoint, for example, a mountain, a building, an elevated road, or the like, the viewpoint control unit 12 continuously moves the viewpoint at a position where the vehicle can be seen with a predetermined change amount. It is supposed to change. Furthermore, when there is an obstacle between the vehicle and the viewpoint that blocks the road on which the vehicle travels from the viewpoint, the viewpoint controller 12 continuously changes the viewpoint by a predetermined amount to a position where the road on which the vehicle travels can be seen. It is supposed to.
[0039]
The disk 13 is composed of a recording medium such as a magnetic disk, DVD-ROM, or CD-ROM, and stores map data. The map data includes road network node data, edge data, link data, and shield position data. Further, the edge data has standard altitude data of a preset viewpoint, and has a predetermined altitude data instead of the standard altitude data in a link having an obstruction.
[0040]
The map data stored on the disk 13 is configured, for example, as shown in FIG. FIG. 2 shows a route from the node A to the node D, and shows a tunnel of a shield between the node B and the node C.
[0041]
The data of the node A includes the node data and the edge data, and the standard height of the viewpoint is set to 20 m in the edge data. The fact that the data of the node A has one edge data indicates that the link A connected to the node A has no obstruction.
[0042]
The data of the node B includes the node data, the first edge data, and the second edge data. The first edge data is set to 20 m, and the second edge data is set to 5 m. The fact that the data of the node B has two edge data indicates that the link A and the link B connected to the node B have different viewpoint altitudes, and the second edge data is different from the first edge data. Is also small, indicating that the link B has a shield.
[0043]
The data of the node C includes the node data, the first edge data, and the second edge data. 5 m is set to the first edge data, and 20 m is set to the second edge data. The fact that the data of the node C has two pieces of edge data indicates that the link B and the link C connected to the node C have different viewpoint heights, and the first edge data is different from the second edge data. Is also small, indicating that the link B has a shield.
[0044]
The data of the node D includes node data and edge data, and the standard height of the viewpoint is set to 20 m in the edge data. The fact that the data of the node D has one edge data indicates that the link C connected to the node D has no obstruction.
[0045]
Therefore, when the operation control unit 11 guides the vehicle from the node A to the node D, the viewpoint control unit 12 refers to the edge data from the node A to the node D, so that the link A and the link C have the viewpoint height. Can be set to the standard altitude of 20 m, and for link B, the altitude of the viewpoint can be set to 5 m.
[0046]
The disk reading unit 14 includes a disk drive unit that drives the disk 13, a signal reading element such as a magnetic head or an optical pickup, a signal processing circuit that processes signals output from the signal reading element, and the like. Note that the disk reading unit 14 may be configured not only to read data from the disk 13 but also store altitude data of a viewpoint set by a user, position data of a shield, and the like on the disk 13.
[0047]
The GPS receiving unit 15 includes a GPS antenna, a GPS receiving unit, and the like, and detects the current position of the vehicle based on a signal received from the GPS.
[0048]
The sensor unit 16 includes a speed sensor that detects the speed of the vehicle, a gyro sensor that detects acceleration / deceleration, and turning. Therefore, the estimated position of the own vehicle is calculated by the operation control unit 11 based on the data from the sensor unit 16 even in a tunnel where radio waves from the GPS do not reach.
[0049]
The remote controller 17 includes an infrared light emitting unit including a light emitting diode, a keyboard, a joystick, and the like, and data such as a departure place, a destination, and a height of a viewpoint are set by a user operation.
[0050]
The infrared light receiving unit 18 is constituted by an infrared light receiving unit including a photodiode, and outputs a signal corresponding to a command based on an infrared signal transmitted from the remote controller 17 to the operation control unit 11.
[0051]
The drawing processing unit 19 downloads drawing commands output from the operation control unit 11, for example, a drawing control unit 19 a that performs control related to graphics drawing processing by the Z-buffer method, a rendering unit 19 b that generates a three-dimensional image. Download memory 19c (hereinafter referred to as DL memory 19c), and a drawing memory 19d for storing drawing data.
[0052]
Note that the drawing processing unit 19 can be configured by hardware. For example, the drawing processing unit 19 may be configured by dedicated hardware called a geometry engine to perform a drawing process of a three-dimensional image.
[0053]
The signal output unit 20 outputs an image signal that has been subjected to the drawing processing by the drawing processing unit 19 and an audio signal for guidance provided by the operation control unit 11.
[0054]
The display unit 21 includes a liquid crystal display, a speaker, and the like, and outputs images and sounds.
[0055]
The operation control section 11 and the drawing processing section 19 constitute a bird's eye view conversion section. In addition, the viewpoint control unit 12 configures a viewpoint setting unit, a viewpoint changing unit, and a viewpoint height setting unit. Further, the disk 13 constitutes a map data storage unit, and the remote controller 17 and the infrared light receiving unit 18 constitute a viewpoint altitude input unit. Then, the operation control unit 11, the viewpoint control unit 12, the disc 13, and the drawing processing unit 19 constitute a three-dimensional viewpoint setting device.
[0056]
Next, the operation of the navigation device 10 of the present embodiment will be described.
[0057]
In FIG. 3, first, data of the departure place and the destination of the vehicle are input by the remote controller 17 (step S31). Next, map data is read from the disk 13 by the disk reading unit 14 (step S32). Then, the operation control unit 11 searches for and determines a guidance route for guiding the vehicle from the departure place to the destination (step S33), and proceeds to a bird's eye view display process (step S34) to be described later.
[0058]
Subsequently, the operation control unit 11 determines whether or not the vehicle has arrived at the destination (step S35). If it is determined that the vehicle has arrived at the destination, the process is terminated. If it is not determined that the vehicle has arrived at the destination, the operation control unit 11 determines whether or not the shielding section has been started. Is performed (step S36). For example, in FIG. 2, the link B is a shield section where a shield tunnel is located, and when the vehicle moves from the node A to the node B, the data of the node B has two edge data. It is determined that the shield section has been started by the unit 11.
[0059]
If it is determined in step S36 that the shielded section has been started, the process proceeds to a viewpoint lowering process (step S37) described below. If it is not determined that the shielded section has been started, the process returns to step S34.
[0060]
Further, the operation control unit 11 determines whether or not the shielding section has ended (step S38). For example, in FIG. 2, when the vehicle moves from the node A to the node C, the data of the node B has two pieces of edge data, and the data of the node C has two pieces of edge data. Thus, it is determined that the shield is between the node B and the node C, and it is determined that the shield section ends at the node C.
[0061]
If it is determined in step S38 that the shielded section has been completed, the process proceeds to the viewpoint raising process (step S39) described later. If it is not determined that the shielded section has been completed, the process returns to step S37.
[0062]
Here, the bird's-eye view display processing in step S34, the viewpoint lowering processing in step S37, and the viewpoint raising processing in step S39 will be described.
[0063]
First, the bird's-eye view display processing in step S34 will be described with reference to FIG.
[0064]
In FIG. 4, first, the viewpoint control unit 12 sets the coordinates of the viewpoint in a three-dimensional space (step S41). For example, the coordinates of the own vehicle position in the three-dimensional space are (X, Y, Z), the planar relative position of the viewpoint with respect to the own vehicle position is (Dx, Dy), and the altitude of the viewpoint stored in the map data is H. In this case, the coordinates (Cx, Cy, Cz) of the viewpoint in the three-dimensional space are represented by the following equations.
[0065]
(Cx, Cy, Cz) = (X + Dx, Y + Dy, Z + H) (1)
Subsequently, a three-dimensional drawing process is executed by the drawing processing unit 19 (step S42). Specifically, first, the DL memory 19c stores the drawing command issued by the operation control unit 11, and the drawing control unit 19a sequentially extracts the drawing command from the DL memory 19c. Further, the drawing control unit 19a decomposes the extracted drawing command into primitive drawing commands and rendering parameters that can be interpreted by the rendering unit 19b, and converts the modeling coordinates given as parameters of the drawing command into drawing coordinates. Then, a rendering command is issued to the rendering unit 19b so as to reflect the attribute of the rendering command. The rendering unit 19b renders on the rendering memory 19d according to the rendering command and the rendering parameter issued by the rendering control unit 12a.
[0066]
Subsequently, the signal output unit 20 outputs the data drawn in the drawing memory 19d to the display unit 21 as an image signal (step S43), and the display unit 21 displays a three-dimensional image looking down from the viewpoint. (Step S44).
[0067]
In step S41, the altitude data of the viewpoint stored in the disk 13 may be used as relative altitude data proportional to the altitude of the viewpoint set by the user. It is assumed that the standard altitude of the viewpoint set by the user and the altitude of the viewpoint in the shield section are Umax and Umin, respectively, and the altitude of the viewpoint stored in the disk 13 takes a value from Hmin to Hmax. Assuming that the height of the viewpoint stored in the disk 13 at a certain vehicle position is H (Hmin ≦ H ≦ Hmax), the relative height U of the viewpoint from the vehicle is expressed by the following equation.
[0068]
U = Umin + (Umax−Umin) × (H−Hmin) ÷ (Hmax−Hmin) (2)
For example, when the user sets the height of the standard viewpoint to 7 m and the height of the viewpoint in the shielded section to 2 m, the height difference between the two is 5 m. When the height value of the viewpoint stored in the disk 13 is Hmin = 1m and Hmax = 11m, the height difference 10m between the two is proportional to the above-mentioned height difference 5m. That is, when the altitude of the viewpoint stored in the disk 13 is 9 m, the relative height of the viewpoint from the own vehicle is set to 6 m according to Expression (2).
[0069]
In this case, the coordinates (Cx, Cy, Cz) of the viewpoint are represented by the following equation, where the planar relative position of the viewpoint to the own vehicle position is (Dx, Dy).
[0070]
(Cx, Cy, Cz) = (X + Dx, Y + Dy, Z + Umin + (Umax−Umin) × (H−Hmin) ÷ (Hmax−Hmin) (3)
In Expressions (1) and (3), the planar relative position (Dx, Dy) of the viewpoint may be represented by a relative position based on the traveling direction of the vehicle.
[0071]
Next, the viewpoint lowering process in step S37 will be described with reference to FIGS.
[0072]
As shown in FIG. 5, as an example, a case in which a vehicle 53 moves from a point N1 to a point N7 on a route including a tunnel 52 provided in a mountain 51 and a viewpoint looking down on the vehicle 53 moves from a viewpoint 61 to a viewpoint 68. I will explain it.
[0073]
The viewpoint lowering process is to lower the viewpoint from the viewpoint 62 at the standard altitude Hc to the viewpoint 64 at the set altitude Hs in the shield (hereinafter referred to as inside the tunnel), and display a bird's-eye view according to the lowering of the viewpoint on the display unit 21. Refers to the process of displaying.
[0074]
In FIG. 6, first, the value of the standard altitude Hc is substituted for a variable H indicating the altitude of the viewpoint (step S71). The value of the standard altitude Hc is included in the node data of the point N2 in FIG.
[0075]
Next, the viewpoint controller 12 subtracts the amount of descent of the viewpoint △ d from the current viewpoint height H, and calculates a new viewpoint H (step S72). In FIG. 5, the viewpoint 63 is obtained by descending from the viewpoint 63 by Δd. Here, the viewpoint descending amount △ d is determined based on, for example, a preset viewpoint descending speed. Note that the descent speed of the viewpoint may be changed according to the speed of the vehicle 53, and the descent amount Δd may be changed according to the speed of the vehicle 53.
[0076]
Subsequently, the above-described bird's-eye view display processing is executed (step S73). Then, the viewpoint controller 12 determines whether or not the altitude H of the viewpoint coincides with the set altitude Hs in the tunnel (step S74).
[0077]
In step S74, if it is determined that the height H of the viewpoint matches the set height Hs in the tunnel, the viewpoint descent process ends, and if it is not determined that the height H of the viewpoint matches the set height Hs in the tunnel, It returns to step S72.
[0078]
Next, the viewpoint raising process in step S39 will be described with reference to FIGS. In FIG. 5, the viewpoint ascending process is a process of increasing the viewpoint from the viewpoint 66 at the set altitude Hs in the tunnel to the viewpoint 68 at the standard altitude Hc, and displaying a bird's-eye view according to the elevation of the viewpoint on the display unit 21. .
[0079]
In FIG. 7, first, the value of the set altitude Hs in the tunnel is substituted into a variable H indicating the altitude of the viewpoint (step S81). The set altitude Hs in the tunnel is included in the node data of the point N2, the point N3, the point N6, and the point N7 in FIG.
[0080]
Next, the viewpoint control unit 12 adds the amount of elevation of the viewpoint Δu to the current viewpoint height H, and calculates a new viewpoint H (step S82). In FIG. 5, the viewpoint 67 is obtained by raising the distance from the viewpoint 66 by Δu. Here, the viewpoint elevation amount Δu is determined based on, for example, a preset viewpoint elevation speed. It should be noted that the rising speed of the viewpoint may be changed according to the speed of the vehicle 53 so that the rising amount Δu changes according to the speed of the vehicle 53.
[0081]
Subsequently, the above-described bird's-eye view display processing is executed (step S83). Then, the viewpoint controller 12 determines whether or not the altitude H of the viewpoint matches the standard altitude Hc (step S84).
[0082]
In step S84, if it is determined that the height H of the viewpoint matches the standard height Hc, the viewpoint ascending process ends, and if it is not determined that the height H of the viewpoint matches the standard height Hc, the process returns to step S82.
[0083]
Note that the viewpoint control unit 12 is not limited to the one that controls only the height of the viewpoint as shown in FIGS. 6 and 7. For example, when the road ahead in which the vehicle travels is shielded by a building, the viewpoint may be moved in the horizontal direction so that the road ahead can be seen.
[0084]
When the viewpoint is moved, not only the movement by a straight line as in the movement from the viewpoint 62 to the viewpoint 64 shown in FIG. 5, but also, for example, the descent speed from the start of the descent of the viewpoint to the end of the descent of the viewpoint. You may make it change with a predetermined function.
[0085]
Further, when the shielding section is a short distance, for example, when the vehicle passes under the elevated road, the viewpoint control unit 12 may control the position of the viewpoint such that the viewpoint moves over the elevated road. Good.
[0086]
Further, the viewpoint control unit 12 may not only set the viewpoint in the sky above the rear part of the vehicle, but also set the viewpoint so as to look down on the vehicle from the sky in front of the vehicle. Also in this case, it is possible to configure such that the position of the viewpoint is changed in the shielding section.
[0087]
In addition, when the viewpoint control unit 12 changes the position of the viewpoint, it may be configured not to refer to the edge data. For example, distance calculating means for calculating the distance from the position of the vehicle or the viewpoint to the shielded section may be provided, and the viewpoint may be changed according to the distance calculated by the distance calculating means. Further, for example, a configuration may be adopted in which the position of the shielding section is defined by longitude and latitude, and is set independently of a link or a node.
[0088]
Next, a procedure for creating map data including height data of a viewpoint as an attribute of a road will be described.
[0089]
Roads on the map have attributes of nodes and edges. One node has one or more edge data. When one node has two pieces of edge data, it indicates that two roads having a difference in some attribute across the node are connected in series. When one node has three pieces of edge data, the node indicates an intersection of a three-way intersection.
[0090]
On the basis of the edge data representing the road, a map is created in which a block section is marked. This map may be created as electronic data, or may be created by marking a paper map with, for example, a color pen. When it is created as electronic data, both ends of the shield section are nodes. A case where a computer executes the procedure for creating map data based on the electronic data will be described with reference to the flowcharts of FIGS.
[0091]
In FIG. 8, first, a standard altitude of a viewpoint is set and recorded for all edge data of all nodes of a map to be created (step S91). For example, the standard altitude is set to 20 m, and this data is recorded as edge data. Next, the heights of the viewpoints in all the obstacle sections are set (step S92). This processing will be described later.
[0092]
Subsequently, an arbitrary node is selected, and the node number is set to 1 (step S93). Next, the discontinuity flag is set to zero (step S94). The discontinuity of the discontinuity flag means that the altitude data of the viewpoint included in the edge data differs before and after a certain node.
[0093]
Next, it is determined whether or not there is a node for which processing from step S96 to step S99 described below has not been processed (step S95). If it is determined that there is an unprocessed node, the node number is incremented by one (step S96), and the processing target node is moved to the next node. Then, it is determined whether or not the data of the set altitude of the viewpoint included in the edge data of the new node to be processed match before and after the node (step S97). For example, in the case of the node B shown in FIG. 2, the set altitude of the viewpoint before and after the node B is from 20 m to 5 m, and it is not determined that they match.
[0094]
If it is not determined in step S97 that the data of the set altitude of the viewpoint before and after the node match, the process proceeds to a viewpoint altitude change process described later (step S98), and the discontinuity flag is set to 1 (step S99). . On the other hand, if it is determined in step S97 that the data of the set altitude of the viewpoint before and after the node match, the process returns to step S95.
[0095]
If it is not determined in step S95 that there is an unprocessed node, it is determined whether or not the discontinuity flag is zero (step S100). If it is determined in step S100 that the discontinuity flag is zero, the process of retaining the height data of the viewpoint as the attribute of the road on the map ends, and if the discontinuity flag is not determined to be zero, the process proceeds to step S93. Return.
[0096]
Next, the shield section height setting processing in step S92 will be described with reference to FIG.
[0097]
In FIG. 9, first, a process of setting one end point of a shielded section as an entry node is executed (step S101). Further, a process of setting one end point of the shield section as an exit node is executed (step S102). The node setting processing will be described later.
[0098]
Subsequently, the height data of the viewpoint in the shield section is set as the edge data of the node (step S103). Next, it is determined whether or not there is a node in the shielding section (step S104). If it is determined in step S104 that there is a node in the occluded section, the altitude data of the viewpoint in the occluded section is set as the edge data of the corresponding node (step S105). On the other hand, if it is not determined in step S104 that there is a node in the occluded section, the occluder section altitude setting process ends.
[0099]
Next, the node setting process will be described with reference to FIG.
[0100]
In FIG. 10, first, it is determined whether or not the target node is an existing node (step S111). Here, if the target node is determined to be an existing node, the node setting process ends, and if the target node is not determined to be an existing node, a new node number is set (step S112). Next, the position coordinates of the new node are set (step S113). Further, edge data of a new node is set (step S114).
[0101]
Next, the viewpoint height changing process will be described with reference to FIG.
[0102]
In FIG. 11, first, a distance from a node which starts changing the height of the viewpoint to a position where the changing of the height of the viewpoint ends is calculated (step S121). This distance corresponds to, for example, the distance from the point N2 to the point N3 in FIG. 5, and includes a difference in the altitude data of the viewpoint recorded in the edge data of the node, a change amount of the altitude of the preset viewpoint, and a vehicle. Is calculated from the speed.
[0103]
Next, a new node is set at a position away from the node that starts changing the viewpoint altitude by the distance calculated in step S121, that is, at a position where the changing of the viewpoint altitude ends (step S122). For example, a node is set at a position corresponding to the point N3 in FIG.
[0104]
Further, the height data of the viewpoint is set to the edge data of the new node (step S123). For example, if the shield is a tunnel having a height of 7 m, 5 m is set as the height of the viewpoint. The height of the viewpoint in this shielded section may be set for each shielded section, or may be unified and set to one predetermined altitude. Note that information on the start and end of altitude change may be recorded at the start node and end node of the altitude change of the viewpoint, respectively.
[0105]
Subsequently, it is determined whether or not there is a node in the section where the height of the viewpoint changes (step S124). This section is, for example, a section from point N2 to point N3 in FIG. If it is determined in step S124 that there is a node in the section where the height of the viewpoint changes, the height data of the viewpoint of the corresponding node is set to a value corresponding to the change in viewpoint in the section. On the other hand, if it is not determined in step S124 that there is a node in the section where the height of the viewpoint changes, the viewpoint height changing process ends.
[0106]
Note that map data including the above-described viewpoint altitude data as road attributes is stored in a recording medium such as a magnetic disk, DVD-ROM, or CD-ROM, and is stored in a three-dimensional map display device, a navigation device, a simulation device, and a game device. Thus, even if there is a blocking object on the road in progress, the viewpoint can be continuously moved, and a continuous image with good visibility can be displayed.
[0107]
As described above, according to the navigation device 10 of the present embodiment, the disk 13 stores the map data including the altitude data of the viewpoint as the attribute of the road, and the viewpoint control unit 12 moves the vehicle at a predetermined distance from the vehicle. Since the position of the viewpoint set as the position is controlled with reference to the altitude data of the viewpoint included in the map data, the viewpoint can be continuously moved even when there is an obstruction, and the visibility is good. A continuous image can be displayed.
[0108]
【The invention's effect】
As described above, according to the present invention, a continuous image with good visibility can be displayed even when there is a blocking object that blocks a moving object from a viewpoint.
[Brief description of the drawings]
FIG. 1 is a block diagram of a navigation device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration example of map data.
FIG. 3 is a flowchart of each step of the navigation device according to the embodiment of the present invention;
FIG. 4 is a flowchart of a bird's-eye view display process.
FIG. 5 is a diagram showing an example of changing a viewpoint when a vehicle moves on a route including a tunnel.
FIG. 6 is a flowchart of viewpoint lowering processing;
FIG. 7 is a flowchart of viewpoint raising processing;
FIG. 8 is a flowchart showing an example of a procedure for creating map data.
FIG. 9 is a flowchart of a shield section altitude setting process;
FIG. 10 is a flowchart of a node setting process.
FIG. 11 is a flowchart of a viewpoint height changing process.
[Explanation of symbols]
10 Navigation device
11 Operation control unit
12 viewpoint control unit
12a Drawing control unit
13 disks
14 Disk reading unit
15 GPS receiver
16 Sensor section
17 Remote control
18 infrared receiver
19 Drawing processing unit
19a Drawing control unit
19b rendering unit
19c Download memory
19d Drawing memory
20 signal output section
21 Display
22 System bus
51 mountains
52 Tunnel
53 vehicle
61, 62, 63, 64, 66, 67, 68 viewpoints

Claims (13)

移動体が移動する移動路のデータを含む地図データを記憶する地図データ記憶部と、前記移動体から所定の距離離れた位置に視点を設定する視点設定部と、前記地図データを前記視点から見下ろした3次元の鳥瞰図データに変換する鳥瞰図変換部と、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更する視点変更部とを備えたことを特徴とする3次元視点設定装置。A map data storage unit that stores map data including data of a moving route on which a moving object moves, a viewpoint setting unit that sets a viewpoint at a position separated by a predetermined distance from the moving object, and looking down on the map data from the viewpoint. A bird's-eye view conversion unit that converts the data into three-dimensional bird's-eye view data, and a viewpoint change that continuously changes the viewpoint at a predetermined change amount according to a distance from a shield that blocks the moving object from the viewpoint to the moving object. A three-dimensional viewpoint setting device, comprising: 前記視点変更部は、前記移動体の前方の前記移動路が前記視点からの視界に入るよう前記視点を変更するようにしたことを特徴とする請求項1に記載の3次元視点設定装置。The three-dimensional viewpoint setting device according to claim 1, wherein the viewpoint changing unit changes the viewpoint so that the moving path ahead of the moving object enters a view from the viewpoint. 前記視点変更部は、前記移動体の速度に応じて前記視点の変更速度を変更するようにしたことを特徴とする請求項1または請求項2に記載の3次元視点設定装置。The three-dimensional viewpoint setting apparatus according to claim 1, wherein the viewpoint changing unit changes the viewpoint changing speed according to a speed of the moving object. 前記地図データは、移動路網のリンクのデータおよび前記遮蔽物が存在する遮蔽物存在リンクのデータを含むことを特徴とする請求項1から請求項3までのいずれかに記載の3次元視点設定装置。The three-dimensional viewpoint setting according to any one of claims 1 to 3, wherein the map data includes data of a link of a moving path network and data of a shield existing link where the obstacle exists. apparatus. 前記視点の高度を設定する視点高度設定部を備え、前記視点高度設定部は、前記遮蔽物存在リンクにおいて前記視点が上方および下方のいずれかの方向に移動するよう前記高度を設定するようにしたことを特徴とする請求項4に記載の3次元視点設定装置。A viewpoint height setting unit configured to set the height of the viewpoint, wherein the viewpoint height setting unit sets the height such that the viewpoint moves in any one of an upper direction and a lower direction in the shield existing link. The three-dimensional viewpoint setting device according to claim 4, wherein 前記視点の高度データを入力する視点高度入力部を備え、前記視点高度設定部は、前記高度データに基づいて前記視点の高度を設定するようにしたことを特徴とする請求項5に記載の3次元視点設定装置。6. The apparatus according to claim 5, further comprising: a viewpoint height input unit configured to input the viewpoint height data, wherein the viewpoint height setting unit sets the viewpoint height based on the height data. 7. Dimension viewpoint setting device. 請求項1から請求項6までのいずれかに記載の3次元視点設定装置を備えたことを特徴とする3次元地図表示装置。A three-dimensional map display device comprising the three-dimensional viewpoint setting device according to any one of claims 1 to 6. 請求項1から請求項6までのいずれかに記載の3次元視点設定装置を備えたことを特徴とするナビゲーション装置。A navigation device comprising the three-dimensional viewpoint setting device according to any one of claims 1 to 6. 請求項1から請求項6までのいずれかに記載の3次元視点設定装置を備えたことを特徴とするシミュレーション装置。A simulation apparatus comprising the three-dimensional viewpoint setting device according to any one of claims 1 to 6. 移動路を移動する移動体を所定の視点から見下ろすときの前記視点の高度データを前記移動路の属性データとして含む地図データを記憶したことを特徴とする記憶媒体。A storage medium storing map data including altitude data of the viewpoint when looking down on a moving body moving on a moving path from a predetermined viewpoint as attribute data of the moving path. 前記移動体を前記視点より遮蔽する遮蔽物の情報を前記移動路の属性データとして含む地図データを記憶したことを特徴とする請求項10に記載の記憶媒体。11. The storage medium according to claim 10, wherein map data including information on a blocking object that blocks the moving object from the viewpoint is stored as attribute data of the moving path. 移動体から所定の距離離れた位置に視点を設定し、前記移動体を前記視点より遮蔽する遮蔽物から前記移動体までの距離に応じて前記視点を所定の変化量で連続して変更することを特徴とする3次元視点設定方法。A viewpoint is set at a position separated by a predetermined distance from a moving body, and the viewpoint is continuously changed by a predetermined change amount according to a distance from a blocking object that blocks the moving body from the viewpoint to the moving body. A three-dimensional viewpoint setting method. 前記移動体が移動する移動路網のリンクのデータおよび前記遮蔽物が存在する遮蔽物存在リンクのデータを含む地図データを読み出し、前記遮蔽物存在リンクにおいて前記視点を上方および下方のいずれかの方向に移動することを特徴とする請求項12に記載の3次元視点設定方法。The map data including the data of the link of the movement path network on which the moving object moves and the data of the obstacle existing link where the obstacle exists is read, and the viewpoint is moved upward or downward in the obstacle existing link. The three-dimensional viewpoint setting method according to claim 12, wherein the moving is performed.
JP2003156700A 2003-06-02 2003-06-02 Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method Pending JP2004361112A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003156700A JP2004361112A (en) 2003-06-02 2003-06-02 Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003156700A JP2004361112A (en) 2003-06-02 2003-06-02 Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method

Publications (1)

Publication Number Publication Date
JP2004361112A true JP2004361112A (en) 2004-12-24

Family

ID=34050698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003156700A Pending JP2004361112A (en) 2003-06-02 2003-06-02 Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method

Country Status (1)

Country Link
JP (1) JP2004361112A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024761A (en) * 2005-07-20 2007-02-01 Denso Corp Display control device and display control method
JP2008129093A (en) * 2006-11-17 2008-06-05 Hcx:Kk Map display device
JP2010128951A (en) * 2008-11-28 2010-06-10 Fujitsu Ltd Image processing apparatus, image processing method and computer program
JP2012242292A (en) * 2011-05-20 2012-12-10 Alpine Electronics Inc Navigation device, control method, and program
KR20130066869A (en) * 2011-12-13 2013-06-21 팅크웨어(주) Method and apparatus for changing display mode in tunnel block
JP2016142682A (en) * 2015-02-04 2016-08-08 アイシン・エィ・ダブリュ株式会社 Navigation system, navigation method, and navigation program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024761A (en) * 2005-07-20 2007-02-01 Denso Corp Display control device and display control method
JP4572766B2 (en) * 2005-07-20 2010-11-04 株式会社デンソー Display control apparatus and display control method
JP2008129093A (en) * 2006-11-17 2008-06-05 Hcx:Kk Map display device
JP2010128951A (en) * 2008-11-28 2010-06-10 Fujitsu Ltd Image processing apparatus, image processing method and computer program
US8319618B2 (en) 2008-11-28 2012-11-27 Fujitsu Limited Image processing apparatus, image processing method, and recording medium
JP2012242292A (en) * 2011-05-20 2012-12-10 Alpine Electronics Inc Navigation device, control method, and program
KR20130066869A (en) * 2011-12-13 2013-06-21 팅크웨어(주) Method and apparatus for changing display mode in tunnel block
JP2016142682A (en) * 2015-02-04 2016-08-08 アイシン・エィ・ダブリュ株式会社 Navigation system, navigation method, and navigation program

Similar Documents

Publication Publication Date Title
JP4577327B2 (en) Map display control device and program for map display control device
KR102100051B1 (en) A 3d lidar system using a dichroic mirror for autonomous driving vehicles
KR100520708B1 (en) Method for displaying three dimensional map
JP5808369B2 (en) Overhead image generation device, overhead image generation method, and overhead image generation program
JP4123187B2 (en) Animation generating apparatus, animation generating method, and animation generating program
EP3224574A1 (en) Street-level guidance via route path
WO2014017200A1 (en) Information processing device and program
CN115600481A (en) Autonomous path generation with path optimization
JPWO2007142084A1 (en) Navigation device
JP2022129175A (en) Vehicle evaluation method and vehicle evaluation device
JP5959479B2 (en) 3D map display system
JP2004361112A (en) Three-dimensional viewpoint setting device and three-dimensional viewpoint setting method
JP6300949B2 (en) Display control device
JPWO2011121788A1 (en) Navigation device, information display device, navigation method, navigation program, and recording medium
JP2003195744A (en) Map display device
JP2000276609A (en) Navigation system
JP5438172B2 (en) Information display device, information display method, information display program, and recording medium
JP2001209301A (en) Device and method for navigating and recording medium stored with navigation software
KR102681608B1 (en) Method and system for identifying and tracking an object in space and generating digital twin contents including a corresponding object with regard to the space
JP2007170824A (en) Vehicle-mounted map display device
JP7400356B2 (en) Superimposed image display device and computer program
JP2008129840A (en) Merging support device and merging support method
JP2021181914A (en) Map display system and map display program
JP2021181915A (en) Map display system and map display program
JP2007172016A (en) Map display device mounted inside vehicle