JP3551184B2 - Guidance system, map data server device, map data display terminal device - Google Patents

Guidance system, map data server device, map data display terminal device Download PDF

Info

Publication number
JP3551184B2
JP3551184B2 JP2002196660A JP2002196660A JP3551184B2 JP 3551184 B2 JP3551184 B2 JP 3551184B2 JP 2002196660 A JP2002196660 A JP 2002196660A JP 2002196660 A JP2002196660 A JP 2002196660A JP 3551184 B2 JP3551184 B2 JP 3551184B2
Authority
JP
Japan
Prior art keywords
map data
data
map
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002196660A
Other languages
Japanese (ja)
Other versions
JP2003132375A (en
Inventor
岩村  一昭
武洋 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002196660A priority Critical patent/JP3551184B2/en
Publication of JP2003132375A publication Critical patent/JP2003132375A/en
Application granted granted Critical
Publication of JP3551184B2 publication Critical patent/JP3551184B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は平面的な地図データと立体的な景観データを用いて、通常時は観光案内,道案内を行い、災害時には避難誘導を行うシステムに関し、特にユーザによるシステムの操作性を向上させる方法に関する。
【0002】
【従来の技術】
ベクトル地図から景観を表示すること、また地図上で経路検索を行い経路付近の風景を写した写真などのマルチメディア情報を表示するシステムについては、機能図形情報シンポジウム講演論文集「グラフィック・イメージメディアの高度利用に向けて」(1990年 第49項から第54項)および情報処理学会研究資料 グラフィックスとCAD 49−3(1991年 第1項から第8項)において示されている。また景観データの仮想現実表現におけるグラフィックイメージの表示、インタフェースおよびシステムについては、自動制御連合講演会資料(1990年 第11項から第14項)および情報処理学会研究資料 グラフィックスとCAD 49−8(1991年 第1項から第8項)において提示されている。
【0003】
【発明が解決しようとする課題】
しかしながら上記従来技術においては、平面的な地図から立体的な景観への変換および表示が主な目的であり、両者の特徴すなわち平面地図では図形間のトポロジカルな配置関係の見やすさ、立体地図では感覚的なわかりやすさを1つのシステムの上で実現する方式については示されていない。また仮想現実システムにおいては、グラフィック表示された仮想世界の中の対象の動き、ヘッドマウント型センサデバイスやグローブ型センサデバイスを使ったユーザによる対象への接触方法およびその反応の表示については報告されているが、景観によって表現された仮想世界の中に新しい空間を生成し、その中に別の世界をウインドウを使って付加的な属性を表示する方法については示されていない。
【0004】
本発明の目的は地図データを使ってビジュアルに景観を作成していくものであり、ユーザの視点を移動させることによって平面,立体両方のメディアに違和感なく移り利用でき、ユーザの理解しやすいメディアを選択できる方法と、景観の中に長方形、あるいは直方体のウインドウを表示してその中に文書,図形,画像を表示するためのユーザフレンドリなシステムと方法を提供することにある。またこのシステムを仮想現実システムとしても利用可能とし、キーボードやマウスのような従来のデバイスを使わないユーザにとって使い勝手の良いビジュアルなインタフェースを提供する。
【0005】
【課題を解決するための手段】
上記課題を解決するために、視点が上方から下方へ向いている場合には、平面地図で表示し、視点が水平方向へ移るに従って地図から3次元の景観イメージを生成表示するようにした。
【0006】
より具体的な一実施形態として、景観の中の属性の表示については、指示カーソルを表示し、その指示カーソルの向きからその方向にある建物のような地物を地図データの中を検索するというポインティング方式と、3次元ウインドウを計算し、景観の中の地物との干渉チェックを行ってウインドウを優先的に表示してその中に図形や画像のようなメディアを表示するようにして、景観と違和感のない表示を行えるようにした。さらにウインドウに表示する属性を持つ対象は別の地物によってかくされていることもあるため、これを地図データから検索して隠蔽している対象の表示をソリッド表示からワイヤフレーム表示に切り換えることによって対象を強調表示する。さらにワイヤフレーム表示の対象については干渉チェックを行わず通りぬけ可能とし、ソリッド表示の対象については干渉チェックを行い通りぬけができないようにしてユーザがより現実に近い感覚でシステムを利用できるようにした。
【0007】
視点の移動で平面地図と立体地図の間を滑らかに移動することができるため、両者いずれの場合でも注視点を見失なうことがない。またユーザの理解しやすいメディアで表示でき印刷出力が容易になる。
3次元ウインドウによって地物に付加された属性が景観と違和感なく表示される。また地物を選択するために複雑な動作を必要としない。
さらにワイヤフレーム表示とソリッド表示の形態の違いによって干渉チェック実行をスイッチするために通過可否の判定も容易であり、景観を表示中にシーンが切り替わることによって感じる違和感を感じないようにすることが可能である。
【0008】
【発明の実施の形態】
地図データを使った従来の案内システムは、図2(a)に示すように、グラフィックディスプレイに地図を表示し、自分の現在地と中継地および目的地を入力することによって、現在地から中継地を経て目的地へ向かう経路を検索し、図2(b)のように地図上に表示して経路を示したり、検索した経路を地図と重ねて印刷出力することが主な目的であった。また図2(c)に示すように、計算して求めた経路あるいは設定した経路に沿って、周辺にある建物のような地物データに付加された文書や写真画像のようなマルチメディア情報をウインドウなどの表示手段によってユーザに提示していた。しかしこのようなシステムにおいては、地図データは背景として表示するだけであったため、地図だけでは現実の自分の位置に対する確認が困難であり、また経路を示す場合においても、実際どのような経路を通っていくのか現実と対応が取りにくいという欠点があった。また従来の地図案内システムは、単機能であり、観光案内や道案内など限られた場合しか利用できなかった。そのため多くの目的のために使用することはできなかった。本実施例においては、前者の問題点においては、地図を3次元に復元して行う方法、後者の問題点については、通常時は道案内システム、災害が発生したような非常時における避難誘導への機能利用という多目的使用について説明する。
【0009】
図3は多目的ビジュアル案内システムを実現するためのシステム構成を示す。コンピュータ301は、ユーザに対するインタフェース装置であり、ここに地図データが表示される。地図データは座標列による多角形形状の図形によって表現されるベクトルデータである。ユーザはキーボード302やマウス303のような入力デバイスを使って地図・地理属性検索のためのキーワードを入力し地図や景観のスクロールを行い、さらにディスプレイ309に表示した地図データや景観データを指定し、プリンタ304を用いて出力する。地図データサーバ305は、コンピュータ301によって入力された座標や名称のキーを使ってディスプレイ309に表示する地図データや地図データとリンクされている地物データ(属性データ)を検索してネットワーク308を介してコンピュータ301に転送する。地図データサーバ305にない地図データは、LAN(ローカルエリアネットワーク)のようなネットワーク307を介して他の地図データサーバにアクセスし、必要とする地図データを検索する。さらに地図データサーバ305は、地図データを使った経路検索,属性検索や避難誘導のようなシミュレーションを行う。CG・コンピューティングサーバ306は、地図を立体的かつ陰影をつけて表示するために必要な光線追跡や、複数の物体の干渉チェック,隠蔽面消去などコンピュータグラフィックス(CG)固有の処理を行い景観を作成する。このとき景観はソリッド表示するものとする。
【0010】
図4は、通常のディスプレイを用いるのではなく、ビジュアルな案内をユーザが仮想的に体験できるように構成したシステム図である。このような仮想体験システムにおいてはユーザ412があたかもコンピュータグラフィックスの作り出す世界の中にいるかのように感じることができる。両眼視ディスプレイ401は右目,左目用のサブディスプレイより構成されるヘッドマウント型ディスプレイであり、さらに磁気センサなどを使って頭の動きも検出する。サラウンドヘッドホン402は聴覚デバイスであり、エコー機能を持たせるとドップラー効果なども表現できる。またグローブ型指示デバイス403は、指と手首の動きを検出する。地図データサーバ408,CG・コンピューティングサーバ409は、図3における305,306と同じ機能を持っている。両眼視ディスプレイ401から得られた頭の動きの信号とグローブ型指示デバイス403で得られた指,手首の動きの信号は、両眼視ディスプレイコントローラ404とポインティングデバイスコントローラ406を介して、モーションアナライザ407に送られる。モーションアナイライザ407の中では簡単な背景のデータ(素背景データ)と、ユーザの動きを反映するデータ(ユーザモーションデータ)が構築されており、モーションアナライザ407に入ってくる信号をユーザモーションデータに反映してその動きを生成する。このデータはCG・コンピューティングサーバ409に送られ、よりリアルな背景データ、ユーザモーションデータが必要ならば音声データが生成され、両眼視ディスプレイコントローラ404,サラウンドヘッドホンコントローラ405に送られ、ユーザ412の装着した両眼視ディスプレイ401に表示され、サラウンドヘッドホン402において音が発せられる。尚、411はネットワークである。
【0011】
図3に示すシステムを使って2次元の平面地図と3次元の立体地図の間の違和感のない変換方法を説明する。図5は地図表示の流れのイメージを表す。図5(a)のように、ユーザの視点が地図に対して水平方向にあるとする。このときは景観表示である。そしてユーザの視点を上方から下方を見るように指示カーソル501を操作して視点を移動する。このとき景観は図5(b)に示すように、地物の側面が狭くなったイメージになる。さらに視点を移動すると景観が図5(c)に示すように地図におきかわる。この表示形態の変換は景観と地図がほとんど重なる状態で行われるためユーザが目標物を見失うことはない。
【0012】
平面地図と立体地図である景観との変換のアルゴリズムを図6及び図7に示す。このアルゴリズムを図1に示す図3のシステムの機能詳細を用いて説明する。ユーザによって地図検索のためのキー(自分の位置など)がコンピュータ301から入力され(図6のステップ601)キー入力判定・コード化部101によって地図データサーバ305が地図データを検索するためのコードデータ(緯度・経度など)に変換して、地図データサーバ305に転送され、地図データ検索部105においてコードデータに対応する地図が検索される(ステップ602)。この地図データはベクトルデータであり、図8に示すような形式を持つ。この形式は2タイプによる表現が可能であり、タイプフラグの1ビットで識別される。タイプ1はそれぞれの点に高さの情報(Z座標)が付加されており、タイプ2では(X,Y)座標の列によって決まる多角形図形全体に一様にZ座標が付加されることを意味する。複雑な形状の建物などに対してはタイプ1の形式が適し、ビルのような直方体や等高線に対してはタイプ2の形式が適している。このとき視点が水平方向を見るものであれば(ステップ603)、検索された地図データ、又はシミュレーション計算部107(後述)にてシミュレーション計算が施された地図データをデータ転送部108によってCG・コンピューティングサーバ306に転送し、景観データ作成部111にてコンピュータグラフィックスによる景観データを作成する(ステップ604)。視点の方向によって表示の手段を選択する機能はメディア選択部109である。このとき、視点の方向については、最初はデフォルトの方向を設定しておき、その方向に沿った3次元イメージを表示する。景観データ作成部111は、この景観データを作成するために陰面消去,光線追跡によるシェーディングを行う。作成した景観データまたは地図データはコンピュータ301に転送しデータ表示部104にて表示制御する(ステップ605)。尚、CG・コンピューティングサーバ306もデータ転送部114を持っている。また、景観データはデータ表示部104にて視点の位置と方向によって決まる2次元の平面に投影してディスプレイ309に表示する。
【0013】
次にこの景観データをスクロールするために視点または視方向を変更する(ステップ606)。視点位置とその方向は指示カーソル用キー入力判定部102又はスクロールキー入力判定部103によってコード化される。スクロールの方法としては、2通りある。1つは景観のスクロールと、もう一つは平面地図のスクロールである。今地図を景観で見ているとき、視点を水平方向に見るように変更するとする(ステップ607)。このとき視方向と鉛直線が作る角度θが、指定範囲内|θ|≦θthになったところで(図7のステップ608)、メディア選択部109にて地図データを用いて表示すべきと判定して地図データを転送しデータ表示部104にて表示制御する(ステップ609)。このときθthは必ずしも0とする必要はない。|θ|≠0のとき地図データは台形補正して表示することによって、人間の視野にあるイメージにあわせることも可能である。次に垂直方向から水平方向に景観を見るように変更するとする。このとき視点の指定範囲内|θ|>Θthになったところで(ステップ610)、メディア選択部109にて景観データを用いて表示すべきと判定し、景観データ作成部111によって地図データを景観データに変換する(ステップ611,614)。こうして得られたデータを用いて視点変更に伴う視野変更スクロールを実行する(ステップ612)。尚、データ表示方法判定部110,干渉チェック部112,ウインドウ生成部113の機能は後述する。
【0014】
これによって平面地図と立体地図の間の移行が違和感なく行われる。もし水平方向の視点による景観表示と垂直方向の視点による地図の間で急激に表示を変更すると、自分の現在地や目標を見失うことがあるが、本方式によってこのような不具合は回避される。また、印刷出力する場合でも、ユーザの好みにあった出力が可能である。
【0015】
次に表示データを使った案内の方法について示す。案内における重要な内容の1つは地物の詳細情報の検索表示である。案内の仕方には2通りある1つはユーザが主体的に行う方法であり、もう1つはシステムが自律的に行う方法である。まずユーザが景観を見ながら行う方法ついて説明する。すなわち立体的に表示された情景を見ながらスクロールおよび詳細情報の検索表示を行う。スクロールは、以下に示す7個のキーを入力することによって実施される。
【0016】
1.前進移動、2.後進移動、3.上へ移動、4.下へ移動、5.θ(オイラー角)、6.ψ(オイラー角)、7.φ(オイラー角)
詳細情報を持つ地物を指定するために、図5(a)に示すような指示カーソル501を表示する。このとき検索の方向が分かりやすいような形状にしておくことが必要である。スクロールをしながらこの指示カーソルによって地物を指定してその詳細情報である属性を検索する。属性検索表示アルゴリズムを図9及び図10に示す。
【0017】
まず指示カーソルの向きを地物を選ぶように設定する(ステップ801)。次に指示カーソルの方向と一致する地物を検索する。コンピュータグラフィックスにおけるZバッファ法によって求めることができるが、景観表示のための基礎データである地図データによって検出することも可能でありその方法について示す。指示カーソルの向きに対して指示カーソルの位置901から図11の902に示すような検索ラインを設定する(ステップ802)。そして検索ラインを始点901から小部分ごとに刻みながら(ステップ804)線分と交差する地物データを検索する。このとき図12に示すように地物のワイヤフレームデータ1001(図5の図形データを意味する)、面データ1002,属性データ1003に分けて管理するデータ構造を持っていると検索は容易になる。
【0018】
まずワイヤフレームデータの中の(X,Y)座標を使って検索ライン902との交差をチェックする。そして交差した地物データの面データをリンク1004をたどって検索する。このリンクをたどる動作は、ワイヤフレームデータ1001と面データ1002に共通なIDデータを探すことに対応する(図12参照)。そして高さを付加した検索ラインと面との交差をチェックする(ステップ805)。もし交差する点があれば(ステップ806)その点の座標(X,Y,Z)値を求めて指示棒のさきからその交差点まで線パターンをディスプレイの中に描画してその地物が選択されたことを示す(ステップ807)。これは平面の4個の座標と線分の2個の座標が分かっているため容易に求めることができる。図11では交差の候補として地物データ903,904がチェックの対象となる。選択された地物は色を変えたりハイライト表示をするなど強調表示をすることによって選択されたことを示しておく(ステップ808)。以後このような地物のポインティングの方法をビームショットポインティングと呼ぶことにする。このようなポインティング手法は特に仮想現実システムにおいて有効となる。これはインタフェースとしてキーボードやマウスのようなデバイスを持たず、手首や指の動きに合わせて指示カーソルを動かすことになるからである。
【0019】
ビームショットポインティングによって検索された地物データは、その他の地物データによってかなりの部分が見えなくなっている可能性が十分にある。そのため隠蔽の原因となっている地物をソリッド表示からワイヤフレーム表示に変える。このワイヤフレーム表示の対象となる地物データの選択も地図データを用いることによって行うことができる。この方法を図13を用いて示す。いま図11で地物データ904が検索されたとする。
【0020】
まず指示カーソルの位置1101と検索された地物1102を構成する特徴点からカーソルの位置1101まで線分を引き、その最も外側にある2本の線分1103,1104によって囲まれる領域にある図形を検索し(ステップ809)、その地物の面データを消去しワイヤフレームだけ残して表示する(ステップ810)。図13では地物1105,1106がこれに対応するためワイヤフレーム表示に変更される。このようなデータ表示を高速に行うためには、ワイヤフレームデータ1001と面1002のデータについて異なる表示属性を付けて表示しておけば面データのみを消去することによって実現できる。これによってビームショットで検索された地物データが見やすくなる。これはデータ表示方法判別部110によって実施される。
【0021】
次に地物データに付加された属性データを検索することによってそれをディスプレイに表示する。属性データの検索手順を示す。まずビームショットポインティングによって検索された地物データについてリンク1005をたどり属性データ1003を検索して(ステップ811)ディスプレイに表示する。この表示方法は、2通りが可能である。1つは長方形による平面のウインドウを表示する方法であり、もう一つは直方体による立体的なウインドウを表示する方法である。このようなウインドウは表示されている世界の中に表示する。2次元の長方形のウインドウは文書データ,2次元の図形データ,画像データを表示するために用いる。3次元の直方体のウインドウは3次元の図形を表示するときに用いる。ウインドウは、選ばれた対象が完全に隠れないように表示する。この領域をどのように計算するかを示す。今ポイントされた地物データの(X,Y,Z)を透視変換式に通すことによって表示上の(X,Y)座標に変換する。この(X,Y)データからこの地物に対する外接四角形を計算する。そしてこの外接四角形の各辺を通るように水平垂直の線分を考え表示領域を分割する。もし外接四角形の辺が表示領域の境界に重なっていなければ最大表示画面は9分割される。一辺が重なっていれば6分割,2辺が重なっていれば4分割,3辺の場合は2分割になる。分割して得られる領域の中でどの領域にウインドウを表示するかを次のステップによって決める。
【0022】
step1:まず8個の領域の大きさとウインドウの大きさを比較し、そのなカのいずれかに属性表示ウインドウが収まる場合には、その中の一個の領域を選択する。
step2:左上から順番に今注目しているウインドウに対して1×2の領域の大きさを比較し、その中のいずれかに属性ウインドウが収まる場合には、その中で最大となる1個の領域を選択する。
step3:左上から順番に今注目しているウインドウに対して2×1の領域の大きさを比較し、その中のいずれかに属性ウインドウが収まる場合には、その中で最大となる1個の領域を選択する。
step4:左上から順番に今注目しているウインドウに対して2×2の領域の大きさを比較し、その中のいずれかに属性ウインドウが収まる場合には、その中で最大となる1個の領域を選択する。
step5:左上から順番に今注目しているウインドウに対して2×3の領域の大きさを比較し、その中のいずれかに属性ウインドウが収まる場合には、その中で最大となる1個の領域を選択する。
step6:左上から順番に今注目しているウインドウに対して3×2の領域の大きさを比較し、その中のいずれかに属性ウインドウが収まる場合には、その中で最大となる1個の領域を選択する。
これによって属性を表示する最大の領域が検索される(ステップ812)。
【0023】
3次元のウインドウについても同じように計算するが、透視変換を用いて得られるウインドウ形状の外接四角形について計算する。この3次元のウインドウの中は、優先的にアクセスできるようにすることができる。これは属性データ1003に背景となっているからなる景観データ(ワイヤフレームデータ1001や面データ1002)よりもアクセス優先権を示すフラグをデータに設けることによって対応できる。3次元のウインドウを表示するときは背景と干渉チェックを行うことによってウインドウの方を優先的に表示する。これは図1の干渉チェック部112およびウインドウ表示部113によって実施される。図4に示すシステムを使用すれば、ユーザの頭,手首や指の動きの信号と指示カーソルの動きを連動させることができるため、手の動きにあわせて表示画面の中の指示カーソルを移動させることができる。そして3次元ウインドウの中にある図形にアクセスができる。このようにしてウインドウを表示したあとその中に属性データを表示する(ステップ813)。実際に案内を行っているイメージを図14に示す。図14(a)では指示カーソル1201からのビームショットポインティングによる線パターン1202によって建物1203が指定されている。図14(b)では建物1203の表示属性が変更され、さらにそれを隠蔽している建物1204,1205がワイヤフレームに表示されている。また属性情報として3次元の図形情報(ここでは建物1203のなかにあるモニュメントを表示している)が3次元ウィンドウ1207の中に表示されている。ここでは複数のウインドウを1個の表示画面の中にまとめて表示することも可能である。このときは上のstep1からstep6までを2回続け、一回選択した領域は二回目は対象としないようにすることによって実現できる。
【0024】
景観データをスクロールすると、自分の視点と情景を変えることができるだけでなく、ソリッド表示時に干渉チェックを行うことによってそのデータを突き抜けることができないようにしたりすることも可能である。もちろんどのようなソリッド表示している地物に対しても、干渉チェックを行わずに常に突き抜けることもできるが、突き抜けた後自分がどこにいるのかわからなくなることがある。このためもし突き抜けたいと考えた地物については、それを前に表示したビームショットポインティングによって検索し、その表示データのワイヤフレームデータだけ表示したまま残して面データを消去する。こうしてワイヤフレーム管理されているデータはその中を通ることができるが、ソリッド表示されているデータは干渉チェックによってその面以上に進むことができなくなる。これによってより現実的で扱いやすいシステムになる。具体的には、干渉チェックは面データ902に対してだけ実行する。
【0025】
次にシステムが自律的に案内をする方法について説明する。この時は自分の位置と目的地および中継地を指定する。そして道路地図データを用いて経路の検索を行う。これはダイクストラ法,ヒープ法,Aスター法などを用いることによって求めることができる。経路を求めたとき、その経路と交差する別の道に指示カーソルの形状を発生させることを示すタグデータを付加しておく。そして景観表示の範囲内にタグの位置を含むときに指示カーソルと同じ形状を表示する。この指示カーソルはポインティングされるまで動くことはできない。そして実際の指示カーソルは最初に求めた経路に沿って移動し、属性情報が付加された地物に近づいたときはビームショットポインティングでその地物を選択し、属性を検索して表示する。ポインティングするときのタイミングは、自位置すなわち実際に可働する指示カーソルの位置を(X,Y)とすると、その位置から指定の距離の内側にある座標を図形の特徴点として持つ地物データを選択する。
【0026】
これは次のようにして行われる。地物データの特徴点の座標(Xi,Yi)が一つでも
【0027】
【数1】

Figure 0003551184
【0028】
を満たすときはその地物が選ばれたものと考え干渉チェックを行い、現在の指示カーソルの位置(X,Y)から交差点の座標(X,Y)に向かって線パターンを発生させる。そして図9及び図10に示すアルゴリズムに従って属性情報を表示する。次に指示カーソルの形状が現れてきたときには、その指示カーソルデータをビームショットポインティングすると、今までの動いていた指示カーソルを消去し、新しく選択した指示カーソル図形を新しく指示カーソルとして使う。そしてこの指示カーソルを使って自律的な処理による案内を再会する。このとき選択した指示カーソルから新しい目的地および通過していない経過地に対して再び経路検索を行う。最初に検索した経路が選ばれないようにするため、直前において求めた経路に対して指示カーソルデータから折れ曲がりまで延びている部分線分に対応する道路は存在しないように道路データをブロックしておいて経路の再計算を行う。こうして直前に求めた同じ経路が選ばれないようにできる。このとき新しい経過地を入れることも可能である。このような自律的な動作による案内のイメージを図15に示す。図15(a)では指示カーソル1301によるビームショットポインティングで地物データ1302が選択され、その属性情報1303がウインドウに表示されている。図15(b)は、指示カーソル1301によるビームショットポインティングで別の指示カーソル図形1304が検索されたことを示す。図15(c)は、新しい指示カーソルを選ぶことによる案内経路の変更を示す。
【0029】
このようなビジュアル案内システムはデパートや旅行会社,交番などに置くことによって利用することができる。特に交番に設置することによって、人の説明では理解するのが難しい道案内などの業務をわかりやすく行うことができる。
【0030】
さらにこのようなシステムは、他の目的への使用が可能である。例えば通常時は道案内に使用するが地震,火災などの災害による非常時には避難誘導システムとして利用することが可能である。この利用は以下の方式で行う。
【0031】
まず現在このシステムを設置している場所から避難場所に対して経路の検索を行う。そして図1のシミュレーション計算部107において災害シミュレーションを行う。災害シミュレーションとしては火災延焼,浸水,地震シミュレーションが現在可能である。災害シミュレーションの初期値はネットワークを通じて入ってくる災害計測データを用いる。この初期値は時々刻々リアルタイムで入ってくるが、シミュレーションの中には時間がかかるものもあるため、初期値データは一回のシミュレーションが終了するたび補正する。ここで重要なことは、シミュレーションや避難有道路の表示を人々にわかりやすい方式で行うことである。まず災害地域を示すため、景観の中の災害が起こっている方向にある地物の色をかえる。この色は目立ちやすい色で統一する。実際避難中の人は色を識別するだけの余裕はないと考えられる。従って、人は色の違いによって災害の大きさ,方向を知る余裕はないと考えられる。実際の避難誘導路表示のイメージを図16に示す。矢印1401は避難の方向を示す。地物データ1402,1403は災害の方向にあるため強調表示されている。
【0032】
このように以上示したビジュアル案内システムは通常時と非常時というように目的を変えて機能を使用することが可能であり、さらにユーザフレンドリなインタフェースを持っているため、人は年齢層に関係なくシステムを扱うことができる。
【0033】
【発明の効果】
本発明に示すシステムによれば、平面的な地図データと立体的な景観データの間を自由に行き来することができるため、ユーザが理解しやすいメディアでシステムを利用し結果を出力することが可能である。また2次元および3次元ウインドウによりユーザにとってわかりやすい違和感のない形態で属性が表示できる。また属性データを表示するときに、属性データとリンクしている地物データが極力かくれないようにするため、両者は同時に見やすくなっている。さらに強調表示する地物データをかくしている別の地物データをワイヤフレーム表示に切り換えるため、強調表示がさらに有効になる。また通り抜けたい地物をワイヤフレーム表示することによって、目標を見失うことなく景観の中を移動できる。さらにシステム主導による自律的な動作による案内を行っていてもユーザが対話的に介入して案内経路が変更できるため使い易さが向上する。さらにこのシステムは通常時は観光案内,交番における道案内業務,災害が起きたような非常時には避難誘導路表示システムとして機能が使えるため、多目的システムとして利用できる
【図面の簡単な説明】
【図1】本発明のビジュアル案内システムの機能図である。
【図2】従来の案内システムの使用例を示す図である。
【図3】ビジュアル案内システムの装置構成図である。
【図4】システムユーザが仮想的に景観の中に入って案内を体験できる仮想体験システムの装置構成図である。
【図5】地図データと景観データの間の移行を始点の変更によって違和感なく行うことを示す図である。
【図6】平面地図と立体地図の間の移行を違和感なく行うためのアルゴリズムである。
【図7】平面地図と立体地図の間の移行を違和感なく行うためのアルゴリズムである。
【図8】地図データの構成図である。
【図9】景観の中に地物データに付加された属性情報を表示するためのアルゴリズムである。
【図10】景観の中に地物データに付加された属性情報を表示するためのアルゴリズムである。
【図11】ビームショットポインティングによる地物データの検索方式を示すための説明図である。
【図12】景観および属性データの管理方式図である。
【図13】検索した地物データを隠蔽する別の地物データを検索する方式を示すための説明図である。
【図14】属性情報の表示を具体的な画面イメージで示した図である。
【図15】システムが自律的な動作によって案内を行うことを具体的な画面イメージで示した図である。
【図16】ビジュアル案内システムを災害時の避難誘導にも使ったときの画面イメージである。
【符号の説明】
101…キー入力・コード化部、102…指示カーソル用キー入力判定部、103…スクロールキー入力判定部、104…データ表示部、105…地図データ検索部、106…地理データ検索部、107…シミュレーション計算部、108…データ転送部、109…メディア選択部、110…データ表示方法判定部、111…景観データ作成部、112…干渉チェック部、113…ウインドウ生成部、114…データ転送部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a system that provides sightseeing guidance and road guidance during normal times and guides evacuation during disasters using two-dimensional map data and three-dimensional landscape data, and more particularly to a method for improving the operability of the system by a user. .
[0002]
[Prior art]
For systems that display landscapes from vector maps and that search for routes on a map and display multimedia information such as photographs of landscapes near the routes, see the Functional Graphics Information Symposium Proceedings, “Graphic Image Media. Towards Advanced Use ”(1990, Paragraphs 49 to 54) and Information Processing Society of Japan, Graphics and CAD 49-3 (1991, Paragraphs 1 to 8). Also, regarding the display, interface and system of graphic images in the virtual reality representation of landscape data, see the automated control federation lecture materials (1990, paragraphs 11 to 14) and IPSJ research materials Graphics and CAD 49-8 ( 1991 (paragraphs 1 to 8).
[0003]
[Problems to be solved by the invention]
However, in the above prior art, the main purpose is to convert and display a two-dimensional map into a three-dimensional landscape, and the characteristics of both are easy to see the topological arrangement relationship between figures in the two-dimensional map, and not easy to see in the three-dimensional map. It does not disclose a method of realizing a simple clarity on one system. In the virtual reality system, the movement of the object in the graphically displayed virtual world, the method of contacting the object by the user using the head mounted sensor device or the glove type sensor device, and the display of the reaction are reported. However, it does not show how to create a new space in a virtual world represented by landscapes and display additional attributes in the other world using windows.
[0004]
An object of the present invention is to create a landscape visually using map data. By moving the user's viewpoint, the user can easily use the media for both flat and three-dimensional media, and use media that is easy for the user to understand. It is an object of the present invention to provide a selectable method and a user-friendly system and method for displaying a rectangular or rectangular window in a landscape and displaying documents, figures, and images therein. This system can also be used as a virtual reality system, providing a user-friendly visual interface for users who do not use conventional devices such as a keyboard and a mouse.
[0005]
[Means for Solving the Problems]
In order to solve the above-described problem, when the viewpoint is directed downward from above, it is displayed on a planar map, and a three-dimensional landscape image is generated and displayed from the map as the viewpoint moves in the horizontal direction.
[0006]
As a more specific embodiment, for displaying attributes in the landscape, an indication cursor is displayed, and a feature such as a building in the direction of the indication cursor is searched in the map data. The pointing method and the three-dimensional window are calculated, the interference with the features in the landscape is checked, the window is displayed preferentially, and media such as figures and images are displayed in the window. Display without discomfort. Furthermore, since objects with attributes to be displayed in the window may be hidden by another feature, by searching this from map data and switching the display of the hidden object from solid display to wireframe display, Highlight the target. In addition, the target of wireframe display can be passed without performing interference check, and the target of solid display is checked for interference and cannot be passed, so that the user can use the system with a more realistic feeling. .
[0007]
Since the viewpoint can be smoothly moved between the two-dimensional map and the three-dimensional map by moving the viewpoint, the gazing point is not lost in both cases. In addition, the image can be displayed on a medium that is easy for the user to understand, and the printout can be easily performed.
The attribute added to the feature by the three-dimensional window is displayed without discomfort with the landscape. Also, no complicated operation is required to select a feature.
In addition, it is easy to judge whether or not to pass because it switches the execution of interference check depending on the difference between the form of wire frame display and solid display, and it is possible to avoid the discomfort felt by switching scenes while displaying the landscape It is.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
A conventional guidance system using map data displays a map on a graphic display as shown in FIG. 2 (a), and inputs a current location, a relay point, and a destination. The main purpose is to search for a route to a destination and display the route on a map as shown in FIG. 2B to indicate the route, or to print out the searched route over the map. Also, as shown in FIG. 2C, along with the calculated route or the set route, multimedia information such as a document or a photographic image added to feature data such as a building in the vicinity is transferred. It has been presented to the user by a display means such as a window. However, in such a system, since the map data is only displayed as a background, it is difficult to confirm the actual position using the map alone. However, there was a drawback that it was difficult to respond to the reality. Further, the conventional map guidance system has a single function and can be used only in limited cases such as sightseeing guidance and road guidance. Therefore, it could not be used for many purposes. In the present embodiment, in the former problem, a method of restoring a map to three dimensions is used. In the latter problem, a route guidance system is usually used, and evacuation guidance is provided in an emergency such as when a disaster occurs. The multi-purpose use of using the function will be described.
[0009]
FIG. 3 shows a system configuration for realizing the multipurpose visual guidance system. The computer 301 is an interface device for the user, on which map data is displayed. The map data is vector data represented by a polygonal figure based on a coordinate sequence. The user inputs a keyword for a map / geographic attribute search using an input device such as a keyboard 302 or a mouse 303, scrolls the map or landscape, and further specifies the map data or landscape data displayed on the display 309, Output using the printer 304. The map data server 305 searches for map data to be displayed on the display 309 and feature data (attribute data) linked to the map data using the keys of the coordinates and names input by the computer 301, and via the network 308. To the computer 301. Map data that is not in the map data server 305 accesses another map data server via a network 307 such as a LAN (local area network) to search for necessary map data. Further, the map data server 305 performs simulations such as route search, attribute search, and evacuation guidance using map data. The CG / computing server 306 performs processing unique to computer graphics (CG) such as ray tracing required to display a map three-dimensionally and with shading, checking for interference between a plurality of objects, and eliminating hidden surfaces. Create At this time, the landscape is displayed as a solid.
[0010]
FIG. 4 is a system diagram configured so that a user can virtually experience visual guidance instead of using a normal display. In such a virtual experience system, the user 412 can feel as if in a world created by computer graphics. The binocular display 401 is a head-mounted display composed of sub-displays for the right and left eyes, and further detects the movement of the head using a magnetic sensor or the like. The surround headphone 402 is a hearing device, and if it has an echo function, it can express the Doppler effect and the like. The glove-type pointing device 403 detects movement of a finger and a wrist. The map data server 408 and the CG / computing server 409 have the same functions as 305 and 306 in FIG. The signal of the head movement obtained from the binocular display 401 and the signal of the finger / wrist movement obtained by the glove type pointing device 403 are supplied to the motion analyzer via the binocular display controller 404 and the pointing device controller 406. 407. Simple background data (plain background data) and data reflecting user motion (user motion data) are constructed in the motion analyzer 407, and a signal input to the motion analyzer 407 is converted into user motion data. Generate the movement to reflect it. This data is sent to the CG / computing server 409, where more realistic background data and audio data are generated if user motion data is required, sent to the binocular display controller 404, the surround headphone controller 405, and the user 412 The sound is displayed on the attached binocular display 401 and sound is emitted from the surround headphones 402. 411 is a network.
[0011]
Using the system shown in FIG. 3, a description will be given of a conversion method without a sense of incongruity between a two-dimensional planar map and a three-dimensional stereo map. FIG. 5 shows an image of the flow of the map display. It is assumed that the user's viewpoint is in the horizontal direction with respect to the map as shown in FIG. At this time, it is a landscape display. Then, the user moves the viewpoint by operating the instruction cursor 501 so that the user's viewpoint is viewed from above to below. At this time, the landscape becomes an image in which the side surface of the feature is narrowed, as shown in FIG. When the viewpoint is further moved, the landscape is changed to a map as shown in FIG. Since the conversion of the display form is performed in a state where the landscape and the map almost overlap, the user does not lose sight of the target.
[0012]
FIGS. 6 and 7 show an algorithm for converting between a planar map and a landscape which is a three-dimensional map. This algorithm will be described with reference to the functional details of the system shown in FIG. 3 shown in FIG. A key (such as a user's own position) for a map search is input by the user from the computer 301 (step 601 in FIG. 6), and code data for the map data server 305 to search the map data by the key input determination / coding unit 101. (For example, latitude / longitude), the data is transferred to the map data server 305, and the map corresponding to the code data is searched by the map data search unit 105 (step 602). This map data is vector data and has a format as shown in FIG. This format can be expressed by two types, and is identified by one bit of a type flag. In type 1, height information (Z coordinate) is added to each point. In type 2, Z coordinates are uniformly added to the entire polygonal figure determined by the (X, Y) coordinate column. means. The type 1 type is suitable for a building having a complicated shape, and the type 2 type is suitable for a rectangular parallelepiped or a contour such as a building. At this time, if the viewpoint is viewed in the horizontal direction (step 603), the searched data or the map data subjected to the simulation calculation by the simulation calculation unit 107 (described later) is transferred to the CG / computer by the data transfer unit 108. The scenery data is transferred to the server 306, and the scenery data creation unit 111 creates scenery data by computer graphics (step 604). The function of selecting the display means depending on the direction of the viewpoint is the media selection unit 109. At this time, a default direction is initially set for the direction of the viewpoint, and a three-dimensional image along the direction is displayed. The landscape data creation unit 111 performs shading by hidden surface elimination and ray tracing to create the landscape data. The created scenery data or map data is transferred to the computer 301 and the display is controlled by the data display unit 104 (step 605). Note that the CG / computing server 306 also has the data transfer unit 114. The landscape data is projected on a two-dimensional plane determined by the position and direction of the viewpoint on the data display unit 104 and displayed on the display 309.
[0013]
Next, the viewpoint or the viewing direction is changed to scroll the landscape data (step 606). The viewpoint position and its direction are coded by the pointing cursor key input determination unit 102 or the scroll key input determination unit 103. There are two scrolling methods. One is the scrolling of the landscape and the other is the scrolling of the planar map. When the map is viewed in a landscape, the viewpoint is changed to be viewed in the horizontal direction (step 607). At this time, when the angle θ formed by the viewing direction and the vertical line is within the specified range | θ | ≦ θth (step 608 in FIG. 7), the media selection unit 109 determines that display should be performed using map data. Then, the map data is transferred and the display is controlled by the data display unit 104 (step 609). At this time, θth need not always be 0. When | θ | ≠ 0, the map data can be trapezoidally corrected and displayed, so that the map data can be adjusted to the image in the human visual field. Next, it is assumed that the landscape is changed from the vertical direction to the horizontal direction. At this time, when | θ |> Θth within the specified range of the viewpoint (step 610), the media selection unit 109 determines that the display should be performed using the landscape data, and the landscape data creation unit 111 converts the map data into the landscape data. (Steps 611 and 614). Using the data obtained in this way, a view change scroll accompanying a change in the viewpoint is executed (step 612). The functions of the data display method determination unit 110, the interference check unit 112, and the window generation unit 113 will be described later.
[0014]
Thereby, the transition between the two-dimensional map and the three-dimensional map is performed without any discomfort. If the display is suddenly changed between a landscape view from a horizontal viewpoint and a map from a vertical viewpoint, the user may lose his or her current location or target, but this method avoids such a problem. Further, even in the case of printing out, it is possible to perform the output according to the user's preference.
[0015]
Next, a guide method using display data will be described. One of the important contents in the guidance is a search display of detailed information of a feature. There are two types of guidance methods, one is a method that is independently performed by the user, and the other is a method that is automatically performed by the system. First, a method that the user performs while viewing the landscape will be described. That is, scrolling and search and display of detailed information are performed while looking at a three-dimensionally displayed scene. Scrolling is performed by inputting the following seven keys.
[0016]
1. Forward movement, 2. 2. Reverse movement; Move up, 4. Move down, 5. θ (Eulerian angle), 6. ψ (Eulerian angle), 7. φ (Euler angle)
In order to specify a feature having detailed information, an instruction cursor 501 as shown in FIG. 5A is displayed. At this time, it is necessary to make the shape such that the search direction is easy to understand. While scrolling, a feature is specified by the pointing cursor, and an attribute, which is detailed information, is searched. The attribute search display algorithm is shown in FIGS.
[0017]
First, the direction of the pointing cursor is set to select a feature (step 801). Next, a feature that matches the direction of the pointing cursor is searched. It can be obtained by the Z-buffer method in computer graphics, but it is also possible to detect it by map data which is basic data for landscape display. A search line as shown by 902 in FIG. 11 is set from the position 901 of the pointing cursor to the direction of the pointing cursor (step 802). The search line is searched for feature data that intersects with the line segment while cutting the search line from the start point 901 in small portions (step 804). At this time, as shown in FIG. 12, if the data structure is such that the feature is divided into wireframe data 1001 (meaning the graphic data in FIG. 5), surface data 1002, and attribute data 1003, the search becomes easy. .
[0018]
First, the intersection with the search line 902 is checked using the (X, Y) coordinates in the wire frame data. Then, the surface data of the intersecting feature data is searched for by following the link 1004. The operation of following the link corresponds to searching for ID data common to the wire frame data 1001 and the surface data 1002 (see FIG. 12). Then, the intersection between the search line to which the height is added and the plane is checked (step 805). If there is an intersecting point (step 806), the coordinate (X, Y, Z) value of the point is determined, a line pattern is drawn on the display from the point of the pointing bar to the intersection, and the feature is selected. (Step 807). This can be easily obtained because the four coordinates of the plane and the two coordinates of the line segment are known. In FIG. 11, feature data 903 and 904 are to be checked as intersection candidates. The selected feature is indicated by highlighting such as changing its color or highlighting to indicate that it has been selected (step 808). Hereinafter, such a feature pointing method will be referred to as beam shot pointing. Such a pointing method is particularly effective in a virtual reality system. This is because the pointing cursor is moved in accordance with the movement of the wrist or finger without having a keyboard or a device such as a mouse as an interface.
[0019]
The feature data searched by the beam shot pointing has a possibility that a considerable portion may be invisible due to other feature data. Therefore, the feature causing the concealment is changed from the solid display to the wire frame display. Selection of the feature data to be displayed in the wire frame can also be performed by using the map data. This method will be described with reference to FIG. Now, it is assumed that the feature data 904 is searched in FIG.
[0020]
First, a line segment is drawn from a position 1101 of the pointing cursor and a feature point constituting the searched feature 1102 to a position 1101 of the cursor, and a figure in an area surrounded by two outermost line segments 1103 and 1104 is drawn. A search is performed (step 809), and the surface data of the feature is erased and displayed while leaving only the wire frame (step 810). In FIG. 13, the features 1105 and 1106 are changed to the wire frame display to correspond to this. Such high-speed data display can be realized by erasing only the surface data if the wire frame data 1001 and the data of the surface 1002 are displayed with different display attributes. This makes it easier to see the feature data searched by the beam shot. This is performed by the data display method determination unit 110.
[0021]
Next, the attribute data added to the feature data is searched to be displayed on a display. The procedure for searching attribute data will be described. First, the attribute data 1003 is searched by following the link 1005 for the feature data searched by the beam shot pointing (step 811) and displayed on the display. There are two possible display methods. One is a method of displaying a plane window of a rectangle, and the other is a method of displaying a three-dimensional window of a rectangular parallelepiped. Such a window is displayed in the displayed world. The two-dimensional rectangular window is used to display document data, two-dimensional graphic data, and image data. The three-dimensional rectangular parallelepiped window is used when displaying a three-dimensional figure. The window is displayed so that the selected object is not completely hidden. Here is how to calculate this area. The (X, Y, Z) of the pointed feature data is converted into (X, Y) coordinates on the display by passing through the perspective transformation formula. A circumscribed rectangle for this feature is calculated from the (X, Y) data. Then, the display area is divided considering horizontal and vertical line segments so as to pass through each side of the circumscribed rectangle. If the sides of the circumscribed rectangle do not overlap the boundaries of the display area, the maximum display screen is divided into nine. If one side is overlapped, it is divided into six, if two sides are overlapped, it is divided into four, and if it is three, it is divided into two. The next step is to determine in which area the window is to be displayed in the divided areas.
[0022]
Step 1: First, the size of the eight regions is compared with the size of the window, and if the attribute display window fits in one of the regions, one of the regions is selected.
step2: The size of the 1 × 2 region is compared with the window of interest in order from the upper left, and if the attribute window fits in any of the windows, the largest one of the windows is selected. Select an area.
step3: The size of the 2 × 1 region is compared with the window of interest in order from the upper left, and if the attribute window fits in any of the windows, one of the largest windows is selected. Select an area.
step4: The size of the 2 × 2 area is compared with the window of interest in order from the upper left, and if the attribute window fits into any of the windows, one of the largest windows is selected. Select an area.
Step 5: The size of the 2 × 3 region is compared with the window of interest in order from the upper left, and if the attribute window fits in any of the windows, one of the largest windows is selected. Select an area.
Step 6: The size of the 3 × 2 region is compared with the window of interest in order from the upper left, and if the attribute window fits in any of the windows, one of the largest windows is selected. Select an area.
As a result, the largest area for displaying the attribute is searched (step 812).
[0023]
The same calculation is performed for a three-dimensional window. However, the calculation is performed for a circumscribed rectangle of a window shape obtained by using a perspective transformation. In this three-dimensional window, access can be made preferentially. This can be dealt with by providing, in the attribute data 1003, a flag indicating access priority over landscape data (wireframe data 1001 or surface data 1002) consisting of background data. When displaying a three-dimensional window, the window is preferentially displayed by performing an interference check with the background. This is performed by the interference check unit 112 and the window display unit 113 in FIG. If the system shown in FIG. 4 is used, the signal of the movement of the user's head, wrist or finger can be linked with the movement of the pointing cursor, so that the pointing cursor in the display screen is moved in accordance with the movement of the hand. be able to. And you can access the graphics in the 3D window. After the window is displayed in this way, the attribute data is displayed therein (step 813). FIG. 14 shows an image of the actual guidance. In FIG. 14A, a building 1203 is designated by a line pattern 1202 by beam shot pointing from an instruction cursor 1201. In FIG. 14B, the display attribute of the building 1203 has been changed, and the buildings 1204 and 1205 that conceal it have been displayed in the wire frame. Also, three-dimensional graphic information (here, a monument in the building 1203 is displayed) is displayed in the three-dimensional window 1207 as attribute information. Here, a plurality of windows can be collectively displayed on one display screen. At this time, it can be realized by continuing the above steps 1 to 6 twice and not selecting the region selected once for the second time.
[0024]
By scrolling the landscape data, it is possible not only to change the viewpoint and the scene of the user, but also to perform an interference check at the time of displaying the solid so that the data cannot be penetrated. Of course, you can always penetrate any solid feature without performing an interference check, but after piercing, you may not know where you are. For this reason, a feature that the user wants to penetrate is searched by the previously displayed beam shot pointing, and the plane data is erased while leaving only the wireframe data of the display data displayed. In this way, the data managed in the wire frame can pass through it, but the data displayed as a solid cannot go beyond that plane due to the interference check. This results in a more realistic and manageable system. Specifically, the interference check is performed only on the surface data 902.
[0025]
Next, a method in which the system autonomously guides will be described. At this time, the user specifies his / her position, destination, and stopover point. Then, a route search is performed using the road map data. This can be obtained by using the Dijkstra method, the heap method, the A-star method, or the like. When the route is obtained, tag data indicating that the shape of the pointing cursor is to be generated on another road intersecting the route is added. Then, when the position of the tag is included in the range of the landscape display, the same shape as the instruction cursor is displayed. The pointing cursor cannot move until it is pointed. Then, the actual pointing cursor moves along the route obtained first, and when approaching the feature to which the attribute information is added, the feature is selected by beam shot pointing, and the attribute is searched and displayed. When the pointing is performed, assuming that the own position, that is, the position of the actually enabled pointing cursor is (X, Y), the feature data having coordinates within a specified distance from the position as the feature points of the figure is used. select.
[0026]
This is performed as follows. Even if there is only one coordinate (Xi, Yi) of the feature point of the feature data
[0027]
(Equation 1)
Figure 0003551184
[0028]
If satisfies the condition, it is considered that the feature is selected, and an interference check is performed, and a line pattern is generated from the current position (X, Y) of the pointing cursor toward the coordinates (X, Y) of the intersection. Then, the attribute information is displayed according to the algorithm shown in FIGS. Next, when the shape of the pointing cursor appears, the pointing cursor data is beam shot-pointed to erase the moving pointing cursor so far, and the newly selected pointing cursor graphic is used as a new pointing cursor. Then, the guidance by the autonomous processing is reunited using the instruction cursor. At this time, the route search is performed again from the selected instruction cursor to a new destination and a progress point that has not passed. In order to prevent the first searched route from being selected, the road data is blocked so that there is no road corresponding to a partial line segment extending from the instruction cursor data to the bend for the route obtained immediately before. And recalculate the route. Thus, the same route obtained immediately before can be prevented from being selected. At this time, it is also possible to enter a new transition point. FIG. 15 shows an image of guidance by such an autonomous operation. In FIG. 15A, feature data 1302 is selected by beam shot pointing using the instruction cursor 1301, and its attribute information 1303 is displayed in the window. FIG. 15B shows that another pointing cursor graphic 1304 has been searched by beam shot pointing using the pointing cursor 1301. FIG. 15C shows the change of the guide route by selecting a new instruction cursor.
[0029]
Such a visual guidance system can be used by placing it in department stores, travel agencies, police boxes, and the like. In particular, by setting up a police box, it is possible to easily perform tasks such as route guidance that is difficult to understand with human explanation.
[0030]
Further, such a system can be used for other purposes. For example, it is used for guidance during normal times, but can be used as an evacuation guidance system in an emergency due to a disaster such as an earthquake or fire. This use is performed in the following manner.
[0031]
First, search for a route from the place where this system is currently installed to the evacuation place. Then, a disaster simulation is performed in the simulation calculation unit 107 in FIG. Fire simulation, flooding, and earthquake simulation are currently available as disaster simulations. The initial value of the disaster simulation uses disaster measurement data that enters through the network. The initial value is input in real time every moment, but since some simulations take time, the initial value data is corrected each time one simulation is completed. What is important here is that the simulation and the display of the road with evacuation are performed in a manner that is easy for people to understand. First, the color of the feature in the landscape in the direction of the disaster is changed to indicate the disaster area. This color should be unified with a conspicuous color. In fact, people in evacuation may not have the time to identify the colors. Therefore, it is considered that a person cannot afford to know the magnitude and direction of the disaster due to the difference in color. FIG. 16 shows an image of an actual evacuation guideway display. Arrow 1401 indicates the direction of evacuation. The feature data 1402 and 1403 are highlighted because they are in the direction of disaster.
[0032]
As described above, the visual guidance system shown above can be used for different purposes, such as normal and emergency, and has a user-friendly interface. Can handle the system.
[0033]
【The invention's effect】
According to the system shown in the present invention, since the user can freely move between the two-dimensional map data and the three-dimensional landscape data, it is possible to output the result using the system using a medium that is easy for the user to understand. It is. The two-dimensional and three-dimensional windows allow attributes to be displayed in a form that is easy for the user to understand and does not cause a sense of discomfort. In addition, when displaying the attribute data, the feature data linked to the attribute data can be easily viewed at the same time so that the feature data is not hidden. Further, since another feature data that hides the feature data to be highlighted is switched to the wire frame display, the highlight display is more effective. In addition, by displaying a feature to be passed through in a wire frame, it is possible to move in the landscape without losing a target. Further, even when guidance is provided by an autonomous operation led by the system, the user can interactively intervene and change the guidance route, thereby improving the usability. In addition, this system can be used as a multi-purpose system because it can be used as a tourist guide, police guidance service at normal times, and an evacuation guideway display system in an emergency such as when a disaster occurs.
[Brief description of the drawings]
FIG. 1 is a functional diagram of a visual guidance system according to the present invention.
FIG. 2 is a diagram showing an example of use of a conventional guidance system.
FIG. 3 is an apparatus configuration diagram of a visual guidance system.
FIG. 4 is an apparatus configuration diagram of a virtual experience system in which a system user can virtually enter a landscape and experience guidance.
FIG. 5 is a diagram showing that a transition between map data and landscape data is performed without change by changing a start point.
FIG. 6 is an algorithm for performing a transition between a planar map and a three-dimensional map without discomfort.
FIG. 7 is an algorithm for performing a transition between a planar map and a three-dimensional map without discomfort.
FIG. 8 is a configuration diagram of map data.
FIG. 9 is an algorithm for displaying attribute information added to feature data in a landscape.
FIG. 10 is an algorithm for displaying attribute information added to feature data in a landscape.
FIG. 11 is an explanatory diagram showing a search method for feature data by beam shot pointing.
FIG. 12 is a diagram showing a management system for landscape and attribute data.
FIG. 13 is an explanatory diagram showing a method of searching for another feature data that hides the searched feature data.
FIG. 14 is a diagram showing display of attribute information in a specific screen image.
FIG. 15 is a diagram showing a specific screen image indicating that the system performs guidance by an autonomous operation.
FIG. 16 is a screen image when the visual guidance system is also used for evacuation guidance in a disaster.
[Explanation of symbols]
101: Key input / coding unit, 102: Key input determination unit for pointing cursor, 103: Scroll key input determination unit, 104: Data display unit, 105: Map data search unit, 106: Geographic data search unit, 107: Simulation Calculation unit, 108: data transfer unit, 109: media selection unit, 110: data display method determination unit, 111: landscape data creation unit, 112: interference check unit, 113: window generation unit, 114: data transfer unit.

Claims (7)

地図データを記録する地図データ記録部と、データ表示部およびディスプレイを備えた端末と接続される地図データサーバであって、該地図データサーバは、
上記端末からネットワークを介して送られてきた現在の位置と目的地を含む検索キーが入力され、前記地図データ記録部の地図データに基づき前記現在の位置から前記目的地までの経路の検索を行う経路検索部と、
前記地図データ記録部の地図データに基づき、前記現在の位置と前記目的地を含む地図データを検索する地図データ検索部と、
前記地図データ検索部によって検索された地図データと、前記検索された地図データに基づいて前記端末のディスプレイに表示される地図上で前記経路検索部によって検索された経路を表示して案内する情報を前記現在の位置と目的地を含む検索キーを送ってきた端末に送信し、上記データ表示部により上記ディスプレイに表示させるデータ転送部とを有することを特徴とする地図データサーバ。
A map data recording unit that records map data, a map data server connected to a terminal including a data display unit and a display, the map data server,
Search key containing the current position and the destination that has been sent over the network from the terminal is input, to search for the route to the destination from the current position based on the map data of the map data recording unit A route search unit,
A map data search unit that searches for map data including the current position and the destination based on the map data of the map data recording unit;
The map data retrieved by the map data retrieval unit and information for displaying and guiding the route retrieved by the route retrieval unit on a map displayed on the display of the terminal based on the retrieved map data. the map data server, wherein the sending to the terminal that sent the search key including the current position and the destination, and a data transfer unit which Ru is displayed on the display by the data display unit.
前記地図データはベクトルデータであることを特徴とする請求項1記載の地図データサーバ。The map data server according to claim 1, wherein the map data is vector data. 前記地図データ記録部はネットワークを介してアクセスされる地図データを記録する地図データ記録部であることを特徴とする請求項1又は2記載の地図データサーバ。3. The map data server according to claim 1, wherein the map data recording unit is a map data recording unit that records map data accessed via a network. ビル等の地物データを含む地図データを記録する地図データ記録部と、前記地物の属性データを記録する地物の属性データ記録部と、データ表示部およびディスプレイを備えた端末と接続される地図データサーバであって、該地図データサーバは、
上記端末からネットワークを介して送られてきた現在の位置と目的地を含む検索キーが入力され、前記地図データ記録部の地図データに基づき前記現在の位置から前記目的地までの経路を検索する経路検索部と、
前記地図データ記録部の地図データに基づき前記現在の位置と目的地を含む地図データを検索する地図データ検索部と、
前記地図データ記録部の地図データに基づき前記端末のディスプレイに表示された地物のうちの指定された地物がネットワークを介して入力され、前記属性データ記録部から前記指定された地物の属性データを検索する属性データ検索部と、
前記検索された地物を含む地図と、前記検索された地図上に前記現在の位置から前記目的地までの経路を表示して前記経路の案内を行う情報と、前記検索された属性データを表示させる情報を前記現在の位置と目的地を含む検索キーを送ってきた端末に送信し、上記データ表示部により上記ディスプレイに表示させるデータ転送部とを有することを特徴とする地図データサーバ。
A map data recording unit that records map data including feature data such as buildings, a feature data recording unit that records feature data of the feature, and a terminal that includes a data display unit and a display. A map data server, the map data server comprising:
Route search key containing the current position and the destination that has been sent over the network from the terminal is input, searches the route from the current position based on the map data of the map data recording unit to the destination Search section,
A map data search unit that searches for map data including the current position and the destination based on the map data of the map data recording unit;
A specified feature among the features displayed on the display of the terminal is input via a network based on the map data of the map data recording unit, and the attribute of the specified feature is input from the attribute data recording unit. An attribute data search unit for searching data;
A map including the searched feature, information indicating a route from the current position to the destination on the searched map and guiding the route, and displaying the searched attribute data are displayed. A map data server, comprising: a data transfer unit that transmits information to be transmitted to a terminal that has transmitted a search key including the current position and the destination, and causes the data display unit to display the information on the display .
前記地図データはベクトルデータであることを特徴とする請求項4記載の地図データサーバ。The map data server according to claim 4, wherein the map data is vector data. 地図データを記憶する記録部と、前記記録部に記憶された地図データに基づき地図や経路等の検索を行う検索制御手段と、前記検索制御手段によって得られた地図や経路等をディスプレイを備えた端末に送信するデータ転送部を備える地図データサーバで実行される地図データ転送方法であって、
前記端末からネットワークを介して送られてきた現在の位置と目的地を含む検索キーが入力され、
前記地図データ記録部の地図データに基づき前記現在の位置から前記目的地までの経路の検索を行い、
前記地図データ記録部の地図データに基づき前記現在の位置と前記目的地を含む地図データの検索を行い、
前記検索された地図データと、前記検索された地図データに基づいて前記端末のディスプレイに表示される地図上で前記現在の位置から前記目的地までの経路を表示して案内する情報を前記データ転送部を介して前記現在の位置と目的地を含む検索キーを送ってきた端末に送信することを特徴とする地図データ転送方法。
A recording unit that stores the map data, a search control unit that searches for a map or a route based on the map data stored in the storage unit, and a display that displays the map or the route obtained by the search control unit. A map data transfer method executed by a map data server having a data transfer unit for transmitting to a terminal,
A search key including the current location and destination sent from the terminal via the network is input,
Performing a search for a route from the current position to the destination based on the map data of the map data recording unit;
Searching the map data including the current position and the destination based on the map data of the map data recording unit,
And the map data the search, the information to guide displaying a route to the destination from the current position on the map displayed on the display of the terminal based on the retrieved map data, the data A map data transfer method, wherein the search key including the current position and the destination is transmitted to a terminal that has transmitted the data via a transfer unit.
ディスプレイを備えた端末と、該端末にネットワークを介して接続された地図データサーバを有する情報システムであって、
上記地図データサーバは、地図データを記録する地図データ記録部と、上記端末から送られてきた現在の位置と目的地を含む検索キーが入力され、前記地図データ記録部の地図データに基づき前記現在の位置から前記目的地までの経路の検索を行う経路検索部と、上記地図データ記録部の地図データに基づき、前記現在の位置と前記目的地を含む地図データを検索する地図データ検索部と、上記地図データ検索部によって検索された地図データと、前記検索された地図データに基づいて上記端末のディスプレイに表示される地図上で前記経路検索部によって検索された経路を表示して案内する情報を、上記現在の位置と目的地を含む検索キーを送ってきた端末に送信するデータ転送部とを有し、
上記端末は、上記地図データと案内する情報に基づいて、上記ディスプレイに地図と経路を自位置とともに表示することを特徴とする情報システム。
An information system having a terminal with a display and a map data server connected to the terminal via a network,
The map data server is provided with a map data recording unit for recording map data, and a search key including a current position and a destination sent from the terminal. A route search unit that searches for a route from the position to the destination, and a map data search unit that searches for map data including the current position and the destination based on the map data in the map data recording unit. The map data searched by the map data search unit and information for displaying and guiding the route searched by the route search unit on a map displayed on the display of the terminal based on the searched map data. A data transfer unit for transmitting the search key including the current position and the destination to the terminal that has transmitted the search key,
The information system according to claim 1, wherein the terminal displays a map and a route together with its own location on the display based on the map data and information to be guided.
JP2002196660A 2002-07-05 2002-07-05 Guidance system, map data server device, map data display terminal device Expired - Lifetime JP3551184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002196660A JP3551184B2 (en) 2002-07-05 2002-07-05 Guidance system, map data server device, map data display terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002196660A JP3551184B2 (en) 2002-07-05 2002-07-05 Guidance system, map data server device, map data display terminal device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29877791A Division JP3376593B2 (en) 1991-11-14 1991-11-14 Map data display device

Publications (2)

Publication Number Publication Date
JP2003132375A JP2003132375A (en) 2003-05-09
JP3551184B2 true JP3551184B2 (en) 2004-08-04

Family

ID=19195611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002196660A Expired - Lifetime JP3551184B2 (en) 2002-07-05 2002-07-05 Guidance system, map data server device, map data display terminal device

Country Status (1)

Country Link
JP (1) JP3551184B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2600383A1 (en) * 2005-03-09 2006-09-14 Tomtom International B.V. Apparatus for and method of compiling a combined picture and showing it on a display
KR102362117B1 (en) * 2014-07-01 2022-02-11 삼성전자주식회사 Electroninc device for providing map information
JP6203346B1 (en) * 2016-08-16 2017-09-27 株式会社コロプラ Method, program, and recording medium for providing virtual space
JP2019185363A (en) * 2018-04-09 2019-10-24 Necパーソナルコンピュータ株式会社 Display control device, display control method, and program
CN117521233B (en) * 2024-01-08 2024-03-15 中建交通建设集团有限公司 Building engineering digital template library with low graphic performance requirement and building method

Also Published As

Publication number Publication date
JP2003132375A (en) 2003-05-09

Similar Documents

Publication Publication Date Title
US5602564A (en) Graphic data processing system
JP3376593B2 (en) Map data display device
Bane et al. Interactive tools for virtual x-ray vision in mobile augmented reality
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
Güven et al. Authoring 3D hypermedia for wearable augmented and virtual reality
Fairbairn et al. The use of VRML for cartographic presentation
JP2005149409A (en) Image reproduction method and apparatus
JP2014527667A (en) Generation and rendering based on map feature saliency
CN109584374A (en) The method, apparatus and computer readable storage medium of interactive navigation auxiliary are provided for using removable leader label
Chen et al. Urbanrama: Navigating cities in virtual reality
KR20150064057A (en) three dimensional map display system
Ayyanchira et al. Toward cross-platform immersive visualization for indoor navigation and collaboration with augmented reality
JP3551184B2 (en) Guidance system, map data server device, map data display terminal device
Plumlee et al. Integrating multiple 3d views through frame-of-reference interaction
JP3460719B2 (en) Map data display device and map data display method
JP3551185B2 (en) Map data display device and map data display method
Stoev et al. Two-handed through-the-lens-techniques for navigation in virtual environments
JP3460720B2 (en) Map data display device and map data display method
JPH0784746A (en) Information display device and method thereof by three-dimensional icon
JP3460718B2 (en) Map data display device and map data display method
JP2021519481A (en) Media content planning system
JP3496677B2 (en) Map data display device
WO2021131941A1 (en) Information processing device, information processing system, and information processing method
JP2003202802A (en) Map data display device and map data display method
JP3413145B2 (en) Virtual space editing method and virtual space editing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040412

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080514

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080514

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8