JP2015224982A - 経路案内装置、経路案内方法、および経路案内プログラム - Google Patents

経路案内装置、経路案内方法、および経路案内プログラム Download PDF

Info

Publication number
JP2015224982A
JP2015224982A JP2014110321A JP2014110321A JP2015224982A JP 2015224982 A JP2015224982 A JP 2015224982A JP 2014110321 A JP2014110321 A JP 2014110321A JP 2014110321 A JP2014110321 A JP 2014110321A JP 2015224982 A JP2015224982 A JP 2015224982A
Authority
JP
Japan
Prior art keywords
augmented reality
displayed
reality image
route
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014110321A
Other languages
English (en)
Inventor
古川 至
Itaru Furukawa
至 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2014110321A priority Critical patent/JP2015224982A/ja
Priority to PCT/JP2015/062083 priority patent/WO2015182290A1/ja
Publication of JP2015224982A publication Critical patent/JP2015224982A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Emergency Lowering Means (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】風景映像中に表示されるエアタグが示す事物・事象の地理上の位置と現在位置との位置関係を容易に把握することのできる経路案内装置を実現する。
【解決手段】携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路探索手段140によって得られた避難経路を示す地図を表示する地図表示手段150と、避難経路の案内に供される情報としてのエアタグ(第1の拡張現実画像)を風景映像に重ねて表示するエアタグ表示手段180と、映像表示領域に表示されているエアタグと地図上の位置のうちの当該エアタグに対応付けられる位置とを結ぶリンク線を表示するリンク線表示手段181とが設けられる。
【選択図】図4

Description

本発明は、端末装置(典型的には携帯電話などの携帯端末装置)のユーザーに目的地(例えば地震などの災害が発生した際の避難所)までの経路の情報を提供する経路案内装置、経路案内方法、および経路案内プログラムに関する。
携帯電話などの携帯端末装置の高機能化・高解像度化により、近年、地図を利用するアプリケーションソフトウェアが多く開発されている。そのようなアプリケーションソフトウェアの1つとして、携帯端末装置の利用者(以下、「ユーザー」という。)を目的地に案内するための「経路探索アプリ」などと呼ばれるアプリケーションソフトウェアが知られている。経路探索アプリを利用することにより、ユーザーは手元に地図がない場合でも目的地に容易にたどり着くことができる。
ところで、地震などによる広範囲にわたる災害が発生した場合、人々は直ちに近くの避難所に移動して身の安全や必要な物資・情報を確保する必要がある。近年、比較的規模の大きい災害が多く発生していることから、災害発生時に人々を速やかに避難所に誘導することが重要視されている。これに関し、携帯電話などの携帯端末装置が近年広く普及してきたことから、災害発生時に携帯端末装置を用いてユーザーを避難所に誘導することが考えられている。具体的には、携帯端末装置用の経路探索アプリの1つとして、避難所までの経路案内に特化したアプリケーションソフトウェア(以下、「避難誘導アプリ」という。)も提供されている。
ところが、地震などの災害の発生時には、人は、パニック状態になって論理的な判断を行うことが困難となり、地図を正しく読めなくなることがある。また、土地勘のない観光客にとっては、現在位置を基準とした方角がわからないことが多い。特に、外国人旅行者など日本語を読むことのできない者にとっては、方角の判断がより困難となる。以上のようなことから、災害発生によってユーザーがパニック状態になっていても当該ユーザーを避難所まで速やかに誘導することのできる避難誘導アプリの開発が望まれている。
ところで、近年、携帯端末装置に付随するカメラで撮影している映像(以下、便宜上「風景映像」という。)にエアタグと呼ばれる仮想的画像を付加して表示する拡張現実技術(AR技術)が発達しつつある。そこで、経路探索アプリにおいても、各種情報を表すエアタグを風景映像に付加して表示することが行われている。
また、本件発明に関連して、特開2007−127437号公報には、実写画像と地図画像との対応関係をユーザーに提示する情報表示装置の発明が開示されている。この情報表示装置によれば、ユーザーが実写画像または地図画像のいずれか一方の構造物を指定すると、他方の画像中の対応する構造物が強調表示される。また、特開2014−2278号公報には、所定の視点から見た風景のパノラマ画像の一部分であるパノラマ図と2次元地図とが互いに連動表示する地図表示装置の発明が開示されている。
特開2007−127437号公報 特開2014−2278号公報
上述した拡張現実技術を用いれば、避難誘導アプリにおいて、ユーザーが撮影している風景映像に、避難経路の案内に供される情報(避難所の情報、災害箇所の情報など)としてのエアタグを付加的に表示することができる。また、文字で構成された文字タグと呼ばれる仮想的画像についても、ユーザーが撮影している風景映像に付加的に表示することができる。なお、文字タグはエアタグの一種であるが、本明細書においては、図形の形態で表される仮想的画像のことを「エアタグ」といい、文字の形態で表される仮想的画像のことを「文字タグ」という。このようなエアタグや文字タグが付加された風景映像と避難経路を示す地図とを1つの画面上に表示した場合、例えば図30に示すような画像(地図および映像)が表示部に表示される。図30に示す例では、風景映像中に、避難所,進行経路,火災,水害などを表すエアタグが表示されるともに、それらのエアタグに対応する情報を表す文字タグが表示されている。なお、以下においては、説明の便宜上、エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置のことを「エアタグ位置」という。
図30に示すように風景映像中に避難所や災害箇所がエアタグで表された場合、現在位置からのエアタグ位置の方向を把握することはユーザーにとって比較的容易であるが、現在位置からエアタグ位置までの距離を把握することはユーザーにとって困難である。また、風景映像中に災害箇所を表す複数のエアタグが含まれている場合、それらの災害箇所の情報(例えばランドマーク)が地図上に示されていても、ユーザーにとっては、風景映像中の各エアタグと地図上の各災害箇所とを対応付けることは困難である。以上のようにエアタグ位置の把握が困難であると、すなわち、避難所の位置や災害が発生している場所の把握が困難であると、特に災害発生によってユーザーがパニック状態になっている場合には、ユーザーの迅速な避難が阻害されることやユーザーが誤って避難経路からそれてしまうこと等が考えられる。
そこで本発明は、風景映像中に表示されるエアタグが示す事物・事象の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することのできる経路案内装置を実現することを目的とする。
第1の発明は、目的地までの進行経路を案内するための経路案内装置であって、
利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
前記経路探索手段によって得られた進行経路を示す地図を所定の地図表示領域に表示する地図表示手段と、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示手段と
を備えることを特徴とする。
第2の発明は、第1の発明において、
前記リンク線表示手段は、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする。
第3の発明は、第1または第2の発明において、
前記リンク線表示手段は、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする。
第4の発明は、第1から第3までのいずれかの発明において、
前記第1の拡張現実画像表示手段は、前記第1の拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を前記映像表示領域に表示し、
前記リンク線表示手段は、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線を表示することを特徴とする。
第5の発明は、第1から第4までのいずれかの発明において、
前記地図表示手段は、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークを表示し、
前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする。
第6の発明は、第1から第5までのいずれかの発明において、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示手段を更に備えることを特徴とする。
第7の発明は、第6の発明において、
前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする。
第8の発明は、第7の発明において、
前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする。
第9の発明は、第6から第8までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする。
第10の発明は、第6から第9までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像を表示することを特徴とする。
第11の発明は、第6から第10までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする。
第12の発明は、第1から第11までのいずれかの発明において、
前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする。
第13の発明は、目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
を含むことを特徴とする。
第14の発明は、目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行することを特徴とする。
第15の発明は、第14の発明において、
前記リンク線表示ステップでは、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする。
第16の発明は、第14または第15の発明において、
前記リンク線表示ステップでは、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする。
第17の発明は、第14から第16までのいずれかの発明において、
前記第1の拡張現実画像表示ステップでは、前記第1の拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が前記映像表示領域に表示され、
前記リンク線表示ステップでは、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線が表示されることを特徴とする。
第18の発明は、第14から第17までのいずれかの発明において、
前記地図表示ステップでは、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークが表示され、
前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする。
第19の発明は、第14から第18までのいずれかの発明において、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示ステップを更に含むことを特徴とする。
第20の発明は、第19の発明において、
前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする。
第21の発明は、第20の発明において、
前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする。
第22の発明は、第19から第21までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする。
第23の発明は、第19から第22までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像が表示されることを特徴とする。
第24の発明は、第19から第23までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする。
第25の発明は、第14から第24までのいずれかの発明において、
前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする。
上記第1の発明によれば、地図表示領域には、目的地までの進行経路を示す地図が表示され、映像表示領域には、撮影画像とともにエアタグ(第1の拡張現実画像)が表示される。そして、エアタグとそれに対応する地図上の位置とがリンク線によって結ばれる。これにより、ユーザーは、エアタグと地図上の位置との対応関係を容易に把握することが可能となる。以上より、風景映像中に表示されるエアタグが示す事物・事象の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することのできる経路案内装置が実現される。
上記第2の発明によれば、映像表示領域中のエアタグと当該エアタグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、エアタグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。
上記第3の発明によれば、ユーザーによって装置の向きが変えられたり、あるいは、ユーザーが進行経路をたどることによって装置の位置が移動しても、常にエアタグとそれに対応する地図上の位置とがリンク線によって結ばれる。
上記第4の発明によれば、映像表示領域において、経路探索手段による経路探索によって得られた進行経路を示す矢印状のエアタグが表示される。これにより、ユーザーに対して、進行方向の認識を高めることができる。
上記第5の発明によれば、映像表示領域には、撮影画像とともにエアタグが表示され、地図表示領域には、目的地までの進行経路を示す地図が表示されるとともに映像表示領域内のエアタグに対応するランドマークが表示される。そして、映像表示領域内のエアタグと地図表示領域内のランドマークとがリンク線によって結ばれる。これにより、ユーザーは、各エアタグとそれに対応するランドマークとの対応関係を容易に把握することが可能となる。
上記第6の発明によれば、経路案内装置には、エアタグに対応する文字タグ(第2の拡張現実画像)を表示する第2の拡張現実画像表示手段が設けられる。このため、進行経路をたどる際に有用となる情報を文字でユーザーに提供することが可能となる。これにより、より詳細な情報がユーザーに提供され、ユーザーを速やかに目的地に誘導することが可能となる。
上記第7の発明によれば、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。
上記第8の発明によれば、より効果的に、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。
上記第9の発明によれば、2つの文字タグが互いに重なり合うことが防止されるので、有用な情報が文字で確実にユーザーに提供される。
上記第10の発明によれば、文字タグの端部は当該文字タグに対応するリンク線の近傍に配置される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。
上記第11の発明によれば、文字タグと当該文字タグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。
上記第12の発明によれば、ユーザーに避難経路を案内するための経路案内装置において、風景映像中に表示されるエアタグが示す事物(例えば避難所)・事象(例えば火災)の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することが可能となる。
上記第13の発明によれば、上記第1の発明と同様の効果を経路案内方法の発明において奏することができる。
上記第14から上記第25の発明によれば、それぞれ上記第1から上記第12の発明と同様の効果を経路案内プログラムの発明において奏することができる。
本発明の一実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。 上記実施形態において、携帯端末装置のハードウェア構成を示すブロック図である。 上記実施形態において、表示部内の領域についての詳細を示す図である。 上記実施形態において、携帯端末装置の詳細な機能構成を示すブロック図である。 上記実施形態において、個人状況入力手段の一画面例を示す図である。 上記実施形態において、移動可能距離入力手段の一画面例を示す図である。 上記実施形態において、周辺状況入力手段の一画面例を示す図である。 上記実施形態において、地図表示手段による地図の表示および映像表示手段による風景映像の表示について説明するための図である。 上記実施形態において、ランドマーク表示手段によるランドマークの表示について説明するための図である。 上記実施形態において、ワイヤーフレームについて説明するための図である。 上記実施形態において、風景映像にワイヤーフレームが付加された映像の一例を示す図である。 上記実施形態において、エアタグ表示手段によるエアタグの表示について説明するための図である。 上記実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。 上記実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。 上記実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。 上記実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。 上記実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。 上記実施形態において、携帯端末装置での処理フローを示すフローチャートである。 上記実施形態において、風景映像にエアタグが付加された映像の一例を示す図である。 上記実施形態において、リアルタイムでの表示部へのリンク線の描画について説明するための図である。 上記実施形態において、複数の文字タグの表示について説明するための図である。 上記実施形態において、複数の文字タグの表示について説明するための図である。 上記実施形態において、文字タグとリンク線との位置関係について説明するための図である。 上記実施形態において、文字タグとリンク線との位置関係について説明するための図である。 上記実施形態において、風景映像中における文字タグの位置について説明するための図である。 上記実施形態において、映像表示領域の上方の領域(空の映像が表示されている領域)に文字タグを配置することによる効果について説明するための図である。 上記実施形態の変形例に関し、ランドマークを表示しない構成を採用した場合の一表示例を示す図である。 上記実施形態の変形例に関し、表示部の下方に地図表示領域を配置して表示部の上方に映像表示領域を配置した場合の一表示例を示す図である。 上記実施形態の変形例に関し、地図表示領域と映像表示領域との間に文字タグ表示領域を設けた場合の一表示例を示す図である。 従来例における一表示例を示す図である。
以下、添付図面を参照しつつ本発明の一実施形態について説明する。なお、以下においては、「アプリケーションソフトウェア」のことを「アプリ」と略記している。
<1.全体構成>
図1は、本発明の一実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。この避難誘導システムは、携帯端末装置10とサーバ20とによって実現される。携帯端末装置10とサーバ20とは、インターネットなどの通信回線を介して接続されている。本実施形態においては、この避難誘導システムを実現するために、避難誘導アプリが携帯端末装置10にインストールされる。避難誘導アプリは、地震などの災害が発生した際にユーザーに現在位置から避難所までの避難経路を提示するためのソフトウェアである。ユーザーは、所定の操作により避難誘導アプリを起動することができる。このような避難誘導アプリを携帯端末装置10にインストールしておくことにより、ユーザーは、例えば土地勘のない場所で災害に遭遇しても、避難誘導アプリを使用することによって避難所に容易にたどり着くことが可能となる。
図2は、携帯端末装置10のハードウェア構成を示すブロック図である。携帯端末装置10は、CPU11,フラッシュROM12,RAM13,通信制御部14,映像撮影部(カメラ)15,GPS処理部16,入力操作部17,表示部18,および傾きセンサ19を有している。CPU11は、この携帯端末装置10の全体を制御するために各種演算処理等を行う。フラッシュROM12は、書き込み可能な不揮発性のメモリであって、携帯端末装置10の電源がオフされても保持されるべき各種プログラム・各種データを格納する。RAM13は、書き込み可能な揮発性のメモリであって、実行中のプログラムやデータ等を一時的に格納する。通信制御部14は、外部へのデータ送信の制御や外部からのデータ受信の制御を行う。映像撮影部(カメラ)15は、ユーザーによる操作に基づいて、現在位置から見える風景の撮影を行う。GPS処理部16は、GPS衛星から受信する電波に基づいて、ユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得する。入力操作部17は、例えばタッチパネルであって、ユーザーによる入力操作を受け付ける。表示部18は、CPU11からの指令に基づいて、画像の表示を行う。傾きセンサ19は、この携帯端末装置10の傾きを示す角度情報を取得する。
避難誘導アプリが実行されているときにユーザーによって映像撮影部15を用いた撮影が行われると、表示部18内の領域は、例えば図3に示すように、地図を表示するための領域(以下、「地図表示領域」という。)18aと映像撮影部15による撮影で得られる映像(風景映像)を表示するための領域(以下、「映像表示領域」という。)18bとに分割される。本実施形態においては、図3に示すように、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置される。
携帯端末装置10内において、避難誘導アプリを実現する避難誘導プログラムは、フラッシュROM12に格納される。ユーザーによって避難誘導アプリの起動が指示されると、フラッシュROM12に格納されている避難誘導プログラムがRAM13に読み出され、そのRAM13に読み出された避難誘導プログラムをCPU11が実行することにより、避難誘導アプリの機能がユーザーに提供される。なお、避難誘導プログラムは、典型的にはインターネットなどの通信回線を介して所定のサーバ(不図示)から携帯端末装置10にダウンロードされ、当該携帯端末装置10内のフラッシュROM12にインストールされる。このように避難誘導プログラムが携帯端末装置10にインストールされることにより、本発明に係る経路案内装置が当該携帯端末装置10によって実現される。
<2.機能構成>
図4は、携帯端末装置10の詳細な機能構成を示すブロック図である。携帯端末装置10は、GPS情報取得手段100,観光機能選択手段110,ユーザー情報送信手段120,データ受信手段121,データ記憶手段130,避難経路探索手段140,個人状況入力手段141,移動可能距離入力手段142,周辺状況入力手段143,地図表示手段150,観光情報表示手段160,映像表示手段170,エアタグ表示手段180,リンク線表示手段181,および文字タグ表示手段182を有している。地図表示手段150には、ランドマーク表示手段152が含まれている。
なお、本実施形態においては、避難経路探索手段140によって経路探索手段が実現され、エアタグ表示手段180によって第1の拡張現実画像表示手段が実現され、文字タグ表示手段182によって第2の拡張現実画像表示手段が実現されている。
GPS情報取得手段100は、GPS衛星から受信する電波に基づいてユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得し、その位置情報を示すGPSデータGdaを出力する。なお、GPS情報取得手段100は、ハードウェアとしてのGPS処理部16(図2参照)によって実現される。
観光機能選択手段110は、ユーザーの所望する観光機能(観光施設の各種情報の提示,観光コースの案内,宿泊施設・飲食店・土産店の紹介など)をユーザーに選択させるための手段である。ユーザーが観光機能を選択すると、観光機能選択手段110は、ユーザーによって選択された観光機能を示す機能選択データFdaを出力する。このように、本実施形態における避難誘導アプリは、平常時には観光のための情報をユーザーに提供することが可能となっている。但し、本発明はこれに限定されず、観光情報をユーザーに提供するための機能は必ずしも携帯端末装置10に設けられていなくても良い。
ユーザー情報送信手段120は、GPSデータGdaおよび機能選択データFdaをユーザーデータYdaとしてサーバ20に送信する。なお、GPSデータGdaは、例えば、ユーザーがこの避難誘導アプリを起動したタイミングおよびユーザーがこの避難誘導アプリを用いて何らかの操作を行ったタイミングで、携帯端末装置10からサーバ20へと送信される。また、ユーザーがこの避難誘導アプリを使用している期間中、所定期間毎にGPSデータGdaが携帯端末装置10からサーバ20に送信されるようにしても良い。
データ受信手段121は、サーバ20から送信されるサーバデータSdaを受信する。このサーバデータSdaには、避難経路の探索に有用なデータである有意データMdaと、避難経路の案内に供される情報としてのエアタグを表示するためのエアタグデータAdaと、避難経路の案内に供される情報としての文字タグを表示するための文字タグデータCdaと、観光機能選択手段110によってユーザーに選択された観光機能に対応するデータである観光データKdaとが含まれている。また、有意データMdaには、地図データ,道路データ,避難所データなどの基礎データBdaの他に、例えば各道路の混雑度を示すデータが含まれている。サーバ20から送信されたサーバデータSdaのうちの有意データMdaは、データ記憶手段130に格納される。なお、データ記憶手段130はハードウェアとしてのフラッシュROM12またはRAM13(図2参照)によって実現される。また、避難誘導プログラムが携帯端末装置10にインストールされる際に有意データMdaをデータ記憶手段130にダウンロードしておくことによって、災害発生時に通信状態にかかわらず避難経路の探索を実行することが可能となる。
個人状況入力手段141は、災害が発生した際のユーザー(被災者)の被災状況や運動能力(避難経路上の障害を回避・克服できる能力)をユーザーに入力させるための手段である。この個人状況入力手段141は、表示部18に例えば図5に示すような画面を表示することによって実現される。図5に示すように、例えば「登れる」,「走れる」,「平坦のみ」,「車いす」,「足の怪我」,「歩けない」,「担架」,「子連れ」,「乳母車」などの状態を示すボタンが表示される。ユーザーは、該当する状態を示すボタンを押すだけで良い。個人状況入力手段141によって入力された内容を示す個人状況データIdaは、避難経路探索手段140によって使用される。
なお、図5に示した画面は一例であって、画面のレイアウトや画面に表示される項目はこれには限定されない。この点については、後述する移動可能距離入力手段142(図6参照)および周辺状況入力手段143(図7参照)についても同様である。
移動可能距離入力手段142は、災害が発生した際のユーザー(被災者)の移動手段や移動可能距離をユーザーに入力させるための手段である。この移動可能距離入力手段142は、表示部18に例えば図6に示すような画面を表示することによって実現される。図6に示すように、例えば「徒歩」,「自転車」,「車」などの移動手段を示すボタンと、移動可能距離の入力が可能な入力ボックスとが表示される。ユーザーは、該当する移動手段を示すボタンを押し、移動可能距離を入力する。移動可能距離入力手段142によって入力された内容を示す移動能力データDdaは、避難経路探索手段140によって使用される。
周辺状況入力手段143は、災害が発生した際のユーザー(被災者)の周辺の状況をユーザーに入力させるための手段である。この周辺状況入力手段143は、表示部18に例えば図7に示すような画面を表示することによって実現される。周辺状況入力手段143は、図7に示すように、例えば災害状況および混雑状況の入力が可能なように構成されている。災害状況を入力するための領域には、例えば、「火事」,「水害」,「倒壊」,「地割れ」などの災害の種別を表すボタンと、「激しい」,「強い」,「中程度」,「弱い」などの災害の強度を表すボタンと、災害の規模の入力が可能な入力ボックスとが表示される。混雑状況を入力するための領域には、例えば、「危険」,「強い」,「普通」,「少し」などの混雑の程度を表すボタンと、混雑の範囲の入力が可能な入力ボックスとが表示される。ユーザーは、災害の種別,災害の強度,および混雑の程度を選択し、災害の規模および混雑の範囲を入力する。周辺状況入力手段143によって入力された内容を示す周辺状況データPdaは、避難経路探索手段140によって使用される。
避難経路探索手段140は、GPSデータGdaと、ユーザーによって入力されたデータ(個人状況データIda,移動能力データDda,および周辺状況データPda)と、サーバ20から送信されデータ記憶手段130に格納されている有意データMdaとに基づいて、ユーザーにとっての最適な避難所・避難経路を探索する。観光情報表示手段160は、観光データKdaを表示部18に表示する。
地図表示手段150は、データ記憶手段130に格納されている基礎データBdaに基づいて表示部18内の地図表示領域18aに地図を表示する。その際、避難経路探索手段140によって既に避難所・避難経路の探索が行われている場合には、探索結果Reが地図に反映される。これにより、例えば図8に示すように、地図および探索結果Reとしての避難経路が地図表示領域18aに表示される。この地図表示手段150には、表示モードとして、ヘディングアップモードとノースアップモードとが用意されている。ヘディングアップモードとは、ユーザーの進行方向が常に画面上において上方向となるように、ユーザーの進行方向に応じて地図を回転させながら表示するモードである。ノースアップモードとは、北方向が画面上において上方向となるように地図を表示するモードである。また、この地図表示手段150は、ピンチ操作(複数の指で画面をつまんだり押し広げたりする操作)等によって地図の拡大・縮小・スクロールが可能なように構成されている。
ランドマーク表示手段152は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、後述するエアタグ表示手段180によって映像表示領域18bに表示されるエアタグに対応するランドマークを地図表示領域18aに表示する。ランドマーク表示手段152は、例えば、避難所を示すランドマーク,火災や水害などの災害箇所を示すランドマークを表示する。これにより、地図表示領域18aには、例えば図9に示すように、ランドマークが付加された地図が表示される。なお、各ランドマークは、地図上において、当該ランドマークに対応するエアタグで表されている事物・事象の位置に表示される。すなわち、ランドマーク表示手段152は、地図表示領域18aに表示されている地図上の位置のうちの映像表示領域18bに表示されているエアタグに対応付けられる位置に、当該エアタグに対応するランドマークを表示する。
映像表示手段170は、上述した映像撮影部15による撮影で得られる風景映像を表示部18内の映像表示領域18bに表示する。これにより、例えば、図8に示すように、映像表示領域18bに風景映像が表示される。ところで、この避難誘導アプリにおいては、映像表示領域18bに表示されるエアタグと地図表示領域18aに表示されている地図上の位置との対応関係の把握を容易にするために、図10に示すような「ワイヤーフレーム」と呼ばれる画像が映像表示領域18bに表示される。図10に示すように、ワイヤーフレームは、進行方向に向かって伸びる縦軸と、進行方向とは垂直方向に伸びる横軸とによって構成される。隣接する2本の縦軸間の距離Xおよび隣接する2本の横軸間の距離Yは、避難誘導アプリによって定められた一定の距離を表している。
ところで、このワイヤーフレームは、携帯端末装置10が地表面に対して垂直になっている場合に映像表示領域18bの中心が消失点となるように、遠近法を用いて表示される。従って、携帯端末装置10が地表面に対して垂直になっていれば、全ての縦軸の一方の端点は、映像表示領域18bの中心に存在する。また、携帯端末装置10が地表面に対して垂直になっている場合の映像表示領域18bの上下方向についての真ん中のラインが風景映像中の水平線(地平線)であるとみなされる。従って、上記消失点は、風景映像中の水平線(地平線)上に存在する。また、ワイヤーフレームの横軸の間隔については、映像表示領域18bの中心に近づくにつれて狭くなっている。以上のようなワイヤーフレームが風景映像に付加されることにより、図11に示すような映像が映像表示領域18bに表示される。なお、携帯端末装置10が上向きになっている場合(映像撮影部15による撮影方向が水平方向よりも上方向の場合)には、上記消失点は映像表示領域18bの中心よりも下方に位置し、携帯端末装置10が下向きになっている場合(映像撮影部15による撮影方向が水平方向よりも下方向の場合)には、上記消失点は映像表示領域18bの中心よりも上方に位置する。
エアタグ表示手段180は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、ユーザーが避難経路をたどって避難する際に当該ユーザーにとって有用となるような情報を表すエアタグ(拡張現実画像)を、ユーザーによって撮影されている風景映像に重ねて表示する。これにより、映像表示領域18bには、例えば、避難所を表すエアタグ,災害(火災,水害など)を表すエアタグ,混雑状況を表すエアタグ,進行経路を表す矢印状のエアタグなどが表示される。例えば図12に示す映像表示領域18bには、進行経路を表すエアタグ31,火災を表すエアタグ32,および水害を表すエアタグ33が表示されている。なお、進行経路を表すエアタグ31を映像表示領域18bに表示することによって、ユーザーは、たとえパニック状態になっていても、目指すべき方向を容易に把握することが可能となる。
ところで、各エアタグは、当該エアタグに対応する位置と現在位置(ユーザーの位置)とに基づく透視変換の結果を用いて表示される。このため、同じ種類の情報を表すエアタグに着目すると、現在位置に近い位置の情報を表すエアタグほど大きく表示され、現在位置から遠い位置の情報を表すエアタグほど小さく表示される。例えば、現在位置から近い位置で発生している火災を表すエアタグは大きく表示され、現在位置から遠い位置で発生している火災を表すエアタグは小さく表示される。また、上述のようにワイヤーフレームが風景映像に付加されていることから、ユーザーは、映像表示領域18b内におけるエアタグとワイヤーフレームとの位置関係に基づいて、当該エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置や方角をある程度推測することができる。
また、エアタグ表示手段180によってエアタグが表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、映像表示領域18bにおけるエアタグの表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)エアタグは映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)エアタグは映像表示領域18b中の上方に表示される。
リンク線表示手段181は、映像表示領域18bに表示される各エアタグの位置データPAと各エアタグに対応するランドマークの位置データPLとに基づいて、映像表示領域18b内のエアタグと地図表示領域18a内のランドマークとを結ぶ線(以下、「リンク線」という。)を表示部18に表示する。例えば、図13(a)に示すように、映像表示領域18bに火災を表すエアタグ35が表示されるとともにそのエアタグ35に対応するランドマーク36が地図表示領域18aに表示されるとき、リンク線表示手段181は、図13(b)に示すように、エアタグ35とランドマーク36とを結ぶリンク線LKを表示部18に表示する。このようにして、例えば表示部18に図14に示すような画像(地図および映像)が表示されるときには、図15に示すようにリンク線が表示される。図15に示す例では、リンク線として、避難所を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK1およびLK5と、火災を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK2と、進行経路を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK3と、水害を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK4とが表示されている。なお、必ずしも、映像表示領域18bに表示されているエアタグとそれに対応するランドマークとの全てがリンク線によって結ばれる必要はない。例えば、図15で符号37で示すエアタグのように、リンク線によってランドマークと結びつけられないエアタグが存在していても良い。リンク線の表示に関する更に詳しい説明は後述する。
文字タグ表示手段182は、データ受信手段121によって受信された文字タグデータCdaに基づいて、映像表示領域18bに表示されているエアタグに関する情報を文字で表した文字タグを映像表示領域18bに表示する。例えば、避難所の情報を文字で表した図16(a)に示すような仮想的画像や火災の発生場所を文字で表した図16(b)に示すような仮想的画像などが文字タグとして表示される。文字タグは、典型的には、風景映像中の空に相当する領域に表示される。以上より、例えば、図15に示すような画像に文字タグが付加されることによって、表示部18には図17に示すような画像が表示される。文字タグの表示に関する更に詳しい説明は後述する。
なお、本実施形態においては、エアタグによって第1の拡張現実画像が実現され、文字タグによって第2の拡張現実画像が実現されている。
<3.処理フロー>
次に、図18に示すフローチャートを参照しつつ、携帯端末装置10での処理フローについて説明する。携帯端末装置10では、まず、避難誘導アプリが起動される(ステップS100)。避難誘導アプリの起動後、ユーザーは、経路探索機能を選択する(ステップS110)。そして、GPS情報取得手段100によるGPSデータGdaの取得および当該GPSデータGdaのサーバ20への送信が行われる(ステップS120)。その後、GPSデータGdaに基づくサーバデータSdaの受信が行われる(ステップS130)。すなわち、ステップS130では、携帯端末装置10は、有意データMdaやエアタグデータAdaや文字タグデータCdaなどをサーバ20から受信する。
次に、ユーザーは、個人状況入力手段141によって、ユーザーの被災状況や運動能力などの個人状況の入力を行う(ステップS140)。また、ユーザーは、移動可能距離入力手段142によって、移動手段および移動可能距離の入力を行う(ステップS150)。さらに、ユーザーは、周辺状況入力手段143によって、ユーザーの周囲の災害状況や混雑状況などの周辺状況の入力を行う(ステップS160)。
ユーザーによって個人状況,移動手段・移動可能距離,および周辺状況の入力が行われた後、避難経路探索手段140による避難経路探索処理(避難所・避難経路を探索する処理)が実行される(ステップS170)。避難経路探索処理の実行後、ユーザーによって映像撮影部(カメラ)15による風景映像の撮影が行われ、当該風景映像が表示部18の映像表示領域18bに表示される(ステップS180)。
その後、地図表示手段150によって、地図,道路,避難所,および避難経路が表示部18の地図表示領域18aに表示される(ステップS190)。そして、映像表示領域18bに表示されている風景映像に、避難経路の案内に供される情報としてのエアタグが重ねて表示される(ステップS200)。また、各エアタグに対応するランドマークが地図表示領域18aの地図上に表示される(ステップS210)。さらに、地図表示領域18a内のランドマークと映像表示領域18b内のエアタグとを結ぶリンク線が表示部18に表示される(ステップS220)。さらにまた、各エアタグに対応する文字タグが映像表示領域18bに表示される(ステップS230)。
以上のようにして、例えば、ステップS190の終了時点においては図11に示すような画像が表示部18に表示され、ステップS200の終了時点においては図19に示すような画像が表示部18に表示され、ステップS210の終了時点においては図14に示すような画像が表示部18に表示され、ステップS220の終了時点においては図15に示すような画像が表示部18に表示され、ステップS230の終了時点においては図17に示すような画像が表示部18に表示される。但し、ステップS190からステップS230までの処理時間は極めて短い時間であるので、人の目には図17に示すような画像が瞬時に知覚される。
なお、本実施形態においては、ステップS170によって経路探索ステップが実現され、ステップS180によって映像表示ステップが実現され、ステップS190によって地図表示ステップが実現され、ステップS200によって第1の拡張現実画像表示ステップが実現され、ステップS220によってリンク線表示ステップが実現され、ステップS230によって第2の拡張現実画像表示ステップが実現されている。
<4.リンク線>
次に、リンク線表示手段181によって表示部18に表示されるリンク線について詳しく説明する。
<4.1 リンク線の色>
本実施形態においては、各リンク線の色は、対応するエアタグの色および対応するランドマークの色と同じにされる。これにより、エアタグ,ランドマーク,およびリンク線の対応関係を把握することがユーザーにとって容易となる。但し、本発明はこれに限定されず、リンク線の色を必ずしも対応するエアタグの色または対応するランドマークの色と同じにする必要はない。
<4.2 リンク線の描画>
ユーザーによって携帯端末装置10の向きが変えられたり、あるいは、ユーザーが避難経路をたどることによって携帯端末装置10の位置が移動すると、地図表示領域18aに表示されているランドマークの位置や映像表示領域18bに表示されているエアタグの位置が変化する。このようなランドマークやエアタグの位置の変化にリンク線は追従する。すなわち、リンク線表示手段181は、地図表示領域18aに表示されている地図の変化および映像表示領域18bに表示されているエアタグの位置の変化に応じて、リアルタイムでリンク線を描画する。
例えば、或る時点において、エアタグA1,ランドマークL1,およびリンク線LK6が図20(a)に示すように表示されていたと仮定する。ここで、例えばユーザーが進行方向を変えたことによって、地図表示領域18aにおいてランドマークL1の位置が図20(b)で符号46で示す矢印のように移動し、映像表示領域18bにおいてエアタグA1の位置が図20(b)で符号47で示す矢印のように移動したとする。このとき、ランドマークL1の位置の変化(地図の変化)およびエアタグA1の位置の変化に従って、リンク線LK6は図20(a)に示す状態から図20(c)に示す状態に変化する。なお、リンク線LK6の位置の変化に伴って、文字タグM1の位置も変化する。
<5.文字タグ>
次に、文字タグ表示手段182によって映像表示領域18bに表示される文字タグについて詳しく説明する。
<5.1 複数の文字タグの表示について>
映像表示領域18bに複数の文字タグが表示される際、それら複数の文字タグが互いに重なることのないように、映像表示領域18b内における各文字タグの配置位置が決定される。仮に2つの文字タグ(文字タグM2および文字タグM3)を画面上で横方向に並べて配置すると図21(a)に示すようにそれら2つの文字タグが互いに重なり合う場合、図21(b)に示すように、画面上における縦方向についての配置位置を文字タグM2と文字タグM3とで異ならせる。このようにして、映像表示領域18bに表示される任意の2つ文字タグに関し、それら2つの文字タグが互いに重なり合うことが防止されている。
例えば、図22(a)に示すように、2つの文字タグ(文字タグM4および文字タグM5)の文字の合計数が比較的少ない場合には、それら2つの文字タグは横方向に並べて配置される。これに対して、図22(b)に示すように、2つの文字タグ(文字タグM6および文字タグM7)の文字の合計数が比較的多い場合には、画面上において一方の文字タグ(この例では文字タグM7)が他方の文字タグ(この例では文字タグM6)の下方に配置される。
<5.2 文字タグとリンク線との位置関係>
本実施形態においては、文字タグの一端部が当該文字タグに対応するリンク線上に位置するよう、各文字タグの配置位置が決定される。これにより、文字タグは、例えば図23に示すように表示される。このように文字タグの一端部を当該文字タグに対応するリンク線上に配置することによって、例えば図24に示すように複数の文字タグが表示されている場合に、ユーザーは、文字タグM8はリンク線LK8に対応し、文字タグM9はリンク線LK9に対応しているということを容易に把握することができる。また、本実施形態においては、文字タグの色は当該文字タグに対応するリンク線の色と同じにされる。これにより、文字タグとリンク線との対応関係をより容易に把握することが可能となっている。
なお、必ずしも文字タグの一端部を当該文字タグに対応するリンク線上に配置する必要はなく、また、必ずしも文字タグの色を当該文字タグに対応するリンク線の色と同じにする必要はない。但し、ユーザーを速やかに避難させるという観点から、何らかの手法で文字タグとリンク線との対応関係が容易に把握されるようにすることが好ましい。
<5.3 風景映像中における文字タグの位置>
ユーザーによって映像撮影部15を用いた風景映像の撮影が行われると、図25に示すように、映像表示領域18bの上方の領域(符号40で示す領域)には風景映像のうちの空の映像が表示されることが多い。このような空の映像が表示されている領域に各種情報が表示されたとしても、それらの各種情報は、ユーザーが画面を見ながら避難を行うに際して何ら妨げにはならないと考えられる。そこで、本実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。その際、上述したように、複数の文字タグが表示される場合には、それら複数の文字タグが互いに重なることのないように各文字タグの配置位置が決定される。
<6.効果>
本実施形態によれば、携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、避難経路を示す地図を地図表示領域18aに表示する地図表示手段150と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路の案内に供される情報としてのエアタグを風景映像に重ねて表示するエアタグ表示手段180と、映像表示領域18bに表示されているエアタグと地図表示領域18aに表示されているランドマーク(エアタグに対応するランドマーク)とを結ぶリンク線を表示するリンク線表示手段181とが設けられている。すなわち、映像表示領域18bには、避難に有用な情報としてのエアタグが風景映像とともに表示され、地図表示領域18aには、避難経路を示す地図が表示されるとともに映像表示領域18b内のエアタグに対応するランドマークが表示される。そして、映像表示領域18b内のエアタグと地図表示領域18a内のランドマークとがリンク線によって結ばれている。これにより、各エアタグとそれに対応するランドマークとの対応関係の把握が容易になる。従って、ユーザーは、エアタグによって避難所や災害が発生している場所の方向を把握することができるとともに、ランドマークによって現在位置(ユーザーの位置)とエアタグ位置(避難所の場所や災害が発生している場所)との位置関係を容易に把握することが可能となる。以上のようにして、本実施形態によれば、風景映像中に表示されるエアタグの示す事物・事象の地理上の位置と現在位置との位置関係を容易に把握することのできる避難誘導システムが実現される。
また、本実施形態によれば、携帯端末装置10には、各リンク線に対応するエアタグの説明情報である文字タグを当該各リンク線と対応付けて表示する文字タグ表示手段182が設けられている。このため、各エアタグの情報すなわち避難経路をたどる際に有用となる情報(例えば、火災が発生している詳細な場所の情報)を文字でユーザーに提供することが可能となる。これにより、災害発生時に、より詳細な情報がユーザーに提供され、ユーザーは安全かつ確実に避難することが可能となる。
さらに、本実施形態によれば、互いに対応するエアタグ,ランドマーク,リンク線,および文字タグは、全て同じ色になっている。このため、ユーザーは、エアタグ,ランドマーク,リンク線,および文字タグの対応関係を容易に把握することができる。これにより、より速やかにユーザーを避難させることが可能となる。
さらにまた、本実施形態によれば、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。仮に文字タグを当該文字タグに対応するエアタグの近傍に配置した場合、図26(a)に示すように、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在することとなる。このようにエアタグや文字タグが密に混在する映像は、ユーザーにとっては視認性の悪い映像である。また、避難に際して有用な情報が文字タグによって隠されてしまうことも懸念される。以上より、図26(a)に示すように文字タグが表示される場合、特に災害発生によってユーザーがパニック状態になっていると、ユーザーにとっては進行方向を迅速に正しく把握することが困難である。この点、本実施形態によれば、図26(b)に示すように、文字タグは映像表示領域18bの上方の領域(空の映像が表示されている領域)40に表示される。このため、映像表示領域18bにおいてエアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。しかも、文字タグによって、エアタグで示されている事物(例えば避難所)・事象(例えば火災)に関する詳細な情報をユーザーに提供することができる。
<7.変形例など>
上記実施形態においては、地図表示領域18aには、映像表示領域18b内のエアタグに対応するランドマークが表示されていた。しかしながら、本発明はこれに限定されず、ランドマークは必ずしも表示されなくても良い。ランドマークを表示しない構成を採用した場合、リンク線表示手段181は、映像表示領域18bに表示されているエアタグと、地図表示領域18aに表示されている地図上の位置のうちの当該エアタグに対応付けられる位置とを結ぶリンク線を表示する。すなわち、映像表示領域18b内のエアタグと当該エアタグに対応する地図上の位置(地図表示領域18a内の位置)とがリンク線によって結ばれる。これにより、例えば図27に示すような画像が表示部18に表示される。
また、上記実施形態においては、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置されていた(図3などを参照)。しかしながら、本発明はこれに限定されず、図28に示すように、表示部18の下方に地図表示領域18aが配置され、表示部18の上方に映像表示領域18bが配置されていても良い。但し、この場合、風景映像中の建物や道路が表示されている領域に文字タグが表示される。そうすると、文字タグとエアタグとが密に混在したり、有用な情報が文字タグによって隠されてしまうことがある。従って、視認性や有用な情報を確実にユーザーに提供するという観点からは、上記実施形態のように、表示部18の上方に地図表示領域18aを配置し、表示部18の下方に映像表示領域18bを配置することが好ましい。
さらに、上記実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置されていたが、本発明はこれに限定されない。図29に示すように地図表示領域18aと映像表示領域18bとの間に文字タグを表示するための専用の領域(文字タグ表示領域)18cを設けるようにしても良い。このような構成においても、エアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。
また、上記実施形態においては、本発明に係る経路案内装置が携帯端末装置10によって実現される例を示したが、本発明はこれに限定されない。例えば、ヘッドマウントディスプレイ(頭部装着型表示装置)のように携帯端末装置10以外の端末装置によって本発明に係る経路案内装置を実現することもできる。
さらに、上記実施形態においては、避難誘導システムを例に挙げて説明したが、本発明はこれに限定されない。ユーザーに現在位置から目的地までの進行経路を案内するための一般的なナビゲーションシステムにも、本発明を適用することができる。
10…携帯端末装置
18…表示部
18a…地図表示領域
18b…映像表示領域
20…サーバ
130…データ記憶手段
140…避難経路探索手段
150…地図表示手段
152…ランドマーク表示手段
170…映像表示手段
180…エアタグ表示手段
181…リンク線表示手段
182…文字タグ表示手段

Claims (25)

  1. 目的地までの進行経路を案内するための経路案内装置であって、
    利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
    所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
    前記経路探索手段によって得られた進行経路を示す地図を所定の地図表示領域に表示する地図表示手段と、
    進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
    前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示手段と
    を備えることを特徴とする、経路案内装置。
  2. 前記リンク線表示手段は、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする、請求項1に記載の経路案内装置。
  3. 前記リンク線表示手段は、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする、請求項1または2に記載の経路案内装置。
  4. 前記第1の拡張現実画像表示手段は、前記第1の拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を前記映像表示領域に表示し、
    前記リンク線表示手段は、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線を表示することを特徴とする、請求項1から3までのいずれか1項に記載の経路案内装置。
  5. 前記地図表示手段は、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークを表示し、
    前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする、請求項1から4までのいずれか1項に記載の経路案内装置。
  6. 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示手段を更に備えることを特徴とする、請求項1から5までのいずれか1項に記載の経路案内装置。
  7. 前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする、請求項6に記載の経路案内装置。
  8. 前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする、請求項7に記載の経路案内装置。
  9. 前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする、請求項6から8までのいずれか1項に記載の経路案内装置。
  10. 前記第2の拡張現実画像表示手段は、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像を表示することを特徴とする、請求項6から9までのいずれか1項に記載の経路案内装置。
  11. 前記第2の拡張現実画像表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする、請求項6から10までのいずれか1項に記載の経路案内装置。
  12. 前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする、請求項1から11までのいずれか1項に記載の経路案内装置。
  13. 目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
    前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
    前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
    前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
    進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
    前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
    を含むことを特徴とする、経路案内方法。
  14. 目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
    前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
    前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
    前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
    進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
    前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
    を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行することを特徴とする、経路案内プログラム。
  15. 前記リンク線表示ステップでは、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする、請求項14に記載の経路案内プログラム。
  16. 前記リンク線表示ステップでは、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする、請求項14または15に記載の経路案内プログラム。
  17. 前記第1の拡張現実画像表示ステップでは、前記第1の拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が前記映像表示領域に表示され、
    前記リンク線表示ステップでは、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線が表示されることを特徴とする、請求項14から16までのいずれか1項に記載の経路案内プログラム。
  18. 前記地図表示ステップでは、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークが表示され、
    前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする、請求項14から17までのいずれか1項に記載の経路案内プログラム。
  19. 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示ステップを更に含むことを特徴とする、請求項14から18までのいずれか1項に記載の経路案内プログラム。
  20. 前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項19に記載の経路案内プログラム。
  21. 前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項20に記載の経路案内プログラム。
  22. 前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする、請求項19から21までのいずれか1項に記載の経路案内プログラム。
  23. 前記第2の拡張現実画像表示ステップでは、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像が表示されることを特徴とする、請求項19から22までのいずれか1項に記載の経路案内プログラム。
  24. 前記第2の拡張現実画像表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする、請求項19から23までのいずれか1項に記載の経路案内プログラム。
  25. 前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする、請求項14から24までのいずれか1項に記載の経路案内プログラム。
JP2014110321A 2014-05-28 2014-05-28 経路案内装置、経路案内方法、および経路案内プログラム Pending JP2015224982A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014110321A JP2015224982A (ja) 2014-05-28 2014-05-28 経路案内装置、経路案内方法、および経路案内プログラム
PCT/JP2015/062083 WO2015182290A1 (ja) 2014-05-28 2015-04-21 経路案内装置、経路案内方法、および経路案内プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014110321A JP2015224982A (ja) 2014-05-28 2014-05-28 経路案内装置、経路案内方法、および経路案内プログラム

Publications (1)

Publication Number Publication Date
JP2015224982A true JP2015224982A (ja) 2015-12-14

Family

ID=54841829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014110321A Pending JP2015224982A (ja) 2014-05-28 2014-05-28 経路案内装置、経路案内方法、および経路案内プログラム

Country Status (1)

Country Link
JP (1) JP2015224982A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012152A (ja) * 2017-06-29 2019-01-24 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
US10559132B2 (en) 2016-10-31 2020-02-11 Olympus Corporation Display apparatus, display system, and control method for display apparatus
JP2020086020A (ja) * 2018-11-20 2020-06-04 株式会社 ローバルコム 観光情報アプリ提供装置、観光情報アプリ媒体及び観光画像表示作成方法
WO2021166735A1 (ja) * 2020-02-19 2021-08-26 Next Innovation合同会社 情報提供システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2010066159A (ja) * 2008-09-11 2010-03-25 Zenrin Datacom Co Ltd 情報処理装置、情報処理方法、およびコンピュータプログラム
JP2011052960A (ja) * 2007-12-28 2011-03-17 Mitsubishi Electric Corp ナビゲーション装置
JP2011215412A (ja) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd 地図画像処理装置、地図画像処理方法及び地図画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2011052960A (ja) * 2007-12-28 2011-03-17 Mitsubishi Electric Corp ナビゲーション装置
JP2010066159A (ja) * 2008-09-11 2010-03-25 Zenrin Datacom Co Ltd 情報処理装置、情報処理方法、およびコンピュータプログラム
JP2011215412A (ja) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd 地図画像処理装置、地図画像処理方法及び地図画像処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10559132B2 (en) 2016-10-31 2020-02-11 Olympus Corporation Display apparatus, display system, and control method for display apparatus
JP2019012152A (ja) * 2017-06-29 2019-01-24 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
JP2020086020A (ja) * 2018-11-20 2020-06-04 株式会社 ローバルコム 観光情報アプリ提供装置、観光情報アプリ媒体及び観光画像表示作成方法
WO2021166735A1 (ja) * 2020-02-19 2021-08-26 Next Innovation合同会社 情報提供システム

Similar Documents

Publication Publication Date Title
JP6228516B2 (ja) 経路案内装置、経路案内方法、および経路案内プログラム
KR101864814B1 (ko) 스트리트 뷰 목적지에 대한 안내를 제공하는 방법 및 장치
KR101817452B1 (ko) 모바일 디바이스 상에 실제 환경의 뷰에서 관심 지점을 나타내기 위한 방법 및 그것을 위한 모바일 디바이스
JP6025433B2 (ja) 携帯ナビゲーション装置
WO2015182290A1 (ja) 経路案内装置、経路案内方法、および経路案内プログラム
JP6089360B2 (ja) ナビゲーション装置、アイコン表示方法およびナビゲーションプログラム
JP5383930B2 (ja) 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体
JP2015224981A (ja) 経路案内装置、経路案内方法、および経路案内プログラム
JP6030935B2 (ja) 情報処理プログラム、表示制御装置、表示システム及び表示方法
JP5745497B2 (ja) 表示システム、表示制御装置、情報処理プログラム及び表示方法
CA2804096A1 (en) Methods, apparatuses and computer program products for automatically generating suggested information layers in augmented reality
WO2014033354A1 (en) A method and apparatus for updating a field of view in a user interface
JP2015224982A (ja) 経路案内装置、経路案内方法、および経路案内プログラム
US9459115B1 (en) Unobstructed map navigation using animation
JP2008070705A (ja) 画像提供システムおよび画像提供サーバ装置
JP2012216074A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP5809729B2 (ja) 避難経路提供システムおよび避難経路提供プログラム
JP6680499B2 (ja) 経路案内装置、経路案内システム、経路案内方法、および経路案内プログラム
KR20120069183A (ko) 경로 안내 단말의 사용자 인터페이스 제공 방법 및 이를 실행하는 장치
JP2015215766A (ja) 避難経路提供システム、避難経路提供方法、及び避難経路提供プログラム
JP5912329B2 (ja) 端末装置、アイコン出力方法、およびプログラム
JP4922436B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
JP5715715B1 (ja) 避難経路提供システム、避難経路提供方法、及び避難経路提供プログラム
CN103631962A (zh) 一种图像标签的显示方法和设备
JP2016133701A (ja) 情報提供システム、及び情報提供方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306