JP6228516B2 - Route guidance device, route guidance method, and route guidance program - Google Patents

Route guidance device, route guidance method, and route guidance program Download PDF

Info

Publication number
JP6228516B2
JP6228516B2 JP2014129855A JP2014129855A JP6228516B2 JP 6228516 B2 JP6228516 B2 JP 6228516B2 JP 2014129855 A JP2014129855 A JP 2014129855A JP 2014129855 A JP2014129855 A JP 2014129855A JP 6228516 B2 JP6228516 B2 JP 6228516B2
Authority
JP
Japan
Prior art keywords
augmented reality
reality image
image
displayed
link line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014129855A
Other languages
Japanese (ja)
Other versions
JP2016008894A (en
Inventor
古川 至
至 古川
浩司 櫻井
浩司 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2014129855A priority Critical patent/JP6228516B2/en
Priority to PCT/JP2015/062083 priority patent/WO2015182290A1/en
Publication of JP2016008894A publication Critical patent/JP2016008894A/en
Application granted granted Critical
Publication of JP6228516B2 publication Critical patent/JP6228516B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、端末装置(典型的には携帯電話などの携帯端末装置)のユーザーに目的地(例えば地震などの災害が発生した際の避難所)までの経路の情報を提供する経路案内装置、経路案内方法、および経路案内プログラムに関する。   The present invention provides a route guidance device that provides information of a route to a destination (for example, a shelter when a disaster such as an earthquake occurs) to a user of a terminal device (typically, a mobile terminal device such as a mobile phone), The present invention relates to a route guidance method and a route guidance program.

携帯電話などの携帯端末装置の高機能化・高解像度化により、近年、地図を利用するアプリケーションソフトウェアが多く開発されている。そのようなアプリケーションソフトウェアの1つとして、携帯端末装置の利用者(以下、「ユーザー」という。)を目的地に案内するための「経路探索アプリ」などと呼ばれるアプリケーションソフトウェアが知られている。経路探索アプリを利用することにより、ユーザーは手元に地図がない場合でも目的地に容易にたどり着くことができる。   In recent years, a lot of application software using a map has been developed in accordance with enhancement of functions and resolution of portable terminal devices such as cellular phones. As one of such application software, application software called “route search application” for guiding a user (hereinafter referred to as “user”) of a mobile terminal device to a destination is known. By using the route search application, the user can easily reach the destination even when there is no map at hand.

ところで、地震などによる広範囲にわたる災害が発生した場合、人々は直ちに近くの避難所に移動して身の安全や必要な物資・情報を確保する必要がある。近年、比較的規模の大きい災害が多く発生していることから、災害発生時に人々を速やかに避難所に誘導することが重要視されている。これに関し、携帯電話などの携帯端末装置が近年広く普及してきたことから、災害発生時に携帯端末装置を用いてユーザーを避難所に誘導することが考えられている。具体的には、携帯端末装置用の経路探索アプリの1つとして、避難所までの経路案内に特化したアプリケーションソフトウェア(以下、「避難誘導アプリ」という。)も提供されている。   By the way, when a wide-area disaster such as an earthquake occurs, people need to immediately move to a nearby evacuation center to ensure their safety and necessary materials and information. In recent years, since many large-scale disasters have occurred, it is important to promptly guide people to shelters when disasters occur. In this regard, since mobile terminal devices such as mobile phones have become widespread in recent years, it is considered to guide a user to an evacuation site using a mobile terminal device when a disaster occurs. Specifically, application software specialized for route guidance to an evacuation site (hereinafter referred to as “evacuation guidance app”) is also provided as one of route search applications for mobile terminal devices.

ところが、地震などの災害の発生時には、人は、パニック状態になって論理的な判断を行うことが困難となり、地図を正しく読めなくなることがある。また、土地勘のない観光客にとっては、現在位置を基準とした方角がわからないことが多い。特に、外国人旅行者など日本語を読むことのできない者にとっては、方角の判断がより困難となる。以上のようなことから、災害発生によってユーザーがパニック状態になっていても当該ユーザーを避難所まで速やかに誘導することのできる避難誘導アプリの開発が望まれている。   However, when a disaster such as an earthquake occurs, it may be difficult for a person to panic and make a logical decision, and the map cannot be read correctly. In addition, tourists who are not familiar with the land often do not know the direction based on the current location. In particular, it is more difficult to judge the direction for foreign tourists who cannot read Japanese. For these reasons, it is desired to develop an evacuation guidance application that can promptly guide a user to an evacuation site even if the user is in a panic due to a disaster.

ところで、近年、携帯端末装置に付随するカメラで撮影している映像(以下、便宜上「風景映像」という。)にエアタグと呼ばれる仮想的画像を付加して表示する拡張現実技術(AR技術)が発達しつつある。そこで、経路探索アプリにおいても、各種情報を表すエアタグを風景映像に付加して表示することが行われている。   By the way, in recent years, augmented reality technology (AR technology) has been developed in which a virtual image called an air tag is added to and displayed by a video (hereinafter referred to as “landscape video” for convenience) taken by a camera attached to a mobile terminal device. I am doing. Therefore, in a route search application, an air tag representing various information is added to a landscape video and displayed.

また、本件発明に関連して、特開2007−127437号公報には、実写画像と地図画像との対応関係をユーザーに提示する情報表示装置の発明が開示されている。この情報表示装置によれば、ユーザーが実写画像または地図画像のいずれか一方の構造物を指定すると、他方の画像中の対応する構造物が強調表示される。また、特開2014−2278号公報には、所定の視点から見た風景のパノラマ画像の一部分であるパノラマ図と2次元地図とが互いに連動表示する地図表示装置の発明が開示されている。   In relation to the present invention, Japanese Patent Application Laid-Open No. 2007-127437 discloses an invention of an information display device that presents a correspondence relationship between a photographed image and a map image to a user. According to this information display device, when the user designates either one of the photographed image or the map image, the corresponding structure in the other image is highlighted. Japanese Patent Laying-Open No. 2014-2278 discloses an invention of a map display device in which a panorama map that is a part of a panoramic image of a landscape viewed from a predetermined viewpoint and a two-dimensional map are displayed in conjunction with each other.

特開2007−127437号公報JP 2007-127437 A 特開2014−2278号公報JP 2014-2278 A

上述した拡張現実技術を用いれば、避難誘導アプリにおいて、ユーザーが撮影している風景映像に、避難経路の案内に供される情報(避難所の情報、災害箇所の情報など)としてのエアタグを付加的に表示することができる。また、文字で構成された文字タグと呼ばれる仮想的画像についても、ユーザーが撮影している風景映像に付加的に表示することができる。なお、文字タグはエアタグの一種であるが、本明細書においては、図形の形態で表される仮想的画像のことを「エアタグ」といい、文字の形態で表される仮想的画像のことを「文字タグ」という。このようなエアタグや文字タグが付加された風景映像と避難経路を示す地図とを1つの画面上に表示した場合、例えば図35に示すような画像(地図および映像)が表示部に表示される。図35に示す例では、風景映像中に、避難所,進行経路,火災,水害などを表すエアタグが表示されるともに、それらのエアタグに対応する情報を表す文字タグが表示されている。   If the augmented reality technology described above is used, an air tag as information (evacuation site information, disaster location information, etc.) provided for evacuation route guidance will be added to the landscape video captured by the user in the evacuation guidance app. Can be displayed automatically. Also, a virtual image called a character tag composed of characters can be additionally displayed on a landscape image captured by the user. A character tag is a type of air tag. In this specification, a virtual image represented in the form of a graphic is called an “air tag”, and a virtual image represented in the form of a character. It is called “character tag”. When a landscape video with such an air tag or character tag and a map showing an evacuation route are displayed on one screen, for example, an image (map and video) as shown in FIG. 35 is displayed on the display unit. . In the example shown in FIG. 35, air tags representing shelters, traveling routes, fires, floods, and the like are displayed in the landscape video, and character tags representing information corresponding to the air tags are displayed.

ところで、図35に示す例では、文字タグはエアタグの近傍に配置されている。このような配置が行われる場合、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在してユーザーにとって視認性の悪い映像となるおそれがある。そこで、映像の視認性を良くするために、例えば図36に示すように、文字タグをエアタグから離れた位置に配置することが考えられる。しかしながら、風景映像中に同じ種類のエアタグが多数含まれている場合、ユーザーにとっては、各エアタグと各文字タグとを正確に対応付けることは困難である。従って、ユーザーにとっては、各文字タグがどのエアタグの説明を表しているのかを把握することが困難となる。このため、特に災害発生によってユーザーがパニック状態になっている場合には、ユーザーの迅速な避難が阻害されることやユーザーが誤って避難経路からそれてしまうこと等が考えられる。   By the way, in the example shown in FIG. 35, the character tag is arrange | positioned in the vicinity of the air tag. When such an arrangement is performed, there is a possibility that air tags and character tags are densely mixed in an area where buildings and roads are displayed in a landscape video, resulting in a video with poor visibility for the user. Therefore, in order to improve the visibility of the video, for example, as shown in FIG. 36, it is conceivable to arrange the character tag at a position away from the air tag. However, when a landscape video includes many air tags of the same type, it is difficult for the user to accurately associate each air tag with each character tag. Therefore, it is difficult for the user to understand which air tag each character tag represents. For this reason, especially when the user is in a panic due to a disaster, the user's rapid evacuation may be hindered, or the user may accidentally deviate from the evacuation route.

そこで本発明は、良好な視認性を有し、かつ、文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる経路案内装置を実現することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to realize a route guidance device that has a good visibility and that allows a user to easily grasp what items / events a character tag describes. .

第1の発明は、目的地までの進行経路を案内するための経路案内装置であって、
利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示手段と、
前記経路探索手段によって得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを所定の地図表示領域に表示する地図表示手段と、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示手段と
を備え、
前記第2の拡張現実画像表示手段は、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像を微小距離だけ移動し得る範囲内の位置に表示し、
前記リンク線表示手段は、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする。
A first invention is a route guidance device for guiding a traveling route to a destination,
A route search means for searching for a route to the destination based on a condition input by the user;
Video display means for displaying a video being shot in a predetermined video display area;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. Image display means;
Map display means for displaying in a predetermined map display area a map indicating the travel route obtained by the route search means and a landmark corresponding to the second augmented reality image;
One end and one of said first augmented reality image or the landmark at each time point, and a link line display means for displaying the link line to the other end and said second augmented reality image,
The second augmented reality image display means has a range in which each second augmented reality image can be moved by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. In position ,
The link line display means can switch one end of the link line between the first augmented reality image and the landmark .

の発明は、第1の発明において、
前記リンク線表示手段は、
一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線を表示し、
前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする。
According to a second invention, in the first invention,
The link line display means includes
Displaying a link line having one end as the first augmented reality image and the other end as the second augmented reality image;
The link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.

の発明は、第の発明において、
前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示手段は、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線を描画することを特徴とする。
According to a third invention, in the second invention,
When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line The display means draws the link line so as to extend from the display position of the second augmented reality image to the virtual display position.

の発明は、第1から第までのいずれかの発明において、
1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする。
According to a fourth invention, in any one of the first to third inventions,
The display position of each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.

の発明は、第1から第までのいずれかの発明において、
1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする。
According to a fifth invention, in any one of the first to third inventions,
During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.

の発明は、第1から第までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする。
According to a sixth invention, in any one of the first to fifth inventions,
The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. It is characterized by arranging a real image.

の発明は、第1から第までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする。
According to a seventh invention, in any one of the first to sixth inventions,
The second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region.

の発明は、第の発明において、
前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする。
In an eighth aspect based on the seventh aspect ,
The second augmented reality image display means displays the second augmented reality image in a region where a video corresponding to the sky of the captured video is displayed.

の発明は、第1から第までのいずれかの発明において、
前記第2の拡張現実画像表示手段は、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像を表示することを特徴とする。
According to a ninth invention, in any one of the first to eighth inventions,
The second augmented reality image display means displays the second augmented reality image in a character display area provided separately from the video display area and the map display area.

10の発明は、第1から第までのいずれかの発明において、
前記リンク線表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする。
According to a tenth aspect of the invention, in any one of the first to ninth aspects of the invention,
The link line display means displays each link line so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.

11の発明は、第10の発明において、
前記第2の拡張現実画像表示手段は、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする。
In an eleventh aspect based on the tenth aspect ,
The second augmented reality image display means is configured so that each first augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. It is characterized by displaying a real image.

12の発明は、第1から第11までのいずれかの発明において、
前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする。
In a twelfth aspect of the invention based on any one of the first to eleventh aspects of the invention,
The route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.

13の発明は、目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を含み、
前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示され
前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする。
A thirteenth invention is a route guidance method for guiding a travel route to a destination using a terminal device,
A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
One end and one of said first augmented reality image or the landmark at each time point, and a link line display step of displaying a link line that the other end and said second augmented reality image,
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. Displayed in the position ,
In the link line display step, one end of the link line can be switched between the first augmented reality image and the landmark .

14の発明は、目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示され
前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする。
A fourteenth invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination,
A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
Computer included one end and one of said first augmented reality image or the landmark at each time point, and a link line display step of displaying a link line that the other end and said second augmented reality image to the terminal apparatus CPU is executed using memory,
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. Displayed in the position ,
In the link line display step, one end of the link line can be switched between the first augmented reality image and the landmark .

15の発明は、第14の発明において、
前記リンク線表示ステップでは、
一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線が表示され、
前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする。
In a fifteenth aspect based on the fourteenth aspect ,
In the link line display step,
A link line having one end as the first augmented reality image and the other end as the second augmented reality image is displayed,
The link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.

16の発明は、第15の発明において、
前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示ステップでは、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線が描画されることを特徴とする。
A sixteenth invention, in the fifteenth invention,
When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line In the display step, the link line is drawn so as to extend from the display position of the second augmented reality image to the virtual display position.

17の発明は、第14から第16までのいずれかの発明において、
1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする。
According to a seventeenth aspect of the invention, in any one of the fourteenth to sixteenth aspects of the invention,
The display position of each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.

18の発明は、第14から第16までのいずれかの発明において、
1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする。
According to an eighteenth aspect of the invention, in any one of the fourteenth to sixteenth aspects of the invention,
During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.

19の発明は、第14から第18までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする。
According to a nineteenth invention, in any one of the fourteenth to eighteenth inventions,
In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. An augmented reality image is arranged.

20の発明は、第14から第19までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする。
In a twentieth invention according to any one of the fourteenth to nineteenth inventions,
In the second augmented reality image display step, the second augmented reality image is displayed in a region above a central portion of the video display region.

21の発明は、第20の発明において、
前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする。
The twenty-first invention is the twentieth invention,
In the second augmented reality image display step, the second augmented reality image is displayed in an area where a video corresponding to the sky of the photographed video is displayed.

22の発明は、第14から第21までのいずれかの発明において、
前記第2の拡張現実画像表示ステップでは、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像が表示されることを特徴とする。
According to a twenty- second invention, in any one of the fourteenth to twenty-first inventions,
In the second augmented reality image display step, the second augmented reality image is displayed in a character display area provided separately from the video display area and the map display area.

23の発明は、第14から第22までのいずれかの発明において、
前記リンク線表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする。
The twenty- third invention is the invention according to any one of the fourteenth to twenty- second inventions,
In the link line display step, each link line is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.

24の発明は、第23の発明において、
前記第2の拡張現実画像表示ステップでは、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする。
24th aspect of the present invention based on the twenty-third,
In the second augmented reality image display step, each second augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. A real image is displayed.

25の発明は、第14から第24までのいずれかの発明において、
前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする。
In a twenty-fifth aspect of the present invention, in any one of the fourteenth to twenty- fourth aspects,
In the route search step, a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.

上記第1の発明によれば、映像表示領域には、撮影映像とともにエアタグ(第1の拡張現実画像)が表示され、地図表示領域には、目的地までの進行経路を示す地図が表示されるとともに映像表示領域内のエアタグに対応するランドマークが表示される。また、エアタグに対応する文字タグ(第2の拡張現実画像)が所定の領域に表示される。以上のような表示が行われる経路案内装置において、文字タグとエアタグとを結ぶリンク線または文字タグとランドマークとを結ぶリンク線のうちの一方各時点に表示される。また、ユーザーは、リンク線の一端をエアタグとランドマークとの間で切り替えることができる。このため、各文字タグとそれに対応するエアタグやランドマークとの対応関係の把握が容易になる。従って、ユーザーは、各文字タグがどの事物・事象に関する説明をしているのかを容易に把握することが可能となる。また、各文字タグはほぼ同じ位置に固定された状態で表示される。このため、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。これにより、ユーザーが移動しながら経路案内装置を使用していても、良好な視認性を有する画像がユーザーに提供される。以上より、良好な視認性を有し、かつ、画面上に表示されている文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる経路案内装置が実現される。 According to the first aspect, an air tag (first augmented reality image) is displayed together with the captured video in the video display area, and a map indicating a travel route to the destination is displayed in the map display area. A landmark corresponding to the air tag in the video display area is also displayed. In addition, a character tag (second augmented reality image) corresponding to the air tag is displayed in a predetermined area. In the route guidance device display is performed as described above, one of the link lines connecting the link line or character tags and landmark connecting the character tag and Air Tags are displayed at each time point. The user can also switch one end of the link line between the air tag and the landmark. For this reason, it becomes easy to grasp the correspondence between each character tag and the corresponding air tag or landmark. Therefore, the user can easily grasp which thing / event each character tag explains. Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation | variation of the display position of the character tag accompanying a user's movement is suppressed. Thereby, even if the user moves and uses the route guidance device, an image having good visibility is provided to the user. As described above, a route guidance device is realized that has good visibility and allows the user to easily understand what object / event the character tag displayed on the screen describes. The

上記第の発明によれば、ユーザーによって装置の向きが変えられたり、あるいは、ユーザーが進行経路をたどることによって装置の位置が移動しても、常にエアタグとそれに対応する文字タグとがリンク線によって結ばれる。 According to the second aspect , even if the orientation of the device is changed by the user or the position of the device is moved by the user following the traveling path, the air tag and the corresponding character tag are always linked to each other. Tied by.

上記第の発明によれば、エアタグが視野角の範囲外に位置する場合であっても、文字タグの表示位置からエアタグの仮想表示位置へと伸びるようにリンク線が表示される。このため、ユーザーは、文字タグが視野角の範囲外の事物・事象についての情報を表している旨を把握することが可能となる。 According to the third aspect , the link line is displayed so as to extend from the display position of the character tag to the virtual display position of the air tag even when the air tag is located outside the range of the viewing angle. For this reason, the user can grasp that the character tag represents information about an object / event outside the range of the viewing angle.

上記第の発明によれば、文字タグは完全に固定された状態で表示されるので、ユーザーの動きに伴って文字タグの表示位置がぶれることはない。これにより、きわめて良好な視認性を有する画像がユーザーに提供される。 According to the fourth aspect , since the character tag is displayed in a completely fixed state, the display position of the character tag does not fluctuate with the movement of the user. Thereby, an image having very good visibility is provided to the user.

上記第の発明によれば、文字タグはほぼ同じ位置に固定された状態で表示されるので、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。ここで、仮に文字タグが完全に固定された状態で表示された場合、ユーザーが文字タグを例えばボタン(メニューボタン)と誤認することが懸念される。この点、文字タグが微小距離だけ移動し得るように構成されていると、例えばユーザーの動きに伴って文字タグがわずかに動くので、ユーザーによる上述のような誤認が防止される。 According to the fifth aspect , since the character tag is displayed in a state where it is fixed at substantially the same position, the fluctuation of the display position of the character tag accompanying the movement of the user is suppressed. Here, if the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as a button (menu button), for example. In this respect, if the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.

上記第の発明によれば、2つの文字タグが互いに重なり合うことが防止されるので、有用な情報が文字で確実にユーザーに提供される。 According to the sixth aspect , two character tags are prevented from overlapping each other, so that useful information is reliably provided to the user as characters.

上記第の発明によれば、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the seventh aspect , air tags and character tags are mixedly mixed in the video display area, and useful information is prevented from being hidden by the character tags.

上記第の発明によれば、より効果的に、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the eighth aspect , air tags and character tags are more effectively mixed in the video display area, and useful information is prevented from being hidden by the character tags.

上記第の発明によれば、エアタグと文字タグとは異なる領域に表示されるので、エアタグと文字タグとが混在することや有用な情報が文字タグによって隠されることが確実に防止される。 According to the ninth aspect , since the air tag and the character tag are displayed in different areas, it is possible to reliably prevent the air tag and the character tag from being mixed and useful information from being hidden by the character tag.

上記第10の発明によれば、画面上の文字タグと当該文字タグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the tenth aspect , the character tag on the screen and the link line corresponding to the character tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.

上記第11の発明によれば、映像表示領域中のエアタグと当該エアタグに対応する文字タグとは同じ色で表示される。このため、ユーザーは、エアタグと文字タグとの対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the eleventh aspect , the air tag in the video display area and the character tag corresponding to the air tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the air tag and the character tag. This makes it possible to guide the user to the destination more quickly.

上記第12の発明によれば、ユーザーに避難経路を案内するための経路案内装置において、表示画像に関して良好な視認性が得られるとともに、画面上に表示されている文字タグがどの事物・事象の説明をしているのかを容易に把握することが可能となる。 According to the twelfth aspect of the present invention, in the route guidance device for guiding the evacuation route to the user, it is possible to obtain a good visibility with respect to the display image, and the character tag displayed on the screen indicates which object / event. It is possible to easily grasp whether the explanation is given.

上記第13の発明によれば、上記第1の発明と同様の効果を経路案内方法の発明において奏することができる。 According to the thirteenth aspect , the same effect as that of the first aspect can be achieved in the route guidance method invention.

上記第14から上記第25の発明によれば、それぞれ上記第1から上記第12の発明と同様の効果を経路案内プログラムの発明において奏することができる。
According to the fourteenth to twenty- fifth aspects of the invention, the same effects as the first to twelfth aspects of the invention can be achieved in the route guidance program invention.

本発明の一実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。It is a block diagram which shows the apparatus structure which implement | achieves the evacuation guidance system which concerns on one Embodiment of this invention. 上記実施形態において、携帯端末装置のハードウェア構成を示すブロック図である。In the said embodiment, it is a block diagram which shows the hardware constitutions of a portable terminal device. 上記実施形態において、表示部内の領域についての詳細を示す図である。In the said embodiment, it is a figure which shows the detail about the area | region in a display part. 上記実施形態において、携帯端末装置の詳細な機能構成を示すブロック図である。In the said embodiment, it is a block diagram which shows the detailed functional structure of a portable terminal device. 上記実施形態において、個人状況入力手段の一画面例を示す図である。In the said embodiment, it is a figure which shows one screen example of a personal condition input means. 上記実施形態において、移動可能距離入力手段の一画面例を示す図である。In the said embodiment, it is a figure which shows one screen example of the movable distance input means. 上記実施形態において、周辺状況入力手段の一画面例を示す図である。In the said embodiment, it is a figure which shows the example of a screen of a periphery condition input means. 上記実施形態において、地図表示手段による地図の表示および映像表示手段による風景映像の表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the map by a map display means, and the display of the landscape image by a video display means. 上記実施形態において、ランドマーク表示手段によるランドマークの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the landmark by a landmark display means. 上記実施形態において、ワイヤーフレームについて説明するための図である。In the said embodiment, it is a figure for demonstrating a wire frame. 上記実施形態において、風景映像にワイヤーフレームが付加された映像の一例を示す図である。In the said embodiment, it is a figure which shows an example of the image | video by which the wire frame was added to the landscape image | video. 上記実施形態において、エアタグ表示手段によるエアタグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the air tag by an air tag display means. 上記実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記実施形態において、携帯端末装置での処理フローを示すフローチャートである。In the said embodiment, it is a flowchart which shows the processing flow in a portable terminal device. 上記実施形態において、風景映像にエアタグが付加された映像の一例を示す図である。In the said embodiment, it is a figure which shows an example of the image | video by which the air tag was added to the landscape image | video. 上記実施形態において、複数の文字タグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of a several character tag. 上記実施形態において、複数の文字タグの表示について説明するための図である。In the said embodiment, it is a figure for demonstrating the display of a several character tag. 上記実施形態において、文字タグの表示位置について説明するための図である。In the said embodiment, it is a figure for demonstrating the display position of a character tag. 上記実施形態において、文字タグの表示位置について説明するための図である。In the said embodiment, it is a figure for demonstrating the display position of a character tag. 上記実施形態において、文字タグの表示位置について説明するための図である。In the said embodiment, it is a figure for demonstrating the display position of a character tag. 上記実施形態において、風景映像中における文字タグの位置について説明するための図である。In the said embodiment, it is a figure for demonstrating the position of the character tag in a landscape image | video. 上記実施形態において、リンク線と文字タグとの位置関係について説明するための図である。In the said embodiment, it is a figure for demonstrating the positional relationship of a link line and a character tag. 上記実施形態において、リンク線と文字タグとの位置関係について説明するための図である。In the said embodiment, it is a figure for demonstrating the positional relationship of a link line and a character tag. 上記実施形態において、リアルタイムでの表示部へのリンク線の描画について説明するための図である。In the said embodiment, it is a figure for demonstrating drawing of the link line to the display part in real time. 上記実施形態において、エアタグの位置が映像表示領域外にあるときのリンク線の描画について説明するための図である。In the said embodiment, it is a figure for demonstrating drawing of a link line when the position of an air tag exists outside an image | video display area. 上記実施形態において、映像表示領域の上方の領域(空の映像が表示されている領域)に文字タグを配置することによる効果について説明するための図である。In the said embodiment, it is a figure for demonstrating the effect by arrange | positioning a character tag to the area | region (area | region where the empty image | video is displayed) above a video display area. 上記実施形態の第1の変形例における一表示例を示す図である。It is a figure which shows the example of a display in the 1st modification of the said embodiment. 上記実施形態の第2の変形例における一表示例を示す図である。It is a figure which shows the example of a display in the 2nd modification of the said embodiment. 上記実施形態の第3の変形例において、リンク線の一端の切り替えについて説明するための図である。It is a figure for demonstrating switching of the end of a link line in the 3rd modification of the said embodiment. 上記実施形態の変形例に関し、表示部の下方に地図表示領域を配置して表示部の上方に映像表示領域を配置した場合の一表示例を示す図である。It is a figure which shows one display example at the time of arrange | positioning a map display area below a display part and arrange | positioning a video display area above a display part regarding the modification of the said embodiment. 従来例における一表示例を示す図である。It is a figure which shows the example of a display in a prior art example. 文字タグをエアタグから離れた位置に配置した場合の一表示例を示す図である。It is a figure which shows the example of a display at the time of arrange | positioning the character tag in the position away from the air tag.

以下、添付図面を参照しつつ本発明の一実施形態について説明する。なお、以下においては、「アプリケーションソフトウェア」のことを「アプリ」と略記している。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. In the following, “application software” is abbreviated as “application”.

<1.全体構成>
図1は、本発明の一実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。この避難誘導システムは、携帯端末装置10とサーバ20とによって実現される。携帯端末装置10とサーバ20とは、インターネットなどの通信回線を介して接続されている。本実施形態においては、この避難誘導システムを実現するために、避難誘導アプリが携帯端末装置10にインストールされる。避難誘導アプリは、地震などの災害が発生した際にユーザーに現在位置から避難所までの避難経路を提示するためのソフトウェアである。ユーザーは、所定の操作により避難誘導アプリを起動することができる。このような避難誘導アプリを携帯端末装置10にインストールしておくことにより、ユーザーは、例えば土地勘のない場所で災害に遭遇しても、避難誘導アプリを使用することによって避難所に容易にたどり着くことが可能となる。
<1. Overall configuration>
FIG. 1 is a block diagram showing a device configuration for realizing an evacuation guidance system according to an embodiment of the present invention. This evacuation guidance system is realized by the mobile terminal device 10 and the server 20. The portable terminal device 10 and the server 20 are connected via a communication line such as the Internet. In the present embodiment, an evacuation guidance application is installed in the mobile terminal device 10 in order to realize this evacuation guidance system. The evacuation guidance application is software for presenting the evacuation route from the current position to the evacuation center when a disaster such as an earthquake occurs. The user can activate the evacuation guidance application by a predetermined operation. By installing such an evacuation guidance application in the mobile terminal device 10, even if a user encounters a disaster in a place where there is no land, for example, the user can easily reach the evacuation site by using the evacuation guidance application. It becomes possible.

図2は、携帯端末装置10のハードウェア構成を示すブロック図である。携帯端末装置10は、CPU11,フラッシュROM12,RAM13,通信制御部14,映像撮影部(カメラ)15,GPS処理部16,入力操作部17,表示部18,および傾きセンサ19を有している。CPU11は、この携帯端末装置10の全体を制御するために各種演算処理等を行う。フラッシュROM12は、書き込み可能な不揮発性のメモリであって、携帯端末装置10の電源がオフされても保持されるべき各種プログラム・各種データを格納する。RAM13は、書き込み可能な揮発性のメモリであって、実行中のプログラムやデータ等を一時的に格納する。通信制御部14は、外部へのデータ送信の制御や外部からのデータ受信の制御を行う。映像撮影部(カメラ)15は、ユーザーによる操作に基づいて、現在位置から見える風景の撮影を行う。GPS処理部16は、GPS衛星から受信する電波に基づいて、ユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得する。入力操作部17は、例えばタッチパネルであって、ユーザーによる入力操作を受け付ける。表示部18は、CPU11からの指令に基づいて、画像の表示を行う。傾きセンサ19は、この携帯端末装置10の傾きを示す角度情報を取得する。   FIG. 2 is a block diagram illustrating a hardware configuration of the mobile terminal device 10. The mobile terminal device 10 includes a CPU 11, a flash ROM 12, a RAM 13, a communication control unit 14, a video photographing unit (camera) 15, a GPS processing unit 16, an input operation unit 17, a display unit 18, and a tilt sensor 19. The CPU 11 performs various arithmetic processes and the like in order to control the entire mobile terminal device 10. The flash ROM 12 is a writable nonvolatile memory, and stores various programs and various data that should be retained even when the power of the mobile terminal device 10 is turned off. The RAM 13 is a writable volatile memory, and temporarily stores an executing program, data, and the like. The communication control unit 14 performs control of data transmission to the outside and control of data reception from the outside. The video shooting unit (camera) 15 shoots a landscape seen from the current position based on an operation by the user. The GPS processing unit 16 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites. The input operation unit 17 is a touch panel, for example, and accepts an input operation by a user. The display unit 18 displays an image based on a command from the CPU 11. The tilt sensor 19 acquires angle information indicating the tilt of the mobile terminal device 10.

避難誘導アプリが実行されているときにユーザーによって映像撮影部15を用いた撮影が行われると、表示部18内の領域は、例えば図3に示すように、地図を表示するための領域(以下、「地図表示領域」という。)18aと映像撮影部15による撮影で得られる映像(風景映像)を表示するための領域(以下、「映像表示領域」という。)18bとに分割される。本実施形態においては、図3に示すように、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置される。   When shooting using the video shooting unit 15 is performed by the user while the evacuation guidance application is being executed, an area in the display unit 18 is an area for displaying a map (hereinafter, as shown in FIG. 3 for example). , “Map display area”) 18a and an area (hereinafter referred to as “video display area”) 18b for displaying a video (landscape video) obtained by shooting by the video shooting unit 15. In the present embodiment, as shown in FIG. 3, a map display region 18 a is disposed above the display unit 18, and a video display region 18 b is disposed below the display unit 18.

携帯端末装置10内において、避難誘導アプリを実現する避難誘導プログラムは、フラッシュROM12に格納される。ユーザーによって避難誘導アプリの起動が指示されると、フラッシュROM12に格納されている避難誘導プログラムがRAM13に読み出され、そのRAM13に読み出された避難誘導プログラムをCPU11が実行することにより、避難誘導アプリの機能がユーザーに提供される。なお、避難誘導プログラムは、典型的にはインターネットなどの通信回線を介して所定のサーバ(不図示)から携帯端末装置10にダウンロードされ、当該携帯端末装置10内のフラッシュROM12にインストールされる。このように避難誘導プログラムが携帯端末装置10にインストールされることにより、本発明に係る経路案内装置が当該携帯端末装置10によって実現される。   In the mobile terminal device 10, an evacuation guidance program for realizing an evacuation guidance application is stored in the flash ROM 12. When the user gives an instruction to start the evacuation guidance application, the evacuation guidance program stored in the flash ROM 12 is read out to the RAM 13, and the CPU 11 executes the evacuation guidance program read into the RAM 13, whereby the evacuation guidance is performed. App functionality is provided to users. Note that the evacuation guidance program is typically downloaded from a predetermined server (not shown) to the mobile terminal device 10 via a communication line such as the Internet, and installed in the flash ROM 12 in the mobile terminal device 10. Thus, the route guidance device according to the present invention is realized by the mobile terminal device 10 by installing the evacuation guidance program in the mobile terminal device 10.

<2.機能構成>
図4は、携帯端末装置10の詳細な機能構成を示すブロック図である。携帯端末装置10は、GPS情報取得手段100,観光機能選択手段110,ユーザー情報送信手段120,データ受信手段121,データ記憶手段130,避難経路探索手段140,個人状況入力手段141,移動可能距離入力手段142,周辺状況入力手段143,地図表示手段150,観光情報表示手段160,映像表示手段170,エアタグ表示手段180,リンク線表示手段181,および文字タグ表示手段182を有している。地図表示手段150には、ランドマーク表示手段152が含まれている。
<2. Functional configuration>
FIG. 4 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10. The mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input. Means 142, surrounding state input means 143, map display means 150, sightseeing information display means 160, video display means 170, air tag display means 180, link line display means 181, and character tag display means 182. The map display means 150 includes landmark display means 152.

なお、本実施形態においては、避難経路探索手段140によって経路探索手段が実現され、エアタグ表示手段180によって第1の拡張現実画像表示手段が実現され、文字タグ表示手段182によって第2の拡張現実画像表示手段が実現されている。   In the present embodiment, the route search means is realized by the evacuation route search means 140, the first augmented reality image display means is realized by the air tag display means 180, and the second augmented reality image is realized by the character tag display means 182. A display means is realized.

GPS情報取得手段100は、GPS衛星から受信する電波に基づいてユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得し、その位置情報を示すGPSデータGdaを出力する。なお、GPS情報取得手段100は、ハードウェアとしてのGPS処理部16(図2参照)によって実現される。   The GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information. The GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.

観光機能選択手段110は、ユーザーの所望する観光機能(観光施設の各種情報の提示,観光コースの案内,宿泊施設・飲食店・土産店の紹介など)をユーザーに選択させるための手段である。ユーザーが観光機能を選択すると、観光機能選択手段110は、ユーザーによって選択された観光機能を示す機能選択データFdaを出力する。このように、本実施形態における避難誘導アプリは、平常時には観光のための情報をユーザーに提供することが可能となっている。但し、本発明はこれに限定されず、観光情報をユーザーに提供するための機能は必ずしも携帯端末装置10に設けられていなくても良い。   The sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.). When the user selects a sightseeing function, the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user. As described above, the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times. However, the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.

ユーザー情報送信手段120は、GPSデータGdaおよび機能選択データFdaをユーザーデータYdaとしてサーバ20に送信する。なお、GPSデータGdaは、例えば、ユーザーがこの避難誘導アプリを起動したタイミングおよびユーザーがこの避難誘導アプリを用いて何らかの操作を行ったタイミングで、携帯端末装置10からサーバ20へと送信される。また、ユーザーがこの避難誘導アプリを使用している期間中、所定期間毎にGPSデータGdaが携帯端末装置10からサーバ20に送信されるようにしても良い。   The user information transmission unit 120 transmits the GPS data Gda and the function selection data Fda to the server 20 as user data Yda. The GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.

データ受信手段121は、サーバ20から送信されるサーバデータSdaを受信する。このサーバデータSdaには、避難経路の探索に有用なデータである有意データMdaと、避難経路の案内に供される情報としてのエアタグを表示するためのエアタグデータAdaと、避難経路の案内に供される情報としての文字タグを表示するための文字タグデータCdaと、観光機能選択手段110によってユーザーに選択された観光機能に対応するデータである観光データKdaとが含まれている。また、有意データMdaには、地図データ,道路データ,避難所データなどの基礎データBdaの他に、例えば各道路の混雑度を示すデータが含まれている。サーバ20から送信されたサーバデータSdaのうちの有意データMdaは、データ記憶手段130に格納される。なお、データ記憶手段130はハードウェアとしてのフラッシュROM12またはRAM13(図2参照)によって実現される。また、避難誘導プログラムが携帯端末装置10にインストールされる際に有意データMdaをデータ記憶手段130にダウンロードしておくことによって、災害発生時に通信状態にかかわらず避難経路の探索を実行することが可能となる。   The data receiving unit 121 receives server data Sda transmitted from the server 20. The server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and evacuation route guidance. Character tag data Cda for displaying a character tag as information to be displayed, and tourism data Kda that is data corresponding to the tourism function selected by the user by the tourism function selection means 110 are included. In addition to the basic data Bda such as map data, road data, and shelter data, the significant data Mda includes, for example, data indicating the degree of congestion of each road. The significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130. The data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware. In addition, when the evacuation guidance program is installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.

個人状況入力手段141は、災害が発生した際のユーザー(被災者)の被災状況や運動能力(避難経路上の障害を回避・克服できる能力)をユーザーに入力させるための手段である。この個人状況入力手段141は、表示部18に例えば図5に示すような画面を表示することによって実現される。図5に示すように、例えば「登れる」,「走れる」,「平坦のみ」,「車いす」,「足の怪我」,「歩けない」,「担架」,「子連れ」,「乳母車」などの状態を示すボタンが表示される。ユーザーは、該当する状態を示すボタンを押すだけで良い。個人状況入力手段141によって入力された内容を示す個人状況データIdaは、避難経路探索手段140によって使用される。   The personal situation input means 141 is a means for causing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when the disaster occurs. The personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state. The personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.

なお、図5に示した画面は一例であって、画面のレイアウトや画面に表示される項目はこれには限定されない。この点については、後述する移動可能距離入力手段142(図6参照)および周辺状況入力手段143(図7参照)についても同様である。   Note that the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.

移動可能距離入力手段142は、災害が発生した際のユーザー(被災者)の移動手段や移動可能距離をユーザーに入力させるための手段である。この移動可能距離入力手段142は、表示部18に例えば図6に示すような画面を表示することによって実現される。図6に示すように、例えば「徒歩」,「自転車」,「車」などの移動手段を示すボタンと、移動可能距離の入力が可能な入力ボックスとが表示される。ユーザーは、該当する移動手段を示すボタンを押し、移動可能距離を入力する。移動可能距離入力手段142によって入力された内容を示す移動能力データDdaは、避難経路探索手段140によって使用される。   The movable distance input means 142 is a means for allowing the user (a disaster victim) to input a moving means and a movable distance when a disaster occurs. This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance. The moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.

周辺状況入力手段143は、災害が発生した際のユーザー(被災者)の周辺の状況をユーザーに入力させるための手段である。この周辺状況入力手段143は、表示部18に例えば図7に示すような画面を表示することによって実現される。周辺状況入力手段143は、図7に示すように、例えば災害状況および混雑状況の入力が可能なように構成されている。災害状況を入力するための領域には、例えば、「火事」,「水害」,「倒壊」,「地割れ」などの災害の種別を表すボタンと、「激しい」,「強い」,「中程度」,「弱い」などの災害の強度を表すボタンと、災害の規模の入力が可能な入力ボックスとが表示される。混雑状況を入力するための領域には、例えば、「危険」,「強い」,「普通」,「少し」などの混雑の程度を表すボタンと、混雑の範囲の入力が可能な入力ボックスとが表示される。ユーザーは、災害の種別,災害の強度,および混雑の程度を選択し、災害の規模および混雑の範囲を入力する。周辺状況入力手段143によって入力された内容を示す周辺状況データPdaは、避難経路探索手段140によって使用される。   The surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (disaster) when a disaster occurs. This peripheral condition input means 143 is realized by displaying a screen as shown in FIG. As shown in FIG. 7, the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation. The area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed. In the area for entering the congestion status, for example, buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion. The surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.

避難経路探索手段140は、GPSデータGdaと、ユーザーによって入力されたデータ(個人状況データIda,移動能力データDda,および周辺状況データPda)と、サーバ20から送信されデータ記憶手段130に格納されている有意データMdaとに基づいて、ユーザーにとっての最適な避難所・避難経路を探索する。観光情報表示手段160は、観光データKdaを表示部18に表示する。   The evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched. The tourism information display means 160 displays the tourism data Kda on the display unit 18.

地図表示手段150は、データ記憶手段130に格納されている基礎データBdaに基づいて表示部18内の地図表示領域18aに地図を表示する。その際、避難経路探索手段140によって既に避難所・避難経路の探索が行われている場合には、探索結果Reが地図に反映される。これにより、例えば図8に示すように、地図および探索結果Reとしての避難経路が地図表示領域18aに表示される。この地図表示手段150には、表示モードとして、ヘディングアップモードとノースアップモードとが用意されている。ヘディングアップモードとは、ユーザーの進行方向が常に画面上において上方向となるように、ユーザーの進行方向に応じて地図を回転させながら表示するモードである。ノースアップモードとは、北方向が画面上において上方向となるように地図を表示するモードである。また、この地図表示手段150は、ピンチ操作(複数の指で画面をつまんだり押し広げたりする操作)等によって地図の拡大・縮小・スクロールが可能なように構成されている。   The map display means 150 displays a map in the map display area 18 a in the display unit 18 based on the basic data Bda stored in the data storage means 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thereby, as shown in FIG. 8, for example, the map and the evacuation route as the search result Re are displayed in the map display area 18a. The map display means 150 has a heading-up mode and a north-up mode as display modes. The heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen. The north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen. Further, the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.

ランドマーク表示手段152は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、後述するエアタグ表示手段180によって映像表示領域18bに表示されるエアタグに対応するランドマーク(このランドマークは、後述する文字タグ表示手段182によって表示される文字タグにも対応する。)を地図表示領域18aに表示する。ランドマーク表示手段152は、例えば、避難所を示すランドマーク,火災や水害などの災害箇所を示すランドマークを表示する。これにより、地図表示領域18aには、例えば図9に示すように、ランドマークが付加された地図が表示される。なお、各ランドマークは、地図上において、当該ランドマークに対応するエアタグで表されている事物・事象の位置に表示される。すなわち、ランドマーク表示手段152は、地図表示領域18aに表示されている地図上の位置のうちの映像表示領域18bに表示されているエアタグに対応付けられる位置に、当該エアタグに対応するランドマークを表示する。   The landmark display means 152 is based on the air tag data Ada received by the data receiving means 121, and corresponds to an air tag displayed in the video display area 18b by the air tag display means 180 (to be described later). Corresponding to the character tag displayed by the character tag display means 182.) is displayed in the map display area 18a. The landmark display means 152 displays, for example, a landmark indicating a refuge and a landmark indicating a disaster location such as a fire or flood. As a result, a map with landmarks is displayed in the map display area 18a as shown in FIG. 9, for example. Each landmark is displayed on the map at the position of the thing / event represented by the air tag corresponding to the landmark. That is, the landmark display means 152 displays the landmark corresponding to the air tag at the position associated with the air tag displayed in the video display area 18b among the positions on the map displayed in the map display area 18a. indicate.

映像表示手段170は、上述した映像撮影部15による撮影で得られる風景映像を表示部18内の映像表示領域18bに表示する。これにより、例えば、図8に示すように、映像表示領域18bに風景映像が表示される。ところで、この避難誘導アプリにおいては、映像表示領域18bに表示されるエアタグと地図表示領域18aに表示されている地図上の位置との対応関係の把握を容易にするために、図10に示すような「ワイヤーフレーム」と呼ばれる画像が映像表示領域18bに表示される。図10に示すように、ワイヤーフレームは、進行方向に向かって伸びる縦軸と、進行方向とは垂直方向に伸びる横軸とによって構成される。隣接する2本の縦軸間の距離Xおよび隣接する2本の横軸間の距離Yは、避難誘導アプリによって定められた一定の距離を表している。   The video display means 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 8, a landscape video is displayed in the video display area 18b. By the way, in this evacuation guidance application, as shown in FIG. 10, in order to easily understand the correspondence between the air tag displayed in the video display area 18b and the position on the map displayed in the map display area 18a. An image called “wire frame” is displayed in the video display area 18b. As shown in FIG. 10, the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction. A distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.

ところで、このワイヤーフレームは、携帯端末装置10が地表面に対して垂直になっている場合に映像表示領域18bの中心が消失点となるように、遠近法を用いて表示される。従って、携帯端末装置10が地表面に対して垂直になっていれば、全ての縦軸の一方の端点は、映像表示領域18bの中心に存在する。また、携帯端末装置10が地表面に対して垂直になっている場合の映像表示領域18bの上下方向についての真ん中のラインが風景映像中の水平線(地平線)であるとみなされる。従って、上記消失点は、風景映像中の水平線(地平線)上に存在する。また、ワイヤーフレームの横軸の間隔については、映像表示領域18bの中心に近づくにつれて狭くなっている。以上のようなワイヤーフレームが風景映像に付加されることにより、図11に示すような映像が映像表示領域18bに表示される。なお、携帯端末装置10が上向きになっている場合(映像撮影部15による撮影方向が水平方向よりも上方向の場合)には、上記消失点は映像表示領域18bの中心よりも下方に位置し、携帯端末装置10が下向きになっている場合(映像撮影部15による撮影方向が水平方向よりも下方向の場合)には、上記消失点は映像表示領域18bの中心よりも上方に位置する。   By the way, this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b. By adding the wire frame as described above to the landscape video, a video as shown in FIG. 11 is displayed in the video display area 18b. When the mobile terminal device 10 is facing upward (when the image capturing direction by the image capturing unit 15 is upward from the horizontal direction), the vanishing point is located below the center of the image display area 18b. When the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.

エアタグ表示手段180は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、ユーザーが避難経路をたどって避難する際に当該ユーザーにとって有用となるような情報を表すエアタグ(拡張現実画像)を、ユーザーによって撮影されている風景映像に重ねて表示する。これにより、映像表示領域18bには、例えば、避難所を表すエアタグ,災害(火災,水害など)を表すエアタグ,混雑状況を表すエアタグ,進行経路を表す矢印状のエアタグなどが表示される。例えば図12に示す映像表示領域18bには、進行経路を表すエアタグ31,避難所を表すエアタグ32,および水害を表すエアタグ33が表示されている。なお、進行経路を表すエアタグ31を映像表示領域18bに表示することによって、ユーザーは、たとえパニック状態になっていても、目指すべき方向を容易に把握することが可能となる。   Based on the air tag data Ada received by the data receiving means 121, the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user. As a result, for example, an air tag representing a refuge, an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b. For example, in the video display area 18b shown in FIG. 12, an air tag 31 representing a traveling route, an air tag 32 representing a shelter, and an air tag 33 representing water damage are displayed. In addition, by displaying the air tag 31 representing the traveling route in the video display area 18b, the user can easily grasp the direction to be aimed even if the user is in a panic state.

ところで、各エアタグは、当該エアタグに対応する位置と現在位置(ユーザーの位置)とに基づく透視変換の結果を用いて表示される。このため、同じ種類の情報を表すエアタグに着目すると、現在位置に近い位置の情報を表すエアタグほど大きく表示され、現在位置から遠い位置の情報を表すエアタグほど小さく表示される。例えば、現在位置から近い位置で発生している火災を表すエアタグは大きく表示され、現在位置から遠い位置で発生している火災を表すエアタグは小さく表示される。また、上述のようにワイヤーフレームが風景映像に付加されていることから、ユーザーは、映像表示領域18b内におけるエアタグとワイヤーフレームとの位置関係に基づいて、当該エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置や方角をある程度推測することができる。   By the way, each air tag is displayed using the result of perspective transformation based on the position corresponding to the air tag and the current position (user position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.

また、エアタグ表示手段180によってエアタグが表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、映像表示領域18bにおけるエアタグの表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)エアタグは映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)エアタグは映像表示領域18b中の上方に表示される。   When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).

文字タグ表示手段182は、データ受信手段121によって受信された文字タグデータCdaに基づいて、映像表示領域18bに表示されているエアタグに関する情報を文字で表した文字タグを映像表示領域18bに表示する。例えば、避難所の情報を文字で表した図13(a)に示すような仮想的画像や火災の発生場所を文字で表した図13(b)に示すような仮想的画像などが文字タグとして表示される。文字タグは、典型的には、風景映像中の空に相当する領域に表示される。以上より、例えば、図14に示すような画像に文字タグが付加されることによって、表示部18には図15に示すような画像が表示される。なお、必ずしも映像表示領域18bに表示されている全てのエアタグについて対応する文字タグが表示される必要はない。文字タグの表示に関する更に詳しい説明は後述する。   Based on the character tag data Cda received by the data receiving means 121, the character tag display means 182 displays in the video display area 18b a character tag representing information related to the air tag displayed in the video display area 18b. . For example, a virtual image as shown in FIG. 13 (a) representing the information of the refuge, a virtual image as shown in FIG. 13 (b) representing the location of the fire as characters, and the like are used as the character tags. Is displayed. The character tag is typically displayed in an area corresponding to the sky in a landscape video. As described above, for example, an image as shown in FIG. 15 is displayed on the display unit 18 by adding a character tag to the image as shown in FIG. It is not always necessary to display the corresponding character tags for all the air tags displayed in the video display area 18b. A more detailed explanation about the display of the character tag will be described later.

リンク線表示手段181は、映像表示領域18bに表示される各エアタグの位置データPAと各エアタグに対応する文字タグの位置データPMとに基づいて、映像表示領域18b内のエアタグとそれに対応する文字タグとを結ぶ線(以下、「リンク線」という。)を表示部18に表示する。例えば、図16(a)に示すように、映像表示領域18bにおいて避難所を表すエアタグA1が表示されるとともにそのエアタグA1に対応する文字タグM1が表示されるとき、リンク線表示手段181は、図16(b)に示すように、エアタグA1と文字タグM1とを結ぶリンク線LKを表示部18に表示する。このようにして、例えば表示部18に図15に示すような画像(地図および映像)が表示されるときには、図17に示すようにリンク線が表示される。図17に示す例では、リンク線として、建物等(この例では駅)を表すエアタグと当該エアタグに対応する文字タグとを結ぶリンク線LK1と、避難所を表すエアタグと当該エアタグに対応する文字タグとを結ぶリンク線LK2〜LK4とが表示されている。リンク線の表示に関する更に詳しい説明は後述する。また、図17においてリンク線LK4は映像表示領域18b外に伸びるように表示されているが、これについての説明も後述する。   Based on the position data PA of each air tag displayed in the video display area 18b and the position data PM of the character tag corresponding to each air tag, the link line display means 181 and the air tag in the video display area 18b and the characters corresponding thereto. A line connecting the tags (hereinafter referred to as “link line”) is displayed on the display unit 18. For example, as shown in FIG. 16A, when an air tag A1 representing a refuge is displayed in the video display area 18b and a character tag M1 corresponding to the air tag A1 is displayed, the link line display means 181 As shown in FIG. 16B, a link line LK connecting the air tag A1 and the character tag M1 is displayed on the display unit 18. Thus, for example, when an image (map and video) as shown in FIG. 15 is displayed on the display unit 18, a link line is displayed as shown in FIG. In the example shown in FIG. 17, as a link line, a link line LK1 connecting an air tag representing a building or the like (station in this example) and a character tag corresponding to the air tag, an air tag representing a shelter, and characters corresponding to the air tag Link lines LK2 to LK4 connecting the tags are displayed. More detailed description regarding the display of the link line will be described later. In FIG. 17, the link line LK4 is displayed so as to extend out of the video display area 18b. This will also be described later.

なお、本実施形態においては、エアタグによって第1の拡張現実画像が実現され、文字タグによって第2の拡張現実画像が実現されている。   In the present embodiment, the first augmented reality image is realized by the air tag, and the second augmented reality image is realized by the character tag.

<3.処理フロー>
次に、図18に示すフローチャートを参照しつつ、携帯端末装置10での処理フローについて説明する。携帯端末装置10では、まず、避難誘導アプリが起動される(ステップS100)。避難誘導アプリの起動後、ユーザーは、経路探索機能を選択する(ステップS110)。そして、GPS情報取得手段100によるGPSデータGdaの取得および当該GPSデータGdaのサーバ20への送信が行われる(ステップS120)。その後、GPSデータGdaに基づくサーバデータSdaの受信が行われる(ステップS130)。すなわち、ステップS130では、携帯端末装置10は、有意データMdaやエアタグデータAdaや文字タグデータCdaなどをサーバ20から受信する。
<3. Processing flow>
Next, a processing flow in the mobile terminal device 10 will be described with reference to the flowchart shown in FIG. In the mobile terminal device 10, first, an evacuation guidance application is activated (step S100). After starting the evacuation guidance application, the user selects a route search function (step S110). Then, the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S120). Thereafter, server data Sda based on the GPS data Gda is received (step S130). That is, in step S <b> 130, the mobile terminal device 10 receives significant data Mda, air tag data Ada, character tag data Cda, and the like from the server 20.

次に、ユーザーは、個人状況入力手段141によって、ユーザーの被災状況や運動能力などの個人状況の入力を行う(ステップS140)。また、ユーザーは、移動可能距離入力手段142によって、移動手段および移動可能距離の入力を行う(ステップS150)。さらに、ユーザーは、周辺状況入力手段143によって、ユーザーの周囲の災害状況や混雑状況などの周辺状況の入力を行う(ステップS160)。   Next, the user inputs the personal status such as the user's disaster status and athletic ability using the personal status input means 141 (step S140). In addition, the user inputs the moving means and the movable distance through the movable distance input means 142 (step S150). Further, the user inputs a peripheral situation such as a disaster situation or a congestion situation around the user by the peripheral situation input unit 143 (step S160).

ユーザーによって個人状況,移動手段・移動可能距離,および周辺状況の入力が行われた後、避難経路探索手段140による避難経路探索処理(避難所・避難経路を探索する処理)が実行される(ステップS170)。避難経路探索処理の実行後、ユーザーによって映像撮影部(カメラ)15による風景映像の撮影が行われ、当該風景映像が表示部18の映像表示領域18bに表示される(ステップS180)。   After the user inputs the personal situation, the moving means / movable distance, and the surrounding situation, an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S170). After execution of the evacuation route search process, the user captures a landscape video by the video imaging unit (camera) 15 and displays the landscape video in the video display area 18b of the display unit 18 (step S180).

その後、地図表示手段150によって、地図,道路,避難所,および避難経路が表示部18の地図表示領域18aに表示される(ステップS190)。そして、映像表示領域18bに表示されている風景映像に、避難経路の案内に供される情報としてのエアタグが重ねて表示される(ステップS200)。また、各エアタグに対応するランドマークが地図表示領域18aの地図上に表示される(ステップS210)。さらに、各エアタグに対応する文字タグが映像表示領域18bに表示される(ステップS220)。さらにまた、エアタグと文字タグとを結ぶリンク線が表示部18に表示される(ステップS230)。   Thereafter, the map display means 150 displays the map, road, shelter, and evacuation route in the map display area 18a of the display unit 18 (step S190). Then, an air tag as information provided for the guidance of the evacuation route is superimposed on the landscape video displayed in the video display area 18b (step S200). Also, landmarks corresponding to each air tag are displayed on the map in the map display area 18a (step S210). Further, a character tag corresponding to each air tag is displayed in the video display area 18b (step S220). Furthermore, a link line connecting the air tag and the character tag is displayed on the display unit 18 (step S230).

以上のようにして、例えば、ステップS190の終了時点においては図11に示すような画像が表示部18に表示され、ステップS200の終了時点においては図19に示すような画像が表示部18に表示され、ステップS210の終了時点においては図14に示すような画像が表示部18に表示され、ステップS220の終了時点においては図15に示すような画像が表示部18に表示され、ステップS230の終了時点においては図17に示すような画像が表示部18に表示される。但し、ステップS190からステップS230までの処理時間は極めて短い時間であるので、人の目には図17に示すような画像が瞬時に知覚される。   As described above, for example, an image as shown in FIG. 11 is displayed on the display unit 18 at the end of step S190, and an image as shown in FIG. 19 is displayed on the display unit 18 at the end of step S200. At the end of step S210, an image as shown in FIG. 14 is displayed on the display unit 18. At the end of step S220, an image as shown in FIG. 15 is displayed on the display unit 18, and the end of step S230 is completed. At the time, an image as shown in FIG. 17 is displayed on the display unit 18. However, since the processing time from step S190 to step S230 is extremely short, an image as shown in FIG. 17 is immediately perceived by human eyes.

なお、本実施形態においては、ステップS170によって経路探索ステップが実現され、ステップS180によって映像表示ステップが実現され、ステップS190によって地図表示ステップが実現され、ステップS200によって第1の拡張現実画像表示ステップが実現され、ステップS220によって第2の拡張現実画像表示ステップが実現され、ステップS230によってリンク線表示ステップが実現されている。   In the present embodiment, the route search step is realized by step S170, the video display step is realized by step S180, the map display step is realized by step S190, and the first augmented reality image display step is executed by step S200. The step S220 realizes the second augmented reality image display step, and the step S230 realizes the link line display step.

<4.文字タグ>
次に、文字タグ表示手段182によって映像表示領域18bに表示される文字タグについて詳しく説明する。
<4. Character tag>
Next, the character tag displayed in the video display area 18b by the character tag display means 182 will be described in detail.

<4.1 複数の文字タグの表示について>
映像表示領域18bに複数の文字タグが表示される際、それら複数の文字タグが互いに重なることのないように、映像表示領域18b内における各文字タグの配置位置が決定される。仮に2つの文字タグ(文字タグM2および文字タグM3)を画面上で横方向に並べて配置すると図20(a)に示すようにそれら2つの文字タグが互いに重なり合う場合、図20(b)に示すように、画面上における縦方向についての配置位置を文字タグM2と文字タグM3とで異ならせる。このようにして、映像表示領域18bに表示される任意の2つ文字タグに関し、それら2つの文字タグが互いに重なり合うことが防止されている。
<4.1 Display of multiple character tags>
When a plurality of character tags are displayed in the video display area 18b, the arrangement positions of the character tags in the video display area 18b are determined so that the plurality of character tags do not overlap each other. If two character tags (character tag M2 and character tag M3) are arranged side by side in the horizontal direction on the screen and the two character tags overlap each other as shown in FIG. 20 (a), they are shown in FIG. 20 (b). Thus, the arrangement position in the vertical direction on the screen is made different between the character tag M2 and the character tag M3. In this way, regarding any two character tags displayed in the video display area 18b, the two character tags are prevented from overlapping each other.

例えば、図21(a)に示すように、2つの文字タグ(文字タグM4および文字タグM5)の文字の合計数が比較的少ない場合には、それら2つの文字タグは横方向に並べて配置される。これに対して、図21(b)に示すように、2つの文字タグ(文字タグM6および文字タグM7)の文字の合計数が比較的多い場合には、画面上において一方の文字タグ(この例では文字タグM7)が他方の文字タグ(この例では文字タグM6)の下方に配置される。   For example, as shown in FIG. 21A, when the total number of characters of two character tags (character tag M4 and character tag M5) is relatively small, these two character tags are arranged side by side. The In contrast, as shown in FIG. 21B, when the total number of characters of the two character tags (character tag M6 and character tag M7) is relatively large, one character tag (this In the example, the character tag M7) is arranged below the other character tag (in this example, the character tag M6).

また、本実施形態においては、図21(b)に示したように複数の文字タグを縦方向に並べて配置する場合、現在位置(ユーザーの位置)から遠い距離にある事物・事象を表す文字タグほど映像表示領域18bの上方に配置される。但し、本発明はこれに限定されず、現在位置から近い距離にある事物・事象を表す文字タグほど映像表示領域18bの上方に配置しても良いし、それ以外の所定の規則に従って複数の文字タグを映像表示領域18bに配置するようにしても良い。   Further, in the present embodiment, when a plurality of character tags are arranged in the vertical direction as shown in FIG. 21B, the character tag representing an object / event at a distance far from the current position (user's position). It is arranged above the video display area 18b. However, the present invention is not limited to this, and a character tag representing an object / event that is closer to the current position may be arranged above the video display area 18b, or a plurality of characters according to other predetermined rules. A tag may be arranged in the video display area 18b.

<4.2 文字タグの表示位置について>
本実施形態においては、文字タグが表示されると、当該文字タグはほぼ同じ位置に固定された状態で表示される。詳しくは、文字タグは、微小距離だけ移動し得るような限られた範囲内の位置に表示される。換言すれば、文字タグは、表示されている期間中、完全に同じ位置に固定されているわけではなく、わずかな距離だけ移動し得る。例えば、図22に示すように文字タグM8が表示された場合、当該文字タグM8は符号50の点線で示す範囲内で移動し得る。以上のように、文字タグは、縦方向および横方向に微小距離だけ移動し得る状態で表示される。
<4.2 Character tag display position>
In the present embodiment, when a character tag is displayed, the character tag is displayed in a state of being fixed at substantially the same position. Specifically, the character tag is displayed at a position within a limited range that can move by a minute distance. In other words, the character tag is not fixed at the exact same position during the displayed period and can move a small distance. For example, when the character tag M8 is displayed as shown in FIG. 22, the character tag M8 can move within the range indicated by the dotted line 50. As described above, the character tag is displayed in a state where it can move by a minute distance in the vertical direction and the horizontal direction.

但し、現在位置から各文字タグに対応する事物・事象までの距離が変化したことに伴って文字タグの並び順が変わる際には、各文字タグは大きく移動し得る。例えば、図23(a)に示すように4つの文字タグM11〜M14が表示されていると仮定する。ここで、文字タグM12および文字タグM13に着目する。図23(a)に示す例では、文字タグM13に対応する避難所から現在位置までの距離よりも文字タグM12に対応する避難所から現在位置までの距離の方が長いので、文字タグM13よりも文字タグM12の方が上方に配置されている。ここで、ユーザーが避難経路をたどったことによって、文字タグM12に対応する避難所から現在位置までの距離よりも文字タグM13に対応する避難所から現在位置までの距離の方が長くなったとする。この場合、図23(b)に示すように、文字タグM12よりも文字タグM13の方が上方に配置される。また、図24(a)に示すように4つの文字タグM11〜M14が表示されていると仮定する。ここで、ユーザーが避難経路をたどったことによって、新たな文字タグM15が表示されるべき状態になったとする。このとき、文字タグM15に対応する事物(ここでは駅)から現在位置までの距離が最も長ければ、図24(b)に示すように、文字タグM15が最も上方に配置され、文字タグM11〜M14はそれぞれ元の位置よりも下方に配置される。   However, when the arrangement order of the character tags changes with the change in the distance from the current position to the thing / event corresponding to each character tag, each character tag can move greatly. For example, assume that four character tags M11 to M14 are displayed as shown in FIG. Here, attention is paid to the character tag M12 and the character tag M13. In the example shown in FIG. 23A, the distance from the shelter corresponding to the character tag M12 to the current position is longer than the distance from the shelter corresponding to the character tag M13 to the current position. The character tag M12 is also arranged on the upper side. Here, it is assumed that the distance from the shelter corresponding to the character tag M13 to the current position becomes longer than the distance from the shelter corresponding to the character tag M12 to the current position due to the user following the evacuation route. . In this case, as shown in FIG. 23B, the character tag M13 is disposed above the character tag M12. Further, it is assumed that four character tags M11 to M14 are displayed as shown in FIG. Here, it is assumed that a new character tag M15 is to be displayed due to the user following the evacuation route. At this time, if the distance from the object (here, the station) corresponding to the character tag M15 to the current position is the longest, as shown in FIG. 24B, the character tag M15 is arranged at the uppermost position, and the character tags M11 to M11. M14 is arranged below the original position.

以上のように、本実施形態においては、1以上の文字タグが同じ並び順で表示されている期間中、各文字タグはほぼ同じ位置(微小距離だけ移動し得る範囲内の位置)に固定された状態で表示される。但し、本発明はこれに限定されない。1以上の文字タグが同じ並び順で表示されている期間中、各文字タグの表示位置が完全に固定されても良いし、各文字タグが縦方向または横方向の一方のみに微小距離だけ移動し得るようにしても良い。これに関し、仮に文字タグが完全に固定された状態で表示されると、ユーザーが文字タグを例えばボタン(メニューボタン)と誤認することが懸念される。この点、文字タグが微小距離だけ移動し得るように構成されていると、例えばユーザーの動きに伴って文字タグがわずかに動くので、ユーザーによる上述のような誤認が防止される。   As described above, in the present embodiment, during a period in which one or more character tags are displayed in the same order, each character tag is fixed at substantially the same position (a position within a range that can be moved by a minute distance). It is displayed in the state. However, the present invention is not limited to this. During the period when one or more character tags are displayed in the same order, the display position of each character tag may be completely fixed, or each character tag may be moved by a minute distance in only one of the vertical and horizontal directions. You may make it possible. In this regard, if the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as, for example, a button (menu button). In this respect, if the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.

<4.3 風景映像中における文字タグの位置>
ユーザーによって映像撮影部15を用いた風景映像の撮影が行われると、図25に示すように、映像表示領域18bの上方の領域(符号40で示す領域)には風景映像のうちの空の映像が表示されることが多い。このような空の映像が表示されている領域に各種情報が表示されたとしても、それらの各種情報は、ユーザーが画面を見ながら避難を行うに際して何ら妨げにはならないと考えられる。そこで、本実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。その際、上述したように、複数の文字タグが表示される場合には、それら複数の文字タグが互いに重なることのないように各文字タグの配置位置が決定される。
<4.3 Position of character tag in landscape video>
When the user captures a landscape video using the video imaging unit 15, as shown in FIG. 25, an empty video of the landscape video is displayed in the area above the video display area 18b (area indicated by reference numeral 40). Is often displayed. Even if various kinds of information are displayed in the area where such an empty image is displayed, it is considered that the various kinds of information do not hinder the user from evacuating while looking at the screen. Therefore, in the present embodiment, a character tag is arranged in an area above the video display area 18b (an area where an empty video is displayed). At this time, as described above, when a plurality of character tags are displayed, the arrangement positions of the character tags are determined so that the plurality of character tags do not overlap each other.

<5.リンク線>
次に、リンク線表示手段181によって表示部18に表示されるリンク線について詳しく説明する。
<5. Link line>
Next, the link line displayed on the display unit 18 by the link line display unit 181 will be described in detail.

<5.1 リンク線と文字タグとの位置関係>
本実施形態においては、リンク線によってエアタグと文字タグとが結ばれるところ、リンク線の文字タグ側の端部は、文字タグの長手方向のほぼ中央部に配置される。従って、リンク線は、例えば図26に示すように表示される。このようにして全てのリンク線について一端部を文字タグの長手方向のほぼ中央部に配置することによって、例えば図27に示すように複数の文字タグM16〜M18が表示されている場合に、ユーザーは、文字タグM16はリンク線LK16に対応し、文字タグM17はリンク線LK17に対応し、文字タグM18はリンク線LK18に対応しているということを容易に把握することができる。なお、必ずしもリンク線の文字タグ側の端部を文字タグの長手方向のほぼ中央部に配置する必要はない。例えば、リンク線の文字タグ側の端部を文字タグの長手方向の一端に配置しても良い。
<5.1 Relationship between link lines and character tags>
In the present embodiment, when the air tag and the character tag are connected by the link line, the end of the link line on the character tag side is arranged at the substantially central portion in the longitudinal direction of the character tag. Accordingly, the link line is displayed as shown in FIG. 26, for example. In this way, by arranging one end portion of all the link lines almost at the center portion in the longitudinal direction of the character tag, for example, when a plurality of character tags M16 to M18 are displayed as shown in FIG. It can be easily understood that the character tag M16 corresponds to the link line LK16, the character tag M17 corresponds to the link line LK17, and the character tag M18 corresponds to the link line LK18. Note that the end of the link line on the character tag side is not necessarily arranged at the substantially central portion in the longitudinal direction of the character tag. For example, the end of the link line on the character tag side may be arranged at one end in the longitudinal direction of the character tag.

<5.2 リンク線の色>
本実施形態においては、各リンク線の色は、対応するエアタグの色および対応する文字タグの色と同じにされる。これにより、エアタグ,文字タグ,およびリンク線の対応関係を把握することがユーザーにとって容易となる。但し、本発明はこれに限定されず、リンク線の色を必ずしも対応するエアタグの色および対応する文字タグの色と同じにする必要はない。
<5.2 Link line color>
In this embodiment, the color of each link line is the same as the color of the corresponding air tag and the color of the corresponding character tag. This makes it easy for the user to grasp the correspondence between the air tag, the character tag, and the link line. However, the present invention is not limited to this, and the color of the link line is not necessarily the same as the color of the corresponding air tag and the color of the corresponding character tag.

<5.3 リンク線の描画>
ユーザーによって携帯端末装置10の向きが変えられたり、あるいは、ユーザーが避難経路をたどることによって携帯端末装置10の位置が移動すると、映像表示領域18bに表示されているエアタグの位置が変化する。このようなエアタグの位置の変化にリンク線は追従する。すなわち、リンク線表示手段181は、映像表示領域18bに表示されているエアタグの位置の変化に応じて、リアルタイムでリンク線を描画する。
<5.3 Drawing link lines>
When the orientation of the mobile terminal device 10 is changed by the user or when the position of the mobile terminal device 10 is moved by the user following the evacuation route, the position of the air tag displayed in the video display area 18b changes. The link line follows such a change in the position of the air tag. That is, the link line display means 181 draws the link line in real time according to the change in the position of the air tag displayed in the video display area 18b.

例えば、或る時点において、エアタグA20,文字タグM20,およびリンク線LK20が図28(a)に示すように表示されていたと仮定する。ここで、例えばユーザーが進行方向を変えたことによって、映像表示領域18bにおいてエアタグA20の位置が図28(b)で符号51で示す矢印のように移動したとする。このとき、エアタグA20の位置の変化に従って、リンク線LK20は図28(a)に示す状態から図28(c)に示す状態に変化する。   For example, assume that the air tag A20, the character tag M20, and the link line LK20 are displayed as shown in FIG. Here, for example, it is assumed that the position of the air tag A20 is moved as indicated by an arrow 51 in FIG. 28B in the video display area 18b due to the user changing the traveling direction. At this time, the link line LK20 changes from the state shown in FIG. 28A to the state shown in FIG. 28C in accordance with the change in the position of the air tag A20.

ところで、本実施形態に係る避難誘導システムでは、例えば現在位置から所定範囲内にある事物・事象を表すエアタグが映像表示領域18bに表示されるように、表示の設定が行われる。しかしながら、ユーザーの視野角の範囲外にある事物・事象については、たとえ現在位置から所定範囲内にあっても、当該事物・事象を表すエアタグは映像表示領域18bには表示されない。このような場合、本実施形態においては、エアタグに対応する文字タグについては映像表示領域18bに表示される。そして、映像表示領域18bに表示されている文字タグから映像表示領域18b外におけるエアタグの仮想的な表示位置へと伸びるようにリンク線が表示される。すなわち、文字タグに対応するエアタグの位置が映像表示領域18b外に存在するときの当該エアタグの位置を仮想表示位置と定義すると、リンク線表示手段181は、文字タグの表示位置から仮想表示位置へと伸びるようにリンク線を表示する。   By the way, in the evacuation guidance system according to the present embodiment, display setting is performed such that, for example, an air tag representing an object / event within a predetermined range from the current position is displayed in the video display area 18b. However, for things / events that are outside the range of the viewing angle of the user, even if they are within a predetermined range from the current position, the air tag representing the things / events is not displayed in the video display area 18b. In such a case, in this embodiment, the character tag corresponding to the air tag is displayed in the video display area 18b. Then, a link line is displayed so as to extend from the character tag displayed in the video display area 18b to the virtual display position of the air tag outside the video display area 18b. In other words, if the position of the air tag corresponding to the character tag is outside the video display area 18b and the position of the air tag is defined as the virtual display position, the link line display means 181 moves from the character tag display position to the virtual display position. A link line is displayed so as to extend.

例えば、或る時点において、エアタグA21,文字タグM21,およびリンク線LK21が図29(a)に示すように表示されていたと仮定する。ここで、例えばユーザーが避難経路をたどったことによって、エアタグA21の位置が図29(b)で符号52で示す矢印のように移動したとする(移動後のエアタグA21の位置は、映像表示領域18b外の位置である)。このとき、エアタグA21の位置の変化に従って、リンク線LK21は図29(a)に示す状態から図29(c)に示す状態に変化する。   For example, assume that at a certain point in time, the air tag A21, the character tag M21, and the link line LK21 are displayed as shown in FIG. Here, for example, it is assumed that the position of the air tag A21 has moved as indicated by the arrow 52 in FIG. 29B due to the user following the evacuation route (the position of the air tag A21 after the movement is the video display area). 18b). At this time, the link line LK21 changes from the state shown in FIG. 29A to the state shown in FIG. 29C in accordance with the change in the position of the air tag A21.

<6.効果>
本実施形態によれば、携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、避難経路を示す地図を地図表示領域18aに表示する地図表示手段150と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路の案内に供される情報としてのエアタグを風景映像に重ねて表示するエアタグ表示手段180と、避難経路の案内に供される情報としての文字タグを表示する文字タグ表示手段182と、エアタグと文字タグとを結ぶリンク線を表示するリンク線表示手段181とが設けられている。上記構成により、映像表示領域18bには、避難に有用な情報としてのエアタグおよび当該エアタグに対応する文字タグが風景映像とともに表示され、地図表示領域18aには、避難経路を示す地図が表示される。そして、エアタグと文字タグとがリンク線によって結ばれる。このため、各エアタグとそれに対応する文字タグとの対応関係の把握が容易になる。従って、ユーザーは、各文字タグがどのエアタグに関する説明をしているのかを容易に把握することが可能となる。また、各文字タグはほぼ同じ位置に固定された状態で表示される。このため、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。これにより、ユーザーが移動しながらこの避難誘導アプリを使用していても、良好な視認性を有する画像がユーザーに提供される。以上より、本実施形態によれば、良好な視認性を有し、かつ、画面上に表示されている文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる避難誘導システムが実現される。
<6. Effect>
According to the present embodiment, the mobile terminal device 10 has an evacuation route search means 140 for searching for an evacuation route, a map display means 150 for displaying a map indicating the evacuation route in the map display area 18a, and a user taking a picture. Image display means 170 for displaying a landscape image, air tag display means 180 for displaying an air tag as information provided for evacuation route guidance superimposed on the landscape image, and information for evacuation route guidance. Character tag display means 182 for displaying a character tag and link line display means 181 for displaying a link line connecting the air tag and the character tag are provided. With the above configuration, an air tag as information useful for evacuation and a character tag corresponding to the air tag are displayed together with a landscape video in the video display area 18b, and a map indicating the evacuation route is displayed in the map display area 18a. . The air tag and the character tag are connected by a link line. For this reason, it becomes easy to grasp the correspondence between each air tag and the corresponding character tag. Therefore, the user can easily grasp which air tag each character tag is explaining. Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation | variation of the display position of the character tag accompanying a user's movement is suppressed. Thereby, even if the user moves and uses the evacuation guidance application, an image having good visibility is provided to the user. As described above, according to the present embodiment, the user can easily understand which things / events the character tag displayed on the screen has good visibility and explain. A possible evacuation guidance system is realized.

また、本実施形態によれば、文字タグ表示手段182が設けられていることにより、各エアタグの情報すなわち避難経路をたどる際に有用となる情報(例えば、火災が発生している詳細な場所の情報)を文字でユーザーに提供することが可能となる。これにより、災害発生時に、より詳細な情報がユーザーに提供され、ユーザーは安全かつ確実に避難することが可能となる。   In addition, according to the present embodiment, by providing the character tag display means 182, information useful for tracing the information of each air tag, that is, the evacuation route (for example, the detailed location where the fire has occurred). Information) can be provided to the user in text. Thereby, when a disaster occurs, more detailed information is provided to the user, and the user can evacuate safely and reliably.

さらに、本実施形態によれば、互いに対応するエアタグ,文字タグ,およびリンク線は、全て同じ色になっている。このため、ユーザーは、エアタグ,文字タグ,およびリンク線の対応関係を容易に把握することができる。これにより、より速やかにユーザーを避難させることが可能となる。   Furthermore, according to the present embodiment, the air tag, the character tag, and the link line corresponding to each other have the same color. For this reason, the user can easily grasp the correspondence between the air tag, the character tag, and the link line. This makes it possible to evacuate the user more quickly.

さらにまた、本実施形態によれば、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。仮に文字タグを当該文字タグに対応するエアタグの近傍に配置した場合、図30(a)に示すように、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在することとなる。このようにエアタグや文字タグが密に混在する映像は、ユーザーにとっては視認性の悪い映像である。また、避難に際して有用な情報が文字タグによって隠されてしまうことも懸念される。以上より、図30(a)に示すように文字タグが表示される場合、特に災害発生によってユーザーがパニック状態になっていると、ユーザーにとっては進行方向を迅速に正しく把握することが困難である。この点、本実施形態によれば、図30(b)に示すように、文字タグは映像表示領域18bの上方の領域(空の映像が表示されている領域)40に表示される。このため、映像表示領域18bにおいてエアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。しかも、文字タグによって、エアタグで示されている事物(例えば避難所)・事象(例えば火災)に関する詳細な情報をユーザーに提供することができる。さらに、上述したようにエアタグと文字タグとがリンク線によって結ばれるので、たとえ文字タグがエアタグから離れた位置に表示されていても、ユーザーは文字タグとエアタグとの対応関係を容易に把握することが可能となる。   Furthermore, according to the present embodiment, the character tag is arranged in the area above the video display area 18b (area where an empty video is displayed). If a character tag is arranged in the vicinity of an air tag corresponding to the character tag, as shown in FIG. 30 (a), air tags and character tags are closely mixed in the area where the buildings and roads are displayed in the landscape video. Will be. Thus, an image in which air tags and character tags are densely mixed is an image with poor visibility for the user. In addition, there is a concern that useful information during evacuation may be hidden by character tags. From the above, when a character tag is displayed as shown in FIG. 30A, it is difficult for the user to quickly and correctly grasp the direction of travel, especially when the user is in a panic due to a disaster. . In this regard, according to the present embodiment, as shown in FIG. 30B, the character tag is displayed in an area 40 (an area where an empty image is displayed) above the image display area 18b. For this reason, air tags and character tags are not mixed closely in the video display area 18b, and useful information is not hidden by the character tags. In addition, the character tag can provide the user with detailed information regarding an object (for example, a shelter) or an event (for example, a fire) indicated by the air tag. Furthermore, as described above, since the air tag and the character tag are connected by the link line, even if the character tag is displayed at a position away from the air tag, the user can easily grasp the correspondence between the character tag and the air tag. It becomes possible.

<7.変形例など>
<7.1 第1の変形例>
上記実施形態においては、文字タグは映像表示領域18bに表示されていた。しかしながら、本発明はこれに限定されない。本変形例においては、図31に示すように、地図表示領域18aや映像表示領域18bとは別に文字タグ専用の文字表示領域18cが設けられる。そして、その文字表示領域18cに全ての文字タグが表示される。
<7. Variations>
<7.1 First Modification>
In the above embodiment, the character tag is displayed in the video display area 18b. However, the present invention is not limited to this. In this modification, as shown in FIG. 31, a character display area 18c dedicated to character tags is provided separately from the map display area 18a and the video display area 18b. All the character tags are displayed in the character display area 18c.

本変形例においては、エアタグは映像表示領域18bに表示され、文字タグは文字表示領域18cに表示される。すなわち、エアタグと文字タグとは異なる領域に表示される。従って、エアタグと文字タグとが混在することはない。また、文字タグは文字タグ専用の領域に表示されるので、有用な情報が文字タグによって隠されることもない。さらに、上記実施形態と同様、エアタグと文字タグとはリンク線によって結ばれるので、ユーザーは文字タグとエアタグとの対応関係を容易に把握することができる。   In this modification, the air tag is displayed in the video display area 18b, and the character tag is displayed in the character display area 18c. That is, the air tag and the character tag are displayed in different areas. Therefore, the air tag and the character tag are not mixed. In addition, since the character tag is displayed in an area dedicated to the character tag, useful information is not hidden by the character tag. Furthermore, since the air tag and the character tag are connected by a link line as in the above embodiment, the user can easily grasp the correspondence between the character tag and the air tag.

<7.2 第2の変形例>
上記実施形態においては、文字タグとエアタグとがリンク線によって結ばれていた。しかしながら、本発明はこれに限定されず、文字タグと地図表示領域18a内のランドマークとがリンク線によって結ばれるようにしても良い(本変形例の構成)。
<7.2 Second Modification>
In the above embodiment, the character tag and the air tag are connected by the link line. However, the present invention is not limited to this, and the character tag and the landmark in the map display area 18a may be connected by a link line (configuration of this modification).

本変形例においては、リンク線表示手段181は、映像表示領域18bに表示される各文字タグの位置データと各文字タグに対応するランドマークの位置データとに基づいて、映像表示領域18b内の文字タグとそれに対応するランドマークとを結ぶリンク線を表示部18に表示する。これにより、例えば図32に示すように、映像表示領域18b内の文字タグと地図表示領域18a内のランドマークとがリンク線によって結ばれた画像が表示部18に表示される。   In this modification, the link line display means 181 is based on the position data of each character tag displayed in the video display area 18b and the position data of the landmark corresponding to each character tag. A link line connecting the character tag and the corresponding landmark is displayed on the display unit 18. Thus, for example, as shown in FIG. 32, an image in which the character tag in the video display area 18b and the landmark in the map display area 18a are connected by the link line is displayed on the display unit 18.

<7.3 第3の変形例>
上記実施形態においては、文字タグとエアタグとがリンク線によって結ばれていた。また、上記第2の変形例においては、文字タグとランドマークとがリンク線によって結ばれていた。これに関し、各携帯端末装置10において、リンク線の一端をエアタグとランドマークとの間で切り替えることができるようにしても良い(本変形例の構成)。このような構成によれば、携帯端末装置10においてリンク線の一端をエアタグにする旨の設定が行われると、図33(a)に示すように、文字タグとエアタグとを結ぶリンク線が表示される。また、携帯端末装置10においてリンク線の一端をランドマークにする旨の設定が行われると、図33(b)に示すように、文字タグとランドマークとを結ぶリンク線が表示される。このようにして、ユーザーは、リンク線の接続先を必要に応じて切り替えることが可能となる。
<7.3 Third Modification>
In the above embodiment, the character tag and the air tag are connected by the link line. In the second modification, the character tag and the landmark are connected by a link line. In this regard, in each mobile terminal device 10, one end of the link line may be switched between the air tag and the landmark (configuration of the present modification). According to such a configuration, when setting that one end of the link line is an air tag is performed in the mobile terminal device 10, a link line connecting the character tag and the air tag is displayed as shown in FIG. Is done. Further, when setting is performed to make one end of the link line a landmark in the mobile terminal device 10, a link line connecting the character tag and the landmark is displayed as shown in FIG. In this way, the user can switch the connection destination of the link line as necessary.

<7.4 その他>
上記実施形態においては、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置されていた(図3などを参照)。しかしながら、本発明はこれに限定されず、図34に示すように、表示部18の下方に地図表示領域18aが配置され、表示部18の上方に映像表示領域18bが配置されていても良い。
<7.4 Other>
In the above embodiment, the map display area 18a is arranged above the display unit 18, and the video display area 18b is arranged below the display unit 18 (see FIG. 3 and the like). However, the present invention is not limited to this, and as shown in FIG. 34, a map display region 18 a may be disposed below the display unit 18, and a video display region 18 b may be disposed above the display unit 18.

また、上記実施形態においては、本発明に係る経路案内装置が携帯端末装置10によって実現される例を示したが、本発明はこれに限定されない。例えば、ヘッドマウントディスプレイ(頭部装着型表示装置)のように携帯端末装置10以外の端末装置によって本発明に係る経路案内装置を実現することもできる。   Moreover, in the said embodiment, although the route guidance apparatus based on this invention showed the example implement | achieved by the portable terminal device 10, this invention is not limited to this. For example, the route guidance device according to the present invention can be realized by a terminal device other than the mobile terminal device 10 such as a head-mounted display (head-mounted display device).

さらに、上記実施形態においては、避難誘導システムを例に挙げて説明したが、本発明はこれに限定されない。ユーザーに現在位置から目的地までの進行経路を案内するための一般的なナビゲーションシステムにも、本発明を適用することができる。   Furthermore, in the said embodiment, although the evacuation guidance system was mentioned and demonstrated as an example, this invention is not limited to this. The present invention can also be applied to a general navigation system for guiding a travel route from a current position to a destination to a user.

10…携帯端末装置
18…表示部
18a…地図表示領域
18b…映像表示領域
20…サーバ
130…データ記憶手段
140…避難経路探索手段
150…地図表示手段
152…ランドマーク表示手段
170…映像表示手段
180…エアタグ表示手段
181…リンク線表示手段
182…文字タグ表示手段
DESCRIPTION OF SYMBOLS 10 ... Portable terminal device 18 ... Display part 18a ... Map display area 18b ... Video display area 20 ... Server 130 ... Data storage means 140 ... Evacuation route search means 150 ... Map display means 152 ... Landmark display means 170 ... Video display means 180 ... Air tag display means 181 ... Link line display means 182 ... Character tag display means

Claims (25)

目的地までの進行経路を案内するための経路案内装置であって、
利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示手段と、
前記経路探索手段によって得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを所定の地図表示領域に表示する地図表示手段と、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示手段と
を備え、
前記第2の拡張現実画像表示手段は、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像を微小距離だけ移動し得る範囲内の位置に表示し、
前記リンク線表示手段は、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする、経路案内装置。
A route guidance device for guiding a travel route to a destination,
A route search means for searching for a route to the destination based on a condition input by the user;
Video display means for displaying a video being shot in a predetermined video display area;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. Image display means;
Map display means for displaying in a predetermined map display area a map indicating the travel route obtained by the route search means and a landmark corresponding to the second augmented reality image;
One end and one of said first augmented reality image or the landmark at each time point, and a link line display means for displaying the link line to the other end and said second augmented reality image,
The second augmented reality image display means has a range in which each second augmented reality image can be moved by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. In position ,
The link line display means can switch one end of the link line between the first augmented reality image and the landmark .
前記リンク線表示手段は、
一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線を表示し、
前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする、請求項1に記載の経路案内装置。
The link line display means includes
Displaying a link line having one end as the first augmented reality image and the other end as the second augmented reality image;
The route guidance device according to claim 1, wherein the link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示手段は、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線を描画することを特徴とする、請求項に記載の経路案内装置。 When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line The route guidance apparatus according to claim 2 , wherein the display unit draws the link line so as to extend from the display position of the second augmented reality image to the virtual display position. 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 The display position of each second augmented reality image is completely fixed during a period in which one or more of the second augmented reality images are displayed in the same arrangement order. 4. The route guidance device according to any one of up to 3 . 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. The route guidance device according to any one of claims 1 to 3 . 前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. The route guidance device according to any one of claims 1 to 5 , wherein a real image is arranged. 前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 The said 2nd augmented reality image display means displays the said 2nd augmented reality image in the area | region above the center part of the said image | video display area, Any of Claim 1-6 characterized by the above-mentioned. The route guidance device according to claim 1. 前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする、請求項に記載の経路案内装置。 Said second augmented reality image display means, and displaying said second augmented reality image in a region corresponding to the image is being displayed on the blank of the captured image, according to claim 7 Route guidance device. 前記第2の拡張現実画像表示手段は、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像を表示することを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the second augmented reality image in a character display area provided separately from the video display area and the map display area. 9. The route guidance device according to any one of items 1 to 8 . 前記リンク線表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする、請求項1からまでのいずれか1項に記載の経路案内装置。 The link line display means displays each link line so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. Item 10. The route guidance device according to any one of items 1 to 9 . 前記第2の拡張現実画像表示手段は、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする、請求項10に記載の経路案内装置。 The second augmented reality image display means is configured so that each first augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. The route guidance apparatus according to claim 10 , wherein a real image is displayed. 前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする、請求項1から11までのいずれか1項に記載の経路案内装置。 It said route search means uses the information of the roads and shelters, and performs a search for escape routes to the shelter and the shelter is a destination, one of the claims 1 to 11 1 The route guidance device according to item. 目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を含み、
前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示され
前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする、経路案内方法。
A route guidance method for guiding a travel route to a destination using a terminal device,
A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
One end and one of said first augmented reality image or the landmark at each time point, and a link line display step of displaying a link line that the other end and said second augmented reality image,
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. Displayed in the position ,
In the link line displaying step, one end of the link line can be switched between the first augmented reality image and the landmark .
目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
各時点において一端を前記第1の拡張現実画像または前記ランドマークの一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示され
前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする、経路案内プログラム。
A route guidance program executed by a terminal device for guiding a traveling route to a destination,
A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
Computer included one end and one of said first augmented reality image or the landmark at each time point, and a link line display step of displaying a link line that the other end and said second augmented reality image to the terminal apparatus CPU is executed using memory,
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. Displayed in the position ,
In the link line display step, one end of the link line can be switched between the first augmented reality image and the landmark .
前記リンク線表示ステップでは、
一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線が表示され、
前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする、請求項14に記載の経路案内プログラム。
In the link line display step,
A link line having one end as the first augmented reality image and the other end as the second augmented reality image is displayed,
15. The route guidance program according to claim 14 , wherein the link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示ステップでは、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線が描画されることを特徴とする、請求項15に記載の経路案内プログラム。 When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line 16. The route guidance program according to claim 15 , wherein in the display step, the link line is drawn so as to extend from the display position of the second augmented reality image to the virtual display position. 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする、請求項14から16までのいずれか1項に記載の経路案内プログラム。 During the one or more of said second augmented reality image is displayed in the same order, the display position of each second augmented reality image is characterized by being completely fixed, claim 14 The route guidance program according to any one of up to 16 . 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする、請求項14から16までのいずれか1項に記載の経路案内プログラム。 During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. The route guidance program according to any one of claims 14 to 16 . 前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする、請求項14から18までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. The route guidance program according to any one of claims 14 to 18 , wherein an augmented reality image is arranged. 前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項14から19までのいずれか1項に記載の経路案内プログラム。 In said second augmented reality image display step, and said second augmented reality image over the regions are displayed than the center portion of the image display area, from the claims 14 to 19 The route guidance program according to any one of the above items. 前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項20に記載の経路案内プログラム。 In said second augmented reality image display step, and said second augmented reality image to the region image corresponding to the empty of said photographic image is being displayed is displayed, in claim 20 The described route guidance program. 前記第2の拡張現実画像表示ステップでは、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項14から21までのいずれか1項に記載の経路案内プログラム。 The second augmented reality image display step displays the second augmented reality image in a character display area provided separately from the video display area and the map display area. The route guidance program according to any one of 14 to 21 . 前記リンク線表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする、請求項14から22までのいずれか1項に記載の経路案内プログラム。 In the link line display step, each link line is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color, The route guidance program according to any one of claims 14 to 22 . 前記第2の拡張現実画像表示ステップでは、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする、請求項23に記載の経路案内プログラム。 In the second augmented reality image display step, each second augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. The route guidance program according to claim 23 , wherein a real image is displayed. 前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする、請求項14から24までのいずれか1項に記載の経路案内プログラム。 25. The route search step according to any one of claims 14 to 24 , characterized in that a search for an evacuation route to a destination and the evacuation route to the evacuation site is performed using road and evacuation site information. The route guidance program according to item 1.
JP2014129855A 2014-05-28 2014-06-25 Route guidance device, route guidance method, and route guidance program Expired - Fee Related JP6228516B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014129855A JP6228516B2 (en) 2014-06-25 2014-06-25 Route guidance device, route guidance method, and route guidance program
PCT/JP2015/062083 WO2015182290A1 (en) 2014-05-28 2015-04-21 Route guidance device, route guidance method, and route guidance program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014129855A JP6228516B2 (en) 2014-06-25 2014-06-25 Route guidance device, route guidance method, and route guidance program

Publications (2)

Publication Number Publication Date
JP2016008894A JP2016008894A (en) 2016-01-18
JP6228516B2 true JP6228516B2 (en) 2017-11-08

Family

ID=55226539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014129855A Expired - Fee Related JP6228516B2 (en) 2014-05-28 2014-06-25 Route guidance device, route guidance method, and route guidance program

Country Status (1)

Country Link
JP (1) JP6228516B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158776A1 (en) 2016-03-16 2017-09-21 株式会社ジオクリエイツ Topology identification device, portable terminal, topology identification method, and program
JP2018101293A (en) * 2016-12-20 2018-06-28 株式会社コロプラ Method executed by computer to provide head-mounted device with virtual space, program causing computer to execute the same and computer device
JP6630976B2 (en) * 2017-11-10 2020-01-15 本田技研工業株式会社 Display system, display method, and program
JP2020077141A (en) * 2018-11-07 2020-05-21 Line株式会社 Information processing method, program and terminal
JP6699709B2 (en) * 2018-11-13 2020-05-27 富士ゼロックス株式会社 Information processing device and program
US11393197B2 (en) * 2019-05-03 2022-07-19 Cvent, Inc. System and method for quantifying augmented reality interaction
KR102349293B1 (en) 2021-11-09 2022-01-11 대한민국 Method and system for evacuation route guidance of occupants using augmented reality of mobile devices

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3474053B2 (en) * 1996-04-16 2003-12-08 株式会社日立製作所 Map display method for navigation device and navigation device
JP3795677B2 (en) * 1998-07-31 2006-07-12 アルパイン株式会社 Navigation system
JP2008111707A (en) * 2006-10-30 2008-05-15 Hitachi Ltd Mobile receiving device
JP2011047649A (en) * 2007-12-28 2011-03-10 Mitsubishi Electric Corp Navigation device
JP2011186681A (en) * 2010-03-05 2011-09-22 Toshiba Corp Disaster prevention information providing system and disaster prevention information delivery server
WO2013027244A1 (en) * 2011-08-24 2013-02-28 三菱電機株式会社 Navigation device
JP5686479B2 (en) * 2012-03-16 2015-03-18 株式会社オーエムアイ Evacuation route output device, evacuation route output method, and program

Also Published As

Publication number Publication date
JP2016008894A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
JP6228516B2 (en) Route guidance device, route guidance method, and route guidance program
KR101864814B1 (en) Method and device for providing guidance to street view destination
WO2015182290A1 (en) Route guidance device, route guidance method, and route guidance program
KR101817452B1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
JP6344311B2 (en) Display device, information processing system, and control method
JP6089360B2 (en) Navigation device, icon display method, and navigation program
JP5766076B2 (en) Map display device using direction distance mark
JP2015224981A (en) Apparatus, method, and program for route guidance
JP6228392B2 (en) Panorama image display program, panorama image display device, panorama image display system, and panorama image display method
JP6030935B2 (en) Information processing program, display control apparatus, display system, and display method
JP2014020863A (en) Portable navigation device
JP2015224982A (en) Apparatus, method, and program for route guidance
JP2013174864A (en) Display system, display control device, information processing program and display method
JP5809729B2 (en) Evacuation route provision system and evacuation route provision program
JP2008070705A (en) Picture providing system and picture providing server device
JP4922436B2 (en) Object display device and object display method
JP5912329B2 (en) Terminal device, icon output method, and program
JP2015215766A (en) Evacuation route providing system, evacuation route providing method, and evacuation route providing program
JP2017067457A (en) Route guidance device, route guidance system, route guidance method and route guidance program
JP5715715B1 (en) Evacuation route providing system, evacuation route providing method, and evacuation route providing program
US10459315B2 (en) Electronic apparatus for displaying overlay images
JP2016133701A (en) Information providing system and information providing method
JP2009036676A (en) Information processor, and additional information providing method and program
JP7023775B2 (en) Route guidance program, route guidance method and information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170202

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171013

R150 Certificate of patent or registration of utility model

Ref document number: 6228516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees