WO2015182290A1 - Route guidance device, route guidance method, and route guidance program - Google Patents

Route guidance device, route guidance method, and route guidance program Download PDF

Info

Publication number
WO2015182290A1
WO2015182290A1 PCT/JP2015/062083 JP2015062083W WO2015182290A1 WO 2015182290 A1 WO2015182290 A1 WO 2015182290A1 JP 2015062083 W JP2015062083 W JP 2015062083W WO 2015182290 A1 WO2015182290 A1 WO 2015182290A1
Authority
WO
WIPO (PCT)
Prior art keywords
augmented reality
image
displayed
route
reality image
Prior art date
Application number
PCT/JP2015/062083
Other languages
French (fr)
Japanese (ja)
Inventor
古川 至
浩司 櫻井
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014110320A external-priority patent/JP2015224981A/en
Priority claimed from JP2014110321A external-priority patent/JP2015224982A/en
Priority claimed from JP2014129855A external-priority patent/JP6228516B2/en
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Publication of WO2015182290A1 publication Critical patent/WO2015182290A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A62LIFE-SAVING; FIRE-FIGHTING
    • A62BDEVICES, APPARATUS OR METHODS FOR LIFE-SAVING
    • A62B3/00Devices or single parts for facilitating escape from buildings or the like, e.g. protection shields, protection screens; Portable devices for preventing smoke penetrating into distinct parts of buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention provides a route guidance device that provides information of a route to a destination (for example, a shelter when a disaster such as an earthquake occurs) to a user of a terminal device (typically, a mobile terminal device such as a mobile phone),
  • a route guidance device that provides information of a route to a destination (for example, a shelter when a disaster such as an earthquake occurs) to a user of a terminal device (typically, a mobile terminal device such as a mobile phone).
  • the present invention relates to a route guidance method and a route guidance program.
  • route search application for guiding a user (hereinafter referred to as “user”) of a mobile terminal device to a destination is known.
  • user the user of a mobile terminal device to a destination.
  • evacuation guidance app application software specialized for route guidance to an evacuation site (hereinafter referred to as “evacuation guidance app”) is also provided as one of route search applications for mobile terminal devices.
  • augmented reality technology AR technology
  • a virtual image called an air tag is added to and displayed by a video (hereinafter referred to as “landscape video” for convenience) taken by a camera attached to a mobile terminal device.
  • scape video a video
  • an air tag augmented reality image
  • an air tag representing various information such as information on a traveling route from a current position to a destination is added to a landscape video and displayed.
  • Japanese Special Table No. 2011-527754 discloses a branch point view that is an image of a road branch point on the display, and the user should proceed to grasp the traveling direction.
  • An invention of a navigation system for highlighting road signs relating to road segments is disclosed.
  • Japanese Laid-Open Patent Publication No. 2007-127437 discloses an invention of an information display device that presents a correspondence relationship between a photographed image and a map image to a user. According to this information display device, when the user designates either one of the photographed image or the map image, the corresponding structure in the other image is highlighted.
  • Japanese Unexamined Patent Application Publication No. 2014-2278 discloses an invention of a map display device in which a panorama map that is a part of a panoramic image of a landscape viewed from a predetermined viewpoint and a two-dimensional map are displayed in conjunction with each other. .
  • Japanese special table 2011-527754 gazette Japanese Unexamined Patent Publication No. 2007-127437 Japanese Unexamined Patent Publication No. 2014-2278
  • an air tag as information (evacuation site information, disaster location information, etc.) provided for evacuation route guidance will be added to the landscape video captured by the user in the evacuation guidance app. Can be displayed automatically.
  • an object in the landscape video and the air tag interfere with each other, resulting in a video with poor visibility. For example, when a red signboard in a landscape image and a red air tag representing a fire are displayed overlapping each other, the image in the vicinity of the signboard becomes poorly visible for the user due to interference between the two. .
  • a virtual image called a character tag composed of characters can be additionally displayed on a landscape image captured by the user.
  • a character tag is a type of air tag.
  • a virtual image represented in the form of a graphic is called an “air tag”, and a virtual image represented in the form of a character. It is called “character tag”.
  • an image (map and video) as shown in FIG. 68 is displayed on the display unit. .
  • air tags representing refuges, traveling routes, fires, floods, etc.
  • air tag position a geographical position of an object (for example, a refuge) or an event (for example, a fire) represented by an air tag.
  • the character tag is arranged in the vicinity of the air tag.
  • air tags and character tags are densely mixed in an area where buildings and roads are displayed in a landscape video, resulting in a video with poor visibility for the user. Therefore, in order to improve the visibility of the video, for example, as shown in FIG. 69, it is conceivable to arrange the character tag at a position away from the air tag.
  • a landscape video includes many air tags of the same type, it is difficult for the user to accurately associate each air tag with each character tag. Therefore, it is difficult for the user to understand which air tag each character tag represents. For this reason, as in the case where it is difficult to grasp the air tag position, especially when the user is in a panic due to a disaster, the user's quick evacuation is hindered or the user accidentally moves away from the evacuation route. It is conceivable that
  • an object of the present invention is to realize a route guidance device that can clearly show a traveling direction to a user even when a landscape image and an air tag are displayed on one screen. Another goal is to realize a route guidance device that can easily grasp the positional relationship between the geographical position of an object / event indicated by an air tag displayed in a landscape image and the current position (user's position). Objective. Another object is to realize a route guidance device that has good visibility and that allows the user to easily understand what things / events the character tag describes. .
  • a first aspect of the present invention is a route guidance device for guiding a traveling route to a destination, A route search means for searching for a route to the destination based on a condition input by the user;
  • Video display means for displaying a video being shot in a predetermined video display area;
  • Augmented reality image display means for displaying an augmented reality image as information provided for guidance of a travel route in the video display area so as to be superimposed on the captured video displayed by the video display means;
  • a mask image display means for displaying a mask image for partially hiding the photographed video on at least one of the left side or the right side of the travel route obtained by the route search means in the video display area;
  • the mask image display means arranges the augmented reality image in front of the mask image when the mask image and the augmented reality image overlap in the video display area.
  • the mask image display means displays a translucent image as the mask image.
  • the mask image display means displays the mask image on both the left and right sides of the travel route obtained by the route search means in the video display area.
  • the mask image display unit is configured to display a mask image arranged in a direction in which the travel route is bent.
  • the mask image is displayed so as to hide only a photographed image closer to the front side than the folding point.
  • the mask image display means displays, as the mask image, an image whose width in the vertical direction in the video display area is gradually narrowed toward the traveling direction of the traveling path obtained by the path searching means.
  • a sixth aspect of the present invention is the fifth aspect of the present invention.
  • the mask image display means displays an image obtained by perspective transformation based on a current position and a travel route obtained by the route search means as the mask image.
  • the shape of the end portion on the traveling direction side of the traveling route obtained by the route searching means is an arrow shape.
  • the augmented reality image display means displays, as one of the augmented reality images, an arrow-shaped image representing a travel route obtained by the route search means.
  • An eleventh aspect of the present invention is the tenth aspect of the present invention.
  • the mask image display means displays the mask image in the video display area so that the arrow-shaped image and the mask image do not overlap.
  • the route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
  • a thirteenth aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device, A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device; A video display step of displaying a video being shot in a predetermined video display area of the terminal device; In the video display area, an augmented reality image display step of displaying an augmented reality image as information to be used for guidance of a travel route superimposed on the captured video displayed by the video display step; A mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left side and the right side of the travel route obtained in the route search step in the video display region, In the mask image display step, when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image.
  • a fourteenth aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination, A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
  • the terminal device includes a mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left and right sides of the travel route obtained in the route search step.
  • CPU of the computer to be executed using the memory,
  • the mask image display step when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image.
  • a fifteenth aspect of the present invention is the fourteenth aspect of the present invention, In the mask image display step, a translucent image is displayed as the mask image.
  • a sixteenth aspect of the present invention is the fourteenth or fifteenth aspect of the present invention.
  • the mask image is displayed on both the left side and the right side of the travel route obtained in the route search step in the video display area.
  • the mask image display step when the travel route obtained in the route search step is bent in the video display area, the mask image arranged in the direction in which the travel route is bent The mask image is displayed so as to hide only the photographed image in front of the bent point.
  • the mask image display step an image is displayed as the mask image such that the vertical width in the video display region gradually narrows toward the traveling direction of the traveling path obtained in the path searching step.
  • the nineteenth aspect of the present invention is the eighteenth aspect of the present invention,
  • an image obtained by perspective transformation based on the current position and the travel route obtained in the route search step is displayed as the mask image.
  • the shape of the end portion on the traveling direction side of the traveling route obtained in the route searching step is an arrow shape.
  • augmented reality image display step as one of the augmented reality images, an arrow-shaped image representing the travel route obtained in the route search step is displayed.
  • the mask image is displayed in the video display area so that the arrow-shaped image and the mask image do not overlap.
  • a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
  • a twenty-sixth aspect of the present invention is a route guidance device for guiding a traveling route to a destination, A route search means for searching for a route to the destination based on a condition input by the user; Video display means for displaying a video being shot in a predetermined video display area; Map display means for displaying a map showing a traveling route obtained by the route search means in a predetermined map display area; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means; A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area Link line display means for displaying.
  • the link line display means displays each link line so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. It is characterized by displaying.
  • the link line display means draws the link line in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. It is characterized by doing.
  • the first augmented reality image display means displays an arrow-like image representing the travel route obtained by the route search means as one of the first augmented reality images in the video display area
  • the link line display means displays a link line connecting the arrow-shaped image and the travel route displayed in the map display area.
  • the map display means is configured to position the first augmented reality at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area. Display the landmark corresponding to the image, The first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line.
  • a second augmented reality image corresponding to the first augmented reality image which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line. It further comprises a second augmented reality image display means for displaying.
  • a thirty-second aspect of the present invention provides the thirty-first aspect of the present invention
  • the second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region.
  • the thirty-third aspect of the present invention is the thirty-second aspect of the present invention.
  • the second augmented reality image display means displays the second augmented reality image in a region where a video corresponding to the sky of the captured video is displayed.
  • a thirty-fourth aspect of the present invention provides any one of the thirty-first to thirty-third aspects of the present invention
  • the second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. It is characterized by arranging a real image.
  • a thirty-fifth aspect of the present invention provides any one of the thirty-first to thirty-fourth aspects of the present invention
  • the second augmented reality image display means displays the second augmented reality image so that an end of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. It is characterized by displaying.
  • a thirty-sixth aspect of the present invention provides any one of the thirty-first to thirty-fifth aspects of the present invention
  • the second augmented reality image display means displays each second augmented reality image so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. It is characterized by doing.
  • the route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
  • a thirty-eighth aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device, A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device; A video display step of displaying a video being shot in a predetermined video display area of the terminal device; A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step; A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area And a link line display step for displaying.
  • a thirty-ninth aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination, A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device; A video display step of displaying a video being shot in a predetermined video display area of the terminal device; A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step.
  • the 40th aspect of the present invention is the 39th aspect of the present invention,
  • each link line is set so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. It is displayed.
  • the forty-first aspect of the present invention is the 39th or fortyth aspect of the present invention
  • the link line is drawn in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. It is characterized by being.
  • the first augmented reality image display step as one of the first augmented reality images, an arrow-shaped image representing the travel route obtained in the route search step is displayed in the video display area
  • the link line display step a link line that connects the arrow-shaped image and the traveling route displayed in the map display area is displayed.
  • the forty-third aspect of the present invention provides any one of the thirty-ninth to forty-second aspects of the present invention,
  • the first augmented reality is located at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area.
  • the landmark corresponding to the image is displayed,
  • the first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line.
  • a second augmented reality image corresponding to the first augmented reality image which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line.
  • the method further includes a second augmented reality image display step of displaying.
  • a forty-fifth aspect of the present invention is the forty-fourth aspect of the present invention
  • the second augmented reality image is displayed in a region above a central portion of the video display region.
  • a forty-sixth aspect of the present invention is the forty-fifth aspect of the present invention.
  • the second augmented reality image is displayed in an area where a video corresponding to the sky of the photographed video is displayed.
  • the second augmented reality image display step when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other.
  • An augmented reality image is arranged.
  • a 48th aspect of the present invention provides any one of the 44th to 47th aspects of the present invention
  • the second augmented reality image is positioned such that an end portion of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. It is displayed.
  • a forty-ninth aspect of the present invention provides any one of the forty-fourth to forty-eighth aspects of the present invention
  • each second augmented reality image is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. It is characterized by being.
  • a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
  • a 51st aspect of the present invention is a route guidance device for guiding a travel route to a destination, A route search means for searching for a route to the destination based on a condition input by the user; Video display means for displaying a video being shot in a predetermined video display area; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means; A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route.
  • Image display means Map display means for displaying in a predetermined map display area a map indicating the travel route obtained by the route search means and a landmark corresponding to the second augmented reality image;
  • Link line display means for displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
  • the second augmented reality image display means has a range in which each second augmented reality image can be moved by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is characterized by being displayed at a position.
  • the link line display means can switch one end of the link line between the first augmented reality image and the landmark.
  • the link line display means includes Displaying a link line having one end as the first augmented reality image and the other end as the second augmented reality image;
  • the link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
  • the link line When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line The display means draws the link line so as to extend from the display position of the second augmented reality image to the virtual display position.
  • each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.
  • each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.
  • the second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. It is characterized by arranging a real image.
  • the second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region.
  • the second augmented reality image display means displays the second augmented reality image in a region where a video corresponding to the sky of the captured video is displayed.
  • a 60th aspect of the present invention provides any one of the 51st to 59th aspects of the present invention
  • the second augmented reality image display means displays the second augmented reality image in a character display area provided separately from the video display area and the map display area.
  • the link line display means displays each link line so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.
  • the 62nd aspect of the present invention is the 61st aspect of the present invention
  • the second augmented reality image display means is configured so that each first augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. It is characterized by displaying a real image.
  • the route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
  • a 64th aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device, A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device; A video display step of displaying a video being shot in a predetermined video display area of the terminal device; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step.
  • a second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route.
  • An image display step ;
  • a map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
  • a link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
  • each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is displayed at a position.
  • a 65th aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination, A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device; A video display step of displaying a video being shot in a predetermined video display area of the terminal device; A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step.
  • a second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route.
  • the CPU of the computer included in the terminal device includes a link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image.
  • each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is displayed at a position.
  • one end of the link line can be switched between the first augmented reality image and the landmark.
  • a link line display step A link line having one end as the first augmented reality image and the other end as the second augmented reality image is displayed, The link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
  • the 68th aspect of the present invention is the 67th aspect of the present invention.
  • the link line In the display step, the link line is drawn so as to extend from the display position of the second augmented reality image to the virtual display position.
  • each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.
  • each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.
  • the 71st aspect of the present invention provides any one of the 65th to 70th aspects of the present invention.
  • the second augmented reality image display step when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other.
  • An augmented reality image is arranged.
  • the second augmented reality image display step in any one of the 65th to 71st aspects of the present invention, the second augmented reality image is displayed in a region above a central portion of the video display region.
  • the 73rd aspect of the present invention is the 72nd aspect of the present invention
  • the second augmented reality image is displayed in an area where a video corresponding to the sky of the photographed video is displayed.
  • the second augmented reality image display step in any one of the 65th to 73rd aspects of the present invention, the second augmented reality image is displayed in a character display area provided separately from the video display area and the map display area.
  • each link line is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.
  • each second augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color.
  • a real image is displayed.
  • the 77th aspect is any one of the 65th to 76th aspects,
  • a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
  • the route guidance device is provided with mask image display means for displaying a mask image for partially hiding the captured video along the traveling path in the video display area.
  • the augmented reality image is arranged in front of the mask image.
  • a route guidance device that can clearly show the traveling direction to the user even when the captured video and the augmented reality image are displayed on one screen is realized.
  • the user can follow the traveling path while referring to the captured video.
  • mask images are displayed on both sides (both left and right sides) of the travel path. For this reason, it becomes possible to show a traveling direction more clearly to a user.
  • the length of the mask image arranged in the bending direction is made shorter than the length of the other mask image. This makes it possible for the user to recognize that the traveling route is bent at a point ahead of the current position. Therefore, even if the user is in a panic state due to the occurrence of a disaster, the user can be prevented from deviating from the travel route.
  • the width of the mask image gradually decreases as the distance from the current position increases, as the captured image gradually decreases as the distance from the current position increases. This makes it possible to hide the captured video with the mask image without giving the user a sense of incongruity.
  • the sixth aspect of the present invention similar to the fifth aspect of the present invention, it is possible to hide the captured video with the mask image without giving the user a sense of incongruity.
  • recognition of the traveling direction can be further enhanced for the user.
  • the width of the mask image is a relatively large width. This makes it possible to more effectively hide information unnecessary to follow the traveling path. As a result, the information necessary to follow the traveling path is clearly visible to the user.
  • the mask image has a relatively narrow width. Therefore, the recognition of the traveling direction can be further enhanced for the user.
  • an arrow-like augmented reality image indicating the traveling route obtained by the route search by the route search means is displayed in the video display area.
  • the arrow-like augmented reality image indicating the travel route obtained by the route search by the route search means is a region where the mask (masking the captured image) by the mask image is not performed. Is displayed. Since the user's line of sight is directed to an area that is not hidden by the mask image, the user's line of sight is directed to an arrow-like augmented reality image that indicates the travel path. For this reason, even if the user is in a panic state due to a disaster, for example, the user can grasp the direction to be aimed for in a very short time.
  • a route guidance device that can more clearly show the evacuation route to the user even if the captured video and the augmented reality image are displayed on one screen.
  • the same effect as that of the first aspect of the present invention can be achieved in the route guidance method invention.
  • the same effects as the first to twelfth aspects of the present invention can be achieved in the invention of the route guidance program, respectively.
  • a map showing a travel route to the destination is displayed in the map display area, and an air tag (first augmented reality image) is displayed together with the photographed image in the video display area. Is done.
  • the air tag and the corresponding position on the map are connected by a link line. Thereby, the user can easily grasp the correspondence between the air tag and the position on the map.
  • the route guidance device that can easily grasp the positional relationship between the geographical position of the object / event indicated by the air tag displayed in the landscape image and the current position (user position) is realized.
  • the air tag in the video display area and the link line corresponding to the air tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the air tag and the link line. This makes it possible to guide the user to the destination more quickly.
  • the air tag and the corresponding position on the map are always obtained. Are connected by a link line.
  • an arrow-shaped air tag indicating the travel route obtained by the route search by the route search means is displayed in the video display area.
  • an air tag is displayed together with a photographed image in the video display area, a map showing a travel route to the destination is displayed in the map display area, and a map in the video display area is displayed.
  • a landmark corresponding to the air tag is displayed.
  • the air tag in the video display area and the landmark in the map display area are connected by a link line.
  • the route guidance device is provided with second augmented reality image display means for displaying a character tag (second augmented reality image) corresponding to the air tag. For this reason, it is possible to provide the user with information useful for tracing the traveling route. As a result, more detailed information is provided to the user, and the user can be promptly guided to the destination.
  • second augmented reality image display means for displaying a character tag (second augmented reality image) corresponding to the air tag.
  • the thirty-second aspect of the present invention it is possible to suppress the air tag and the character tag from being mixed closely in the video display area and to hide useful information by the character tag.
  • the thirty-third aspect of the present invention it is possible to more effectively suppress the air tag and the character tag from being mixed in the video display area and hiding useful information by the character tag.
  • two character tags are prevented from overlapping each other, so that useful information is reliably provided to the user as characters.
  • the end of the character tag is arranged in the vicinity of the link line corresponding to the character tag. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
  • the character tag and the link line corresponding to the character tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
  • the geographical location of an object for example, a refuge
  • event for example, a fire
  • the same effect as in the twenty-sixth aspect of the present invention can be achieved in the route guidance method invention.
  • an air tag (first augmented reality image) is displayed together with a photographed video in the video display area, and a map showing a travel route to the destination is displayed in the map display area.
  • a landmark corresponding to the air tag in the video display area is displayed.
  • a character tag (second augmented reality image) corresponding to the air tag is displayed in a predetermined area.
  • the route guidance device in which the above display is performed, at least one of a link line connecting the character tag and the air tag or a link line connecting the character tag and the landmark is displayed. For this reason, it becomes easy to grasp the correspondence between each character tag and the corresponding air tag or landmark.
  • Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation
  • the user can switch one end of the link line between the air tag and the landmark.
  • the air tag and the corresponding character tag are always provided. Connected by link lines.
  • the link line is displayed so as to extend from the display position of the character tag to the virtual display position of the air tag even when the air tag is located outside the range of the viewing angle. For this reason, the user can grasp that the character tag represents information about an object / event outside the range of the viewing angle.
  • the display position of the character tag does not fluctuate with the movement of the user. Thereby, an image having very good visibility is provided to the user.
  • the character tag since the character tag is displayed in a state of being fixed at substantially the same position, the fluctuation of the display position of the character tag accompanying the movement of the user is suppressed.
  • the character tag if the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as a button (menu button), for example.
  • the character tag if the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.
  • the air tag and the character tag are mixedly mixed in the video display area, and useful information is prevented from being hidden by the character tag.
  • the 59th aspect of the present invention it is possible to more effectively suppress the air tag and the character tag from being mixed in the image display area and hiding useful information by the character tag.
  • the air tag and the character tag are displayed in different areas, it is reliably prevented that the air tag and the character tag are mixed and that useful information is hidden by the character tag.
  • the character tag on the screen and the link line corresponding to the character tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
  • the air tag in the video display area and the character tag corresponding to the air tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the air tag and the character tag. This makes it possible to guide the user to the destination more quickly.
  • the route guidance device for guiding the evacuation route to the user in the route guidance device for guiding the evacuation route to the user, it is possible to obtain good visibility with respect to the display image, and which character tag is displayed on the screen. It is possible to easily grasp whether an event is being explained.
  • the same effect as that of the 51st aspect of the present invention can be achieved in the route guidance method invention.
  • the same effects as the 51st to 63rd aspects of the present invention can be achieved in the invention of the route guidance program, respectively.
  • the said 1st Embodiment it is a figure which shows the example of a screen of a periphery condition input means.
  • it is a figure for demonstrating the display of the map by a map display means, and the display of the landscape image by a video display means.
  • it is a figure for demonstrating a wire frame.
  • it is a figure which shows an example of the image
  • it is a figure for demonstrating the display of the air tag by an air tag display means.
  • the said 1st Embodiment it is a figure for demonstrating a mask image.
  • it is a figure which shows an example of the image
  • it is a flowchart which shows the processing flow in a portable terminal device.
  • it is a figure for demonstrating the position of a mask image.
  • the said 1st Embodiment it is a figure for demonstrating the width
  • FIG. 1 It is a block diagram which shows the detailed function structure of the portable terminal device in the 2nd Embodiment of this invention.
  • the said 2nd Embodiment it is a figure for demonstrating the display of the map by a map display means, and the display of the landscape image by a video display means.
  • the said 2nd Embodiment it is a figure for demonstrating the display of the landmark by a landmark display means.
  • the said 2nd Embodiment it is a figure which shows an example of the image
  • it it is a figure for demonstrating the display of the link line by a link line display means.
  • the said 2nd Embodiment it is a figure for demonstrating the display of the link line by a link line display means. In the said 2nd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. In the said 2nd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. In the said 2nd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. In the said 2nd Embodiment, it is a flowchart which shows the processing flow in a portable terminal device.
  • the said 2nd Embodiment it is a figure which shows an example of the image
  • it is a figure for demonstrating the drawing of the link line to the display part in real time.
  • it is a figure for demonstrating the display of a several character tag.
  • it is a figure for demonstrating the display of a several character tag.
  • it is a figure for demonstrating the positional relationship of a character tag and a link line.
  • the said 2nd Embodiment it is a figure for demonstrating the position of the character tag in a landscape image
  • the said 3rd Embodiment it is a figure for demonstrating the display of the character tag by a character tag display means. In the said 3rd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. In the said 3rd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. In the said 3rd Embodiment, it is a flowchart which shows the processing flow in a portable terminal device. In the said 3rd Embodiment, it is a figure which shows an example of the image
  • the said 3rd Embodiment it is a figure for demonstrating the display of a several character tag. In the said 3rd Embodiment, it is a figure for demonstrating the display of a several character tag. In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. In the said 3rd Embodiment, it is a figure for demonstrating the positional relationship of a link line and a character tag.
  • the said 3rd Embodiment it is a figure for demonstrating the positional relationship of a link line and a character tag.
  • it is a figure for demonstrating drawing of the link line to the display part in real time.
  • it is a figure for demonstrating drawing of a link line when the position of an air tag exists outside an image
  • it is a figure for demonstrating the effect by arrange
  • application software is abbreviated as “application”.
  • FIG. 1 is a block diagram showing a device configuration for realizing an evacuation guidance system according to the first embodiment of the present invention.
  • This evacuation guidance system is realized by the mobile terminal device 10 and the server 20.
  • the portable terminal device 10 and the server 20 are connected via a communication line such as the Internet.
  • an evacuation guidance application is installed in the mobile terminal device 10 in order to realize this evacuation guidance system.
  • the evacuation guidance application is software for presenting the evacuation route from the current position to the evacuation center when a disaster such as an earthquake occurs.
  • the user can activate the evacuation guidance application by a predetermined operation.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the mobile terminal device 10.
  • the mobile terminal device 10 includes a CPU 11, a flash ROM 12, a RAM 13, a communication control unit 14, a video photographing unit (camera) 15, a GPS processing unit 16, an input operation unit 17, a display unit 18, and a tilt sensor 19.
  • the CPU 11 performs various arithmetic processes and the like in order to control the entire mobile terminal device 10.
  • the flash ROM 12 is a writable nonvolatile memory, and stores various programs and various data that should be retained even when the power of the mobile terminal device 10 is turned off.
  • the RAM 13 is a writable volatile memory, and temporarily stores an executing program, data, and the like.
  • the communication control unit 14 performs control of data transmission to the outside and control of data reception from the outside.
  • the video shooting unit (camera) 15 shoots a landscape seen from the current position based on an operation by the user.
  • the GPS processing unit 16 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites.
  • the input operation unit 17 is a touch panel, for example, and accepts an input operation by a user.
  • the display unit 18 displays an image based on a command from the CPU 11.
  • the tilt sensor 19 acquires angle information indicating the tilt of the mobile terminal device 10.
  • an area in the display unit 18 is an area for displaying a map (hereinafter, as shown in FIG. 3 for example).
  • video display area an area for displaying a video (landscape video) obtained by shooting by the video shooting unit 15.
  • a map display region 18 a is disposed above the display unit 18, and a video display region 18 b is disposed below the display unit 18.
  • an evacuation guidance program that realizes an evacuation guidance application is stored in the flash ROM 12.
  • the evacuation guidance program stored in the flash ROM 12 is read out to the RAM 13, and the CPU 11 executes the evacuation guidance program read into the RAM 13, whereby the evacuation guidance is performed.
  • App functionality is provided to users.
  • the evacuation guidance program is typically downloaded from a predetermined server (not shown) to the mobile terminal device 10 via a communication line such as the Internet, and installed in the flash ROM 12 in the mobile terminal device 10.
  • the route guidance device according to the present invention is realized by the mobile terminal device 10 by installing the evacuation guidance program in the mobile terminal device 10.
  • FIG. 4 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment.
  • the mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input.
  • Means 142, surrounding state input means 143, map display means 150, sightseeing information display means 160, video display means 170, air tag display means 180, and landscape video mask means 190 are provided.
  • the route search means is realized by the evacuation route search means 140
  • the augmented reality image display means is realized by the air tag display means 180
  • the mask image display means is realized by the landscape video mask means 190.
  • the GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information.
  • the GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
  • Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.).
  • a sightseeing function desired by the user presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.
  • the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user.
  • the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times.
  • the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
  • User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda.
  • the GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
  • the data receiving unit 121 receives server data Sda transmitted from the server 20.
  • the server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and the sightseeing function selection means 110. Sightseeing data Kda that is data corresponding to the sightseeing function selected by the user is included.
  • the significant data Mda includes, for example, data indicating the degree of congestion of each road.
  • the significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130.
  • the data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware.
  • the evacuation guidance program is installed in the mobile terminal device 10
  • downloading the significant data Mda to the data storage unit 130 it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
  • the personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs.
  • the personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state.
  • the personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
  • the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
  • the movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs.
  • This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance.
  • the moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
  • the surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs.
  • This peripheral condition input means 143 is realized by displaying a screen as shown in FIG.
  • the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation.
  • the area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed.
  • buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion.
  • the surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
  • the evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched.
  • the tourism information display means 160 displays the tourism data Kda on the display unit 18.
  • the map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thereby, as shown in FIG. 8, for example, the map and the evacuation route as the search result Re are displayed in the map display area 18a.
  • the map display means 150 has a heading-up mode and a north-up mode as display modes.
  • the heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen.
  • the north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen.
  • the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.
  • landmarks corresponding to air tags displayed in the video display area 18b by the air tag display means 180 (to be described later) (for example, landmarks indicating evacuation shelters, land indicating disaster spots such as fires and floods). Mark) is also displayed.
  • the video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18.
  • a landscape video is displayed in the video display area 18b.
  • An image called “wire frame” is displayed in the video display area 18b.
  • the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction.
  • a distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
  • this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b.
  • a video as shown in FIG. 10 is displayed in the video display area 18b.
  • the vanishing point is located below the center of the image display area 18b.
  • the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
  • the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user.
  • an air tag representing a refuge an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b.
  • an air tag 31 representing a traveling route, an air tag 32 representing a fire, and an air tag 33 representing a flood are displayed.
  • each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
  • the air tag When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
  • Shadow image mask means 190 displays an image 40 (hereinafter referred to as “mask image”) 40 for hiding a part of the landscape image in the image display area 18b.
  • the mask image 40 is typically displayed so as to cover part of the landscape video on both sides (left side and right side) of the evacuation route. For example, by adding the mask image 40 to the video as shown in FIG. 13, the video as shown in FIG. 14 is displayed in the video display area 18b.
  • the unnecessary area is defined as the current position (user position) and the evacuation route obtained by the evacuation route search means 140. Based on perspective transformation based. Since the unnecessary area is obtained by the perspective transformation in this way, as shown in FIG.
  • the vertical width of the mask image 40 becomes narrower as it approaches the center of the video display area 18b.
  • the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the mask image 40 is displayed according to the inclination.
  • the display position of is determined. Specifically, the mask image 40 is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the capturing direction by the video capturing unit 15 is upward), and the mobile terminal device 10 is directed downward.
  • the mask image 40 is displayed above the video display area 18b (as the shooting direction by the video shooting unit 15 becomes lower). A more detailed description regarding the display of the mask image 40 will be described later.
  • step S100 an evacuation guidance application is activated (step S100).
  • the user selects a route search function (step S110).
  • the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S120).
  • server data Sda based on the GPS data Gda is received (step S130). That is, in step S ⁇ b> 130, the mobile terminal device 10 receives significant data Mda, air tag data Ada, and the like from the server 20.
  • the user inputs the personal status such as the user's disaster status and athletic ability using the personal status input means 141 (step S140).
  • the user inputs the moving means and the movable distance through the movable distance input means 142 (step S150).
  • the user inputs a peripheral situation such as a disaster situation or a congestion situation around the user by the peripheral situation input unit 143 (step S160).
  • an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S170).
  • the map display means 150 displays the map, road, evacuation site, and evacuation route in the map display area 18a of the display unit 18 (step S180).
  • the user takes a landscape video using the video shooting unit 15 and the landscape video is displayed in the video display area 18 b of the display unit 18.
  • an air tag as information provided for guidance of the evacuation route is superimposed on the landscape video displayed in the video display area 18b (step S190).
  • the above-described mask image 40 is additionally displayed in the video display area 18b (step S200).
  • step S180 an image (map and video) as shown in FIG. 10 is displayed on the display unit 18, and at the end of step S190, an image as shown in FIG. An image as shown in FIG. 14 is displayed on the display unit 18 at the end of step S200.
  • step S180 to step S200 since the processing time from step S180 to step S200 is very short, an image as shown in FIG. 14 is immediately perceived by human eyes.
  • the route search step is realized by step S170
  • the video display step is realized by step S180
  • the augmented reality image display step is realized by step S190
  • the mask image display step is realized by step S200. ing.
  • the mask image 40 is normally displayed on both sides (both left and right sides) of the evacuation route. However, when shooting is performed such that one of the landscape images on the left side or the right side of the evacuation route is not displayed in the video display area 18b, the mask image 40 is displayed on the side where the landscape video is not displayed in the video display area 18b. Do not show. For example, when shooting is performed such that a landscape image on the left side of the evacuation route is not displayed in the video display area 18b, the mask image 40 is displayed only on the right side of the evacuation route as shown in FIG.
  • the position (vertical position) of the mask image 40 in the video display area 18b is adapted to the user's line of sight.
  • the user performs shooting so that the mobile terminal device 10 is substantially perpendicular to the ground surface, so that the mask image 40 is displayed in the vicinity of the central portion (the central portion in the vertical direction) of the video display area 18b. .
  • the mask image 40 may be translucent as shown in part a of FIG. 17 or opaque as shown in part b of FIG. However, from the viewpoint of making it possible to follow the evacuation route while referring to the landscape video, the mask image 40 is preferably translucent.
  • the width (width in the vertical direction) of the mask image 40 may be relatively narrow as shown in part a of FIG. 18 or may be relatively thick as shown in part b of FIG. . That is, the width of the mask image 40 is not particularly limited.
  • FIG. 18 shows only the road (evacuation route) and the mask image 40 in the landscape video (the same applies to FIGS. 19, 20, and 21).
  • the width of the mask image 40 may be increased.
  • the relationship between the height (vertical width) H of the video display area 18 b and the maximum vertical width Wmax of the mask image 40 satisfies, for example, the following expression (1).
  • the width of the mask image 40 is determined (see FIG. 19). H ⁇ 0.5 ⁇ Wmax (1)
  • the width of the mask image 40 may be narrowed.
  • the relationship between the height (vertical width) H of the video display area 18 b and the maximum vertical width Wmax of the mask image 40 satisfies, for example, the following expression (2).
  • the width of the mask image 40 is determined (see FIG. 19). H ⁇ 0.2> Wmax (2)
  • an area that is not hidden by the mask image 40 is provided in the vicinity of the upper end portion and the lower end portion of the video display area 18b. Thereby, the feeling of obstruction given to the user is alleviated.
  • Shape of tip of mask image About the shape of the front-end
  • Shape of mask image when evacuation route is bent is determined from the landscape video by, for example, a left turn or a right turn at a point where the user has taken the landscape video.
  • the mask image 40 arranged in the direction in which the evacuation route is bent is displayed in the image display area 18b so as to hide only the landscape image in front of the folding point of the evacuation route. A mask image 40 is displayed. This will be described with reference to FIG.
  • a mask image 40a extending from the near side (the frame portion of the video display area 18b) to the vanishing point is displayed on the right side of the road as shown in part a of FIG.
  • a mask image 40b extending from the near side to the vanishing point is also displayed on the left side.
  • a mask image 40a extending from the near side to the vanishing point is displayed on the right side of the road as shown in part b of FIG.
  • a mask image 40c extending from the near side to the point before the bent point P is displayed.
  • the length of the mask image 40 arranged in the bent direction is made shorter than usual. Therefore, for example, also in the video shown in FIG. 14, the mask image 40 displayed on the left side of the road is shorter than the other mask image 40.
  • the mask image 40d is longer than the mask image 40e, and the mask image 40f is shorter than the mask image 40e.
  • the distance from the current position in FIG. 22 a to the folding point is longer than the distance from the current position in FIG. 22 b to the folding point, and from the current position in FIG. 22 c to the bending point. Is shorter than the distance from the current position to the bending point in part b of FIG.
  • the magnitude of the distance from the current position to the folding point can be grasped.
  • the mask image 40 may be translucent or opaque. Further, the width (the vertical width) of the mask image 40 is not particularly limited. Further, the shape of the tip portion of the mask image 40 is not particularly limited. These may be set by the user of the mobile terminal device 10. For example, regarding the transparency of the mask image 40, immediately after the installation of the evacuation guidance application to the mobile terminal device 10, the default state (semi-transparent or opaque) is set so that the user can switch the transparency as necessary.
  • the default state is set so that the user can switch the transparency as necessary.
  • the mobile terminal device 10 includes an evacuation route search unit 140 that searches for an evacuation route, a video display unit 170 that displays a landscape image captured by the user, and an evacuation route guide.
  • Air tag display means 180 for displaying an air tag (augmented reality image) as information to be superimposed on a landscape video, and, typically, a landscape video mask means 190 for hiding the landscape video on both sides of the evacuation route by the mask image 40 described above. Is provided.
  • the air tag is arranged in front of the mask image 40.
  • the landscape video is hidden by the mask image 40 and the air tag is displayed in front of the mask image 40.
  • the air tag 33 representing water damage and a signboard 39 (an object in a landscape image) of the same color as the air tag 33
  • the mask image 40 does not exist, 23 the signboard 39 and the air tag 33 interfere with each other, so that the air tag 33 is hardly visible to the user.
  • the signboard 39 is placed on the back of the mask image 40 as shown in part b of FIG. Clearly visible.
  • the evacuation can clearly show the evacuation route (traveling direction) to the user even if the landscape image and the air tag are displayed on one screen of the mobile terminal device 10. A guidance system is realized.
  • the present embodiment it is possible to concentrate (guide) the user's line of sight on the evacuation route by hiding the landscape video on both sides of the road with the mask image 40.
  • the width of the mask image 40 and making the shape of the tip of the mask image 40 an arrow shape it is possible to further increase the recognition of the traveling direction for the user.
  • the length of the mask image 40 arranged in the bending direction is made shorter than the length of the other mask image 40. This makes it possible for the user to recognize that the evacuation route is bent at a point ahead of the current position. Therefore, even if the user is in a panic due to the occurrence of a disaster, the user can be prevented from deviating from the evacuation route.
  • the arrow-shaped air tag 31 indicating the evacuation route (traveling route) obtained by the evacuation route search process by the evacuation route search means 140 is the evacuation route in the video display area 18b. Displayed in the center of the road. The user's line of sight is directed to an area that is not hidden by the mask image 40, and the arrow-shaped air tag 31 is displayed in an area that is not masked by the mask image 40 (hiding the landscape image). Therefore, the user's line of sight is directed to the arrow-shaped air tag 31 indicating the evacuation route, and the user can grasp the direction to be aimed for in a very short time even in a panic state.
  • the area (unnecessary area) where the landscape image should be hidden by the mask image 40 is obtained by perspective transformation based on the current position (user position) and the evacuation route obtained by the evacuation route search process. Desired. For this reason, the width of the mask image 40 gradually decreases with increasing distance from the current position, in the same manner as the captured image gradually decreases with increasing distance from the current position. As a result, the captured video can be hidden by the mask image 40 without giving the user a sense of incongruity.
  • Second Embodiment> ⁇ 2.1 Overall configuration> Since the overall configuration is the same as that of the first embodiment, description thereof is omitted (see FIGS. 1 to 3).
  • FIG. 24 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment.
  • the mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input.
  • the map display means 150 includes landmark display means 152.
  • the route search means is realized by the evacuation route search means 140
  • the first augmented reality image display means is realized by the air tag display means 180
  • the second augmented reality image is realized by the character tag display means 182.
  • a display means is realized.
  • the GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information.
  • the GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
  • Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.).
  • a sightseeing function desired by the user presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.
  • the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user.
  • the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times.
  • the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
  • User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda.
  • the GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
  • the data receiving unit 121 receives server data Sda transmitted from the server 20.
  • the server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and evacuation route guidance.
  • Character tag data Cda for displaying a character tag as information to be displayed
  • tourism data Kda that is data corresponding to the tourism function selected by the user by the tourism function selection means 110 are included.
  • the significant data Mda includes, for example, data indicating the degree of congestion of each road.
  • the significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130.
  • the data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware.
  • the evacuation guidance program when installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
  • the personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs.
  • the personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state.
  • the personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
  • the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
  • the movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs.
  • This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance.
  • the moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
  • the surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs.
  • This peripheral condition input means 143 is realized by displaying a screen as shown in FIG.
  • the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation.
  • the area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed.
  • buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion.
  • the surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
  • the evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched.
  • the tourism information display means 160 displays the tourism data Kda on the display unit 18.
  • the map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thus, for example, as shown in FIG. 25, the map and the evacuation route as the search result Re are displayed in the map display area 18a.
  • the map display means 150 has a heading-up mode and a north-up mode as display modes.
  • the heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen.
  • the north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen.
  • the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.
  • the landmark display means 152 displays a landmark corresponding to the air tag displayed in the video display area 18b by the air tag display means 180 described later in the map display area 18a. To do.
  • the landmark display means 152 displays, for example, a landmark indicating a refuge and a landmark indicating a disaster location such as a fire or flood.
  • a map with landmarks is displayed in the map display area 18a as shown in FIG. 26, for example.
  • Each landmark is displayed on the map at the position of the thing / event represented by the air tag corresponding to the landmark. That is, the landmark display means 152 displays the landmark corresponding to the air tag at the position associated with the air tag displayed in the video display area 18b among the positions on the map displayed in the map display area 18a. indicate.
  • the video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 25, a landscape video is displayed in the video display area 18b.
  • a landscape video is displayed in the video display area 18b.
  • An image called “wire frame” is displayed in the video display area 18b.
  • the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction.
  • a distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
  • this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b.
  • a video as shown in FIG. 27 is displayed in the video display area 18b.
  • the vanishing point is located below the center of the image display area 18b.
  • the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
  • the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user.
  • an air tag representing a refuge an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b.
  • an air tag 31 representing a traveling route, an air tag 32 representing a fire, and an air tag 33 representing a flood are displayed.
  • the user can easily grasp the direction to be aimed even if the user is in a panic state.
  • each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
  • the air tag When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
  • the link line display means 181 uses the air tag in the video display area 18b and the map display area 18a based on the position data PA of each air tag displayed in the video display area 18b and the landmark position data PL corresponding to each air tag.
  • a line (hereinafter referred to as “link line”) connecting the landmarks is displayed on the display unit 18. For example, as shown in part a of FIG. 28, when an air tag 35 representing a fire is displayed in the video display area 18b and a landmark 36 corresponding to the air tag 35 is displayed in the map display area 18a, a link line display is displayed.
  • the means 181 displays a link line LK connecting the air tag 35 and the landmark 36 on the display unit 18 as shown in part b of FIG.
  • link line is displayed as shown in FIG.
  • links LK1 and LK5 that connect an air tag representing a refuge and a landmark corresponding to the air tag
  • a link that connects an air tag representing a fire and a landmark corresponding to the air tag are displayed.
  • a line LK2, a link line LK3 that connects an air tag that represents a travel route and a landmark corresponding to the air tag, and a link line LK4 that connects an air tag that represents water damage and a landmark corresponding to the air tag are displayed.
  • the air tag displayed in the video display area 18b and the corresponding landmark be connected by a link line.
  • the character tag display means 182 Based on the character tag data Cda received by the data receiving means 121, the character tag display means 182 displays in the video display area 18b a character tag representing information related to the air tag displayed in the video display area 18b. .
  • the character tag is typically displayed in an area corresponding to the sky in a landscape video. From the above, for example, an image as shown in FIG. 32 is displayed on the display unit 18 by adding a character tag to the image as shown in FIG. A more detailed explanation about the display of the character tag will be described later.
  • the first augmented reality image is realized by the air tag
  • the second augmented reality image is realized by the character tag
  • an evacuation guidance application is activated (step S300).
  • the user selects a route search function (step S310).
  • the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S320).
  • server data Sda based on the GPS data Gda is received (step S330). That is, in step S330, the mobile terminal device 10 receives significant data Mda, air tag data Ada, character tag data Cda, and the like from the server 20.
  • the user uses the personal status input means 141 to input the personal status such as the user's damage status and athletic ability (step S340).
  • the user inputs the moving means and the movable distance through the movable distance input means 142 (step S350).
  • the user inputs a peripheral situation such as a disaster situation or a congestion situation around the user through the peripheral situation input unit 143 (step S360).
  • an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S370).
  • the user captures a landscape video by the video imaging unit (camera) 15 and displays the landscape video in the video display area 18b of the display unit 18 (step S380).
  • the map display means 150 displays the map, roads, shelters, and evacuation routes in the map display area 18a of the display unit 18 (step S390). Then, an air tag as information provided for evacuation route guidance is superimposed on the landscape video displayed in the video display area 18b (step S400). Also, landmarks corresponding to each air tag are displayed on the map in the map display area 18a (step S410). Further, a link line connecting the landmark in the map display area 18a and the air tag in the video display area 18b is displayed on the display unit 18 (step S420). Furthermore, a character tag corresponding to each air tag is displayed in the video display area 18b (step S430).
  • an image as shown in FIG. 27 is displayed on the display unit 18 at the end of step S390, and an image as shown in FIG. 34 is displayed on the display unit 18 at the end of step S400.
  • an image as shown in FIG. 29 is displayed on the display unit 18, and at the end of step S420, an image as shown in FIG. 30 is displayed on the display unit 18, and the end of step S430 is completed.
  • an image as shown in FIG. 32 is displayed on the display unit 18.
  • the processing time from step S390 to step S430 is extremely short, an image as shown in FIG. 32 is immediately perceived by human eyes.
  • the route search step is realized by step S370
  • the video display step is realized by step S380
  • the map display step is realized by step S390
  • the first augmented reality image display step is executed by step S400.
  • the link line display step is realized in step S420
  • the second augmented reality image display step is realized in step S430.
  • each link line is the same as the color of the corresponding air tag and the color of the corresponding landmark. Thereby, it becomes easy for the user to grasp the correspondence relationship between the air tag, the landmark, and the link line.
  • the present invention is not limited to this, and the color of the link line is not necessarily the same as the color of the corresponding air tag or the corresponding landmark.
  • the air tag A1, the landmark L1, and the link line LK6 are displayed as shown in part a of FIG.
  • the position of the landmark L1 moves in the map display area 18a as indicated by the arrow 46 in FIG. It is assumed that the position has moved as indicated by an arrow indicated by reference numeral 47 in part b of FIG.
  • the link line LK6 changes from the state shown in part a of FIG. 35 to the state shown in part c of FIG. Note that the position of the character tag M1 also changes as the position of the link line LK6 changes.
  • the arrangement position of each character tag is determined so that one end of the character tag is positioned on the link line corresponding to the character tag.
  • a character tag is displayed as shown, for example in FIG.
  • the user can link the character tag M8.
  • the character tag M9 corresponds to the line LK8 and the character tag M9 corresponds to the link line LK9.
  • the color of the character tag is the same as the color of the link line corresponding to the character tag. Thereby, it is possible to more easily grasp the correspondence between the character tag and the link line.
  • one end of the character tag is not necessarily arranged on the link line corresponding to the character tag, and the color of the character tag is not necessarily the same as the color of the link line corresponding to the character tag.
  • the correspondence between the character tag and the link line is easily grasped by some method.
  • ⁇ 2.5.3 Position of character tags in landscape video> When a user captures a landscape image using the image capturing unit 15, as shown in FIG. 40, an empty image of the landscape image is displayed in the region above the image display region 18b (the region indicated by reference numeral 45). Is often displayed. Even if various kinds of information are displayed in the area where such an empty image is displayed, it is considered that the various kinds of information do not hinder the user from evacuating while looking at the screen. Therefore, in the present embodiment, a character tag is arranged in an area above the video display area 18b (an area where an empty video is displayed). At this time, as described above, when a plurality of character tags are displayed, the arrangement positions of the character tags are determined so that the plurality of character tags do not overlap each other.
  • the mobile terminal device 10 has an evacuation route search means 140 for searching for an evacuation route, a map display means 150 for displaying a map indicating the evacuation route in the map display area 18a, and a user taking a picture.
  • Link line display means 181 for displaying a link line connecting a landmark (landmark corresponding to an air tag) displayed in the map display area 18a is provided.
  • an air tag as information useful for evacuation is displayed together with a landscape video in the video display area 18b, and a map showing an evacuation route is displayed in the map display area 18a and corresponds to the air tag in the video display area 18b.
  • the landmark to be displayed is displayed.
  • the air tag in the video display area 18b and the landmark in the map display area 18a are connected by a link line. This makes it easy to grasp the correspondence between each air tag and its corresponding landmark. Therefore, the user can grasp the direction of the evacuation shelter and the place where the disaster occurs by using the air tag, and the landmark (the user's position) and the air tag position (the place of the evacuation shelter and the disaster have occurred). It is possible to easily grasp the positional relationship with the location.
  • an evacuation guidance system that can easily grasp the positional relationship between the geographical position of an object / event indicated by an air tag displayed in a landscape image and the current position. Realized.
  • the mobile terminal device 10 is provided with the character tag display means 182 that displays the character tag that is the description information of the air tag corresponding to each link line in association with each link line. Yes. For this reason, it becomes possible to provide the user with information about each air tag, that is, information useful for tracing the evacuation route (for example, information on a detailed place where a fire is occurring) in text. Thereby, when a disaster occurs, more detailed information is provided to the user, and the user can evacuate safely and reliably.
  • the air tag, the landmark, the link line, and the character tag corresponding to each other are all in the same color. For this reason, the user can easily grasp the correspondence relationship between the air tag, the landmark, the link line, and the character tag. This makes it possible to evacuate the user more quickly.
  • the character tag is arranged in the area above the video display area 18b (area where an empty video is displayed). If a character tag is arranged in the vicinity of an air tag corresponding to the character tag, as shown in part a of FIG. 41, the air tag and the character tag are closely mixed in the area where the buildings and roads are displayed in the landscape video. Will be. Thus, an image in which air tags and character tags are densely mixed is an image with poor visibility for the user. In addition, there is a concern that useful information during evacuation may be hidden by character tags. From the above, when a character tag is displayed as shown in part a of FIG. 41, it is difficult for the user to quickly and correctly grasp the direction of travel, especially when the user is in a panic due to a disaster.
  • the character tag is displayed in the area 45 above the video display area 18b (area where an empty video is displayed). For this reason, air tags and character tags are not mixed closely in the video display area 18b, and useful information is not hidden by the character tags.
  • the character tag can provide the user with detailed information regarding an object (for example, a shelter) or an event (for example, a fire) indicated by the air tag.
  • the link line display means 181 corresponds to the air tag displayed in the video display area 18b and the air tag among the positions on the map displayed in the map display area 18a. Displays a link line connecting the position to be attached. That is, the air tag in the video display area 18b and the position on the map corresponding to the air tag (position in the map display area 18a) are connected by the link line. Thereby, for example, an image as shown in FIG. 42 is displayed on the display unit 18.
  • the map display area 18a is arranged above the display section 18, and the video display area 18b is arranged below the display section 18 (see FIG. 3 and the like).
  • the present invention is not limited to this, and as shown in FIG. 43, a map display region 18 a may be disposed below the display unit 18, and a video display region 18 b may be disposed above the display unit 18.
  • a character tag is displayed in an area where buildings and roads are displayed in the landscape video.
  • character tags and air tags may be mixed closely, or useful information may be hidden by the character tags. Therefore, from the viewpoint of reliably providing visibility and useful information to the user, the map display area 18a is arranged above the display unit 18 and the display unit 18 is below the display unit 18 as in the second embodiment. It is preferable to arrange the video display area 18b.
  • the character tag is arranged in the area above the video display area 18b (the area where the empty video is displayed), but the present invention is not limited to this.
  • a dedicated area (character tag display area) 18c for displaying a character tag may be provided between the map display area 18a and the video display area 18b. Even in such a configuration, air tags and character tags are not mixed closely, and useful information is not hidden by the character tags.
  • FIG. 45 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment.
  • the mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input.
  • the map display means 150 includes landmark display means 152.
  • the route search means is realized by the evacuation route search means 140
  • the first augmented reality image display means is realized by the air tag display means 180
  • the second augmented reality image is realized by the character tag display means 182.
  • a display means is realized.
  • the GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information.
  • the GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
  • Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.).
  • a sightseeing function desired by the user presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.
  • the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user.
  • the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times.
  • the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
  • User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda.
  • the GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
  • the data receiving unit 121 receives server data Sda transmitted from the server 20.
  • the server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and evacuation route guidance.
  • Character tag data Cda for displaying a character tag as information to be displayed
  • tourism data Kda that is data corresponding to the tourism function selected by the user by the tourism function selection means 110 are included.
  • the significant data Mda includes, for example, data indicating the degree of congestion of each road.
  • the significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130.
  • the data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware.
  • the evacuation guidance program when installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
  • the personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs.
  • the personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state.
  • the personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
  • the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
  • the movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs.
  • This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance.
  • the moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
  • the surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs.
  • This peripheral condition input means 143 is realized by displaying a screen as shown in FIG.
  • the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation.
  • the area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed.
  • buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion.
  • the surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
  • the evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched.
  • the tourism information display means 160 displays the tourism data Kda on the display unit 18.
  • the map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thus, for example, as shown in FIG. 25, the map and the evacuation route as the search result Re are displayed in the map display area 18a.
  • the map display means 150 has a heading-up mode and a north-up mode as display modes.
  • the heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen.
  • the north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen.
  • the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.
  • the landmark display means 152 is based on the air tag data Ada received by the data receiving means 121, and corresponds to an air tag displayed in the video display area 18b by the air tag display means 180 (to be described later). Corresponding to the character tag displayed by the character tag display means 182.) is displayed in the map display area 18a.
  • the landmark display means 152 displays, for example, a landmark indicating a refuge and a landmark indicating a disaster location such as a fire or flood.
  • a map with landmarks is displayed in the map display area 18a as shown in FIG. 26, for example.
  • Each landmark is displayed on the map at the position of the thing / event represented by the air tag corresponding to the landmark. That is, the landmark display means 152 displays the landmark corresponding to the air tag at the position associated with the air tag displayed in the video display area 18b among the positions on the map displayed in the map display area 18a. indicate.
  • the video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 25, a landscape video is displayed in the video display area 18b.
  • a landscape video is displayed in the video display area 18b.
  • An image called “wire frame” is displayed in the video display area 18b.
  • the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction.
  • a distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
  • this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b.
  • a video as shown in FIG. 27 is displayed in the video display area 18b.
  • the vanishing point is located below the center of the image display area 18b.
  • the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
  • the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user.
  • an air tag representing a refuge an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b.
  • an air tag 31 representing a traveling route, an air tag 34 representing a shelter, and an air tag 33 representing water damage are displayed.
  • the user can easily grasp the direction to be aimed even if the user is in a panic state.
  • each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
  • the air tag When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
  • the character tag display means 182 Based on the character tag data Cda received by the data receiving means 121, the character tag display means 182 displays in the video display area 18b a character tag representing information related to the air tag displayed in the video display area 18b. .
  • a virtual image as shown in part a of FIG. 47 representing the information of the refuge or a virtual image shown in part b of FIG. 47 representing the location of the fire as a character tag. Is displayed.
  • the character tag is typically displayed in an area corresponding to the sky in a landscape video. From the above, for example, an image as shown in FIG. 49 is displayed on the display unit 18 by adding a character tag to the image as shown in FIG. It is not always necessary to display the corresponding character tags for all the air tags displayed in the video display area 18b. A more detailed explanation about the display of the character tag will be described later.
  • link line display means 181 and the air tag in the video display area 18b and the characters corresponding thereto are displayed on the display unit 18.
  • link line A line connecting the tags (hereinafter referred to as “link line”) is displayed on the display unit 18.
  • link line As shown in part a of FIG. 50, when an air tag A1 representing a refuge is displayed in the video display area 18b and a character tag M1 corresponding to the air tag A1 is displayed, the link line display means 181 As shown in part b of FIG. 50, a link line LK connecting the air tag A1 and the character tag M1 is displayed on the display unit 18.
  • a link line is displayed as shown in FIG. 51.
  • Link lines LK2 to LK4 connecting the tags are displayed. More detailed description regarding the display of the link line will be described later.
  • the link line LK4 is displayed so as to extend out of the video display area 18b, which will be described later.
  • the first augmented reality image is realized by the air tag
  • the second augmented reality image is realized by the character tag
  • an evacuation guidance application is activated (step S500).
  • the user selects a route search function (step S510).
  • the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S520).
  • server data Sda based on the GPS data Gda is received (step S530). That is, in step S530, the mobile terminal device 10 receives significant data Mda, air tag data Ada, character tag data Cda, and the like from the server 20.
  • the user uses the personal status input means 141 to input personal status such as the user's damage status and athletic ability (step S540).
  • the user inputs the moving means and the movable distance by the movable distance input means 142 (step S550).
  • the user inputs the surrounding situation such as a disaster situation or a congestion situation around the user by the surrounding situation input unit 143 (step S560).
  • an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S570).
  • the user captures a landscape video by the video imaging unit (camera) 15 and displays the landscape video in the video display area 18b of the display unit 18 (step S580).
  • the map display means 150 displays the map, road, shelter, and evacuation route in the map display area 18a of the display unit 18 (step S590). Then, an air tag as information provided for guidance of the evacuation route is superimposed on the landscape video displayed in the video display area 18b (step S600). Also, landmarks corresponding to each air tag are displayed on the map in the map display area 18a (step S610). Further, a character tag corresponding to each air tag is displayed in the video display area 18b (step S620). Furthermore, a link line connecting the air tag and the character tag is displayed on the display unit 18 (step S630).
  • an image as shown in FIG. 27 is displayed on the display unit 18 at the end of step S590, and an image as shown in FIG. 53 is displayed on the display unit 18 at the end of step S600.
  • an image as shown in FIG. 48 is displayed on the display unit 18, and at the end of step S620, an image as shown in FIG. 49 is displayed on the display unit 18, and the end of step S630 is completed.
  • an image as shown in FIG. 51 is displayed on the display unit 18.
  • the processing time from step S590 to step S630 is extremely short, an image as shown in FIG. 51 is immediately perceived by human eyes.
  • the route search step is realized by step S570
  • the video display step is realized by step S580
  • the map display step is realized by step S590
  • the first augmented reality image display step is executed by step S600.
  • the second augmented reality image display step is realized by step S620
  • the link line display step is realized by step S630.
  • a character tag representing an object / event at a distance far from the current position is arranged above the video display area 18b.
  • the present invention is not limited to this, and a character tag representing an object / event that is closer to the current position may be arranged above the video display area 18b, or a plurality of characters according to other predetermined rules.
  • a tag may be arranged in the video display area 18b.
  • Character tag display position> when a character tag is displayed, the character tag is displayed in a state of being fixed at substantially the same position. Specifically, the character tag is displayed at a position within a limited range that can move by a minute distance. In other words, the character tag is not fixed at the exact same position during the displayed period and can move a small distance. For example, when the character tag M8 is displayed as shown in FIG. 56, the character tag M8 can move within the range indicated by the dotted line 50. As described above, the character tag is displayed in a state where it can move by a minute distance in the vertical direction and the horizontal direction.
  • each character tag can move greatly.
  • four character tags M11 to M14 are displayed as shown in part a of FIG.
  • the distance from the shelter corresponding to the character tag M12 to the current position is longer than the distance from the shelter corresponding to the character tag M13 to the current position.
  • the character tag M12 is also arranged on the upper side.
  • the character tag M13 is arranged above the character tag M12. Further, it is assumed that four character tags M11 to M14 are displayed as shown in part a of FIG. Here, it is assumed that a new character tag M15 is to be displayed due to the user following the evacuation route. At this time, if the distance from the object corresponding to the character tag M15 (here, the station) to the current position is the longest, the character tag M15 is arranged at the uppermost position as shown in part b of FIG. M14 is arranged below the original position.
  • each character tag is fixed at substantially the same position (a position within a range that can be moved by a minute distance). It is displayed in the state.
  • the present invention is not limited to this.
  • the display position of each character tag may be completely fixed, or each character tag may be moved by a minute distance in only one of the vertical and horizontal directions. You may make it possible.
  • the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as, for example, a button (menu button).
  • the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.
  • ⁇ 3.4.3 Position of character tags in landscape video> When a user captures a landscape image using the image capturing unit 15, as shown in FIG. 40, an empty image of the landscape image is displayed in the region above the image display region 18b (the region indicated by reference numeral 45). Is often displayed. Even if various kinds of information are displayed in the area where such an empty image is displayed, it is considered that the various kinds of information do not hinder the user from evacuating while looking at the screen. Therefore, in the present embodiment, a character tag is arranged in an area above the video display area 18b (an area where an empty video is displayed). At this time, as described above, when a plurality of character tags are displayed, the arrangement positions of the character tags are determined so that the plurality of character tags do not overlap each other.
  • each link line is the same as the color of the corresponding air tag and the color of the corresponding character tag. This makes it easy for the user to grasp the correspondence between the air tag, the character tag, and the link line.
  • the present invention is not limited to this, and the color of the link line is not necessarily the same as the color of the corresponding air tag and the color of the corresponding character tag.
  • the air tag A20, the character tag M20, and the link line LK20 are displayed as shown in part a of FIG.
  • the link line LK20 changes from the state shown in part a of FIG. 61 to the state shown in part c of FIG. 61 according to the change in the position of the air tag A20.
  • display setting is performed such that, for example, an air tag representing an object / event within a predetermined range from the current position is displayed in the video display area 18b.
  • the air tag representing the things / events is not displayed in the video display area 18b.
  • the character tag corresponding to the air tag is displayed in the video display area 18b.
  • a link line is displayed so as to extend from the character tag displayed in the video display area 18b to the virtual display position of the air tag outside the video display area 18b.
  • the link line display means 181 moves from the character tag display position to the virtual display position. A link line is displayed so as to extend.
  • the air tag A21, the character tag M21, and the link line LK21 are displayed as shown in part a of FIG.
  • the position of the air tag A21 moves as indicated by the arrow indicated by reference numeral 52 in FIG. 62b (the position of the air tag A21 after the movement is the video display area). 18b).
  • the link line LK21 changes from the state shown in part a of FIG. 62 to the state shown in part c of FIG. 62 in accordance with the change in the position of the air tag A21.
  • the mobile terminal device 10 has an evacuation route search means 140 for searching for an evacuation route, a map display means 150 for displaying a map indicating the evacuation route in the map display area 18a, and a user taking a picture.
  • Image display means 170 for displaying a landscape image
  • air tag display means 180 for displaying an air tag as information provided for evacuation route guidance superimposed on the landscape image
  • information for evacuation route guidance is provided.
  • Character tag display means 182 for displaying a character tag and link line display means 181 for displaying a link line connecting the air tag and the character tag are provided.
  • an air tag as information useful for evacuation and a character tag corresponding to the air tag are displayed together with a landscape video in the video display area 18b, and a map indicating the evacuation route is displayed in the map display area 18a. .
  • the air tag and the character tag are connected by a link line. For this reason, it becomes easy to grasp the correspondence between each air tag and the corresponding character tag. Therefore, the user can easily grasp which air tag each character tag is explaining.
  • Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation
  • the character tag display means 182 information useful for tracing the information of each air tag, that is, the evacuation route (for example, the detailed location where the fire has occurred). Information) can be provided to the user in text. Thereby, when a disaster occurs, more detailed information is provided to the user, and the user can evacuate safely and reliably.
  • the air tag, the character tag, and the link line corresponding to each other are all the same color. For this reason, the user can easily grasp the correspondence between the air tag, the character tag, and the link line. This makes it possible to evacuate the user more quickly.
  • the character tag is arranged in the area above the video display area 18b (area where an empty video is displayed). If a character tag is placed in the vicinity of an air tag corresponding to the character tag, as shown in part a of FIG. 63, the air tag and the character tag are closely mixed in the area where the buildings and roads are displayed in the landscape video. Will be. Thus, an image in which air tags and character tags are densely mixed is an image with poor visibility for the user. In addition, there is a concern that useful information during evacuation may be hidden by character tags. From the above, when a character tag is displayed as shown in part a of FIG.
  • the character tag is displayed in the area 45 above the video display area 18b (area where an empty video is displayed). For this reason, air tags and character tags are not mixed closely in the video display area 18b, and useful information is not hidden by the character tags.
  • the character tag can provide the user with detailed information regarding an object (for example, a shelter) or an event (for example, a fire) indicated by the air tag.
  • the air tag and the character tag are connected by the link line, even if the character tag is displayed at a position away from the air tag, the user can easily grasp the correspondence between the character tag and the air tag. It becomes possible.
  • the character tag is displayed in the video display area 18b.
  • the present invention is not limited to this.
  • a character display area 18c dedicated to character tags is provided separately from the map display area 18a and the video display area 18b. All the character tags are displayed in the character display area 18c.
  • the air tag is displayed in the video display area 18b, and the character tag is displayed in the character display area 18c. That is, the air tag and the character tag are displayed in different areas. Therefore, the air tag and the character tag are not mixed.
  • the character tag is displayed in an area dedicated to the character tag, useful information is not hidden by the character tag.
  • the air tag and the character tag are connected by a link line as in the third embodiment, the user can easily grasp the correspondence between the character tag and the air tag.
  • the character tag and the air tag are connected by the link line.
  • the present invention is not limited to this, and the character tag and the landmark in the map display area 18a may be connected by a link line (configuration of this modification).
  • the link line display means 181 is based on the position data of each character tag displayed in the video display area 18b and the position data of the landmark corresponding to each character tag.
  • a link line connecting the character tag and the corresponding landmark is displayed on the display unit 18.
  • an image in which the character tag in the video display area 18b and the landmark in the map display area 18a are connected by the link line is displayed on the display unit 18.
  • the character tag and the air tag are connected by the link line.
  • the character tag and the landmark are connected by a link line.
  • one end of the link line may be switched between the air tag and the landmark (configuration of the present modification).
  • the link line connecting the character tag and the air tag is displayed as shown in part a of FIG. Is done.
  • a link line connecting the character tag and the landmark is displayed as shown in part b of FIG. In this way, the user can switch the connection destination of the link line as necessary.
  • the map display region 18a is disposed above the display unit 18, and the video display region 18b is disposed below the display unit 18 (see FIG. 3 and the like).
  • the present invention is not limited to this, and as shown in FIG. 67, a map display area 18 a may be disposed below the display section 18, and a video display area 18 b may be disposed above the display section 18.
  • first to third embodiments Matter concerning first to third embodiments>
  • the route guidance device according to the present invention is realized by the mobile terminal device 10 is shown, but the present invention is not limited to this.
  • the route guidance device according to the present invention can be realized by a terminal device other than the mobile terminal device 10 such as a head-mounted display (head-mounted display device).
  • the evacuation guidance system has been described as an example, but the present invention is not limited to this.
  • the present invention can also be applied to a general navigation system for guiding a travel route from a current position to a destination to a user.
  • the program for realizing the application is provided to the mobile terminal device or the like in the form of download via a communication line such as the Internet.
  • a program for realizing an application may be provided to a mobile terminal device or the like in a form stored in a computer-readable recording medium.
  • the recording medium is, for example, a non-transitory recording medium. Examples of non-transitory recording media include CD-ROM and DVD-ROM.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)

Abstract

 To provide a route guidance device capable of more clearly indicating a travel direction to a user even when a background image and an air tag are displayed in a single screen image. A portable terminal device (10) is provided with an evacuation route searching means (140) for searching for an evacuation route, an image display means (170) for displaying a background image captured by a user, an air tag display means (180) for displaying an air tag (augmented reality picture) as information used for evacuation route guidance in superposed fashion on the background image, and a background image masking means (190) for displaying a picture (mask picture) for concealing a portion of the background image on a left side and/or right side of the evacuation route. Here, when the mask picture and the air tag overlap in an image display region, the air tag is placed in front of the mask picture.

Description

経路案内装置、経路案内方法、および経路案内プログラムRoute guidance device, route guidance method, and route guidance program
 本発明は、端末装置(典型的には携帯電話などの携帯端末装置)のユーザーに目的地(例えば地震などの災害が発生した際の避難所)までの経路の情報を提供する経路案内装置、経路案内方法、および経路案内プログラムに関する。 The present invention provides a route guidance device that provides information of a route to a destination (for example, a shelter when a disaster such as an earthquake occurs) to a user of a terminal device (typically, a mobile terminal device such as a mobile phone), The present invention relates to a route guidance method and a route guidance program.
 携帯電話などの携帯端末装置の高機能化・高解像度化により、近年、地図を利用するアプリケーションソフトウェアが多く開発されている。そのようなアプリケーションソフトウェアの1つとして、携帯端末装置の利用者(以下、「ユーザー」という。)を目的地に案内するための「経路探索アプリ」などと呼ばれるアプリケーションソフトウェアが知られている。経路探索アプリを利用することにより、ユーザーは手元に地図がない場合でも目的地に容易にたどり着くことができる。 In recent years, a lot of application software that uses maps has been developed due to higher functionality and higher resolution of mobile terminal devices such as mobile phones. As one of such application software, application software called “route search application” for guiding a user (hereinafter referred to as “user”) of a mobile terminal device to a destination is known. By using the route search application, the user can easily reach the destination even when there is no map at hand.
 ところで、地震などによる広範囲にわたる災害が発生した場合、人々は直ちに近くの避難所に移動して身の安全や必要な物資・情報を確保する必要がある。近年、比較的規模の大きい災害が多く発生していることから、災害発生時に人々を速やかに避難所に誘導することが重要視されている。これに関し、携帯電話などの携帯端末装置が近年広く普及してきたことから、災害発生時に携帯端末装置を用いてユーザーを避難所に誘導することが考えられている。具体的には、携帯端末装置用の経路探索アプリの1つとして、避難所までの経路案内に特化したアプリケーションソフトウェア(以下、「避難誘導アプリ」という。)も提供されている。 By the way, when a wide-range disaster such as an earthquake occurs, people need to immediately move to a nearby evacuation center to ensure their safety and necessary supplies and information. In recent years, since many large-scale disasters have occurred, it is important to promptly guide people to shelters when disasters occur. In this regard, since mobile terminal devices such as mobile phones have become widespread in recent years, it is considered to guide a user to an evacuation site using a mobile terminal device when a disaster occurs. Specifically, application software specialized for route guidance to an evacuation site (hereinafter referred to as “evacuation guidance app”) is also provided as one of route search applications for mobile terminal devices.
 ところが、地震などの災害の発生時には、人は、パニック状態になって論理的な判断を行うことが困難となり、地図を正しく読めなくなることがある。また、土地勘のない観光客にとっては、現在位置を基準とした方角がわからないことが多い。特に、外国人旅行者など日本語を読むことのできない者にとっては、方角の判断がより困難となる。以上のようなことから、災害発生によってユーザーがパニック状態になっていても当該ユーザーを避難所まで速やかに誘導することのできる避難誘導アプリの開発が望まれている。 However, in the event of a disaster such as an earthquake, it may be difficult for a person to panic and make a logical decision and to read the map correctly. In addition, tourists who are not familiar with the land often do not know the direction based on the current location. In particular, it is more difficult to judge the direction for foreign tourists who cannot read Japanese. For these reasons, it is desired to develop an evacuation guidance application that can promptly guide a user to an evacuation site even if the user is in a panic due to a disaster.
 ところで、近年、携帯端末装置に付随するカメラで撮影している映像(以下、便宜上「風景映像」という。)にエアタグと呼ばれる仮想的画像を付加して表示する拡張現実技術(AR技術)が発達しつつある。そこで、経路探索アプリ等において、現在位置から目的地までの進行経路に関する情報などの各種情報を表すエアタグ(拡張現実画像)を風景映像に付加して表示することが行われている。 By the way, in recent years, augmented reality technology (AR technology) has been developed in which a virtual image called an air tag is added to and displayed by a video (hereinafter referred to as “landscape video” for convenience) taken by a camera attached to a mobile terminal device. I am doing. Therefore, in a route search application or the like, an air tag (augmented reality image) representing various information such as information on a traveling route from a current position to a destination is added to a landscape video and displayed.
 本件発明に関連して、日本の特表2011-527754号公報には、道路の分岐点の映像である分岐点ビューをディスプレイ上に表示し、ユーザーに進行方向を把握させるためにユーザーが進むべき道路セグメントに関する道路標識を強調表示するナビゲーションシステムの発明が開示されている。また、日本の特開2007-127437号公報には、実写画像と地図画像との対応関係をユーザーに提示する情報表示装置の発明が開示されている。この情報表示装置によれば、ユーザーが実写画像または地図画像のいずれか一方の構造物を指定すると、他方の画像中の対応する構造物が強調表示される。さらに、日本の特開2014-2278号公報には、所定の視点から見た風景のパノラマ画像の一部分であるパノラマ図と2次元地図とが互いに連動表示する地図表示装置の発明が開示されている。 In relation to the present invention, Japanese Special Table No. 2011-527754 discloses a branch point view that is an image of a road branch point on the display, and the user should proceed to grasp the traveling direction. An invention of a navigation system for highlighting road signs relating to road segments is disclosed. Japanese Laid-Open Patent Publication No. 2007-127437 discloses an invention of an information display device that presents a correspondence relationship between a photographed image and a map image to a user. According to this information display device, when the user designates either one of the photographed image or the map image, the corresponding structure in the other image is highlighted. Furthermore, Japanese Unexamined Patent Application Publication No. 2014-2278 discloses an invention of a map display device in which a panorama map that is a part of a panoramic image of a landscape viewed from a predetermined viewpoint and a two-dimensional map are displayed in conjunction with each other. .
日本の特表2011-527754号公報Japanese special table 2011-527754 gazette 日本の特開2007-127437号公報Japanese Unexamined Patent Publication No. 2007-127437 日本の特開2014-2278号公報Japanese Unexamined Patent Publication No. 2014-2278
 上述した拡張現実技術を用いれば、避難誘導アプリにおいて、ユーザーが撮影している風景映像に、避難経路の案内に供される情報(避難所の情報、災害箇所の情報など)としてのエアタグを付加的に表示することができる。しかしながら、1つの画面上に風景映像とエアタグとが混在して表示されると、風景映像中の物体とエアタグとが干渉して視認性の悪い映像となる。例えば、風景映像中の赤色の看板と火災を表す赤色のエアタグとが重なって表示されている場合、両者が干渉することによって、ユーザーにとっては、当該看板近傍の映像が視認性の悪い映像となる。このような視認性の悪い映像が表示されていると、特に災害発生によってユーザーがパニック状態になっている場合には、ユーザーにとっては進行方向を迅速に正しく把握することが困難である。また、日本の特表2011-527754号公報には、風景映像とエアタグとの混在については、何ら記載されていない。 If the augmented reality technology described above is used, an air tag as information (evacuation site information, disaster location information, etc.) provided for evacuation route guidance will be added to the landscape video captured by the user in the evacuation guidance app. Can be displayed automatically. However, when a landscape video and an air tag are displayed together on one screen, an object in the landscape video and the air tag interfere with each other, resulting in a video with poor visibility. For example, when a red signboard in a landscape image and a red air tag representing a fire are displayed overlapping each other, the image in the vicinity of the signboard becomes poorly visible for the user due to interference between the two. . When such a video with poor visibility is displayed, it is difficult for the user to quickly and correctly grasp the traveling direction, particularly when the user is in a panic state due to the occurrence of a disaster. In Japanese special table 2011-527754, there is no description about the mixture of landscape video and air tag.
 また、上述した拡張現実技術を用いれば、文字で構成された文字タグと呼ばれる仮想的画像についても、ユーザーが撮影している風景映像に付加的に表示することができる。なお、文字タグはエアタグの一種であるが、本明細書においては、図形の形態で表される仮想的画像のことを「エアタグ」といい、文字の形態で表される仮想的画像のことを「文字タグ」という。このようなエアタグや文字タグが付加された風景映像と避難経路を示す地図とを1つの画面上に表示した場合、例えば図68に示すような画像(地図および映像)が表示部に表示される。図68に示す例では、風景映像中に、避難所,進行経路,火災,水害などを表すエアタグが表示されるともに、それらのエアタグに対応する情報を表す文字タグが表示されている。なお、以下においては、説明の便宜上、エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置のことを「エアタグ位置」という。 In addition, if the above-described augmented reality technology is used, a virtual image called a character tag composed of characters can be additionally displayed on a landscape image captured by the user. A character tag is a type of air tag. In this specification, a virtual image represented in the form of a graphic is called an “air tag”, and a virtual image represented in the form of a character. It is called “character tag”. When a landscape video with such an air tag or character tag and a map showing an evacuation route are displayed on one screen, for example, an image (map and video) as shown in FIG. 68 is displayed on the display unit. . In the example shown in FIG. 68, air tags representing refuges, traveling routes, fires, floods, etc. are displayed in the landscape video, and character tags representing information corresponding to these air tags are displayed. In the following, for convenience of explanation, a geographical position of an object (for example, a refuge) or an event (for example, a fire) represented by an air tag is referred to as an “air tag position”.
 図68に示すように風景映像中に避難所や災害箇所がエアタグで表された場合、現在位置からのエアタグ位置の方向を把握することはユーザーにとって比較的容易であるが、現在位置からエアタグ位置までの距離を把握することはユーザーにとって困難である。また、風景映像中に災害箇所を表す複数のエアタグが含まれている場合、それらの災害箇所の情報(例えばランドマーク)が地図上に示されていても、ユーザーにとっては、風景映像中の各エアタグと地図上の各災害箇所とを対応付けることは困難である。以上のようにエアタグ位置の把握が困難であると、すなわち、避難所の位置や災害が発生している場所の把握が困難であると、特に災害発生によってユーザーがパニック状態になっている場合には、ユーザーの迅速な避難が阻害されることやユーザーが誤って避難経路からそれてしまうこと等が考えられる。 As shown in FIG. 68, when an evacuation site or a disaster location is represented by an air tag in a landscape image, it is relatively easy for the user to grasp the direction of the air tag position from the current position. It is difficult for the user to grasp the distance to the user. In addition, when a plurality of air tags representing disaster locations are included in the landscape video, even if information on the disaster locations (for example, landmarks) is shown on the map, the user can It is difficult to associate the air tag with each disaster location on the map. As mentioned above, if it is difficult to grasp the position of the air tag, that is, if it is difficult to grasp the location of the evacuation center or the place where the disaster has occurred, especially when the user is in a panic state due to the occurrence of the disaster It is conceivable that the user's quick evacuation is hindered or the user accidentally deviates from the evacuation route.
 また、図68に示す例では、文字タグはエアタグの近傍に配置されている。このような配置が行われる場合、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在してユーザーにとって視認性の悪い映像となるおそれがある。そこで、映像の視認性を良くするために、例えば図69に示すように、文字タグをエアタグから離れた位置に配置することが考えられる。しかしながら、風景映像中に同じ種類のエアタグが多数含まれている場合、ユーザーにとっては、各エアタグと各文字タグとを正確に対応付けることは困難である。従って、ユーザーにとっては、各文字タグがどのエアタグの説明を表しているのかを把握することが困難となる。このため、エアタグ位置の把握が困難であるときと同様、特に災害発生によってユーザーがパニック状態になっている場合には、ユーザーの迅速な避難が阻害されることやユーザーが誤って避難経路からそれてしまうこと等が考えられる。 In the example shown in FIG. 68, the character tag is arranged in the vicinity of the air tag. When such an arrangement is performed, there is a possibility that air tags and character tags are densely mixed in an area where buildings and roads are displayed in a landscape video, resulting in a video with poor visibility for the user. Therefore, in order to improve the visibility of the video, for example, as shown in FIG. 69, it is conceivable to arrange the character tag at a position away from the air tag. However, when a landscape video includes many air tags of the same type, it is difficult for the user to accurately associate each air tag with each character tag. Therefore, it is difficult for the user to understand which air tag each character tag represents. For this reason, as in the case where it is difficult to grasp the air tag position, especially when the user is in a panic due to a disaster, the user's quick evacuation is hindered or the user accidentally moves away from the evacuation route. It is conceivable that
 以上より、本発明は、1つの画面上に風景映像とエアタグとが表示されていてもより明確にユーザーに進行方向を示すことのできる経路案内装置を実現することを目的とする。また、風景映像中に表示されるエアタグが示す事物・事象の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することのできる経路案内装置を実現することを別の目的とする。また、良好な視認性を有し、かつ、文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる経路案内装置を実現することを更に別の目的とする。 As described above, an object of the present invention is to realize a route guidance device that can clearly show a traveling direction to a user even when a landscape image and an air tag are displayed on one screen. Another goal is to realize a route guidance device that can easily grasp the positional relationship between the geographical position of an object / event indicated by an air tag displayed in a landscape image and the current position (user's position). Objective. Another object is to realize a route guidance device that has good visibility and that allows the user to easily understand what things / events the character tag describes. .
 本発明の第1の局面は、目的地までの進行経路を案内するための経路案内装置であって、
 利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
 所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
 前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示手段によって表示されている撮影映像に重ねて表示する拡張現実画像表示手段と、
 前記映像表示領域において、前記経路探索手段によって得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示手段と
を備え、
 前記マスク画像表示手段は、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像を前記マスク画像よりも前面に配置することを特徴とする。
A first aspect of the present invention is a route guidance device for guiding a traveling route to a destination,
A route search means for searching for a route to the destination based on a condition input by the user;
Video display means for displaying a video being shot in a predetermined video display area;
Augmented reality image display means for displaying an augmented reality image as information provided for guidance of a travel route in the video display area so as to be superimposed on the captured video displayed by the video display means;
A mask image display means for displaying a mask image for partially hiding the photographed video on at least one of the left side or the right side of the travel route obtained by the route search means in the video display area;
The mask image display means arranges the augmented reality image in front of the mask image when the mask image and the augmented reality image overlap in the video display area.
 本発明の第2の局面は、本発明の第1の局面において、
 前記マスク画像表示手段は、前記マスク画像として半透明の画像を表示することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention,
The mask image display means displays a translucent image as the mask image.
 本発明の第3の局面は、本発明の第1または第2の局面において、
 前記マスク画像表示手段は、前記映像表示領域において、前記経路探索手段によって得られた進行経路の左側および右側の双方に前記マスク画像を表示することを特徴とする。
According to a third aspect of the present invention, in the first or second aspect of the present invention,
The mask image display means displays the mask image on both the left and right sides of the travel route obtained by the route search means in the video display area.
 本発明の第4の局面は、本発明の第1から第3までのいずれかの局面において、
 前記マスク画像表示手段は、前記経路探索手段によって得られた進行経路が前記映像表示領域において曲がっている場合には、当該進行経路が曲がっている方向に配置されるマスク画像については当該進行経路の折れ曲がり地点よりも手前側の撮影映像のみを隠すように、前記マスク画像を表示することを特徴とする。
According to a fourth aspect of the present invention, in any one of the first to third aspects of the present invention,
When the travel route obtained by the route search unit is bent in the video display area, the mask image display unit is configured to display a mask image arranged in a direction in which the travel route is bent. The mask image is displayed so as to hide only a photographed image closer to the front side than the folding point.
 本発明の第5の局面は、本発明の第1から第4までのいずれかの局面において、
 前記マスク画像表示手段は、前記映像表示領域において縦方向の幅が前記経路探索手段によって得られた進行経路の進行方向に向かって徐々に狭くなるような画像を前記マスク画像として表示することを特徴とする。
According to a fifth aspect of the present invention, in any one of the first to fourth aspects of the present invention,
The mask image display means displays, as the mask image, an image whose width in the vertical direction in the video display area is gradually narrowed toward the traveling direction of the traveling path obtained by the path searching means. And
 本発明の第6の局面は、本発明の第5の局面において、
 前記マスク画像表示手段は、現在位置と前記経路探索手段によって得られた進行経路とに基づいて透視変換によって得られる画像を前記マスク画像として表示することを特徴とする。
A sixth aspect of the present invention is the fifth aspect of the present invention,
The mask image display means displays an image obtained by perspective transformation based on a current position and a travel route obtained by the route search means as the mask image.
 本発明の第7の局面は、本発明の第1から第6までのいずれかの局面において、
 前記マスク画像の端部のうち前記経路探索手段によって得られた進行経路の進行方向側の端部の形状は、矢印状であることを特徴とする。
According to a seventh aspect of the present invention, in any one of the first to sixth aspects of the present invention,
Of the end portions of the mask image, the shape of the end portion on the traveling direction side of the traveling route obtained by the route searching means is an arrow shape.
 本発明の第8の局面は、本発明の第1から第7までのいずれかの局面において、
 前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする。
 H×0.5<Wmax
According to an eighth aspect of the present invention, in any one of the first to seventh aspects of the present invention,
When the vertical width of the video display area is H and the maximum vertical width of the mask image is Wmax, the following expression is established.
H × 0.5 <Wmax
 本発明の第9の局面は、本発明の第1から第7までのいずれかの局面において、
 前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする。
 H×0.2>Wmax
According to a ninth aspect of the present invention, in any one of the first to seventh aspects of the present invention,
When the vertical width of the video display area is H and the maximum vertical width of the mask image is Wmax, the following expression is established.
H × 0.2> Wmax
 本発明の第10の発明は、本発明の第1から第9までのいずれかの発明において、
 前記拡張現実画像表示手段は、前記拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を表示することを特徴とする。
According to a tenth aspect of the present invention, in any one of the first to ninth aspects of the present invention,
The augmented reality image display means displays, as one of the augmented reality images, an arrow-shaped image representing a travel route obtained by the route search means.
 本発明の第11の局面は、本発明の第10の局面において、
 前記マスク画像表示手段は、前記矢印状の画像と前記マスク画像とが重なることのないように、前記マスク画像を前記映像表示領域に表示することを特徴とする。
An eleventh aspect of the present invention is the tenth aspect of the present invention,
The mask image display means displays the mask image in the video display area so that the arrow-shaped image and the mask image do not overlap.
 本発明の第12の局面は、本発明の第1から第11までのいずれかの局面において、
 前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする。
According to a twelfth aspect of the present invention, in any one of the first to eleventh aspects of the present invention,
The route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
 本発明の第13の局面は、目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
 前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示ステップによって表示されている撮影映像に重ねて表示する拡張現実画像表示ステップと、
 前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示ステップと
を含み、
 前記マスク画像表示ステップでは、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像が前記マスク画像よりも前面に配置されることを特徴とする。
A thirteenth aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device,
A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
In the video display area, an augmented reality image display step of displaying an augmented reality image as information to be used for guidance of a travel route superimposed on the captured video displayed by the video display step;
A mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left side and the right side of the travel route obtained in the route search step in the video display region,
In the mask image display step, when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image.
 本発明の第14の局面は、目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
 前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示ステップによって表示されている撮影映像に重ねて表示する拡張現実画像表示ステップと、
 前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
 前記マスク画像表示ステップでは、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像が前記マスク画像よりも前面に配置されることを特徴とする。
A fourteenth aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination,
A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
In the video display area, an augmented reality image display step of displaying an augmented reality image as information to be used for guidance of a travel route superimposed on the captured video displayed by the video display step;
In the video display area, the terminal device includes a mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left and right sides of the travel route obtained in the route search step. CPU of the computer to be executed using the memory,
In the mask image display step, when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image.
 本発明の第15の局面は、本発明の第14の局面において、
 前記マスク画像表示ステップでは、前記マスク画像として半透明の画像が表示されることを特徴とする。
A fifteenth aspect of the present invention is the fourteenth aspect of the present invention,
In the mask image display step, a translucent image is displayed as the mask image.
 本発明の第16の局面は、本発明の第14または第15の局面において、
 前記マスク画像表示ステップでは、前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側および右側の双方に前記マスク画像が表示されることを特徴とする。
A sixteenth aspect of the present invention is the fourteenth or fifteenth aspect of the present invention,
In the mask image display step, the mask image is displayed on both the left side and the right side of the travel route obtained in the route search step in the video display area.
 本発明の第17の局面は、本発明の第14から第16までのいずれかの局面において、
 前記マスク画像表示ステップでは、前記経路探索ステップで得られた進行経路が前記映像表示領域において曲がっている場合には、当該進行経路が曲がっている方向に配置されるマスク画像については当該進行経路の折れ曲がり地点よりも手前側の撮影映像のみを隠すように、前記マスク画像が表示されることを特徴とする。
According to a seventeenth aspect of the present invention, in any one of the fourteenth to sixteenth aspects of the present invention,
In the mask image display step, when the travel route obtained in the route search step is bent in the video display area, the mask image arranged in the direction in which the travel route is bent The mask image is displayed so as to hide only the photographed image in front of the bent point.
 本発明の第18の局面は、本発明の第14から第17までのいずれかの局面において、
 前記マスク画像表示ステップでは、前記映像表示領域において縦方向の幅が前記経路探索ステップで得られた進行経路の進行方向に向かって徐々に狭くなるような画像が前記マスク画像として表示されることを特徴とする。
According to an eighteenth aspect of the present invention, in any one of the fourteenth to seventeenth aspects of the present invention,
In the mask image display step, an image is displayed as the mask image such that the vertical width in the video display region gradually narrows toward the traveling direction of the traveling path obtained in the path searching step. Features.
 本発明の第19の局面は、本発明の第18の局面において、
 前記マスク画像表示ステップでは、現在位置と前記経路探索ステップで得られた進行経路とに基づいて透視変換によって得られる画像が前記マスク画像として表示されることを特徴とする。
The nineteenth aspect of the present invention is the eighteenth aspect of the present invention,
In the mask image display step, an image obtained by perspective transformation based on the current position and the travel route obtained in the route search step is displayed as the mask image.
 本発明の第20の局面は、本発明の第14から第19までのいずれかの局面において、
 前記マスク画像の端部のうち前記経路探索ステップで得られた進行経路の進行方向側の端部の形状は、矢印状であることを特徴とする。
According to a twentieth aspect of the present invention, in any one of the fourteenth to nineteenth aspects of the present invention,
Of the end portions of the mask image, the shape of the end portion on the traveling direction side of the traveling route obtained in the route searching step is an arrow shape.
 本発明の第21の局面は、本発明の第14から第20までのいずれかの局面において、
 前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする。
 H×0.5<Wmax
According to a twenty-first aspect of the present invention, in any one of the fourteenth to twentieth aspects of the present invention,
When the vertical width of the video display area is H and the maximum vertical width of the mask image is Wmax, the following expression is established.
H × 0.5 <Wmax
 本発明の第22の局面は、本発明の第14から第20までのいずれかの局面において、
 前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする。
 H×0.2>Wmax
According to a twenty-second aspect of the present invention, in any one of the fourteenth to twentieth aspects of the present invention,
When the vertical width of the video display area is H and the maximum vertical width of the mask image is Wmax, the following expression is established.
H × 0.2> Wmax
 本発明の第23の局面は、本発明の第14から第22までのいずれかの局面において、
 前記拡張現実画像表示ステップでは、前記拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が表示されることを特徴とする。
According to a twenty-third aspect of the present invention, in any one of the fourteenth to twenty-second aspects of the present invention,
In the augmented reality image display step, as one of the augmented reality images, an arrow-shaped image representing the travel route obtained in the route search step is displayed.
 本発明の第24の局面は、本発明の第23の局面において、
 前記マスク画像表示ステップでは、前記矢印状の画像と前記マスク画像とが重なることのないように、前記マスク画像が前記映像表示領域に表示されることを特徴とする。
According to a twenty-fourth aspect of the present invention, in the twenty-third aspect of the present invention,
In the mask image display step, the mask image is displayed in the video display area so that the arrow-shaped image and the mask image do not overlap.
 本発明の第25の局面は、本発明の第14から第24までのいずれかの局面において、
 前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする。
According to a twenty-fifth aspect of the present invention, in any one of the fourteenth to twenty-fourth aspects of the present invention,
In the route search step, a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
 本発明の第26の局面は、目的地までの進行経路を案内するための経路案内装置であって、
 利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
 所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
 前記経路探索手段によって得られた進行経路を示す地図を所定の地図表示領域に表示する地図表示手段と、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
 前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示手段と
を備えることを特徴とする。
A twenty-sixth aspect of the present invention is a route guidance device for guiding a traveling route to a destination,
A route search means for searching for a route to the destination based on a condition input by the user;
Video display means for displaying a video being shot in a predetermined video display area;
Map display means for displaying a map showing a traveling route obtained by the route search means in a predetermined map display area;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area Link line display means for displaying.
 本発明の第27の局面は、本発明の第26の局面において、
 前記リンク線表示手段は、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする。
According to a twenty-seventh aspect of the present invention, in a twenty-sixth aspect of the present invention,
The link line display means displays each link line so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. It is characterized by displaying.
 本発明の第28の局面は、本発明の第26または第27の局面において、
 前記リンク線表示手段は、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする。
According to a twenty-eighth aspect of the present invention, in the twenty-sixth or twenty-seventh aspect of the present invention,
The link line display means draws the link line in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. It is characterized by doing.
 本発明の第29の局面は、本発明の第26から第28までのいずれかの局面において、
 前記第1の拡張現実画像表示手段は、前記第1の拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を前記映像表示領域に表示し、
 前記リンク線表示手段は、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線を表示することを特徴とする。
According to a twenty-ninth aspect of the present invention, in any one of the twenty-sixth to twenty-eighth aspects of the present invention,
The first augmented reality image display means displays an arrow-like image representing the travel route obtained by the route search means as one of the first augmented reality images in the video display area,
The link line display means displays a link line connecting the arrow-shaped image and the travel route displayed in the map display area.
 本発明の第30の局面は、本発明の第26から第29までのいずれかの局面において、
 前記地図表示手段は、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークを表示し、
 前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする。
According to a thirtieth aspect of the present invention, in any one of the twenty-sixth to twenty-ninth aspects of the present invention,
The map display means is configured to position the first augmented reality at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area. Display the landmark corresponding to the image,
The first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line.
 本発明の第31の局面は、本発明の第26から第30までのいずれかの局面において、
 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示手段を更に備えることを特徴とする。
According to a thirty-first aspect of the present invention, in any one of the twenty-sixth to thirtieth aspects of the present invention,
A second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line. It further comprises a second augmented reality image display means for displaying.
 本発明の第32の局面は、本発明の第31の局面において、
 前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする。
A thirty-second aspect of the present invention provides the thirty-first aspect of the present invention,
The second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region.
 本発明の第33の局面は、本発明の第32の局面において、
 前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする。
The thirty-third aspect of the present invention is the thirty-second aspect of the present invention,
The second augmented reality image display means displays the second augmented reality image in a region where a video corresponding to the sky of the captured video is displayed.
 本発明の第34の局面は、本発明の第31から第33までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする。
A thirty-fourth aspect of the present invention provides any one of the thirty-first to thirty-third aspects of the present invention,
The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. It is characterized by arranging a real image.
 本発明の第35の局面は、本発明の第31から第34までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像を表示することを特徴とする。
A thirty-fifth aspect of the present invention provides any one of the thirty-first to thirty-fourth aspects of the present invention,
The second augmented reality image display means displays the second augmented reality image so that an end of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. It is characterized by displaying.
 本発明の第36の局面は、本発明の第31から第35までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする。
A thirty-sixth aspect of the present invention provides any one of the thirty-first to thirty-fifth aspects of the present invention,
The second augmented reality image display means displays each second augmented reality image so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. It is characterized by doing.
 本発明の第37の局面は、本発明の第31から第36までのいずれかの局面において、
 前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする。
According to a 37th aspect of the present invention, in any one of the 31st to 36th aspects of the present invention,
The route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
 本発明の第38の局面は、目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
 前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
 前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
を含むことを特徴とする。
A thirty-eighth aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device,
A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area And a link line display step for displaying.
 本発明の第39の局面は、目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
 前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
 前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行することを特徴とする。
A thirty-ninth aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination,
A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area The CPU of the computer included in the terminal device executes the link line display step for displaying the image using a memory.
 本発明の第40の局面は、本発明の第39の局面において、
 前記リンク線表示ステップでは、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする。
The 40th aspect of the present invention is the 39th aspect of the present invention,
In the link line display step, each link line is set so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. It is displayed.
 本発明の第41の局面は、本発明の第39または第40の局面において、
 前記リンク線表示ステップでは、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする。
The forty-first aspect of the present invention is the 39th or fortyth aspect of the present invention,
In the link line display step, the link line is drawn in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. It is characterized by being.
 本発明の第42の局面は、本発明の第39から第41までのいずれかの局面において、
 前記第1の拡張現実画像表示ステップでは、前記第1の拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が前記映像表示領域に表示され、
 前記リンク線表示ステップでは、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線が表示されることを特徴とする。
According to a forty-second aspect of the present invention, in any one of the thirty-ninth to forty-first aspects of the present invention,
In the first augmented reality image display step, as one of the first augmented reality images, an arrow-shaped image representing the travel route obtained in the route search step is displayed in the video display area,
In the link line display step, a link line that connects the arrow-shaped image and the traveling route displayed in the map display area is displayed.
 本発明の第43の局面は、本発明の第39から第42までのいずれかの局面において、
 前記地図表示ステップでは、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークが表示され、
 前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする。
The forty-third aspect of the present invention provides any one of the thirty-ninth to forty-second aspects of the present invention,
In the map display step, the first augmented reality is located at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area. The landmark corresponding to the image is displayed,
The first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line.
 本発明の第44の局面は、本発明の第39から第43までのいずれかの局面において、
 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示ステップを更に含むことを特徴とする。
Forty-fourth aspect of the present invention provides any one of the thirty-ninth to forty-third aspects of the present invention,
A second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line. The method further includes a second augmented reality image display step of displaying.
 本発明の第45の局面は、本発明の第44の局面において、
 前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする。
A forty-fifth aspect of the present invention is the forty-fourth aspect of the present invention,
In the second augmented reality image display step, the second augmented reality image is displayed in a region above a central portion of the video display region.
 本発明の第46の局面は、本発明の第45の局面において、
 前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする。
A forty-sixth aspect of the present invention is the forty-fifth aspect of the present invention,
In the second augmented reality image display step, the second augmented reality image is displayed in an area where a video corresponding to the sky of the photographed video is displayed.
 本発明の第47の局面は、本発明の第44から第46までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする。
According to a 47th aspect of the present invention, in any one of the 44th to 46th aspects of the present invention,
In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. An augmented reality image is arranged.
 本発明の第48の局面は、本発明の第44から第47までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像が表示されることを特徴とする。
A 48th aspect of the present invention provides any one of the 44th to 47th aspects of the present invention,
In the second augmented reality image display step, the second augmented reality image is positioned such that an end portion of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. It is displayed.
 本発明の第49の局面は、本発明の第44から第48までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする。
A forty-ninth aspect of the present invention provides any one of the forty-fourth to forty-eighth aspects of the present invention,
In the second augmented reality image display step, each second augmented reality image is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. It is characterized by being.
 本発明の第50の局面は、本発明の第39から第49までのいずれかの局面において、
 前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする。
According to a 50th aspect of the present invention, in any one of the 39th to 49th aspects of the present invention,
In the route search step, a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
 本発明の第51の局面は、目的地までの進行経路を案内するための経路案内装置であって、
 利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
 所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示手段と、
 前記経路探索手段によって得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを所定の地図表示領域に表示する地図表示手段と、
 一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示手段と
を備え、
 前記第2の拡張現実画像表示手段は、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像を微小距離だけ移動し得る範囲内の位置に表示することを特徴とする。
A 51st aspect of the present invention is a route guidance device for guiding a travel route to a destination,
A route search means for searching for a route to the destination based on a condition input by the user;
Video display means for displaying a video being shot in a predetermined video display area;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. Image display means;
Map display means for displaying in a predetermined map display area a map indicating the travel route obtained by the route search means and a landmark corresponding to the second augmented reality image;
Link line display means for displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
The second augmented reality image display means has a range in which each second augmented reality image can be moved by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is characterized by being displayed at a position.
 本発明の第52の局面は、本発明の第51の局面において、
 前記リンク線表示手段は、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする。
According to a 52nd aspect of the present invention, in a 51st aspect of the present invention,
The link line display means can switch one end of the link line between the first augmented reality image and the landmark.
 本発明の第53の局面は、本発明の第51の局面において、
 前記リンク線表示手段は、
  一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線を表示し、
  前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする。
According to a 53rd aspect of the present invention, in a 51st aspect of the present invention,
The link line display means includes
Displaying a link line having one end as the first augmented reality image and the other end as the second augmented reality image;
The link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
 本発明の第54の局面は、本発明の第53の局面において、
 前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示手段は、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線を描画することを特徴とする。
According to a 54th aspect of the present invention, in a 53rd aspect of the present invention,
When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line The display means draws the link line so as to extend from the display position of the second augmented reality image to the virtual display position.
 本発明の第55の局面は、本発明の第51から第54までのいずれかの局面において、
 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする。
According to a 55th aspect of the present invention, in any one of the 51st to 54th aspects of the present invention,
The display position of each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.
 本発明の第56の局面は、本発明の第51から第54までのいずれかの局面において、
 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする。
According to a 56th aspect of the present invention, in any one of the 51st to 54th aspects of the present invention,
During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.
 本発明の第57の局面は、本発明の第51から第56までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする。
According to a 57th aspect of the present invention, in any one of the 51st to 56th aspects of the present invention,
The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. It is characterized by arranging a real image.
 本発明の第58の局面は、本発明の第51から第57までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする。
According to a 58th aspect of the present invention, in any one of the 51st to 57th aspects of the present invention,
The second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region.
 本発明の第59の局面は、本発明の第58の局面において、
 前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする。
According to a 59th aspect of the present invention, in a 58th aspect of the present invention,
The second augmented reality image display means displays the second augmented reality image in a region where a video corresponding to the sky of the captured video is displayed.
 本発明の第60の局面は、本発明の第51から第59までのいずれかの局面において、
 前記第2の拡張現実画像表示手段は、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像を表示することを特徴とする。
A 60th aspect of the present invention provides any one of the 51st to 59th aspects of the present invention,
The second augmented reality image display means displays the second augmented reality image in a character display area provided separately from the video display area and the map display area.
 本発明の第61の局面は、本発明の第51から第60までのいずれかの局面において、
 前記リンク線表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする。
According to a 61st aspect of the present invention, in any one of the 51st to 60th aspects of the present invention,
The link line display means displays each link line so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.
 本発明の第62の局面は、本発明の第61の局面において、
 前記第2の拡張現実画像表示手段は、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする。
The 62nd aspect of the present invention is the 61st aspect of the present invention,
The second augmented reality image display means is configured so that each first augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. It is characterized by displaying a real image.
 本発明の第63の局面は、本発明の第51から第62までのいずれかの局面において、
 前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする。
According to a 63rd aspect of the present invention, in any one of the 51st to 62nd aspects of the present invention,
The route searching means searches for an evacuation route as a destination and an evacuation route to the evacuation site using information on roads and evacuation sites.
 本発明の第64の局面は、目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
 前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
 前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
 一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を含み、
 前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示されることを特徴とする。
A 64th aspect of the present invention is a route guidance method for guiding a travel route to a destination using a terminal device,
A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
A link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is displayed at a position.
 本発明の第65の局面は、目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
 前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
 前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
 進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
 前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
 一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
 前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示されることを特徴とする。
A 65th aspect of the present invention is a route guidance program executed by a terminal device for guiding a traveling route to a destination,
A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
The CPU of the computer included in the terminal device includes a link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image. Runs using memory,
In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. It is displayed at a position.
 本発明の第66の局面は、本発明の第65の局面において、
 前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする。
According to a 66th aspect of the present invention, in a 65th aspect of the present invention,
In the link line display step, one end of the link line can be switched between the first augmented reality image and the landmark.
 本発明の第67の局面は、本発明の第65の局面において、
 前記リンク線表示ステップでは、
  一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線が表示され、
  前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする。
According to a 67th aspect of the present invention, in a 65th aspect of the present invention,
In the link line display step,
A link line having one end as the first augmented reality image and the other end as the second augmented reality image is displayed,
The link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
 本発明の第68の局面は、本発明の第67の局面において、
 前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示ステップでは、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線が描画されることを特徴とする。
The 68th aspect of the present invention is the 67th aspect of the present invention,
When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line In the display step, the link line is drawn so as to extend from the display position of the second augmented reality image to the virtual display position.
 本発明の第69の局面は、本発明の第65から第68までのいずれかの局面において、
 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする。
According to a 69th aspect of the present invention, in any one of the 65th to 68th aspects of the present invention,
The display position of each second augmented reality image is completely fixed during a period in which one or more second augmented reality images are displayed in the same order.
 本発明の第70の局面は、本発明の第65から第68までのいずれかの局面において、
 1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする。
According to a 70th aspect of the present invention, in any one of the 65th to 68th aspects of the present invention,
During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. To do.
 本発明の第71の局面は、本発明の第65から第70までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする。
The 71st aspect of the present invention provides any one of the 65th to 70th aspects of the present invention,
In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. An augmented reality image is arranged.
 本発明の第72の局面は、本発明の第65から第71までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする。
According to a 72nd aspect of the present invention, in any one of the 65th to 71st aspects of the present invention,
In the second augmented reality image display step, the second augmented reality image is displayed in a region above a central portion of the video display region.
 本発明の第73の局面は、本発明の第72の局面において、
 前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする。
The 73rd aspect of the present invention is the 72nd aspect of the present invention,
In the second augmented reality image display step, the second augmented reality image is displayed in an area where a video corresponding to the sky of the photographed video is displayed.
 本発明の第74の局面は、本発明の第65から第73までのいずれかの局面において、
 前記第2の拡張現実画像表示ステップでは、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像が表示されることを特徴とする。
According to a 74th aspect of the present invention, in any one of the 65th to 73rd aspects of the present invention,
In the second augmented reality image display step, the second augmented reality image is displayed in a character display area provided separately from the video display area and the map display area.
 本発明の第75の局面は、本発明の第65から第74までのいずれかの局面において、
 前記リンク線表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする。
According to a 75th aspect of the present invention, in any one of the 65th to 74th aspects of the present invention,
In the link line display step, each link line is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color.
 本発明の第76の局面は、本発明の第75の局面において、
 前記第2の拡張現実画像表示ステップでは、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする。
According to a 76th aspect of the present invention, in a 75th aspect of the present invention,
In the second augmented reality image display step, each second augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. A real image is displayed.
 第77の局面は、第65から第76までのいずれかの局面において、
 前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする。
The 77th aspect is any one of the 65th to 76th aspects,
In the route search step, a search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site.
 本発明の第1の局面によれば、経路案内装置には、撮影映像を部分的に隠すためのマスク画像を映像表示領域において進行経路に沿って表示するマスク画像表示手段が設けられる。ここで、映像表示領域においてマスク画像と拡張現実画像(エアタグ)とが重なる場合には、マスク画像よりも拡張現実画像の方が前面に配置される。これにより、映像表示領域内に撮影映像と拡張現実画像とが混在していても、撮影映像がマスク画像によって隠されるとともに、マスク画像の前面に拡張現実画像が表示される。このようにして、進行経路をたどるのに不必要な情報はマスク画像によって隠され、進行経路をたどるのに必要な情報がユーザーに明瞭に視認される。従って、例えば災害発生によってユーザーがパニック状態になっていても、当該ユーザーを速やかに目的地に誘導することが可能となる。以上のように、1つの画面上に撮影映像と拡張現実画像とが表示されていてもより明確にユーザーに進行方向を示すことのできる経路案内装置が実現される。 According to the first aspect of the present invention, the route guidance device is provided with mask image display means for displaying a mask image for partially hiding the captured video along the traveling path in the video display area. Here, when the mask image and the augmented reality image (air tag) overlap in the video display area, the augmented reality image is arranged in front of the mask image. Thereby, even if the captured video and the augmented reality image are mixed in the video display area, the captured video is hidden by the mask image and the augmented reality image is displayed in front of the mask image. In this way, information unnecessary to follow the travel route is hidden by the mask image, and information necessary to follow the travel route is clearly visible to the user. Therefore, for example, even when a user is in a panic due to a disaster, the user can be promptly guided to the destination. As described above, a route guidance device that can clearly show the traveling direction to the user even when the captured video and the augmented reality image are displayed on one screen is realized.
 本発明の第2の局面によれば、ユーザーは、撮影映像を参考にしつつ進行経路をたどることができる。 According to the second aspect of the present invention, the user can follow the traveling path while referring to the captured video.
 本発明の第3の局面によれば、進行経路の両側(左側および右側の双方)にマスク画像が表示される。このため、ユーザーに、より明確に進行方向を示すことが可能となる。 According to the third aspect of the present invention, mask images are displayed on both sides (both left and right sides) of the travel path. For this reason, it becomes possible to show a traveling direction more clearly to a user.
 本発明の第4の局面によれば、進行経路が曲がっている場合、その曲がっている方向に配置されるマスク画像の長さは、他方のマスク画像の長さよりも短くされる。これにより、現在位置よりも先の地点で進行経路が曲がっていることをユーザーに認識させることが可能となる。従って、災害発生によってユーザーがパニック状態になっていても、当該ユーザーが進行経路からそれることを防止することが可能となる。 According to the fourth aspect of the present invention, when the traveling path is bent, the length of the mask image arranged in the bending direction is made shorter than the length of the other mask image. This makes it possible for the user to recognize that the traveling route is bent at a point ahead of the current position. Therefore, even if the user is in a panic state due to the occurrence of a disaster, the user can be prevented from deviating from the travel route.
 本発明の第5の局面によれば、現在位置から遠くなるにつれて撮影映像が徐々に小さくなるのと同様、現在位置から遠くなるにつれてマスク画像の幅が徐々に狭くなる。これによりユーザーに違和感を与えることなく、マスク画像によって撮影映像を隠すことが可能となる。 According to the fifth aspect of the present invention, the width of the mask image gradually decreases as the distance from the current position increases, as the captured image gradually decreases as the distance from the current position increases. This makes it possible to hide the captured video with the mask image without giving the user a sense of incongruity.
 本発明の第6の局面によれば、本発明の第5の局面と同様、ユーザーに違和感を与えることなく、マスク画像によって撮影映像を隠すことが可能となる。 According to the sixth aspect of the present invention, similar to the fifth aspect of the present invention, it is possible to hide the captured video with the mask image without giving the user a sense of incongruity.
 本発明の第7の局面によれば、ユーザーに対して、進行方向の認識をより高めることができる。 According to the seventh aspect of the present invention, recognition of the traveling direction can be further enhanced for the user.
 本発明の第8の局面によれば、マスク画像の幅は、比較的太い幅となる。これにより、進行経路をたどるのに不必要な情報をより効果的に隠すことが可能となる。その結果、進行経路をたどるのに必要な情報がユーザーに明瞭に視認される。 According to the eighth aspect of the present invention, the width of the mask image is a relatively large width. This makes it possible to more effectively hide information unnecessary to follow the traveling path. As a result, the information necessary to follow the traveling path is clearly visible to the user.
 本発明の第9の局面によれば、マスク画像の幅は、比較的狭い幅となる。これにより、ユーザーに対して、進行方向の認識をより高めることができる。 According to the ninth aspect of the present invention, the mask image has a relatively narrow width. Thereby, the recognition of the traveling direction can be further enhanced for the user.
 本発明の第10の局面によれば、映像表示領域において、経路探索手段による経路探索によって得られた進行経路を示す矢印状の拡張現実画像が表示される。これにより、ユーザーに対して、進行方向の認識をより高めることができる。 According to the tenth aspect of the present invention, an arrow-like augmented reality image indicating the traveling route obtained by the route search by the route search means is displayed in the video display area. Thereby, the recognition of the traveling direction can be further enhanced for the user.
 本発明の第11の局面によれば、経路探索手段による経路探索によって得られた進行経路を示す矢印状の拡張現実画像は、マスク画像によるマスク(撮影映像を隠すこと)が施されていない領域に表示される。ユーザーの視線はマスク画像によって隠されていない領域に向けられるので、ユーザーの視線は進行経路を示す矢印状の拡張現実画像に向けられる。このため、例えば災害発生によってユーザーがパニック状態になっていても、ユーザーは目指すべき方向をきわめて短時間で把握することが可能となる。 According to the eleventh aspect of the present invention, the arrow-like augmented reality image indicating the travel route obtained by the route search by the route search means is a region where the mask (masking the captured image) by the mask image is not performed. Is displayed. Since the user's line of sight is directed to an area that is not hidden by the mask image, the user's line of sight is directed to an arrow-like augmented reality image that indicates the travel path. For this reason, even if the user is in a panic state due to a disaster, for example, the user can grasp the direction to be aimed for in a very short time.
 本発明の第12の局面によれば、1つの画面上に撮影映像と拡張現実画像とが表示されていてもより明確にユーザーに避難経路を示すことのできる経路案内装置が実現される。 According to the twelfth aspect of the present invention, there is realized a route guidance device that can more clearly show the evacuation route to the user even if the captured video and the augmented reality image are displayed on one screen.
 本発明の第13の局面によれば、本発明の第1の局面と同様の効果を経路案内方法の発明において奏することができる。 According to the thirteenth aspect of the present invention, the same effect as that of the first aspect of the present invention can be achieved in the route guidance method invention.
 本発明の第14から第25の局面によれば、それぞれ本発明の第1から第12の局面と同様の効果を経路案内プログラムの発明において奏することができる。 According to the fourteenth to twenty-fifth aspects of the present invention, the same effects as the first to twelfth aspects of the present invention can be achieved in the invention of the route guidance program, respectively.
 本発明の第26の局面によれば、地図表示領域には、目的地までの進行経路を示す地図が表示され、映像表示領域には、撮影画像とともにエアタグ(第1の拡張現実画像)が表示される。そして、エアタグとそれに対応する地図上の位置とがリンク線によって結ばれる。これにより、ユーザーは、エアタグと地図上の位置との対応関係を容易に把握することが可能となる。以上より、風景映像中に表示されるエアタグが示す事物・事象の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することのできる経路案内装置が実現される。 According to the twenty-sixth aspect of the present invention, a map showing a travel route to the destination is displayed in the map display area, and an air tag (first augmented reality image) is displayed together with the photographed image in the video display area. Is done. The air tag and the corresponding position on the map are connected by a link line. Thereby, the user can easily grasp the correspondence between the air tag and the position on the map. As described above, the route guidance device that can easily grasp the positional relationship between the geographical position of the object / event indicated by the air tag displayed in the landscape image and the current position (user position) is realized.
 本発明の第27の局面によれば、映像表示領域中のエアタグと当該エアタグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、エアタグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the twenty-seventh aspect of the present invention, the air tag in the video display area and the link line corresponding to the air tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the air tag and the link line. This makes it possible to guide the user to the destination more quickly.
 本発明の第28の局面によれば、ユーザーによって装置の向きが変えられたり、あるいは、ユーザーが進行経路をたどることによって装置の位置が移動しても、常にエアタグとそれに対応する地図上の位置とがリンク線によって結ばれる。 According to the twenty-eighth aspect of the present invention, even if the orientation of the device is changed by the user or the position of the device is moved by the user following the traveling path, the air tag and the corresponding position on the map are always obtained. Are connected by a link line.
 本発明の第29の局面によれば、映像表示領域において、経路探索手段による経路探索によって得られた進行経路を示す矢印状のエアタグが表示される。これにより、ユーザーに対して、進行方向の認識を高めることができる。 According to the twenty-ninth aspect of the present invention, an arrow-shaped air tag indicating the travel route obtained by the route search by the route search means is displayed in the video display area. Thereby, the recognition of the advancing direction can be enhanced for the user.
 本発明の第30の局面によれば、映像表示領域には、撮影画像とともにエアタグが表示され、地図表示領域には、目的地までの進行経路を示す地図が表示されるとともに映像表示領域内のエアタグに対応するランドマークが表示される。そして、映像表示領域内のエアタグと地図表示領域内のランドマークとがリンク線によって結ばれる。これにより、ユーザーは、各エアタグとそれに対応するランドマークとの対応関係を容易に把握することが可能となる。 According to the thirtieth aspect of the present invention, an air tag is displayed together with a photographed image in the video display area, a map showing a travel route to the destination is displayed in the map display area, and a map in the video display area is displayed. A landmark corresponding to the air tag is displayed. The air tag in the video display area and the landmark in the map display area are connected by a link line. As a result, the user can easily grasp the correspondence between each air tag and the corresponding landmark.
 本発明の第31の局面によれば、経路案内装置には、エアタグに対応する文字タグ(第2の拡張現実画像)を表示する第2の拡張現実画像表示手段が設けられる。このため、進行経路をたどる際に有用となる情報を文字でユーザーに提供することが可能となる。これにより、より詳細な情報がユーザーに提供され、ユーザーを速やかに目的地に誘導することが可能となる。 According to the thirty-first aspect of the present invention, the route guidance device is provided with second augmented reality image display means for displaying a character tag (second augmented reality image) corresponding to the air tag. For this reason, it is possible to provide the user with information useful for tracing the traveling route. As a result, more detailed information is provided to the user, and the user can be promptly guided to the destination.
 本発明の第32の局面によれば、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the thirty-second aspect of the present invention, it is possible to suppress the air tag and the character tag from being mixed closely in the video display area and to hide useful information by the character tag.
 本発明の第33の局面によれば、より効果的に、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the thirty-third aspect of the present invention, it is possible to more effectively suppress the air tag and the character tag from being mixed in the video display area and hiding useful information by the character tag.
 本発明の第34の局面によれば、2つの文字タグが互いに重なり合うことが防止されるので、有用な情報が文字で確実にユーザーに提供される。 According to the thirty-fourth aspect of the present invention, two character tags are prevented from overlapping each other, so that useful information is reliably provided to the user as characters.
 本発明の第35の局面によれば、文字タグの端部は当該文字タグに対応するリンク線の近傍に配置される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the thirty-fifth aspect of the present invention, the end of the character tag is arranged in the vicinity of the link line corresponding to the character tag. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
 本発明の第36の局面によれば、文字タグと当該文字タグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the thirty-sixth aspect of the present invention, the character tag and the link line corresponding to the character tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
 本発明の第37の局面によれば、ユーザーに避難経路を案内するための経路案内装置において、風景映像中に表示されるエアタグが示す事物(例えば避難所)・事象(例えば火災)の地理上の位置と現在位置(ユーザーの位置)との位置関係を容易に把握することが可能となる。 According to the thirty-seventh aspect of the present invention, in a route guidance device for guiding an evacuation route to a user, the geographical location of an object (for example, a refuge) or event (for example, a fire) indicated by an air tag displayed in a landscape image It is possible to easily grasp the positional relationship between the current position and the current position (user position).
 本発明の第38の局面によれば、本発明の第26の局面と同様の効果を経路案内方法の発明において奏することができる。 According to the thirty-eighth aspect of the present invention, the same effect as in the twenty-sixth aspect of the present invention can be achieved in the route guidance method invention.
 本発明の第39から第50の局面によれば、それぞれ本発明の第26から第37の局面と同様の効果を経路案内プログラムの発明において奏することができる。 According to the 39th to 50th aspects of the present invention, the same effects as the 26th to 37th aspects of the present invention can be achieved in the invention of the route guidance program, respectively.
 本発明の第51の局面によれば、映像表示領域には、撮影映像とともにエアタグ(第1の拡張現実画像)が表示され、地図表示領域には、目的地までの進行経路を示す地図が表示されるとともに映像表示領域内のエアタグに対応するランドマークが表示される。また、エアタグに対応する文字タグ(第2の拡張現実画像)が所定の領域に表示される。以上のような表示が行われる経路案内装置において、文字タグとエアタグとを結ぶリンク線または文字タグとランドマークとを結ぶリンク線のうちの少なくとも一方が表示される。このため、各文字タグとそれに対応するエアタグやランドマークとの対応関係の把握が容易になる。従って、ユーザーは、各文字タグがどの事物・事象に関する説明をしているのかを容易に把握することが可能となる。また、各文字タグはほぼ同じ位置に固定された状態で表示される。このため、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。これにより、ユーザーが移動しながら経路案内装置を使用していても、良好な視認性を有する画像がユーザーに提供される。以上より、良好な視認性を有し、かつ、画面上に表示されている文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる経路案内装置が実現される。 According to the fifty-first aspect of the present invention, an air tag (first augmented reality image) is displayed together with a photographed video in the video display area, and a map showing a travel route to the destination is displayed in the map display area. At the same time, a landmark corresponding to the air tag in the video display area is displayed. In addition, a character tag (second augmented reality image) corresponding to the air tag is displayed in a predetermined area. In the route guidance device in which the above display is performed, at least one of a link line connecting the character tag and the air tag or a link line connecting the character tag and the landmark is displayed. For this reason, it becomes easy to grasp the correspondence between each character tag and the corresponding air tag or landmark. Therefore, the user can easily grasp which thing / event each character tag explains. Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation | variation of the display position of the character tag accompanying a user's movement is suppressed. Thereby, even if the user moves and uses the route guidance device, an image having good visibility is provided to the user. As described above, a route guidance device is realized that has good visibility and allows the user to easily understand what object / event the character tag displayed on the screen describes. The
 本発明の第52の局面によれば、ユーザーは、リンク線の一端をエアタグとランドマークとの間で切り替えることが可能となる。 According to the 52nd aspect of the present invention, the user can switch one end of the link line between the air tag and the landmark.
 本発明の第53の局面によれば、ユーザーによって装置の向きが変えられたり、あるいは、ユーザーが進行経路をたどることによって装置の位置が移動しても、常にエアタグとそれに対応する文字タグとがリンク線によって結ばれる。 According to the 53rd aspect of the present invention, even if the orientation of the device is changed by the user or the position of the device is moved by the user following the traveling path, the air tag and the corresponding character tag are always provided. Connected by link lines.
 本発明の第54の局面によれば、エアタグが視野角の範囲外に位置する場合であっても、文字タグの表示位置からエアタグの仮想表示位置へと伸びるようにリンク線が表示される。このため、ユーザーは、文字タグが視野角の範囲外の事物・事象についての情報を表している旨を把握することが可能となる。 According to the 54th aspect of the present invention, the link line is displayed so as to extend from the display position of the character tag to the virtual display position of the air tag even when the air tag is located outside the range of the viewing angle. For this reason, the user can grasp that the character tag represents information about an object / event outside the range of the viewing angle.
 本発明の第55の局面によれば、文字タグは完全に固定された状態で表示されるので、ユーザーの動きに伴って文字タグの表示位置がぶれることはない。これにより、きわめて良好な視認性を有する画像がユーザーに提供される。 According to the 55th aspect of the present invention, since the character tag is displayed in a completely fixed state, the display position of the character tag does not fluctuate with the movement of the user. Thereby, an image having very good visibility is provided to the user.
 本発明の第56の局面によれば、文字タグはほぼ同じ位置に固定された状態で表示されるので、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。ここで、仮に文字タグが完全に固定された状態で表示された場合、ユーザーが文字タグを例えばボタン(メニューボタン)と誤認することが懸念される。この点、文字タグが微小距離だけ移動し得るように構成されていると、例えばユーザーの動きに伴って文字タグがわずかに動くので、ユーザーによる上述のような誤認が防止される。 According to the fifty-sixth aspect of the present invention, since the character tag is displayed in a state of being fixed at substantially the same position, the fluctuation of the display position of the character tag accompanying the movement of the user is suppressed. Here, if the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as a button (menu button), for example. In this respect, if the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.
 本発明の第57の局面によれば、2つの文字タグが互いに重なり合うことが防止されるので、有用な情報が文字で確実にユーザーに提供される。 According to the 57th aspect of the present invention, since two character tags are prevented from overlapping each other, useful information is reliably provided to the user in characters.
 本発明の第58の局面によれば、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the 58th aspect of the present invention, the air tag and the character tag are mixedly mixed in the video display area, and useful information is prevented from being hidden by the character tag.
 本発明の第59の局面によれば、より効果的に、映像表示領域においてエアタグと文字タグとが密に混在することや有用な情報が文字タグによって隠されることが抑制される。 According to the 59th aspect of the present invention, it is possible to more effectively suppress the air tag and the character tag from being mixed in the image display area and hiding useful information by the character tag.
 本発明の第60の局面によれば、エアタグと文字タグとは異なる領域に表示されるので、エアタグと文字タグとが混在することや有用な情報が文字タグによって隠されることが確実に防止される。 According to the sixtyth aspect of the present invention, since the air tag and the character tag are displayed in different areas, it is reliably prevented that the air tag and the character tag are mixed and that useful information is hidden by the character tag. The
 本発明の第61の局面によれば、画面上の文字タグと当該文字タグに対応するリンク線とは同じ色で表示される。このため、ユーザーは、文字タグとリンク線との対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the 61st aspect of the present invention, the character tag on the screen and the link line corresponding to the character tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the character tag and the link line. This makes it possible to guide the user to the destination more quickly.
 本発明の第62の局面によれば、映像表示領域中のエアタグと当該エアタグに対応する文字タグとは同じ色で表示される。このため、ユーザーは、エアタグと文字タグとの対応関係を容易に把握することができる。これにより、より速やかにユーザーを目的地に誘導することが可能となる。 According to the 62nd aspect of the present invention, the air tag in the video display area and the character tag corresponding to the air tag are displayed in the same color. For this reason, the user can easily grasp the correspondence between the air tag and the character tag. This makes it possible to guide the user to the destination more quickly.
 本発明の第63の局面によれば、ユーザーに避難経路を案内するための経路案内装置において、表示画像に関して良好な視認性が得られるとともに、画面上に表示されている文字タグがどの事物・事象の説明をしているのかを容易に把握することが可能となる。 According to the 63rd aspect of the present invention, in the route guidance device for guiding the evacuation route to the user, it is possible to obtain good visibility with respect to the display image, and which character tag is displayed on the screen. It is possible to easily grasp whether an event is being explained.
 本発明の第64の局面によれば、本発明の第51の局面と同様の効果を経路案内方法の発明において奏することができる。 According to the 64th aspect of the present invention, the same effect as that of the 51st aspect of the present invention can be achieved in the route guidance method invention.
 本発明の第65から第77の局面によれば、それぞれ本発明の第51から第63の局面と同様の効果を経路案内プログラムの発明において奏することができる。 According to the 65th to 77th aspects of the present invention, the same effects as the 51st to 63rd aspects of the present invention can be achieved in the invention of the route guidance program, respectively.
本発明の第1の実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。It is a block diagram which shows the apparatus structure which implement | achieves the evacuation guidance system which concerns on the 1st Embodiment of this invention. 上記第1の実施形態において、携帯端末装置のハードウェア構成を示すブロック図である。In the said 1st Embodiment, it is a block diagram which shows the hardware constitutions of a portable terminal device. 上記第1の実施形態において、表示部内の領域についての詳細を示す図である。In the said 1st Embodiment, it is a figure which shows the detail about the area | region in a display part. 上記第1の実施形態において、携帯端末装置の詳細な機能構成を示すブロック図である。In the said 1st Embodiment, it is a block diagram which shows the detailed functional structure of a portable terminal device. 上記第1の実施形態において、個人状況入力手段の一画面例を示す図である。In the said 1st Embodiment, it is a figure which shows one screen example of a personal condition input means. 上記第1の実施形態において、移動可能距離入力手段の一画面例を示す図である。In the said 1st Embodiment, it is a figure which shows the example of a screen of the movable distance input means. 上記第1の実施形態において、周辺状況入力手段の一画面例を示す図である。In the said 1st Embodiment, it is a figure which shows the example of a screen of a periphery condition input means. 上記第1の実施形態において、地図表示手段による地図の表示および映像表示手段による風景映像の表示について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the display of the map by a map display means, and the display of the landscape image by a video display means. 上記第1の実施形態において、ワイヤーフレームについて説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating a wire frame. 上記第1の実施形態において、風景映像にワイヤーフレームが付加された映像の一例を示す図である。In the said 1st Embodiment, it is a figure which shows an example of the image | video by which the wire frame was added to the landscape image | video. 上記第1の実施形態において、エアタグ表示手段によるエアタグの表示について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the display of the air tag by an air tag display means. 上記第1の実施形態において、マスク画像について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating a mask image. 上記第1の実施形態において、マスク画像が付加されていない映像の一例を示す図である。In the said 1st Embodiment, it is a figure which shows an example of the image | video to which the mask image is not added. 上記第1の実施形態において、マスク画像が付加された映像の一例を示す図である。It is a figure which shows an example of the image | video with which the mask image was added in the said 1st Embodiment. 上記第1の実施形態において、携帯端末装置での処理フローを示すフローチャートである。In the said 1st Embodiment, it is a flowchart which shows the processing flow in a portable terminal device. 上記第1の実施形態において、マスク画像の位置について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the position of a mask image. 上記第1の実施形態において、マスク画像の透明度について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the transparency of a mask image. 上記第1の実施形態において、マスク画像の幅について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the width | variety of a mask image. 上記第1の実施形態において、マスク画像の幅について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the width | variety of a mask image. 上記第1の実施形態において、マスク画像の先端部の形状について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the shape of the front-end | tip part of a mask image. 上記第1の実施形態において、避難経路が曲がっている場合のマスク画像の形状について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the shape of a mask image in case the evacuation route is bent. 上記第1の実施形態において、折れ曲がり地点とマスク画像の長さとの関係について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the relationship between a bending point and the length of a mask image. 上記第1の実施形態において、マスク画像を表示することによる効果について説明するための図である。In the said 1st Embodiment, it is a figure for demonstrating the effect by displaying a mask image. 本発明の第2の実施形態における携帯端末装置の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed function structure of the portable terminal device in the 2nd Embodiment of this invention. 上記第2の実施形態において、地図表示手段による地図の表示および映像表示手段による風景映像の表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the map by a map display means, and the display of the landscape image by a video display means. 上記第2の実施形態において、ランドマーク表示手段によるランドマークの表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the landmark by a landmark display means. 上記第2の実施形態において、風景映像にワイヤーフレームが付加された映像の一例を示す図である。In the said 2nd Embodiment, it is a figure which shows an example of the image | video by which the wire frame was added to the landscape image | video. 上記第2の実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記第2の実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記第2の実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記第2の実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記第2の実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記第2の実施形態において、携帯端末装置での処理フローを示すフローチャートである。In the said 2nd Embodiment, it is a flowchart which shows the processing flow in a portable terminal device. 上記第2の実施形態において、風景映像にエアタグが付加された映像の一例を示す図である。In the said 2nd Embodiment, it is a figure which shows an example of the image | video by which the air tag was added to the landscape image | video. 上記第2の実施形態において、リアルタイムでの表示部へのリンク線の描画について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the drawing of the link line to the display part in real time. 上記第2の実施形態において、複数の文字タグの表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of a several character tag. 上記第2の実施形態において、複数の文字タグの表示について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the display of a several character tag. 上記第2の実施形態において、文字タグとリンク線との位置関係について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the positional relationship of a character tag and a link line. 上記第2の実施形態において、文字タグとリンク線との位置関係について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the positional relationship of a character tag and a link line. 上記第2の実施形態において、風景映像中における文字タグの位置について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the position of the character tag in a landscape image | video. 上記第2の実施形態において、映像表示領域の上方の領域(空の映像が表示されている領域)に文字タグを配置することによる効果について説明するための図である。In the said 2nd Embodiment, it is a figure for demonstrating the effect by arrange | positioning a character tag to the area | region (area | region where the empty image | video is displayed) above a video display area. 上記第2の実施形態の変形例に関し、ランドマークを表示しない構成を採用した場合の一表示例を示す図である。It is a figure which shows one display example at the time of employ | adopting the structure which does not display a landmark regarding the modification of the said 2nd Embodiment. 上記第2の実施形態の変形例に関し、表示部の下方に地図表示領域を配置して表示部の上方に映像表示領域を配置した場合の一表示例を示す図である。It is a figure which shows one display example at the time of arrange | positioning a map display area below a display part and arrange | positioning a video display area above a display part regarding the modification of the said 2nd Embodiment. 上記第2の実施形態の変形例に関し、地図表示領域と映像表示領域との間に文字タグ表示領域を設けた場合の一表示例を示す図である。It is a figure which shows one display example at the time of providing the character tag display area between the map display area and the image | video display area regarding the modification of the said 2nd Embodiment. 本発明の第3の実施形態における携帯端末装置の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed function structure of the portable terminal device in the 3rd Embodiment of this invention. 上記第3の実施形態において、エアタグ表示手段によるエアタグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the air tag by an air tag display means. 上記第3の実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記第3の実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記第3の実施形態において、文字タグ表示手段による文字タグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the character tag by a character tag display means. 上記第3の実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記第3の実施形態において、リンク線表示手段によるリンク線の表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of the link line by a link line display means. 上記第3の実施形態において、携帯端末装置での処理フローを示すフローチャートである。In the said 3rd Embodiment, it is a flowchart which shows the processing flow in a portable terminal device. 上記第3の実施形態において、風景映像にエアタグが付加された映像の一例を示す図である。In the said 3rd Embodiment, it is a figure which shows an example of the image | video by which the air tag was added to the landscape image | video. 上記第3の実施形態において、複数の文字タグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of a several character tag. 上記第3の実施形態において、複数の文字タグの表示について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display of a several character tag. 上記第3の実施形態において、文字タグの表示位置について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. 上記第3の実施形態において、文字タグの表示位置について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. 上記第3の実施形態において、文字タグの表示位置について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the display position of a character tag. 上記第3の実施形態において、リンク線と文字タグとの位置関係について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the positional relationship of a link line and a character tag. 上記第3の実施形態において、リンク線と文字タグとの位置関係について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the positional relationship of a link line and a character tag. 上記第3の実施形態において、リアルタイムでの表示部へのリンク線の描画について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating drawing of the link line to the display part in real time. 上記第3の実施形態において、エアタグの位置が映像表示領域外にあるときのリンク線の描画について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating drawing of a link line when the position of an air tag exists outside an image | video display area. 上記第3の実施形態において、映像表示領域の上方の領域(空の映像が表示されている領域)に文字タグを配置することによる効果について説明するための図である。In the said 3rd Embodiment, it is a figure for demonstrating the effect by arrange | positioning a character tag to the area | region (area | region where the empty image | video is displayed) above a video display area. 上記第3の実施形態の第1の変形例における一表示例を示す図である。It is a figure which shows the example of a display in the 1st modification of the said 3rd Embodiment. 上記第3の実施形態の第2の変形例における一表示例を示す図である。It is a figure which shows the example of a display in the 2nd modification of the said 3rd Embodiment. 上記第3の実施形態の第3の変形例において、リンク線の一端の切り替えについて説明するための図である。It is a figure for demonstrating switching of the end of a link line in the 3rd modification of the said 3rd Embodiment. 上記第3の実施形態の変形例に関し、表示部の下方に地図表示領域を配置して表示部の上方に映像表示領域を配置した場合の一表示例を示す図である。It is a figure which shows the example of a display at the time of arrange | positioning a map display area | region below a display part and arrange | positioning a video display area | region above a display part regarding the modification of the said 3rd Embodiment. 従来例における一表示例を示す図である。It is a figure which shows the example of a display in a prior art example. 文字タグをエアタグから離れた位置に配置した場合の一表示例を示す図である。It is a figure which shows the example of a display at the time of arrange | positioning the character tag in the position away from the air tag.
 以下、添付図面を参照しつつ本発明の実施形態について説明する。なお、以下においては、「アプリケーションソフトウェア」のことを「アプリ」と略記している。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the following, “application software” is abbreviated as “application”.
<1.第1の実施形態>
<1.1 全体構成>
 図1は、本発明の第1の実施形態に係る避難誘導システムを実現する機器構成を示すブロック図である。この避難誘導システムは、携帯端末装置10とサーバ20とによって実現される。携帯端末装置10とサーバ20とは、インターネットなどの通信回線を介して接続されている。本実施形態においては、この避難誘導システムを実現するために、避難誘導アプリが携帯端末装置10にインストールされる。避難誘導アプリは、地震などの災害が発生した際にユーザーに現在位置から避難所までの避難経路を提示するためのソフトウェアである。ユーザーは、所定の操作により避難誘導アプリを起動することができる。このような避難誘導アプリを携帯端末装置10にインストールしておくことにより、ユーザーは、例えば土地勘のない場所で災害に遭遇しても、避難誘導アプリを使用することによって避難所に容易にたどり着くことが可能となる。
<1. First Embodiment>
<1.1 Overall configuration>
FIG. 1 is a block diagram showing a device configuration for realizing an evacuation guidance system according to the first embodiment of the present invention. This evacuation guidance system is realized by the mobile terminal device 10 and the server 20. The portable terminal device 10 and the server 20 are connected via a communication line such as the Internet. In the present embodiment, an evacuation guidance application is installed in the mobile terminal device 10 in order to realize this evacuation guidance system. The evacuation guidance application is software for presenting the evacuation route from the current position to the evacuation center when a disaster such as an earthquake occurs. The user can activate the evacuation guidance application by a predetermined operation. By installing such an evacuation guidance application in the mobile terminal device 10, even if a user encounters a disaster in a place where there is no land intuition, for example, the user can easily reach the evacuation site by using the evacuation guidance application. It becomes possible.
 図2は、携帯端末装置10のハードウェア構成を示すブロック図である。携帯端末装置10は、CPU11,フラッシュROM12,RAM13,通信制御部14,映像撮影部(カメラ)15,GPS処理部16,入力操作部17,表示部18,および傾きセンサ19を有している。CPU11は、この携帯端末装置10の全体を制御するために各種演算処理等を行う。フラッシュROM12は、書き込み可能な不揮発性のメモリであって、携帯端末装置10の電源がオフされても保持されるべき各種プログラム・各種データを格納する。RAM13は、書き込み可能な揮発性のメモリであって、実行中のプログラムやデータ等を一時的に格納する。通信制御部14は、外部へのデータ送信の制御や外部からのデータ受信の制御を行う。映像撮影部(カメラ)15は、ユーザーによる操作に基づいて、現在位置から見える風景の撮影を行う。GPS処理部16は、GPS衛星から受信する電波に基づいて、ユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得する。入力操作部17は、例えばタッチパネルであって、ユーザーによる入力操作を受け付ける。表示部18は、CPU11からの指令に基づいて、画像の表示を行う。傾きセンサ19は、この携帯端末装置10の傾きを示す角度情報を取得する。 FIG. 2 is a block diagram illustrating a hardware configuration of the mobile terminal device 10. The mobile terminal device 10 includes a CPU 11, a flash ROM 12, a RAM 13, a communication control unit 14, a video photographing unit (camera) 15, a GPS processing unit 16, an input operation unit 17, a display unit 18, and a tilt sensor 19. The CPU 11 performs various arithmetic processes and the like in order to control the entire mobile terminal device 10. The flash ROM 12 is a writable nonvolatile memory, and stores various programs and various data that should be retained even when the power of the mobile terminal device 10 is turned off. The RAM 13 is a writable volatile memory, and temporarily stores an executing program, data, and the like. The communication control unit 14 performs control of data transmission to the outside and control of data reception from the outside. The video shooting unit (camera) 15 shoots a landscape seen from the current position based on an operation by the user. The GPS processing unit 16 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites. The input operation unit 17 is a touch panel, for example, and accepts an input operation by a user. The display unit 18 displays an image based on a command from the CPU 11. The tilt sensor 19 acquires angle information indicating the tilt of the mobile terminal device 10.
 避難誘導アプリが実行されているときにユーザーによって映像撮影部15を用いた撮影が行われると、表示部18内の領域は、例えば図3に示すように、地図を表示するための領域(以下、「地図表示領域」という。)18aと映像撮影部15による撮影で得られる映像(風景映像)を表示するための領域(以下、「映像表示領域」という。)18bとに分割される。本実施形態においては、図3に示すように、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置される。 When shooting using the video shooting unit 15 is performed by the user while the evacuation guidance application is being executed, an area in the display unit 18 is an area for displaying a map (hereinafter, as shown in FIG. 3 for example). , “Map display area”) 18a and an area (hereinafter referred to as “video display area”) 18b for displaying a video (landscape video) obtained by shooting by the video shooting unit 15. In the present embodiment, as shown in FIG. 3, a map display region 18 a is disposed above the display unit 18, and a video display region 18 b is disposed below the display unit 18.
 携帯端末装置10内において、避難誘導アプリを実現する避難誘導プログラムは、フラッシュROM12に格納される。ユーザーによって避難誘導アプリの起動が指示されると、フラッシュROM12に格納されている避難誘導プログラムがRAM13に読み出され、そのRAM13に読み出された避難誘導プログラムをCPU11が実行することにより、避難誘導アプリの機能がユーザーに提供される。なお、避難誘導プログラムは、典型的にはインターネットなどの通信回線を介して所定のサーバ(不図示)から携帯端末装置10にダウンロードされ、当該携帯端末装置10内のフラッシュROM12にインストールされる。このように避難誘導プログラムが携帯端末装置10にインストールされることにより、本発明に係る経路案内装置が当該携帯端末装置10によって実現される。 In the mobile terminal device 10, an evacuation guidance program that realizes an evacuation guidance application is stored in the flash ROM 12. When the user gives an instruction to start the evacuation guidance application, the evacuation guidance program stored in the flash ROM 12 is read out to the RAM 13, and the CPU 11 executes the evacuation guidance program read into the RAM 13, whereby the evacuation guidance is performed. App functionality is provided to users. Note that the evacuation guidance program is typically downloaded from a predetermined server (not shown) to the mobile terminal device 10 via a communication line such as the Internet, and installed in the flash ROM 12 in the mobile terminal device 10. Thus, the route guidance device according to the present invention is realized by the mobile terminal device 10 by installing the evacuation guidance program in the mobile terminal device 10.
<1.2 機能構成>
 図4は、本実施形態における携帯端末装置10の詳細な機能構成を示すブロック図である。携帯端末装置10は、GPS情報取得手段100,観光機能選択手段110,ユーザー情報送信手段120,データ受信手段121,データ記憶手段130,避難経路探索手段140,個人状況入力手段141,移動可能距離入力手段142,周辺状況入力手段143,地図表示手段150,観光情報表示手段160,映像表示手段170,エアタグ表示手段180,および風景映像マスク手段190を有している。
<1.2 Functional configuration>
FIG. 4 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment. The mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input. Means 142, surrounding state input means 143, map display means 150, sightseeing information display means 160, video display means 170, air tag display means 180, and landscape video mask means 190 are provided.
 なお、本実施形態においては、避難経路探索手段140によって経路探索手段が実現され、エアタグ表示手段180によって拡張現実画像表示手段が実現され、風景映像マスク手段190によってマスク画像表示手段が実現されている。 In this embodiment, the route search means is realized by the evacuation route search means 140, the augmented reality image display means is realized by the air tag display means 180, and the mask image display means is realized by the landscape video mask means 190. .
 GPS情報取得手段100は、GPS衛星から受信する電波に基づいてユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得し、その位置情報を示すGPSデータGdaを出力する。なお、GPS情報取得手段100は、ハードウェアとしてのGPS処理部16(図2参照)によって実現される。 The GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information. The GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
 観光機能選択手段110は、ユーザーの所望する観光機能(観光施設の各種情報の提示,観光コースの案内,宿泊施設・飲食店・土産店の紹介など)をユーザーに選択させるための手段である。ユーザーが観光機能を選択すると、観光機能選択手段110は、ユーザーによって選択された観光機能を示す機能選択データFdaを出力する。このように、本実施形態における避難誘導アプリは、平常時には観光のための情報をユーザーに提供することが可能となっている。但し、本発明はこれに限定されず、観光情報をユーザーに提供するための機能は必ずしも携帯端末装置10に設けられていなくても良い。 Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.). When the user selects a sightseeing function, the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user. As described above, the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times. However, the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
 ユーザー情報送信手段120は、GPSデータGdaおよび機能選択データFdaをユーザーデータYdaとしてサーバ20に送信する。なお、GPSデータGdaは、例えば、ユーザーがこの避難誘導アプリを起動したタイミングおよびユーザーがこの避難誘導アプリを用いて何らかの操作を行ったタイミングで、携帯端末装置10からサーバ20へと送信される。また、ユーザーがこの避難誘導アプリを使用している期間中、所定期間毎にGPSデータGdaが携帯端末装置10からサーバ20に送信されるようにしても良い。 User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda. The GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
 データ受信手段121は、サーバ20から送信されるサーバデータSdaを受信する。このサーバデータSdaには、避難経路の探索に有用なデータである有意データMdaと、避難経路の案内に供される情報としてのエアタグを表示するためのエアタグデータAdaと、観光機能選択手段110によってユーザーに選択された観光機能に対応するデータである観光データKdaとが含まれている。また、有意データMdaには、地図データ,道路データ,避難所データなどの基礎データBdaの他に、例えば各道路の混雑度を示すデータが含まれている。サーバ20から送信されたサーバデータSdaのうちの有意データMdaは、データ記憶手段130に格納される。なお、データ記憶手段130はハードウェアとしてのフラッシュROM12またはRAM13(図2参照)によって実現される。また、避難誘導プログラムが携帯端末装置10にインストールされる際に有意データMdaをデータ記憶手段130にダウンロードしておくことによって、災害発生時に通信状態にかかわらず避難経路の探索を実行することが可能となる。 The data receiving unit 121 receives server data Sda transmitted from the server 20. The server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and the sightseeing function selection means 110. Sightseeing data Kda that is data corresponding to the sightseeing function selected by the user is included. In addition to the basic data Bda such as map data, road data, and shelter data, the significant data Mda includes, for example, data indicating the degree of congestion of each road. The significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130. The data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware. In addition, when the evacuation guidance program is installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
 個人状況入力手段141は、災害が発生した際のユーザー(被災者)の被災状況や運動能力(避難経路上の障害を回避・克服できる能力)をユーザーに入力させるための手段である。この個人状況入力手段141は、表示部18に例えば図5に示すような画面を表示することによって実現される。図5に示すように、例えば「登れる」,「走れる」,「平坦のみ」,「車いす」,「足の怪我」,「歩けない」,「担架」,「子連れ」,「乳母車」などの状態を示すボタンが表示される。ユーザーは、該当する状態を示すボタンを押すだけで良い。個人状況入力手段141によって入力された内容を示す個人状況データIdaは、避難経路探索手段140によって使用される。 The personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs. The personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state. The personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
 なお、図5に示した画面は一例であって、画面のレイアウトや画面に表示される項目はこれには限定されない。この点については、後述する移動可能距離入力手段142(図6参照)および周辺状況入力手段143(図7参照)についても同様である。 Note that the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
 移動可能距離入力手段142は、災害が発生した際のユーザー(被災者)の移動手段や移動可能距離をユーザーに入力させるための手段である。この移動可能距離入力手段142は、表示部18に例えば図6に示すような画面を表示することによって実現される。図6に示すように、例えば「徒歩」,「自転車」,「車」などの移動手段を示すボタンと、移動可能距離の入力が可能な入力ボックスとが表示される。ユーザーは、該当する移動手段を示すボタンを押し、移動可能距離を入力する。移動可能距離入力手段142によって入力された内容を示す移動能力データDdaは、避難経路探索手段140によって使用される。 The movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs. This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance. The moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
 周辺状況入力手段143は、災害が発生した際のユーザー(被災者)の周辺の状況をユーザーに入力させるための手段である。この周辺状況入力手段143は、表示部18に例えば図7に示すような画面を表示することによって実現される。周辺状況入力手段143は、図7に示すように、例えば災害状況および混雑状況の入力が可能なように構成されている。災害状況を入力するための領域には、例えば、「火事」,「水害」,「倒壊」,「地割れ」などの災害の種別を表すボタンと、「激しい」,「強い」,「中程度」,「弱い」などの災害の強度を表すボタンと、災害の規模の入力が可能な入力ボックスとが表示される。混雑状況を入力するための領域には、例えば、「危険」,「強い」,「普通」,「少し」などの混雑の程度を表すボタンと、混雑の範囲の入力が可能な入力ボックスとが表示される。ユーザーは、災害の種別,災害の強度,および混雑の程度を選択し、災害の規模および混雑の範囲を入力する。周辺状況入力手段143によって入力された内容を示す周辺状況データPdaは、避難経路探索手段140によって使用される。 The surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs. This peripheral condition input means 143 is realized by displaying a screen as shown in FIG. As shown in FIG. 7, the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation. The area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed. In the area for entering the congestion status, for example, buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion. The surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
 避難経路探索手段140は、GPSデータGdaと、ユーザーによって入力されたデータ(個人状況データIda,移動能力データDda,および周辺状況データPda)と、サーバ20から送信されデータ記憶手段130に格納されている有意データMdaとに基づいて、ユーザーにとっての最適な避難所・避難経路を探索する。観光情報表示手段160は、観光データKdaを表示部18に表示する。 The evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched. The tourism information display means 160 displays the tourism data Kda on the display unit 18.
 地図表示手段150は、データ記憶手段130に格納されている基礎データBdaに基づいて表示部18内の地図表示領域18aに地図を表示する。その際、避難経路探索手段140によって既に避難所・避難経路の探索が行われている場合には、探索結果Reが地図に反映される。これにより、例えば図8に示すように、地図および探索結果Reとしての避難経路が地図表示領域18aに表示される。この地図表示手段150には、表示モードとして、ヘディングアップモードとノースアップモードとが用意されている。ヘディングアップモードとは、ユーザーの進行方向が常に画面上において上方向となるように、ユーザーの進行方向に応じて地図を回転させながら表示するモードである。ノースアップモードとは、北方向が画面上において上方向となるように地図を表示するモードである。また、この地図表示手段150は、ピンチ操作(複数の指で画面をつまんだり押し広げたりする操作)等によって地図の拡大・縮小・スクロールが可能なように構成されている。なお、地図表示領域18aには、後述するエアタグ表示手段180によって映像表示領域18bに表示されるエアタグに対応するランドマーク(例えば、避難所を示すランドマーク,火災や水害などの災害箇所を示すランドマーク)も表示される。 The map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thereby, as shown in FIG. 8, for example, the map and the evacuation route as the search result Re are displayed in the map display area 18a. The map display means 150 has a heading-up mode and a north-up mode as display modes. The heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen. The north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen. Further, the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like. In the map display area 18a, landmarks corresponding to air tags displayed in the video display area 18b by the air tag display means 180 (to be described later) (for example, landmarks indicating evacuation shelters, land indicating disaster spots such as fires and floods). Mark) is also displayed.
 映像表示手段170は、上述した映像撮影部15による撮影で得られる風景映像を表示部18内の映像表示領域18bに表示する。これにより、例えば、図8に示すように、映像表示領域18bに風景映像が表示される。ところで、この避難誘導アプリにおいては、映像表示領域18bに表示されるエアタグと地図表示領域18aに表示されている地図上の位置との対応関係の把握を容易にするために、図9に示すような「ワイヤーフレーム」と呼ばれる画像が映像表示領域18bに表示される。図9に示すように、ワイヤーフレームは、進行方向に向かって伸びる縦軸と、進行方向とは垂直方向に伸びる横軸とによって構成される。隣接する2本の縦軸間の距離Xおよび隣接する2本の横軸間の距離Yは、避難誘導アプリによって定められた一定の距離を表している。 The video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 8, a landscape video is displayed in the video display area 18b. By the way, in this evacuation guidance application, as shown in FIG. 9, in order to easily understand the correspondence between the air tag displayed in the video display area 18b and the position on the map displayed in the map display area 18a. An image called “wire frame” is displayed in the video display area 18b. As shown in FIG. 9, the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction. A distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
 ところで、このワイヤーフレームは、携帯端末装置10が地表面に対して垂直になっている場合に映像表示領域18bの中心が消失点となるように、遠近法を用いて表示される。従って、携帯端末装置10が地表面に対して垂直になっていれば、全ての縦軸の一方の端点は、映像表示領域18bの中心に存在する。また、携帯端末装置10が地表面に対して垂直になっている場合の映像表示領域18bの上下方向についての真ん中のラインが風景映像中の水平線(地平線)であるとみなされる。従って、上記消失点は、風景映像中の水平線(地平線)上に存在する。また、ワイヤーフレームの横軸の間隔については、映像表示領域18bの中心に近づくにつれて狭くなっている。以上のようなワイヤーフレームが風景映像に付加されることにより、図10に示すような映像が映像表示領域18bに表示される。なお、携帯端末装置10が上向きになっている場合(映像撮影部15による撮影方向が水平方向よりも上方向の場合)には、上記消失点は映像表示領域18bの中心よりも下方に位置し、携帯端末装置10が下向きになっている場合(映像撮影部15による撮影方向が水平方向よりも下方向の場合)には、上記消失点は映像表示領域18bの中心よりも上方に位置する。 By the way, this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b. By adding the wire frame as described above to the landscape video, a video as shown in FIG. 10 is displayed in the video display area 18b. When the mobile terminal device 10 is facing upward (when the image capturing direction by the image capturing unit 15 is upward from the horizontal direction), the vanishing point is located below the center of the image display area 18b. When the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
 エアタグ表示手段180は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、ユーザーが避難経路をたどって避難する際に当該ユーザーにとって有用となるような情報を表すエアタグ(拡張現実画像)を、ユーザーによって撮影されている風景映像に重ねて表示する。これにより、映像表示領域18bには、例えば、避難所を表すエアタグ,災害(火災,水害など)を表すエアタグ,混雑状況を表すエアタグ,進行経路を表す矢印状のエアタグなどが表示される。例えば図11に示す映像表示領域18bには、進行経路を表すエアタグ31,火災を表すエアタグ32,および水害を表すエアタグ33が表示されている。 Based on the air tag data Ada received by the data receiving means 121, the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user. As a result, for example, an air tag representing a refuge, an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b. For example, in the video display area 18b shown in FIG. 11, an air tag 31 representing a traveling route, an air tag 32 representing a fire, and an air tag 33 representing a flood are displayed.
 ところで、各エアタグは、当該エアタグに対応する位置と現在位置(ユーザーの位置)とに基づく透視変換の結果を用いて表示される。このため、同じ種類の情報を表すエアタグに着目すると、現在位置に近い位置の情報を表すエアタグほど大きく表示され、現在位置から遠い位置の情報を表すエアタグほど小さく表示される。例えば、現在位置から近い位置で発生している火災を表すエアタグは大きく表示され、現在位置から遠い位置で発生している火災を表すエアタグは小さく表示される。また、上述のようにワイヤーフレームが風景映像に付加されていることから、ユーザーは、映像表示領域18b内におけるエアタグとワイヤーフレームとの位置関係に基づいて、当該エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置や方角をある程度推測することができる。 By the way, each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
 また、エアタグ表示手段180によってエアタグが表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、映像表示領域18bにおけるエアタグの表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)エアタグは映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)エアタグは映像表示領域18b中の上方に表示される。 When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
 風景映像マスク手段190は、風景映像の一部を隠すための図12に示すような画像(以下、「マスク画像」という。)40を映像表示領域18bに表示する。このマスク画像40は、典型的には、避難経路の両側(左側および右側)の風景映像の一部を覆い隠すように表示される。例えば、図13に示すような映像にマスク画像40が付加されることによって、映像表示領域18bには図14に示すような映像が表示される。ここで、マスク画像40によって風景映像が隠されるべき領域のことを「不要領域」と定義すると、不要領域は、現在位置(ユーザーの位置)と避難経路探索手段140によって得られた避難経路とに基づく透視変換によって求められる。このように透視変換によって不要領域が求められるので、図14に示すように、マスク画像40の上下方向の幅は、映像表示領域18bの中心に近くなるほど狭くなる。また、エアタグが表示される際と同様、風景映像マスク手段190によってマスク画像が表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、マスク画像40の表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)マスク画像40は映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)マスク画像40は映像表示領域18b中の上方に表示される。なお、マスク画像40の表示に関する更に詳しい説明は後述する。 Landscape image mask means 190 displays an image 40 (hereinafter referred to as “mask image”) 40 for hiding a part of the landscape image in the image display area 18b. The mask image 40 is typically displayed so as to cover part of the landscape video on both sides (left side and right side) of the evacuation route. For example, by adding the mask image 40 to the video as shown in FIG. 13, the video as shown in FIG. 14 is displayed in the video display area 18b. Here, if the area where the landscape image should be hidden by the mask image 40 is defined as “unnecessary area”, the unnecessary area is defined as the current position (user position) and the evacuation route obtained by the evacuation route search means 140. Based on perspective transformation based. Since the unnecessary area is obtained by the perspective transformation in this way, as shown in FIG. 14, the vertical width of the mask image 40 becomes narrower as it approaches the center of the video display area 18b. Similarly to when the air tag is displayed, when the mask image is displayed by the landscape video masking unit 190, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the mask image 40 is displayed according to the inclination. The display position of is determined. Specifically, the mask image 40 is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the capturing direction by the video capturing unit 15 is upward), and the mobile terminal device 10 is directed downward. The mask image 40 is displayed above the video display area 18b (as the shooting direction by the video shooting unit 15 becomes lower). A more detailed description regarding the display of the mask image 40 will be described later.
<1.3 処理フロー>
 次に、図15に示すフローチャートを参照しつつ、携帯端末装置10での処理フローについて説明する。携帯端末装置10では、まず、避難誘導アプリが起動される(ステップS100)。避難誘導アプリの起動後、ユーザーは、経路探索機能を選択する(ステップS110)。そして、GPS情報取得手段100によるGPSデータGdaの取得および当該GPSデータGdaのサーバ20への送信が行われる(ステップS120)。その後、GPSデータGdaに基づくサーバデータSdaの受信が行われる(ステップS130)。すなわち、ステップS130では、携帯端末装置10は、有意データMdaやエアタグデータAdaなどをサーバ20から受信する。
<1.3 Processing flow>
Next, a processing flow in the mobile terminal device 10 will be described with reference to the flowchart shown in FIG. In the mobile terminal device 10, first, an evacuation guidance application is activated (step S100). After starting the evacuation guidance application, the user selects a route search function (step S110). Then, the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S120). Thereafter, server data Sda based on the GPS data Gda is received (step S130). That is, in step S <b> 130, the mobile terminal device 10 receives significant data Mda, air tag data Ada, and the like from the server 20.
 次に、ユーザーは、個人状況入力手段141によって、ユーザーの被災状況や運動能力などの個人状況の入力を行う(ステップS140)。また、ユーザーは、移動可能距離入力手段142によって、移動手段および移動可能距離の入力を行う(ステップS150)。さらに、ユーザーは、周辺状況入力手段143によって、ユーザーの周囲の災害状況や混雑状況などの周辺状況の入力を行う(ステップS160)。 Next, the user inputs the personal status such as the user's disaster status and athletic ability using the personal status input means 141 (step S140). In addition, the user inputs the moving means and the movable distance through the movable distance input means 142 (step S150). Further, the user inputs a peripheral situation such as a disaster situation or a congestion situation around the user by the peripheral situation input unit 143 (step S160).
 ユーザーによって個人状況,移動手段・移動可能距離,および周辺状況の入力が行われた後、避難経路探索手段140による避難経路探索処理(避難所・避難経路を探索する処理)が実行される(ステップS170)。 After the user inputs the personal situation, the moving means / movable distance, and the surrounding situation, an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S170).
 避難経路探索処理の実行後、地図表示手段150によって、地図,道路,避難所,および避難経路が表示部18の地図表示領域18aに表示される(ステップS180)。なお、このときユーザーは映像撮影部15を用いて風景映像を撮影し、当該風景映像が表示部18の映像表示領域18bに表示されているものとする。そして、映像表示領域18bに表示されている風景映像に、避難経路の案内に供される情報としてのエアタグが重ねて表示される(ステップS190)。さらに、映像表示領域18bに、上述したマスク画像40が付加的に表示される(ステップS200)。 After execution of the evacuation route search process, the map display means 150 displays the map, road, evacuation site, and evacuation route in the map display area 18a of the display unit 18 (step S180). At this time, it is assumed that the user takes a landscape video using the video shooting unit 15 and the landscape video is displayed in the video display area 18 b of the display unit 18. Then, an air tag as information provided for guidance of the evacuation route is superimposed on the landscape video displayed in the video display area 18b (step S190). Further, the above-described mask image 40 is additionally displayed in the video display area 18b (step S200).
 以上のようにして、例えば、ステップS180の終了時点においては図10に示すような画像(地図および映像)が表示部18に表示され、ステップS190の終了時点においては図13に示すような画像が表示部18に表示され、ステップS200の終了時点においては図14に示すような画像が表示部18に表示される。但し、ステップS180からステップS200までの処理時間は極めて短い時間であるので、人の目には図14に示すような画像が瞬時に知覚される。 As described above, for example, at the end of step S180, an image (map and video) as shown in FIG. 10 is displayed on the display unit 18, and at the end of step S190, an image as shown in FIG. An image as shown in FIG. 14 is displayed on the display unit 18 at the end of step S200. However, since the processing time from step S180 to step S200 is very short, an image as shown in FIG. 14 is immediately perceived by human eyes.
 なお、本実施形態においては、ステップS170によって経路探索ステップが実現され、ステップS180によって映像表示ステップが実現され、ステップS190によって拡張現実画像表示ステップが実現され、ステップS200によってマスク画像表示ステップが実現されている。 In the present embodiment, the route search step is realized by step S170, the video display step is realized by step S180, the augmented reality image display step is realized by step S190, and the mask image display step is realized by step S200. ing.
<1.4 マスク画像>
 次に、風景映像マスク手段190によって映像表示領域18bに表示されるマスク画像40について詳しく説明する。
<1.4 Mask image>
Next, the mask image 40 displayed in the video display area 18b by the landscape video masking unit 190 will be described in detail.
<1.4.1 マスク画像の位置>
 図14に示したように、マスク画像40は、通常、避難経路の両側(左側および右側の双方)に表示される。但し、避難経路の左側または右側の一方の風景映像が映像表示領域18bに表示されないような撮影が行われているときには、映像表示領域18bにおいて風景映像が表示されていない側にはマスク画像40は表示されない。例えば、避難経路の左側の風景映像が映像表示領域18bに表示されないような撮影が行われているときには、図16に示すように、マスク画像40は避難経路の右側のみに表示される。
<1.4.1 Position of mask image>
As shown in FIG. 14, the mask image 40 is normally displayed on both sides (both left and right sides) of the evacuation route. However, when shooting is performed such that one of the landscape images on the left side or the right side of the evacuation route is not displayed in the video display area 18b, the mask image 40 is displayed on the side where the landscape video is not displayed in the video display area 18b. Do not show. For example, when shooting is performed such that a landscape image on the left side of the evacuation route is not displayed in the video display area 18b, the mask image 40 is displayed only on the right side of the evacuation route as shown in FIG.
 また、映像表示領域18bにおけるマスク画像40の位置(上下方向の位置)は、ユーザーの視線に適合するようにされる。通常、ユーザーは携帯端末装置10が地表面に対してほぼ垂直になるようにして撮影を行うので、映像表示領域18bの中央部(上下方向についての中央部)近傍にマスク画像40が表示される。 Also, the position (vertical position) of the mask image 40 in the video display area 18b is adapted to the user's line of sight. Usually, the user performs shooting so that the mobile terminal device 10 is substantially perpendicular to the ground surface, so that the mask image 40 is displayed in the vicinity of the central portion (the central portion in the vertical direction) of the video display area 18b. .
<1.4.2 マスク画像の透明度>
 マスク画像40は、図17のa部に示すように半透明にしても良いし、図17のb部に示すように不透明にしても良い。但し、風景映像を参考にしつつ避難経路をたどることを可能にするという観点からは、マスク画像40は半透明にすることが好ましい。
<1.4.2 Mask Image Transparency>
The mask image 40 may be translucent as shown in part a of FIG. 17 or opaque as shown in part b of FIG. However, from the viewpoint of making it possible to follow the evacuation route while referring to the landscape video, the mask image 40 is preferably translucent.
<1.4.3 マスク画像の幅>
 マスク画像40の幅(上下方向の幅)については、図18のa部に示すように比較的狭い幅にしても良いし、図18のb部に示すように比較的太い幅にしても良い。すなわち、マスク画像40の幅は特に限定されない。なお、説明の便宜上、図18においては、風景映像のうちの道路(避難経路)とマスク画像40のみを示している(図19,図20,および図21も同様)。
<1.4.3 Mask image width>
The width (width in the vertical direction) of the mask image 40 may be relatively narrow as shown in part a of FIG. 18 or may be relatively thick as shown in part b of FIG. . That is, the width of the mask image 40 is not particularly limited. For convenience of explanation, FIG. 18 shows only the road (evacuation route) and the mask image 40 in the landscape video (the same applies to FIGS. 19, 20, and 21).
 マスク画像40によって風景映像を隠すことを重視する場合には、マスク画像40の幅を太くすれば良い。このような携帯端末装置10においては、映像表示領域18bの高さ(縦方向の幅)Hとマスク画像40の縦方向の幅の最大値Wmaxとの関係が例えば次式(1)を満たすように、マスク画像40の幅が定められる(図19参照)。
 H×0.5<Wmax   ・・・(1)
When it is important to hide the landscape video with the mask image 40, the width of the mask image 40 may be increased. In such a portable terminal device 10, the relationship between the height (vertical width) H of the video display area 18 b and the maximum vertical width Wmax of the mask image 40 satisfies, for example, the following expression (1). Next, the width of the mask image 40 is determined (see FIG. 19).
H × 0.5 <Wmax (1)
 また、進行方向の認識を高めることを重視する場合には、マスク画像40の幅を狭くすれば良い。このような携帯端末装置10においては、映像表示領域18bの高さ(縦方向の幅)Hとマスク画像40の縦方向の幅の最大値Wmaxとの関係が例えば次式(2)を満たすように、マスク画像40の幅が定められる(図19参照)。
 H×0.2>Wmax   ・・・(2)
In the case where importance is attached to the recognition of the traveling direction, the width of the mask image 40 may be narrowed. In such a mobile terminal device 10, the relationship between the height (vertical width) H of the video display area 18 b and the maximum vertical width Wmax of the mask image 40 satisfies, for example, the following expression (2). Next, the width of the mask image 40 is determined (see FIG. 19).
H × 0.2> Wmax (2)
 なお、通常、映像表示領域18bの上端部近傍および下端部近傍にはマスク画像40によって隠されることのない領域が設けられる。これにより、ユーザーに与える閉塞感が緩和される。 It should be noted that normally, an area that is not hidden by the mask image 40 is provided in the vicinity of the upper end portion and the lower end portion of the video display area 18b. Thereby, the feeling of obstruction given to the user is alleviated.
<1.4.4 マスク画像の先端部の形状>
 マスク画像40の先端部の形状については、図20のa部に示すように点状になっていても良いし、図20のb部に示すように線状になっていても良いし、図20のc部に示すように矢印状になっていても良い。図20のa部に示す例の場合、マスク画像40全体の形状は三角形となる。図20のb部に示す例の場合、マスク画像40全体の形状は台形となる。なお、図20のc部に示すようにマスク画像40の先端部の形状を矢印状にすることによって、進行方向の認識をより高めることができる。
<1.4.4 Shape of tip of mask image>
About the shape of the front-end | tip part of the mask image 40, it may be dot-like as shown to the a part of FIG. 20, and may be linear as shown to the b part of FIG. It may be in the shape of an arrow as shown at 20 c. In the case of the example shown in part a of FIG. 20, the shape of the entire mask image 40 is a triangle. In the case of the example shown in part b of FIG. 20, the overall shape of the mask image 40 is a trapezoid. In addition, as shown to the c section of FIG. 20, the recognition of the advancing direction can be improved more by making the shape of the front-end | tip part of the mask image 40 into an arrow shape.
<1.4.5 避難経路が曲がっている場合のマスク画像の形状>
 本実施形態においては、避難経路が曲がっている場合、より詳しくは、ユーザーによって風景映像の撮影が行われている地点の先で例えば左折や右折などがあることによって進行先の経路が風景映像から隠れるように避難経路が曲がっている場合、避難経路が曲がっている方向に配置されるマスク画像40については避難経路の折れ曲がり地点よりも手前側の風景映像のみを隠すように、映像表示領域18bにマスク画像40が表示される。これについて、図21を参照しつつ、説明する。
<1.4.5 Shape of mask image when evacuation route is bent>
In the present embodiment, when the evacuation route is curved, more specifically, the destination route is determined from the landscape video by, for example, a left turn or a right turn at a point where the user has taken the landscape video. When the evacuation route is bent so as to be hidden, the mask image 40 arranged in the direction in which the evacuation route is bent is displayed in the image display area 18b so as to hide only the landscape image in front of the folding point of the evacuation route. A mask image 40 is displayed. This will be described with reference to FIG.
 避難経路が曲がっていない場合、図21のa部に示すように、道路の右側に手前側(映像表示領域18bの枠部分)から消失点にまで伸びるマスク画像40aが表示されるともに、道路の左側にも手前側から消失点にまで伸びるマスク画像40bが表示される。これに対して、避難経路が例えば符号Pで示す地点で左側に曲がっている場合、図21のb部に示すように、道路の右側には手前側から消失点にまで伸びるマスク画像40aが表示されるが、道路の左側には手前側から折れ曲がり地点Pよりも手前の地点までしか伸びていないマスク画像40cが表示される。このように、避難経路が曲がっている場合、その曲がっている方向に配置されるマスク画像40の長さは通常よりも短くされる。従って、例えば図14に示した映像においても、道路の左側に表示されているマスク画像40については、他方のマスク画像40よりも短くされている。避難経路が曲がっている場合のマスク画像の形状を以上のようにすることによって、避難経路が曲がっていることをより明確にユーザーに認識させることができる。 When the evacuation route is not bent, a mask image 40a extending from the near side (the frame portion of the video display area 18b) to the vanishing point is displayed on the right side of the road as shown in part a of FIG. A mask image 40b extending from the near side to the vanishing point is also displayed on the left side. On the other hand, when the evacuation route is bent to the left at a point indicated by a symbol P, for example, a mask image 40a extending from the near side to the vanishing point is displayed on the right side of the road as shown in part b of FIG. However, on the left side of the road, a mask image 40c extending from the near side to the point before the bent point P is displayed. Thus, when the evacuation route is bent, the length of the mask image 40 arranged in the bent direction is made shorter than usual. Therefore, for example, also in the video shown in FIG. 14, the mask image 40 displayed on the left side of the road is shorter than the other mask image 40. By making the shape of the mask image when the evacuation route is bent as described above, it is possible to make the user more clearly recognize that the evacuation route is bent.
 ところで、図22のa部~c部に着目すると、マスク画像40dはマスク画像40eよりも長くなっており、マスク画像40fはマスク画像40eよりも短くなっている。このような場合、図22のa部における現在位置から折れ曲がり地点までの距離は図22のb部における現在位置から折れ曲がり地点までの距離よりも長く、図22のc部における現在位置から折れ曲がり地点までの距離は図22のb部における現在位置から折れ曲がり地点までの距離よりも短い。このように、マスク画像40の長さに基づいて、現在位置から折れ曲がり地点までの距離の大小を把握することができる。 Incidentally, when attention is paid to the a part to the c part in FIG. 22, the mask image 40d is longer than the mask image 40e, and the mask image 40f is shorter than the mask image 40e. In such a case, the distance from the current position in FIG. 22 a to the folding point is longer than the distance from the current position in FIG. 22 b to the folding point, and from the current position in FIG. 22 c to the bending point. Is shorter than the distance from the current position to the bending point in part b of FIG. Thus, based on the length of the mask image 40, the magnitude of the distance from the current position to the folding point can be grasped.
<1.4.6 その他>
 上述したように、マスク画像40は、半透明であっても良いし、不透明であっても良い。また、マスク画像40の幅(上下方向の幅)については特に限定されない。さらに、マスク画像40の先端部の形状についても特に限定されない。これらに関しては、携帯端末装置10のユーザーが設定できるようにしても良い。例えばマスク画像40の透明度に関し、携帯端末装置10への避難誘導アプリのインストール直後は予め決められたデフォルト状態(半透明もしくは不透明)にしておき、必要に応じてユーザーが透明度を切り替えることができるようにしても良い。
<1.4.6 Other>
As described above, the mask image 40 may be translucent or opaque. Further, the width (the vertical width) of the mask image 40 is not particularly limited. Further, the shape of the tip portion of the mask image 40 is not particularly limited. These may be set by the user of the mobile terminal device 10. For example, regarding the transparency of the mask image 40, immediately after the installation of the evacuation guidance application to the mobile terminal device 10, the default state (semi-transparent or opaque) is set so that the user can switch the transparency as necessary. Anyway.
<1.5 効果>
 本実施形態によれば、携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路の案内に供される情報としてのエアタグ(拡張現実画像)を風景映像に重ねて表示するエアタグ表示手段180と、典型的には避難経路の両側の風景映像を上述したマスク画像40によって隠す風景映像マスク手段190とが設けられる。ここで、映像表示領域18bにおいてマスク画像40とエアタグとが重なる場合には、マスク画像40よりもエアタグの方が前面に配置される。これにより、映像表示領域18b内に風景映像とエアタグとが混在していても、風景映像がマスク画像40によって隠されるとともに、マスク画像40の前面にエアタグが表示される。例えば、映像表示領域18bに水害を表すエアタグ33と当該エアタグ33と同じ色の看板39(風景映像内の物体)とが互いに重なりあって表示される場合、マスク画像40が存在しなければ、図23のa部に示すように看板39とエアタグ33とが干渉するため、ユーザーにはエアタグ33が視認されにくい。この点、本実施形態によれば、風景映像がマスク画像40によって隠されるので、図23のb部に示すように上記看板39はマスク画像40の背面に配置され、水害を表すエアタグ33がユーザーに明確に視認される。このように、避難経路をたどるのに不必要な情報はマスク画像40によって隠され、避難経路をたどるのに必要な情報がユーザーに明瞭に視認される。従って、災害発生によってユーザーがパニック状態になっていても、当該ユーザーを速やかに避難所に誘導することが可能となる。以上のように、本実施形態によれば、携帯端末装置10の1つの画面上に風景映像とエアタグとが表示されていてもより明確にユーザーに避難経路(進行方向)を示すことのできる避難誘導システムが実現される。
<1.5 Effect>
According to the present embodiment, the mobile terminal device 10 includes an evacuation route search unit 140 that searches for an evacuation route, a video display unit 170 that displays a landscape image captured by the user, and an evacuation route guide. Air tag display means 180 for displaying an air tag (augmented reality image) as information to be superimposed on a landscape video, and, typically, a landscape video mask means 190 for hiding the landscape video on both sides of the evacuation route by the mask image 40 described above. Is provided. Here, when the mask image 40 and the air tag overlap in the video display area 18 b, the air tag is arranged in front of the mask image 40. Thereby, even if a landscape video and an air tag are mixed in the video display area 18b, the landscape video is hidden by the mask image 40 and the air tag is displayed in front of the mask image 40. For example, when an air tag 33 representing water damage and a signboard 39 (an object in a landscape image) of the same color as the air tag 33 are displayed on the video display area 18b so as to overlap each other, if the mask image 40 does not exist, 23, the signboard 39 and the air tag 33 interfere with each other, so that the air tag 33 is hardly visible to the user. In this respect, according to the present embodiment, since the landscape video is hidden by the mask image 40, the signboard 39 is placed on the back of the mask image 40 as shown in part b of FIG. Clearly visible. In this manner, information unnecessary to follow the evacuation route is hidden by the mask image 40, and information necessary to follow the evacuation route is clearly visible to the user. Therefore, even if a user is in a panic due to a disaster, the user can be promptly guided to an evacuation site. As described above, according to the present embodiment, the evacuation can clearly show the evacuation route (traveling direction) to the user even if the landscape image and the air tag are displayed on one screen of the mobile terminal device 10. A guidance system is realized.
 また、本実施形態によれば、道路の両側の風景映像をマスク画像40によって隠すことによって、ユーザーの視線を避難経路上に集中(誘導)させることが可能となる。特に、マスク画像40の幅を狭くすることやマスク画像40の先端部の形状を矢印状にすることによって、ユーザーに対して、進行方向の認識をより高めることができる。 Further, according to the present embodiment, it is possible to concentrate (guide) the user's line of sight on the evacuation route by hiding the landscape video on both sides of the road with the mask image 40. In particular, by narrowing the width of the mask image 40 and making the shape of the tip of the mask image 40 an arrow shape, it is possible to further increase the recognition of the traveling direction for the user.
 さらに、本実施形態によれば、避難経路が曲がっている場合、その曲がっている方向に配置されるマスク画像40の長さは、他方のマスク画像40の長さよりも短くされる。これにより、現在位置よりも先の地点で避難経路が曲がっていることをユーザーに認識させることが可能となる。従って、災害発生によってユーザーがパニック状態になっていても、当該ユーザーが避難経路からそれることを防止することが可能となる。 Furthermore, according to the present embodiment, when the evacuation route is bent, the length of the mask image 40 arranged in the bending direction is made shorter than the length of the other mask image 40. This makes it possible for the user to recognize that the evacuation route is bent at a point ahead of the current position. Therefore, even if the user is in a panic due to the occurrence of a disaster, the user can be prevented from deviating from the evacuation route.
 また、本実施形態によれば、映像表示領域18bにおいて、避難経路探索手段140による避難経路探索処理によって得られた避難経路(進行経路)を示す矢印状のエアタグ31が、避難経路となっている道路の中央部に表示される。ユーザーの視線はマスク画像40によって隠されていない領域に向けられるところ、この矢印状のエアタグ31はマスク画像40によるマスク(風景映像を隠すこと)が施されていない領域に表示される。従って、ユーザーの視線は避難経路を示す矢印状のエアタグ31に向けられ、ユーザーは、たとえパニック状態になっていても、目指すべき方向をきわめて短時間で把握することが可能となる。 Further, according to the present embodiment, the arrow-shaped air tag 31 indicating the evacuation route (traveling route) obtained by the evacuation route search process by the evacuation route search means 140 is the evacuation route in the video display area 18b. Displayed in the center of the road. The user's line of sight is directed to an area that is not hidden by the mask image 40, and the arrow-shaped air tag 31 is displayed in an area that is not masked by the mask image 40 (hiding the landscape image). Therefore, the user's line of sight is directed to the arrow-shaped air tag 31 indicating the evacuation route, and the user can grasp the direction to be aimed for in a very short time even in a panic state.
 さらに、本実施形態によれば、マスク画像40によって風景映像が隠されるべき領域(不要領域)は、現在位置(ユーザーの位置)と避難経路探索処理で得られた避難経路とに基づく透視変換によって求められる。このため、現在位置から遠くなるにつれて撮影映像が徐々に小さくなるのと同様、現在位置から遠くなるにつれてマスク画像40の幅が徐々に狭くなる。これによりユーザーに違和感を与えることなく、マスク画像40によって撮影映像を隠すことが可能となる。 Furthermore, according to the present embodiment, the area (unnecessary area) where the landscape image should be hidden by the mask image 40 is obtained by perspective transformation based on the current position (user position) and the evacuation route obtained by the evacuation route search process. Desired. For this reason, the width of the mask image 40 gradually decreases with increasing distance from the current position, in the same manner as the captured image gradually decreases with increasing distance from the current position. As a result, the captured video can be hidden by the mask image 40 without giving the user a sense of incongruity.
<2.第2の実施形態>
<2.1 全体構成>
 全体構成については、上記第1の実施形態と同様であるので、説明を省略する(図1~図3を参照)。
<2. Second Embodiment>
<2.1 Overall configuration>
Since the overall configuration is the same as that of the first embodiment, description thereof is omitted (see FIGS. 1 to 3).
<2.2 機能構成>
 図24は、本実施形態における携帯端末装置10の詳細な機能構成を示すブロック図である。携帯端末装置10は、GPS情報取得手段100,観光機能選択手段110,ユーザー情報送信手段120,データ受信手段121,データ記憶手段130,避難経路探索手段140,個人状況入力手段141,移動可能距離入力手段142,周辺状況入力手段143,地図表示手段150,観光情報表示手段160,映像表示手段170,エアタグ表示手段180,リンク線表示手段181,および文字タグ表示手段182を有している。地図表示手段150には、ランドマーク表示手段152が含まれている。
<2.2 Functional configuration>
FIG. 24 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment. The mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input. Means 142, surrounding state input means 143, map display means 150, sightseeing information display means 160, video display means 170, air tag display means 180, link line display means 181, and character tag display means 182. The map display means 150 includes landmark display means 152.
 なお、本実施形態においては、避難経路探索手段140によって経路探索手段が実現され、エアタグ表示手段180によって第1の拡張現実画像表示手段が実現され、文字タグ表示手段182によって第2の拡張現実画像表示手段が実現されている。 In the present embodiment, the route search means is realized by the evacuation route search means 140, the first augmented reality image display means is realized by the air tag display means 180, and the second augmented reality image is realized by the character tag display means 182. A display means is realized.
 GPS情報取得手段100は、GPS衛星から受信する電波に基づいてユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得し、その位置情報を示すGPSデータGdaを出力する。なお、GPS情報取得手段100は、ハードウェアとしてのGPS処理部16(図2参照)によって実現される。 The GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information. The GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
 観光機能選択手段110は、ユーザーの所望する観光機能(観光施設の各種情報の提示,観光コースの案内,宿泊施設・飲食店・土産店の紹介など)をユーザーに選択させるための手段である。ユーザーが観光機能を選択すると、観光機能選択手段110は、ユーザーによって選択された観光機能を示す機能選択データFdaを出力する。このように、本実施形態における避難誘導アプリは、平常時には観光のための情報をユーザーに提供することが可能となっている。但し、本発明はこれに限定されず、観光情報をユーザーに提供するための機能は必ずしも携帯端末装置10に設けられていなくても良い。 Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.). When the user selects a sightseeing function, the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user. As described above, the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times. However, the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
 ユーザー情報送信手段120は、GPSデータGdaおよび機能選択データFdaをユーザーデータYdaとしてサーバ20に送信する。なお、GPSデータGdaは、例えば、ユーザーがこの避難誘導アプリを起動したタイミングおよびユーザーがこの避難誘導アプリを用いて何らかの操作を行ったタイミングで、携帯端末装置10からサーバ20へと送信される。また、ユーザーがこの避難誘導アプリを使用している期間中、所定期間毎にGPSデータGdaが携帯端末装置10からサーバ20に送信されるようにしても良い。 User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda. The GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
 データ受信手段121は、サーバ20から送信されるサーバデータSdaを受信する。このサーバデータSdaには、避難経路の探索に有用なデータである有意データMdaと、避難経路の案内に供される情報としてのエアタグを表示するためのエアタグデータAdaと、避難経路の案内に供される情報としての文字タグを表示するための文字タグデータCdaと、観光機能選択手段110によってユーザーに選択された観光機能に対応するデータである観光データKdaとが含まれている。また、有意データMdaには、地図データ,道路データ,避難所データなどの基礎データBdaの他に、例えば各道路の混雑度を示すデータが含まれている。サーバ20から送信されたサーバデータSdaのうちの有意データMdaは、データ記憶手段130に格納される。なお、データ記憶手段130はハードウェアとしてのフラッシュROM12またはRAM13(図2参照)によって実現される。また、避難誘導プログラムが携帯端末装置10にインストールされる際に有意データMdaをデータ記憶手段130にダウンロードしておくことによって、災害発生時に通信状態にかかわらず避難経路の探索を実行することが可能となる。 The data receiving unit 121 receives server data Sda transmitted from the server 20. The server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and evacuation route guidance. Character tag data Cda for displaying a character tag as information to be displayed, and tourism data Kda that is data corresponding to the tourism function selected by the user by the tourism function selection means 110 are included. In addition to the basic data Bda such as map data, road data, and shelter data, the significant data Mda includes, for example, data indicating the degree of congestion of each road. The significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130. The data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware. In addition, when the evacuation guidance program is installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
 個人状況入力手段141は、災害が発生した際のユーザー(被災者)の被災状況や運動能力(避難経路上の障害を回避・克服できる能力)をユーザーに入力させるための手段である。この個人状況入力手段141は、表示部18に例えば図5に示すような画面を表示することによって実現される。図5に示すように、例えば「登れる」,「走れる」,「平坦のみ」,「車いす」,「足の怪我」,「歩けない」,「担架」,「子連れ」,「乳母車」などの状態を示すボタンが表示される。ユーザーは、該当する状態を示すボタンを押すだけで良い。個人状況入力手段141によって入力された内容を示す個人状況データIdaは、避難経路探索手段140によって使用される。 The personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs. The personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state. The personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
 なお、図5に示した画面は一例であって、画面のレイアウトや画面に表示される項目はこれには限定されない。この点については、後述する移動可能距離入力手段142(図6参照)および周辺状況入力手段143(図7参照)についても同様である。 Note that the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
 移動可能距離入力手段142は、災害が発生した際のユーザー(被災者)の移動手段や移動可能距離をユーザーに入力させるための手段である。この移動可能距離入力手段142は、表示部18に例えば図6に示すような画面を表示することによって実現される。図6に示すように、例えば「徒歩」,「自転車」,「車」などの移動手段を示すボタンと、移動可能距離の入力が可能な入力ボックスとが表示される。ユーザーは、該当する移動手段を示すボタンを押し、移動可能距離を入力する。移動可能距離入力手段142によって入力された内容を示す移動能力データDdaは、避難経路探索手段140によって使用される。 The movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs. This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance. The moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
 周辺状況入力手段143は、災害が発生した際のユーザー(被災者)の周辺の状況をユーザーに入力させるための手段である。この周辺状況入力手段143は、表示部18に例えば図7に示すような画面を表示することによって実現される。周辺状況入力手段143は、図7に示すように、例えば災害状況および混雑状況の入力が可能なように構成されている。災害状況を入力するための領域には、例えば、「火事」,「水害」,「倒壊」,「地割れ」などの災害の種別を表すボタンと、「激しい」,「強い」,「中程度」,「弱い」などの災害の強度を表すボタンと、災害の規模の入力が可能な入力ボックスとが表示される。混雑状況を入力するための領域には、例えば、「危険」,「強い」,「普通」,「少し」などの混雑の程度を表すボタンと、混雑の範囲の入力が可能な入力ボックスとが表示される。ユーザーは、災害の種別,災害の強度,および混雑の程度を選択し、災害の規模および混雑の範囲を入力する。周辺状況入力手段143によって入力された内容を示す周辺状況データPdaは、避難経路探索手段140によって使用される。 The surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs. This peripheral condition input means 143 is realized by displaying a screen as shown in FIG. As shown in FIG. 7, the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation. The area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed. In the area for entering the congestion status, for example, buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion. The surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
 避難経路探索手段140は、GPSデータGdaと、ユーザーによって入力されたデータ(個人状況データIda,移動能力データDda,および周辺状況データPda)と、サーバ20から送信されデータ記憶手段130に格納されている有意データMdaとに基づいて、ユーザーにとっての最適な避難所・避難経路を探索する。観光情報表示手段160は、観光データKdaを表示部18に表示する。 The evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched. The tourism information display means 160 displays the tourism data Kda on the display unit 18.
 地図表示手段150は、データ記憶手段130に格納されている基礎データBdaに基づいて表示部18内の地図表示領域18aに地図を表示する。その際、避難経路探索手段140によって既に避難所・避難経路の探索が行われている場合には、探索結果Reが地図に反映される。これにより、例えば図25に示すように、地図および探索結果Reとしての避難経路が地図表示領域18aに表示される。この地図表示手段150には、表示モードとして、ヘディングアップモードとノースアップモードとが用意されている。ヘディングアップモードとは、ユーザーの進行方向が常に画面上において上方向となるように、ユーザーの進行方向に応じて地図を回転させながら表示するモードである。ノースアップモードとは、北方向が画面上において上方向となるように地図を表示するモードである。また、この地図表示手段150は、ピンチ操作(複数の指で画面をつまんだり押し広げたりする操作)等によって地図の拡大・縮小・スクロールが可能なように構成されている。 The map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thus, for example, as shown in FIG. 25, the map and the evacuation route as the search result Re are displayed in the map display area 18a. The map display means 150 has a heading-up mode and a north-up mode as display modes. The heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen. The north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen. Further, the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.
 ランドマーク表示手段152は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、後述するエアタグ表示手段180によって映像表示領域18bに表示されるエアタグに対応するランドマークを地図表示領域18aに表示する。ランドマーク表示手段152は、例えば、避難所を示すランドマーク,火災や水害などの災害箇所を示すランドマークを表示する。これにより、地図表示領域18aには、例えば図26に示すように、ランドマークが付加された地図が表示される。なお、各ランドマークは、地図上において、当該ランドマークに対応するエアタグで表されている事物・事象の位置に表示される。すなわち、ランドマーク表示手段152は、地図表示領域18aに表示されている地図上の位置のうちの映像表示領域18bに表示されているエアタグに対応付けられる位置に、当該エアタグに対応するランドマークを表示する。 Based on the air tag data Ada received by the data receiving means 121, the landmark display means 152 displays a landmark corresponding to the air tag displayed in the video display area 18b by the air tag display means 180 described later in the map display area 18a. To do. The landmark display means 152 displays, for example, a landmark indicating a refuge and a landmark indicating a disaster location such as a fire or flood. As a result, a map with landmarks is displayed in the map display area 18a as shown in FIG. 26, for example. Each landmark is displayed on the map at the position of the thing / event represented by the air tag corresponding to the landmark. That is, the landmark display means 152 displays the landmark corresponding to the air tag at the position associated with the air tag displayed in the video display area 18b among the positions on the map displayed in the map display area 18a. indicate.
 映像表示手段170は、上述した映像撮影部15による撮影で得られる風景映像を表示部18内の映像表示領域18bに表示する。これにより、例えば、図25に示すように、映像表示領域18bに風景映像が表示される。ところで、この避難誘導アプリにおいては、映像表示領域18bに表示されるエアタグと地図表示領域18aに表示されている地図上の位置との対応関係の把握を容易にするために、図9に示すような「ワイヤーフレーム」と呼ばれる画像が映像表示領域18bに表示される。図9に示すように、ワイヤーフレームは、進行方向に向かって伸びる縦軸と、進行方向とは垂直方向に伸びる横軸とによって構成される。隣接する2本の縦軸間の距離Xおよび隣接する2本の横軸間の距離Yは、避難誘導アプリによって定められた一定の距離を表している。 The video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 25, a landscape video is displayed in the video display area 18b. By the way, in this evacuation guidance application, as shown in FIG. 9, in order to easily understand the correspondence between the air tag displayed in the video display area 18b and the position on the map displayed in the map display area 18a. An image called “wire frame” is displayed in the video display area 18b. As shown in FIG. 9, the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction. A distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
 ところで、このワイヤーフレームは、携帯端末装置10が地表面に対して垂直になっている場合に映像表示領域18bの中心が消失点となるように、遠近法を用いて表示される。従って、携帯端末装置10が地表面に対して垂直になっていれば、全ての縦軸の一方の端点は、映像表示領域18bの中心に存在する。また、携帯端末装置10が地表面に対して垂直になっている場合の映像表示領域18bの上下方向についての真ん中のラインが風景映像中の水平線(地平線)であるとみなされる。従って、上記消失点は、風景映像中の水平線(地平線)上に存在する。また、ワイヤーフレームの横軸の間隔については、映像表示領域18bの中心に近づくにつれて狭くなっている。以上のようなワイヤーフレームが風景映像に付加されることにより、図27に示すような映像が映像表示領域18bに表示される。なお、携帯端末装置10が上向きになっている場合(映像撮影部15による撮影方向が水平方向よりも上方向の場合)には、上記消失点は映像表示領域18bの中心よりも下方に位置し、携帯端末装置10が下向きになっている場合(映像撮影部15による撮影方向が水平方向よりも下方向の場合)には、上記消失点は映像表示領域18bの中心よりも上方に位置する。 By the way, this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b. By adding the wire frame as described above to the landscape video, a video as shown in FIG. 27 is displayed in the video display area 18b. When the mobile terminal device 10 is facing upward (when the image capturing direction by the image capturing unit 15 is upward from the horizontal direction), the vanishing point is located below the center of the image display area 18b. When the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
 エアタグ表示手段180は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、ユーザーが避難経路をたどって避難する際に当該ユーザーにとって有用となるような情報を表すエアタグ(拡張現実画像)を、ユーザーによって撮影されている風景映像に重ねて表示する。これにより、映像表示領域18bには、例えば、避難所を表すエアタグ,災害(火災,水害など)を表すエアタグ,混雑状況を表すエアタグ,進行経路を表す矢印状のエアタグなどが表示される。例えば図11に示す映像表示領域18bには、進行経路を表すエアタグ31,火災を表すエアタグ32,および水害を表すエアタグ33が表示されている。なお、進行経路を表すエアタグ31を映像表示領域18bに表示することによって、ユーザーは、たとえパニック状態になっていても、目指すべき方向を容易に把握することが可能となる。 Based on the air tag data Ada received by the data receiving means 121, the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user. As a result, for example, an air tag representing a refuge, an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b. For example, in the video display area 18b shown in FIG. 11, an air tag 31 representing a traveling route, an air tag 32 representing a fire, and an air tag 33 representing a flood are displayed. In addition, by displaying the air tag 31 representing the traveling route in the video display area 18b, the user can easily grasp the direction to be aimed even if the user is in a panic state.
 ところで、各エアタグは、当該エアタグに対応する位置と現在位置(ユーザーの位置)とに基づく透視変換の結果を用いて表示される。このため、同じ種類の情報を表すエアタグに着目すると、現在位置に近い位置の情報を表すエアタグほど大きく表示され、現在位置から遠い位置の情報を表すエアタグほど小さく表示される。例えば、現在位置から近い位置で発生している火災を表すエアタグは大きく表示され、現在位置から遠い位置で発生している火災を表すエアタグは小さく表示される。また、上述のようにワイヤーフレームが風景映像に付加されていることから、ユーザーは、映像表示領域18b内におけるエアタグとワイヤーフレームとの位置関係に基づいて、当該エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置や方角をある程度推測することができる。 By the way, each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
 また、エアタグ表示手段180によってエアタグが表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、映像表示領域18bにおけるエアタグの表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)エアタグは映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)エアタグは映像表示領域18b中の上方に表示される。 When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
 リンク線表示手段181は、映像表示領域18bに表示される各エアタグの位置データPAと各エアタグに対応するランドマークの位置データPLとに基づいて、映像表示領域18b内のエアタグと地図表示領域18a内のランドマークとを結ぶ線(以下、「リンク線」という。)を表示部18に表示する。例えば、図28のa部に示すように、映像表示領域18bに火災を表すエアタグ35が表示されるとともにそのエアタグ35に対応するランドマーク36が地図表示領域18aに表示されるとき、リンク線表示手段181は、図28のb部に示すように、エアタグ35とランドマーク36とを結ぶリンク線LKを表示部18に表示する。このようにして、例えば表示部18に図29に示すような画像(地図および映像)が表示されるときには、図30に示すようにリンク線が表示される。図30に示す例では、リンク線として、避難所を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK1およびLK5と、火災を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK2と、進行経路を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK3と、水害を表すエアタグと当該エアタグに対応するランドマークとを結ぶリンク線LK4とが表示されている。なお、必ずしも、映像表示領域18bに表示されているエアタグとそれに対応するランドマークとの全てがリンク線によって結ばれる必要はない。例えば、図30で符号37で示すエアタグのように、リンク線によってランドマークと結びつけられないエアタグが存在していても良い。リンク線の表示に関する更に詳しい説明は後述する。 The link line display means 181 uses the air tag in the video display area 18b and the map display area 18a based on the position data PA of each air tag displayed in the video display area 18b and the landmark position data PL corresponding to each air tag. A line (hereinafter referred to as “link line”) connecting the landmarks is displayed on the display unit 18. For example, as shown in part a of FIG. 28, when an air tag 35 representing a fire is displayed in the video display area 18b and a landmark 36 corresponding to the air tag 35 is displayed in the map display area 18a, a link line display is displayed. The means 181 displays a link line LK connecting the air tag 35 and the landmark 36 on the display unit 18 as shown in part b of FIG. In this manner, for example, when an image (map and video) as shown in FIG. 29 is displayed on the display unit 18, a link line is displayed as shown in FIG. In the example shown in FIG. 30, as link lines, links LK1 and LK5 that connect an air tag representing a refuge and a landmark corresponding to the air tag, and a link that connects an air tag representing a fire and a landmark corresponding to the air tag. A line LK2, a link line LK3 that connects an air tag that represents a travel route and a landmark corresponding to the air tag, and a link line LK4 that connects an air tag that represents water damage and a landmark corresponding to the air tag are displayed. Note that it is not always necessary that the air tag displayed in the video display area 18b and the corresponding landmark be connected by a link line. For example, there may be an air tag that is not linked to a landmark by a link line, such as an air tag denoted by reference numeral 37 in FIG. More detailed description regarding the display of the link line will be described later.
 文字タグ表示手段182は、データ受信手段121によって受信された文字タグデータCdaに基づいて、映像表示領域18bに表示されているエアタグに関する情報を文字で表した文字タグを映像表示領域18bに表示する。例えば、避難所の情報を文字で表した図31のa部に示すような仮想的画像や火災の発生場所を文字で表した図31のb部に示すような仮想的画像などが文字タグとして表示される。文字タグは、典型的には、風景映像中の空に相当する領域に表示される。以上より、例えば、図30に示すような画像に文字タグが付加されることによって、表示部18には図32に示すような画像が表示される。文字タグの表示に関する更に詳しい説明は後述する。 Based on the character tag data Cda received by the data receiving means 121, the character tag display means 182 displays in the video display area 18b a character tag representing information related to the air tag displayed in the video display area 18b. . For example, a virtual image as shown in part a of FIG. 31 representing the information of the refuge or a virtual image shown in part b of FIG. Is displayed. The character tag is typically displayed in an area corresponding to the sky in a landscape video. From the above, for example, an image as shown in FIG. 32 is displayed on the display unit 18 by adding a character tag to the image as shown in FIG. A more detailed explanation about the display of the character tag will be described later.
 なお、本実施形態においては、エアタグによって第1の拡張現実画像が実現され、文字タグによって第2の拡張現実画像が実現されている。 In the present embodiment, the first augmented reality image is realized by the air tag, and the second augmented reality image is realized by the character tag.
<2.3 処理フロー>
 次に、図33に示すフローチャートを参照しつつ、携帯端末装置10での処理フローについて説明する。携帯端末装置10では、まず、避難誘導アプリが起動される(ステップS300)。避難誘導アプリの起動後、ユーザーは、経路探索機能を選択する(ステップS310)。そして、GPS情報取得手段100によるGPSデータGdaの取得および当該GPSデータGdaのサーバ20への送信が行われる(ステップS320)。その後、GPSデータGdaに基づくサーバデータSdaの受信が行われる(ステップS330)。すなわち、ステップS330では、携帯端末装置10は、有意データMdaやエアタグデータAdaや文字タグデータCdaなどをサーバ20から受信する。
<2.3 Processing flow>
Next, a processing flow in the mobile terminal device 10 will be described with reference to the flowchart shown in FIG. In the mobile terminal device 10, first, an evacuation guidance application is activated (step S300). After starting the evacuation guidance application, the user selects a route search function (step S310). Then, the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S320). Thereafter, server data Sda based on the GPS data Gda is received (step S330). That is, in step S330, the mobile terminal device 10 receives significant data Mda, air tag data Ada, character tag data Cda, and the like from the server 20.
 次に、ユーザーは、個人状況入力手段141によって、ユーザーの被災状況や運動能力などの個人状況の入力を行う(ステップS340)。また、ユーザーは、移動可能距離入力手段142によって、移動手段および移動可能距離の入力を行う(ステップS350)。さらに、ユーザーは、周辺状況入力手段143によって、ユーザーの周囲の災害状況や混雑状況などの周辺状況の入力を行う(ステップS360)。 Next, the user uses the personal status input means 141 to input the personal status such as the user's damage status and athletic ability (step S340). In addition, the user inputs the moving means and the movable distance through the movable distance input means 142 (step S350). Further, the user inputs a peripheral situation such as a disaster situation or a congestion situation around the user through the peripheral situation input unit 143 (step S360).
 ユーザーによって個人状況,移動手段・移動可能距離,および周辺状況の入力が行われた後、避難経路探索手段140による避難経路探索処理(避難所・避難経路を探索する処理)が実行される(ステップS370)。避難経路探索処理の実行後、ユーザーによって映像撮影部(カメラ)15による風景映像の撮影が行われ、当該風景映像が表示部18の映像表示領域18bに表示される(ステップS380)。 After the user inputs the personal situation, the moving means / movable distance, and the surrounding situation, an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S370). After execution of the evacuation route search process, the user captures a landscape video by the video imaging unit (camera) 15 and displays the landscape video in the video display area 18b of the display unit 18 (step S380).
 その後、地図表示手段150によって、地図,道路,避難所,および避難経路が表示部18の地図表示領域18aに表示される(ステップS390)。そして、映像表示領域18bに表示されている風景映像に、避難経路の案内に供される情報としてのエアタグが重ねて表示される(ステップS400)。また、各エアタグに対応するランドマークが地図表示領域18aの地図上に表示される(ステップS410)。さらに、地図表示領域18a内のランドマークと映像表示領域18b内のエアタグとを結ぶリンク線が表示部18に表示される(ステップS420)。さらにまた、各エアタグに対応する文字タグが映像表示領域18bに表示される(ステップS430)。 Thereafter, the map display means 150 displays the map, roads, shelters, and evacuation routes in the map display area 18a of the display unit 18 (step S390). Then, an air tag as information provided for evacuation route guidance is superimposed on the landscape video displayed in the video display area 18b (step S400). Also, landmarks corresponding to each air tag are displayed on the map in the map display area 18a (step S410). Further, a link line connecting the landmark in the map display area 18a and the air tag in the video display area 18b is displayed on the display unit 18 (step S420). Furthermore, a character tag corresponding to each air tag is displayed in the video display area 18b (step S430).
 以上のようにして、例えば、ステップS390の終了時点においては図27に示すような画像が表示部18に表示され、ステップS400の終了時点においては図34に示すような画像が表示部18に表示され、ステップS410の終了時点においては図29に示すような画像が表示部18に表示され、ステップS420の終了時点においては図30に示すような画像が表示部18に表示され、ステップS430の終了時点においては図32に示すような画像が表示部18に表示される。但し、ステップS390からステップS430までの処理時間は極めて短い時間であるので、人の目には図32に示すような画像が瞬時に知覚される。 As described above, for example, an image as shown in FIG. 27 is displayed on the display unit 18 at the end of step S390, and an image as shown in FIG. 34 is displayed on the display unit 18 at the end of step S400. At the end of step S410, an image as shown in FIG. 29 is displayed on the display unit 18, and at the end of step S420, an image as shown in FIG. 30 is displayed on the display unit 18, and the end of step S430 is completed. At the time, an image as shown in FIG. 32 is displayed on the display unit 18. However, since the processing time from step S390 to step S430 is extremely short, an image as shown in FIG. 32 is immediately perceived by human eyes.
 なお、本実施形態においては、ステップS370によって経路探索ステップが実現され、ステップS380によって映像表示ステップが実現され、ステップS390によって地図表示ステップが実現され、ステップS400によって第1の拡張現実画像表示ステップが実現され、ステップS420によってリンク線表示ステップが実現され、ステップS430によって第2の拡張現実画像表示ステップが実現されている。 In the present embodiment, the route search step is realized by step S370, the video display step is realized by step S380, the map display step is realized by step S390, and the first augmented reality image display step is executed by step S400. The link line display step is realized in step S420, and the second augmented reality image display step is realized in step S430.
<2.4 リンク線>
 次に、リンク線表示手段181によって表示部18に表示されるリンク線について詳しく説明する。
<2.4 Link line>
Next, the link line displayed on the display unit 18 by the link line display unit 181 will be described in detail.
<2.4.1 リンク線の色>
 本実施形態においては、各リンク線の色は、対応するエアタグの色および対応するランドマークの色と同じにされる。これにより、エアタグ,ランドマーク,およびリンク線の対応関係を把握することがユーザーにとって容易となる。但し、本発明はこれに限定されず、リンク線の色を必ずしも対応するエアタグの色または対応するランドマークの色と同じにする必要はない。
<2.4.1 Link line color>
In this embodiment, the color of each link line is the same as the color of the corresponding air tag and the color of the corresponding landmark. Thereby, it becomes easy for the user to grasp the correspondence relationship between the air tag, the landmark, and the link line. However, the present invention is not limited to this, and the color of the link line is not necessarily the same as the color of the corresponding air tag or the corresponding landmark.
<2.4.2 リンク線の描画>
 ユーザーによって携帯端末装置10の向きが変えられたり、あるいは、ユーザーが避難経路をたどることによって携帯端末装置10の位置が移動すると、地図表示領域18aに表示されているランドマークの位置や映像表示領域18bに表示されているエアタグの位置が変化する。このようなランドマークやエアタグの位置の変化にリンク線は追従する。すなわち、リンク線表示手段181は、地図表示領域18aに表示されている地図の変化および映像表示領域18bに表示されているエアタグの位置の変化に応じて、リアルタイムでリンク線を描画する。
<2.4.2 Drawing link lines>
When the orientation of the mobile terminal device 10 is changed by the user or the location of the mobile terminal device 10 is moved by the user following the evacuation route, the position of the landmark displayed in the map display area 18a and the video display area are displayed. The position of the air tag displayed on 18b changes. The link line follows such a change in the position of the landmark or air tag. That is, the link line display means 181 draws a link line in real time according to a change in the map displayed in the map display area 18a and a change in the position of the air tag displayed in the video display area 18b.
 例えば、或る時点において、エアタグA1,ランドマークL1,およびリンク線LK6が図35のa部に示すように表示されていたと仮定する。ここで、例えばユーザーが進行方向を変えたことによって、地図表示領域18aにおいてランドマークL1の位置が図35のb部の符号46で示す矢印のように移動し、映像表示領域18bにおいてエアタグA1の位置が図35のb部の符号47で示す矢印のように移動したとする。このとき、ランドマークL1の位置の変化(地図の変化)およびエアタグA1の位置の変化に従って、リンク線LK6は図35のa部に示す状態から図35のc部に示す状態に変化する。なお、リンク線LK6の位置の変化に伴って、文字タグM1の位置も変化する。 For example, assume that at a certain point in time, the air tag A1, the landmark L1, and the link line LK6 are displayed as shown in part a of FIG. Here, for example, when the user changes the traveling direction, the position of the landmark L1 moves in the map display area 18a as indicated by the arrow 46 in FIG. It is assumed that the position has moved as indicated by an arrow indicated by reference numeral 47 in part b of FIG. At this time, according to the change in the position of the landmark L1 (change in the map) and the change in the position of the air tag A1, the link line LK6 changes from the state shown in part a of FIG. 35 to the state shown in part c of FIG. Note that the position of the character tag M1 also changes as the position of the link line LK6 changes.
<2.5 文字タグ>
 次に、文字タグ表示手段182によって映像表示領域18bに表示される文字タグについて詳しく説明する。
<2.5 Character tags>
Next, the character tag displayed in the video display area 18b by the character tag display means 182 will be described in detail.
<2.5.1 複数の文字タグの表示について>
 映像表示領域18bに複数の文字タグが表示される際、それら複数の文字タグが互いに重なることのないように、映像表示領域18b内における各文字タグの配置位置が決定される。仮に2つの文字タグ(文字タグM2および文字タグM3)を画面上で横方向に並べて配置すると図36のa部に示すようにそれら2つの文字タグが互いに重なり合う場合、図36のb部に示すように、画面上における縦方向についての配置位置を文字タグM2と文字タグM3とで異ならせる。このようにして、映像表示領域18bに表示される任意の2つ文字タグに関し、それら2つの文字タグが互いに重なり合うことが防止されている。
<2.5.1 Displaying multiple character tags>
When a plurality of character tags are displayed in the video display area 18b, the arrangement positions of the character tags in the video display area 18b are determined so that the plurality of character tags do not overlap each other. If two character tags (character tag M2 and character tag M3) are arranged side by side in the horizontal direction on the screen and these two character tags overlap each other as shown in part a of FIG. 36, they are shown in part b of FIG. Thus, the arrangement position in the vertical direction on the screen is made different between the character tag M2 and the character tag M3. In this way, regarding any two character tags displayed in the video display area 18b, the two character tags are prevented from overlapping each other.
 例えば、図37のa部に示すように、2つの文字タグ(文字タグM4および文字タグM5)の文字の合計数が比較的少ない場合には、それら2つの文字タグは横方向に並べて配置される。これに対して、図37のb部に示すように、2つの文字タグ(文字タグM6および文字タグM7)の文字の合計数が比較的多い場合には、画面上において一方の文字タグ(この例では文字タグM7)が他方の文字タグ(この例では文字タグM6)の下方に配置される。 For example, as shown in part a of FIG. 37, when the total number of characters of two character tags (character tag M4 and character tag M5) is relatively small, the two character tags are arranged side by side. The On the other hand, as shown in part b of FIG. 37, when the total number of characters of the two character tags (character tag M6 and character tag M7) is relatively large, one character tag (this In the example, the character tag M7) is arranged below the other character tag (in this example, the character tag M6).
<2.5.2 文字タグとリンク線との位置関係>
 本実施形態においては、文字タグの一端部が当該文字タグに対応するリンク線上に位置するよう、各文字タグの配置位置が決定される。これにより、文字タグは、例えば図38に示すように表示される。このように文字タグの一端部を当該文字タグに対応するリンク線上に配置することによって、例えば図39に示すように複数の文字タグが表示されている場合に、ユーザーは、文字タグM8はリンク線LK8に対応し、文字タグM9はリンク線LK9に対応しているということを容易に把握することができる。また、本実施形態においては、文字タグの色は当該文字タグに対応するリンク線の色と同じにされる。これにより、文字タグとリンク線との対応関係をより容易に把握することが可能となっている。
<2.5.2 Positional relationship between character tags and link lines>
In the present embodiment, the arrangement position of each character tag is determined so that one end of the character tag is positioned on the link line corresponding to the character tag. Thereby, a character tag is displayed as shown, for example in FIG. By arranging one end of the character tag on the link line corresponding to the character tag in this way, for example, when a plurality of character tags are displayed as shown in FIG. 39, the user can link the character tag M8. It can be easily understood that the character tag M9 corresponds to the line LK8 and the character tag M9 corresponds to the link line LK9. In the present embodiment, the color of the character tag is the same as the color of the link line corresponding to the character tag. Thereby, it is possible to more easily grasp the correspondence between the character tag and the link line.
 なお、必ずしも文字タグの一端部を当該文字タグに対応するリンク線上に配置する必要はなく、また、必ずしも文字タグの色を当該文字タグに対応するリンク線の色と同じにする必要はない。但し、ユーザーを速やかに避難させるという観点から、何らかの手法で文字タグとリンク線との対応関係が容易に把握されるようにすることが好ましい。 Note that one end of the character tag is not necessarily arranged on the link line corresponding to the character tag, and the color of the character tag is not necessarily the same as the color of the link line corresponding to the character tag. However, from the viewpoint of promptly evacuating the user, it is preferable that the correspondence between the character tag and the link line is easily grasped by some method.
<2.5.3 風景映像中における文字タグの位置>
 ユーザーによって映像撮影部15を用いた風景映像の撮影が行われると、図40に示すように、映像表示領域18bの上方の領域(符号45で示す領域)には風景映像のうちの空の映像が表示されることが多い。このような空の映像が表示されている領域に各種情報が表示されたとしても、それらの各種情報は、ユーザーが画面を見ながら避難を行うに際して何ら妨げにはならないと考えられる。そこで、本実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。その際、上述したように、複数の文字タグが表示される場合には、それら複数の文字タグが互いに重なることのないように各文字タグの配置位置が決定される。
<2.5.3 Position of character tags in landscape video>
When a user captures a landscape image using the image capturing unit 15, as shown in FIG. 40, an empty image of the landscape image is displayed in the region above the image display region 18b (the region indicated by reference numeral 45). Is often displayed. Even if various kinds of information are displayed in the area where such an empty image is displayed, it is considered that the various kinds of information do not hinder the user from evacuating while looking at the screen. Therefore, in the present embodiment, a character tag is arranged in an area above the video display area 18b (an area where an empty video is displayed). At this time, as described above, when a plurality of character tags are displayed, the arrangement positions of the character tags are determined so that the plurality of character tags do not overlap each other.
<2.6 効果>
 本実施形態によれば、携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、避難経路を示す地図を地図表示領域18aに表示する地図表示手段150と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路の案内に供される情報としてのエアタグを風景映像に重ねて表示するエアタグ表示手段180と、映像表示領域18bに表示されているエアタグと地図表示領域18aに表示されているランドマーク(エアタグに対応するランドマーク)とを結ぶリンク線を表示するリンク線表示手段181とが設けられている。すなわち、映像表示領域18bには、避難に有用な情報としてのエアタグが風景映像とともに表示され、地図表示領域18aには、避難経路を示す地図が表示されるとともに映像表示領域18b内のエアタグに対応するランドマークが表示される。そして、映像表示領域18b内のエアタグと地図表示領域18a内のランドマークとがリンク線によって結ばれている。これにより、各エアタグとそれに対応するランドマークとの対応関係の把握が容易になる。従って、ユーザーは、エアタグによって避難所や災害が発生している場所の方向を把握することができるとともに、ランドマークによって現在位置(ユーザーの位置)とエアタグ位置(避難所の場所や災害が発生している場所)との位置関係を容易に把握することが可能となる。以上のようにして、本実施形態によれば、風景映像中に表示されるエアタグの示す事物・事象の地理上の位置と現在位置との位置関係を容易に把握することのできる避難誘導システムが実現される。
<2.6 Effects>
According to the present embodiment, the mobile terminal device 10 has an evacuation route search means 140 for searching for an evacuation route, a map display means 150 for displaying a map indicating the evacuation route in the map display area 18a, and a user taking a picture. Image display means 170 for displaying a landscape image, an air tag display means 180 for displaying an air tag as information provided for evacuation route guidance superimposed on the landscape image, and an air tag displayed in the image display area 18b Link line display means 181 for displaying a link line connecting a landmark (landmark corresponding to an air tag) displayed in the map display area 18a is provided. That is, an air tag as information useful for evacuation is displayed together with a landscape video in the video display area 18b, and a map showing an evacuation route is displayed in the map display area 18a and corresponds to the air tag in the video display area 18b. The landmark to be displayed is displayed. The air tag in the video display area 18b and the landmark in the map display area 18a are connected by a link line. This makes it easy to grasp the correspondence between each air tag and its corresponding landmark. Therefore, the user can grasp the direction of the evacuation shelter and the place where the disaster occurs by using the air tag, and the landmark (the user's position) and the air tag position (the place of the evacuation shelter and the disaster have occurred). It is possible to easily grasp the positional relationship with the location. As described above, according to the present embodiment, there is provided an evacuation guidance system that can easily grasp the positional relationship between the geographical position of an object / event indicated by an air tag displayed in a landscape image and the current position. Realized.
 また、本実施形態によれば、携帯端末装置10には、各リンク線に対応するエアタグの説明情報である文字タグを当該各リンク線と対応付けて表示する文字タグ表示手段182が設けられている。このため、各エアタグの情報すなわち避難経路をたどる際に有用となる情報(例えば、火災が発生している詳細な場所の情報)を文字でユーザーに提供することが可能となる。これにより、災害発生時に、より詳細な情報がユーザーに提供され、ユーザーは安全かつ確実に避難することが可能となる。 Further, according to the present embodiment, the mobile terminal device 10 is provided with the character tag display means 182 that displays the character tag that is the description information of the air tag corresponding to each link line in association with each link line. Yes. For this reason, it becomes possible to provide the user with information about each air tag, that is, information useful for tracing the evacuation route (for example, information on a detailed place where a fire is occurring) in text. Thereby, when a disaster occurs, more detailed information is provided to the user, and the user can evacuate safely and reliably.
 さらに、本実施形態によれば、互いに対応するエアタグ,ランドマーク,リンク線,および文字タグは、全て同じ色になっている。このため、ユーザーは、エアタグ,ランドマーク,リンク線,および文字タグの対応関係を容易に把握することができる。これにより、より速やかにユーザーを避難させることが可能となる。 Furthermore, according to this embodiment, the air tag, the landmark, the link line, and the character tag corresponding to each other are all in the same color. For this reason, the user can easily grasp the correspondence relationship between the air tag, the landmark, the link line, and the character tag. This makes it possible to evacuate the user more quickly.
 さらにまた、本実施形態によれば、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。仮に文字タグを当該文字タグに対応するエアタグの近傍に配置した場合、図41のa部に示すように、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在することとなる。このようにエアタグや文字タグが密に混在する映像は、ユーザーにとっては視認性の悪い映像である。また、避難に際して有用な情報が文字タグによって隠されてしまうことも懸念される。以上より、図41のa部に示すように文字タグが表示される場合、特に災害発生によってユーザーがパニック状態になっていると、ユーザーにとっては進行方向を迅速に正しく把握することが困難である。この点、本実施形態によれば、図41のb部に示すように、文字タグは映像表示領域18bの上方の領域(空の映像が表示されている領域)45に表示される。このため、映像表示領域18bにおいてエアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。しかも、文字タグによって、エアタグで示されている事物(例えば避難所)・事象(例えば火災)に関する詳細な情報をユーザーに提供することができる。 Furthermore, according to the present embodiment, the character tag is arranged in the area above the video display area 18b (area where an empty video is displayed). If a character tag is arranged in the vicinity of an air tag corresponding to the character tag, as shown in part a of FIG. 41, the air tag and the character tag are closely mixed in the area where the buildings and roads are displayed in the landscape video. Will be. Thus, an image in which air tags and character tags are densely mixed is an image with poor visibility for the user. In addition, there is a concern that useful information during evacuation may be hidden by character tags. From the above, when a character tag is displayed as shown in part a of FIG. 41, it is difficult for the user to quickly and correctly grasp the direction of travel, especially when the user is in a panic due to a disaster. . In this regard, according to the present embodiment, as shown in part b of FIG. 41, the character tag is displayed in the area 45 above the video display area 18b (area where an empty video is displayed). For this reason, air tags and character tags are not mixed closely in the video display area 18b, and useful information is not hidden by the character tags. In addition, the character tag can provide the user with detailed information regarding an object (for example, a shelter) or an event (for example, a fire) indicated by the air tag.
<2.7 変形例など>
 上記第2の実施形態においては、地図表示領域18aには、映像表示領域18b内のエアタグに対応するランドマークが表示されていた。しかしながら、本発明はこれに限定されず、ランドマークは必ずしも表示されなくても良い。ランドマークを表示しない構成を採用した場合、リンク線表示手段181は、映像表示領域18bに表示されているエアタグと、地図表示領域18aに表示されている地図上の位置のうちの当該エアタグに対応付けられる位置とを結ぶリンク線を表示する。すなわち、映像表示領域18b内のエアタグと当該エアタグに対応する地図上の位置(地図表示領域18a内の位置)とがリンク線によって結ばれる。これにより、例えば図42に示すような画像が表示部18に表示される。
<2.7 Modifications, etc.>
In the second embodiment, landmarks corresponding to air tags in the video display area 18b are displayed in the map display area 18a. However, the present invention is not limited to this, and the landmark does not necessarily have to be displayed. When the configuration not displaying the landmark is adopted, the link line display means 181 corresponds to the air tag displayed in the video display area 18b and the air tag among the positions on the map displayed in the map display area 18a. Displays a link line connecting the position to be attached. That is, the air tag in the video display area 18b and the position on the map corresponding to the air tag (position in the map display area 18a) are connected by the link line. Thereby, for example, an image as shown in FIG. 42 is displayed on the display unit 18.
 また、上記第2の実施形態においては、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置されていた(図3などを参照)。しかしながら、本発明はこれに限定されず、図43に示すように、表示部18の下方に地図表示領域18aが配置され、表示部18の上方に映像表示領域18bが配置されていても良い。但し、この場合、風景映像中の建物や道路が表示されている領域に文字タグが表示される。そうすると、文字タグとエアタグとが密に混在したり、有用な情報が文字タグによって隠されてしまうことがある。従って、視認性や有用な情報を確実にユーザーに提供するという観点からは、上記第2の実施形態のように、表示部18の上方に地図表示領域18aを配置し、表示部18の下方に映像表示領域18bを配置することが好ましい。 In the second embodiment, the map display area 18a is arranged above the display section 18, and the video display area 18b is arranged below the display section 18 (see FIG. 3 and the like). However, the present invention is not limited to this, and as shown in FIG. 43, a map display region 18 a may be disposed below the display unit 18, and a video display region 18 b may be disposed above the display unit 18. However, in this case, a character tag is displayed in an area where buildings and roads are displayed in the landscape video. In this case, character tags and air tags may be mixed closely, or useful information may be hidden by the character tags. Therefore, from the viewpoint of reliably providing visibility and useful information to the user, the map display area 18a is arranged above the display unit 18 and the display unit 18 is below the display unit 18 as in the second embodiment. It is preferable to arrange the video display area 18b.
 さらに、上記第2の実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置されていたが、本発明はこれに限定されない。図44に示すように地図表示領域18aと映像表示領域18bとの間に文字タグを表示するための専用の領域(文字タグ表示領域)18cを設けるようにしても良い。このような構成においても、エアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。 Furthermore, in the second embodiment, the character tag is arranged in the area above the video display area 18b (the area where the empty video is displayed), but the present invention is not limited to this. As shown in FIG. 44, a dedicated area (character tag display area) 18c for displaying a character tag may be provided between the map display area 18a and the video display area 18b. Even in such a configuration, air tags and character tags are not mixed closely, and useful information is not hidden by the character tags.
<3.第3の実施形態>
<3.1 全体構成>
 全体構成については、上記第1の実施形態と同様であるので、説明を省略する(図1~図3を参照)。
<3. Third Embodiment>
<3.1 Overall configuration>
Since the overall configuration is the same as that of the first embodiment, description thereof is omitted (see FIGS. 1 to 3).
<3.2 機能構成>
 図45は、本実施形態における携帯端末装置10の詳細な機能構成を示すブロック図である。携帯端末装置10は、GPS情報取得手段100,観光機能選択手段110,ユーザー情報送信手段120,データ受信手段121,データ記憶手段130,避難経路探索手段140,個人状況入力手段141,移動可能距離入力手段142,周辺状況入力手段143,地図表示手段150,観光情報表示手段160,映像表示手段170,エアタグ表示手段180,リンク線表示手段181,および文字タグ表示手段182を有している。地図表示手段150には、ランドマーク表示手段152が含まれている。
<3.2 Functional configuration>
FIG. 45 is a block diagram illustrating a detailed functional configuration of the mobile terminal device 10 according to the present embodiment. The mobile terminal device 10 includes a GPS information acquisition unit 100, a sightseeing function selection unit 110, a user information transmission unit 120, a data reception unit 121, a data storage unit 130, an evacuation route search unit 140, a personal situation input unit 141, and a movable distance input. Means 142, surrounding state input means 143, map display means 150, sightseeing information display means 160, video display means 170, air tag display means 180, link line display means 181, and character tag display means 182. The map display means 150 includes landmark display means 152.
 なお、本実施形態においては、避難経路探索手段140によって経路探索手段が実現され、エアタグ表示手段180によって第1の拡張現実画像表示手段が実現され、文字タグ表示手段182によって第2の拡張現実画像表示手段が実現されている。 In the present embodiment, the route search means is realized by the evacuation route search means 140, the first augmented reality image display means is realized by the air tag display means 180, and the second augmented reality image is realized by the character tag display means 182. A display means is realized.
 GPS情報取得手段100は、GPS衛星から受信する電波に基づいてユーザーの現在位置を特定するための位置情報(緯度・経度の情報)を取得し、その位置情報を示すGPSデータGdaを出力する。なお、GPS情報取得手段100は、ハードウェアとしてのGPS処理部16(図2参照)によって実現される。 The GPS information acquisition unit 100 acquires position information (latitude / longitude information) for specifying the current position of the user based on radio waves received from GPS satellites, and outputs GPS data Gda indicating the position information. The GPS information acquisition unit 100 is realized by a GPS processing unit 16 (see FIG. 2) as hardware.
 観光機能選択手段110は、ユーザーの所望する観光機能(観光施設の各種情報の提示,観光コースの案内,宿泊施設・飲食店・土産店の紹介など)をユーザーに選択させるための手段である。ユーザーが観光機能を選択すると、観光機能選択手段110は、ユーザーによって選択された観光機能を示す機能選択データFdaを出力する。このように、本実施形態における避難誘導アプリは、平常時には観光のための情報をユーザーに提供することが可能となっている。但し、本発明はこれに限定されず、観光情報をユーザーに提供するための機能は必ずしも携帯端末装置10に設けられていなくても良い。 Sightseeing function selection means 110 is a means for allowing the user to select a sightseeing function desired by the user (presentation of various information on tourist facilities, guidance on sightseeing courses, introduction of accommodation facilities / restaurants / souvenir shops, etc.). When the user selects a sightseeing function, the sightseeing function selection means 110 outputs function selection data Fda indicating the sightseeing function selected by the user. As described above, the evacuation guidance application according to the present embodiment can provide information for sightseeing to the user in normal times. However, the present invention is not limited to this, and the function for providing tourist information to the user may not necessarily be provided in the mobile terminal device 10.
 ユーザー情報送信手段120は、GPSデータGdaおよび機能選択データFdaをユーザーデータYdaとしてサーバ20に送信する。なお、GPSデータGdaは、例えば、ユーザーがこの避難誘導アプリを起動したタイミングおよびユーザーがこの避難誘導アプリを用いて何らかの操作を行ったタイミングで、携帯端末装置10からサーバ20へと送信される。また、ユーザーがこの避難誘導アプリを使用している期間中、所定期間毎にGPSデータGdaが携帯端末装置10からサーバ20に送信されるようにしても良い。 User information transmission means 120 transmits GPS data Gda and function selection data Fda to server 20 as user data Yda. The GPS data Gda is transmitted from the mobile terminal device 10 to the server 20 at the timing when the user activates the evacuation guidance app and when the user performs some operation using the evacuation guidance app, for example. Further, the GPS data Gda may be transmitted from the mobile terminal device 10 to the server 20 every predetermined period while the user is using the evacuation guidance application.
 データ受信手段121は、サーバ20から送信されるサーバデータSdaを受信する。このサーバデータSdaには、避難経路の探索に有用なデータである有意データMdaと、避難経路の案内に供される情報としてのエアタグを表示するためのエアタグデータAdaと、避難経路の案内に供される情報としての文字タグを表示するための文字タグデータCdaと、観光機能選択手段110によってユーザーに選択された観光機能に対応するデータである観光データKdaとが含まれている。また、有意データMdaには、地図データ,道路データ,避難所データなどの基礎データBdaの他に、例えば各道路の混雑度を示すデータが含まれている。サーバ20から送信されたサーバデータSdaのうちの有意データMdaは、データ記憶手段130に格納される。なお、データ記憶手段130はハードウェアとしてのフラッシュROM12またはRAM13(図2参照)によって実現される。また、避難誘導プログラムが携帯端末装置10にインストールされる際に有意データMdaをデータ記憶手段130にダウンロードしておくことによって、災害発生時に通信状態にかかわらず避難経路の探索を実行することが可能となる。 The data receiving unit 121 receives server data Sda transmitted from the server 20. The server data Sda includes significant data Mda that is useful for searching for an evacuation route, air tag data Ada for displaying an air tag as information provided for evacuation route guidance, and evacuation route guidance. Character tag data Cda for displaying a character tag as information to be displayed, and tourism data Kda that is data corresponding to the tourism function selected by the user by the tourism function selection means 110 are included. In addition to the basic data Bda such as map data, road data, and shelter data, the significant data Mda includes, for example, data indicating the degree of congestion of each road. The significant data Mda of the server data Sda transmitted from the server 20 is stored in the data storage unit 130. The data storage means 130 is realized by a flash ROM 12 or RAM 13 (see FIG. 2) as hardware. In addition, when the evacuation guidance program is installed in the mobile terminal device 10, by downloading the significant data Mda to the data storage unit 130, it is possible to search for an evacuation route regardless of the communication state when a disaster occurs. It becomes.
 個人状況入力手段141は、災害が発生した際のユーザー(被災者)の被災状況や運動能力(避難経路上の障害を回避・克服できる能力)をユーザーに入力させるための手段である。この個人状況入力手段141は、表示部18に例えば図5に示すような画面を表示することによって実現される。図5に示すように、例えば「登れる」,「走れる」,「平坦のみ」,「車いす」,「足の怪我」,「歩けない」,「担架」,「子連れ」,「乳母車」などの状態を示すボタンが表示される。ユーザーは、該当する状態を示すボタンを押すだけで良い。個人状況入力手段141によって入力された内容を示す個人状況データIdaは、避難経路探索手段140によって使用される。 The personal situation input means 141 is a means for allowing the user to input the disaster situation and exercise ability (ability to avoid and overcome obstacles on the evacuation route) when a disaster occurs. The personal status input means 141 is realized by displaying a screen as shown in FIG. As shown in FIG. 5, for example, “climbing”, “running”, “flat only”, “wheelchair”, “foot injury”, “cannot walk”, “stretcher”, “children”, “pram”, etc. Button is displayed. The user only has to press a button indicating the corresponding state. The personal situation data Ida indicating the content input by the personal situation input unit 141 is used by the evacuation route search unit 140.
 なお、図5に示した画面は一例であって、画面のレイアウトや画面に表示される項目はこれには限定されない。この点については、後述する移動可能距離入力手段142(図6参照)および周辺状況入力手段143(図7参照)についても同様である。 Note that the screen shown in FIG. 5 is an example, and the screen layout and items displayed on the screen are not limited thereto. This also applies to the movable distance input means 142 (see FIG. 6) and the surrounding situation input means 143 (see FIG. 7) described later.
 移動可能距離入力手段142は、災害が発生した際のユーザー(被災者)の移動手段や移動可能距離をユーザーに入力させるための手段である。この移動可能距離入力手段142は、表示部18に例えば図6に示すような画面を表示することによって実現される。図6に示すように、例えば「徒歩」,「自転車」,「車」などの移動手段を示すボタンと、移動可能距離の入力が可能な入力ボックスとが表示される。ユーザーは、該当する移動手段を示すボタンを押し、移動可能距離を入力する。移動可能距離入力手段142によって入力された内容を示す移動能力データDdaは、避難経路探索手段140によって使用される。 The movable distance input means 142 is a means for causing the user (disaster) to input the moving means and the movable distance when a disaster occurs. This movable distance input means 142 is realized by displaying a screen as shown in FIG. As shown in FIG. 6, for example, buttons indicating moving means such as “walking”, “bicycle”, “car”, and an input box capable of inputting a movable distance are displayed. The user presses a button indicating the corresponding moving means and inputs the movable distance. The moving ability data Dda indicating the content input by the movable distance input unit 142 is used by the evacuation route searching unit 140.
 周辺状況入力手段143は、災害が発生した際のユーザー(被災者)の周辺の状況をユーザーに入力させるための手段である。この周辺状況入力手段143は、表示部18に例えば図7に示すような画面を表示することによって実現される。周辺状況入力手段143は、図7に示すように、例えば災害状況および混雑状況の入力が可能なように構成されている。災害状況を入力するための領域には、例えば、「火事」,「水害」,「倒壊」,「地割れ」などの災害の種別を表すボタンと、「激しい」,「強い」,「中程度」,「弱い」などの災害の強度を表すボタンと、災害の規模の入力が可能な入力ボックスとが表示される。混雑状況を入力するための領域には、例えば、「危険」,「強い」,「普通」,「少し」などの混雑の程度を表すボタンと、混雑の範囲の入力が可能な入力ボックスとが表示される。ユーザーは、災害の種別,災害の強度,および混雑の程度を選択し、災害の規模および混雑の範囲を入力する。周辺状況入力手段143によって入力された内容を示す周辺状況データPdaは、避難経路探索手段140によって使用される。 The surrounding situation input means 143 is a means for allowing the user to input the surrounding situation of the user (the victim) when a disaster occurs. This peripheral condition input means 143 is realized by displaying a screen as shown in FIG. As shown in FIG. 7, the surrounding situation input means 143 is configured to be able to input, for example, a disaster situation and a congestion situation. The area for entering the disaster status includes, for example, buttons indicating the type of disaster such as “fire”, “water damage”, “collapse”, “cracking”, “strong”, “strong”, “medium” , A button indicating the intensity of the disaster such as “weak” and an input box capable of inputting the scale of the disaster are displayed. In the area for entering the congestion status, for example, buttons indicating the degree of congestion such as “Danger”, “Strong”, “Normal”, “Slightly”, and an input box in which the range of congestion can be input. Is displayed. The user selects the type of disaster, the intensity of the disaster, and the degree of congestion, and inputs the scale of the disaster and the range of congestion. The surrounding situation data Pda indicating the contents input by the surrounding situation input unit 143 is used by the evacuation route searching unit 140.
 避難経路探索手段140は、GPSデータGdaと、ユーザーによって入力されたデータ(個人状況データIda,移動能力データDda,および周辺状況データPda)と、サーバ20から送信されデータ記憶手段130に格納されている有意データMdaとに基づいて、ユーザーにとっての最適な避難所・避難経路を探索する。観光情報表示手段160は、観光データKdaを表示部18に表示する。 The evacuation route searching means 140 is transmitted from the server 20 and stored in the data storage means 130 with the GPS data Gda, data input by the user (personal situation data Ida, mobility capability data Dda, and surrounding situation data Pda). Based on the significant data Mda, the optimum evacuation site / evacuation route for the user is searched. The tourism information display means 160 displays the tourism data Kda on the display unit 18.
 地図表示手段150は、データ記憶手段130に格納されている基礎データBdaに基づいて表示部18内の地図表示領域18aに地図を表示する。その際、避難経路探索手段140によって既に避難所・避難経路の探索が行われている場合には、探索結果Reが地図に反映される。これにより、例えば図25に示すように、地図および探索結果Reとしての避難経路が地図表示領域18aに表示される。この地図表示手段150には、表示モードとして、ヘディングアップモードとノースアップモードとが用意されている。ヘディングアップモードとは、ユーザーの進行方向が常に画面上において上方向となるように、ユーザーの進行方向に応じて地図を回転させながら表示するモードである。ノースアップモードとは、北方向が画面上において上方向となるように地図を表示するモードである。また、この地図表示手段150は、ピンチ操作(複数の指で画面をつまんだり押し広げたりする操作)等によって地図の拡大・縮小・スクロールが可能なように構成されている。 The map display unit 150 displays a map in the map display area 18a in the display unit 18 based on the basic data Bda stored in the data storage unit 130. At that time, if the evacuation route search means 140 has already searched for the evacuation site / evacuation route, the search result Re is reflected on the map. Thus, for example, as shown in FIG. 25, the map and the evacuation route as the search result Re are displayed in the map display area 18a. The map display means 150 has a heading-up mode and a north-up mode as display modes. The heading-up mode is a mode in which the map is displayed while rotating according to the direction of travel of the user so that the direction of travel of the user is always upward on the screen. The north up mode is a mode in which the map is displayed so that the north direction is an upward direction on the screen. Further, the map display means 150 is configured to be able to enlarge / reduce / scroll the map by a pinch operation (operation to pinch or push the screen with a plurality of fingers) or the like.
 ランドマーク表示手段152は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、後述するエアタグ表示手段180によって映像表示領域18bに表示されるエアタグに対応するランドマーク(このランドマークは、後述する文字タグ表示手段182によって表示される文字タグにも対応する。)を地図表示領域18aに表示する。ランドマーク表示手段152は、例えば、避難所を示すランドマーク,火災や水害などの災害箇所を示すランドマークを表示する。これにより、地図表示領域18aには、例えば図26に示すように、ランドマークが付加された地図が表示される。なお、各ランドマークは、地図上において、当該ランドマークに対応するエアタグで表されている事物・事象の位置に表示される。すなわち、ランドマーク表示手段152は、地図表示領域18aに表示されている地図上の位置のうちの映像表示領域18bに表示されているエアタグに対応付けられる位置に、当該エアタグに対応するランドマークを表示する。 The landmark display means 152 is based on the air tag data Ada received by the data receiving means 121, and corresponds to an air tag displayed in the video display area 18b by the air tag display means 180 (to be described later). Corresponding to the character tag displayed by the character tag display means 182.) is displayed in the map display area 18a. The landmark display means 152 displays, for example, a landmark indicating a refuge and a landmark indicating a disaster location such as a fire or flood. As a result, a map with landmarks is displayed in the map display area 18a as shown in FIG. 26, for example. Each landmark is displayed on the map at the position of the thing / event represented by the air tag corresponding to the landmark. That is, the landmark display means 152 displays the landmark corresponding to the air tag at the position associated with the air tag displayed in the video display area 18b among the positions on the map displayed in the map display area 18a. indicate.
 映像表示手段170は、上述した映像撮影部15による撮影で得られる風景映像を表示部18内の映像表示領域18bに表示する。これにより、例えば、図25に示すように、映像表示領域18bに風景映像が表示される。ところで、この避難誘導アプリにおいては、映像表示領域18bに表示されるエアタグと地図表示領域18aに表示されている地図上の位置との対応関係の把握を容易にするために、図9に示すような「ワイヤーフレーム」と呼ばれる画像が映像表示領域18bに表示される。図9に示すように、ワイヤーフレームは、進行方向に向かって伸びる縦軸と、進行方向とは垂直方向に伸びる横軸とによって構成される。隣接する2本の縦軸間の距離Xおよび隣接する2本の横軸間の距離Yは、避難誘導アプリによって定められた一定の距離を表している。 The video display unit 170 displays a landscape video obtained by the above-described shooting by the video shooting unit 15 in the video display area 18 b in the display unit 18. Thereby, for example, as shown in FIG. 25, a landscape video is displayed in the video display area 18b. By the way, in this evacuation guidance application, as shown in FIG. 9, in order to easily understand the correspondence between the air tag displayed in the video display area 18b and the position on the map displayed in the map display area 18a. An image called “wire frame” is displayed in the video display area 18b. As shown in FIG. 9, the wire frame includes a vertical axis extending in the traveling direction and a horizontal axis extending in a direction perpendicular to the traveling direction. A distance X between two adjacent vertical axes and a distance Y between two adjacent horizontal axes represent a certain distance determined by the evacuation guidance application.
 ところで、このワイヤーフレームは、携帯端末装置10が地表面に対して垂直になっている場合に映像表示領域18bの中心が消失点となるように、遠近法を用いて表示される。従って、携帯端末装置10が地表面に対して垂直になっていれば、全ての縦軸の一方の端点は、映像表示領域18bの中心に存在する。また、携帯端末装置10が地表面に対して垂直になっている場合の映像表示領域18bの上下方向についての真ん中のラインが風景映像中の水平線(地平線)であるとみなされる。従って、上記消失点は、風景映像中の水平線(地平線)上に存在する。また、ワイヤーフレームの横軸の間隔については、映像表示領域18bの中心に近づくにつれて狭くなっている。以上のようなワイヤーフレームが風景映像に付加されることにより、図27に示すような映像が映像表示領域18bに表示される。なお、携帯端末装置10が上向きになっている場合(映像撮影部15による撮影方向が水平方向よりも上方向の場合)には、上記消失点は映像表示領域18bの中心よりも下方に位置し、携帯端末装置10が下向きになっている場合(映像撮影部15による撮影方向が水平方向よりも下方向の場合)には、上記消失点は映像表示領域18bの中心よりも上方に位置する。 By the way, this wire frame is displayed using a perspective method so that the center of the video display area 18b becomes a vanishing point when the mobile terminal device 10 is perpendicular to the ground surface. Therefore, if the mobile terminal device 10 is perpendicular to the ground surface, one end point of all the vertical axes exists at the center of the video display area 18b. Further, the middle line in the vertical direction of the video display area 18b when the mobile terminal device 10 is perpendicular to the ground surface is regarded as the horizontal line (horizon line) in the landscape video. Therefore, the vanishing point exists on the horizontal line (horizon line) in the landscape video. Further, the interval between the horizontal axes of the wire frames becomes narrower as it approaches the center of the video display area 18b. By adding the wire frame as described above to the landscape video, a video as shown in FIG. 27 is displayed in the video display area 18b. When the mobile terminal device 10 is facing upward (when the image capturing direction by the image capturing unit 15 is upward from the horizontal direction), the vanishing point is located below the center of the image display area 18b. When the mobile terminal device 10 is facing downward (when the shooting direction by the video shooting unit 15 is lower than the horizontal direction), the vanishing point is located above the center of the video display area 18b.
 エアタグ表示手段180は、データ受信手段121によって受信されたエアタグデータAdaに基づいて、ユーザーが避難経路をたどって避難する際に当該ユーザーにとって有用となるような情報を表すエアタグ(拡張現実画像)を、ユーザーによって撮影されている風景映像に重ねて表示する。これにより、映像表示領域18bには、例えば、避難所を表すエアタグ,災害(火災,水害など)を表すエアタグ,混雑状況を表すエアタグ,進行経路を表す矢印状のエアタグなどが表示される。例えば図46に示す映像表示領域18bには、進行経路を表すエアタグ31,避難所を表すエアタグ34,および水害を表すエアタグ33が表示されている。なお、進行経路を表すエアタグ31を映像表示領域18bに表示することによって、ユーザーは、たとえパニック状態になっていても、目指すべき方向を容易に把握することが可能となる。 Based on the air tag data Ada received by the data receiving means 121, the air tag display means 180 displays an air tag (augmented reality image) representing information that is useful to the user when the user evacuates following the evacuation route. , And overlaid on the landscape video that was shot by the user. As a result, for example, an air tag representing a refuge, an air tag representing a disaster (fire, flood, etc.), an air tag representing a congestion situation, an arrow-shaped air tag representing a travel route, and the like are displayed in the video display area 18b. For example, in the video display area 18b shown in FIG. 46, an air tag 31 representing a traveling route, an air tag 34 representing a shelter, and an air tag 33 representing water damage are displayed. In addition, by displaying the air tag 31 representing the traveling route in the video display area 18b, the user can easily grasp the direction to be aimed even if the user is in a panic state.
 ところで、各エアタグは、当該エアタグに対応する位置と現在位置(ユーザーの位置)とに基づく透視変換の結果を用いて表示される。このため、同じ種類の情報を表すエアタグに着目すると、現在位置に近い位置の情報を表すエアタグほど大きく表示され、現在位置から遠い位置の情報を表すエアタグほど小さく表示される。例えば、現在位置から近い位置で発生している火災を表すエアタグは大きく表示され、現在位置から遠い位置で発生している火災を表すエアタグは小さく表示される。また、上述のようにワイヤーフレームが風景映像に付加されていることから、ユーザーは、映像表示領域18b内におけるエアタグとワイヤーフレームとの位置関係に基づいて、当該エアタグによって表されている事物(例えば避難所)・事象(例えば火災)の地理上の位置や方角をある程度推測することができる。 By the way, each air tag is displayed using a result of perspective transformation based on the position corresponding to the air tag and the current position (user's position). For this reason, when focusing on air tags representing the same type of information, an air tag representing information closer to the current position is displayed larger, and an air tag representing information farther from the current position is displayed smaller. For example, an air tag representing a fire occurring at a position close to the current position is displayed large, and an air tag representing a fire occurring at a position far from the current position is displayed small. Further, since the wire frame is added to the landscape video as described above, the user can display the thing represented by the air tag (for example, based on the positional relationship between the air tag and the wire frame in the video display area 18b). The geographical location and direction of evacuation centers and events (eg fire) can be estimated to some extent.
 また、エアタグ表示手段180によってエアタグが表示される際には、傾きセンサ19によって携帯端末装置10の傾きが検出され、その傾きに応じて、映像表示領域18bにおけるエアタグの表示位置が決定される。具体的には、携帯端末装置10が上向きになるほど(映像撮影部15による撮影方向が上方向になるほど)エアタグは映像表示領域18b中の下方に表示され、携帯端末装置10が下向きになるほど(映像撮影部15による撮影方向が下方向になるほど)エアタグは映像表示領域18b中の上方に表示される。 When the air tag is displayed by the air tag display means 180, the inclination of the portable terminal device 10 is detected by the inclination sensor 19, and the display position of the air tag in the video display area 18b is determined according to the inclination. Specifically, the air tag is displayed in the lower part of the video display area 18b as the mobile terminal device 10 is directed upward (the imaging direction by the video imaging unit 15 is upward), and the mobile terminal device 10 is directed downward (video). The air tag is displayed in the upper part of the video display area 18b (as the shooting direction by the shooting unit 15 becomes lower).
 文字タグ表示手段182は、データ受信手段121によって受信された文字タグデータCdaに基づいて、映像表示領域18bに表示されているエアタグに関する情報を文字で表した文字タグを映像表示領域18bに表示する。例えば、避難所の情報を文字で表した図47のa部に示すような仮想的画像や火災の発生場所を文字で表した図47のb部に示すような仮想的画像などが文字タグとして表示される。文字タグは、典型的には、風景映像中の空に相当する領域に表示される。以上より、例えば、図48に示すような画像に文字タグが付加されることによって、表示部18には図49に示すような画像が表示される。なお、必ずしも映像表示領域18bに表示されている全てのエアタグについて対応する文字タグが表示される必要はない。文字タグの表示に関する更に詳しい説明は後述する。 Based on the character tag data Cda received by the data receiving means 121, the character tag display means 182 displays in the video display area 18b a character tag representing information related to the air tag displayed in the video display area 18b. . For example, a virtual image as shown in part a of FIG. 47 representing the information of the refuge or a virtual image shown in part b of FIG. 47 representing the location of the fire as a character tag. Is displayed. The character tag is typically displayed in an area corresponding to the sky in a landscape video. From the above, for example, an image as shown in FIG. 49 is displayed on the display unit 18 by adding a character tag to the image as shown in FIG. It is not always necessary to display the corresponding character tags for all the air tags displayed in the video display area 18b. A more detailed explanation about the display of the character tag will be described later.
 リンク線表示手段181は、映像表示領域18bに表示される各エアタグの位置データPAと各エアタグに対応する文字タグの位置データPMとに基づいて、映像表示領域18b内のエアタグとそれに対応する文字タグとを結ぶ線(以下、「リンク線」という。)を表示部18に表示する。例えば、図50のa部に示すように、映像表示領域18bにおいて避難所を表すエアタグA1が表示されるとともにそのエアタグA1に対応する文字タグM1が表示されるとき、リンク線表示手段181は、図50のb部に示すように、エアタグA1と文字タグM1とを結ぶリンク線LKを表示部18に表示する。このようにして、例えば表示部18に図49に示すような画像(地図および映像)が表示されるときには、図51に示すようにリンク線が表示される。図51に示す例では、リンク線として、建物等(この例では駅)を表すエアタグと当該エアタグに対応する文字タグとを結ぶリンク線LK1と、避難所を表すエアタグと当該エアタグに対応する文字タグとを結ぶリンク線LK2~LK4とが表示されている。リンク線の表示に関する更に詳しい説明は後述する。また、図51においてリンク線LK4は映像表示領域18b外に伸びるように表示されているが、これについての説明も後述する。 Based on the position data PA of each air tag displayed in the video display area 18b and the position data PM of the character tag corresponding to each air tag, the link line display means 181 and the air tag in the video display area 18b and the characters corresponding thereto. A line connecting the tags (hereinafter referred to as “link line”) is displayed on the display unit 18. For example, as shown in part a of FIG. 50, when an air tag A1 representing a refuge is displayed in the video display area 18b and a character tag M1 corresponding to the air tag A1 is displayed, the link line display means 181 As shown in part b of FIG. 50, a link line LK connecting the air tag A1 and the character tag M1 is displayed on the display unit 18. In this way, for example, when an image (map and video) as shown in FIG. 49 is displayed on the display unit 18, a link line is displayed as shown in FIG. In the example shown in FIG. 51, as a link line, a link line LK1 connecting an air tag representing a building or the like (station in this example) and a character tag corresponding to the air tag, an air tag representing a shelter, and characters corresponding to the air tag Link lines LK2 to LK4 connecting the tags are displayed. More detailed description regarding the display of the link line will be described later. In FIG. 51, the link line LK4 is displayed so as to extend out of the video display area 18b, which will be described later.
 なお、本実施形態においては、エアタグによって第1の拡張現実画像が実現され、文字タグによって第2の拡張現実画像が実現されている。 In the present embodiment, the first augmented reality image is realized by the air tag, and the second augmented reality image is realized by the character tag.
<3.3 処理フロー>
 次に、図52に示すフローチャートを参照しつつ、携帯端末装置10での処理フローについて説明する。携帯端末装置10では、まず、避難誘導アプリが起動される(ステップS500)。避難誘導アプリの起動後、ユーザーは、経路探索機能を選択する(ステップS510)。そして、GPS情報取得手段100によるGPSデータGdaの取得および当該GPSデータGdaのサーバ20への送信が行われる(ステップS520)。その後、GPSデータGdaに基づくサーバデータSdaの受信が行われる(ステップS530)。すなわち、ステップS530では、携帯端末装置10は、有意データMdaやエアタグデータAdaや文字タグデータCdaなどをサーバ20から受信する。
<3.3 Processing flow>
Next, a processing flow in the mobile terminal device 10 will be described with reference to the flowchart shown in FIG. In the mobile terminal device 10, first, an evacuation guidance application is activated (step S500). After starting the evacuation guidance application, the user selects a route search function (step S510). Then, the GPS information acquisition unit 100 acquires the GPS data Gda and transmits the GPS data Gda to the server 20 (step S520). Thereafter, server data Sda based on the GPS data Gda is received (step S530). That is, in step S530, the mobile terminal device 10 receives significant data Mda, air tag data Ada, character tag data Cda, and the like from the server 20.
 次に、ユーザーは、個人状況入力手段141によって、ユーザーの被災状況や運動能力などの個人状況の入力を行う(ステップS540)。また、ユーザーは、移動可能距離入力手段142によって、移動手段および移動可能距離の入力を行う(ステップS550)。さらに、ユーザーは、周辺状況入力手段143によって、ユーザーの周囲の災害状況や混雑状況などの周辺状況の入力を行う(ステップS560)。 Next, the user uses the personal status input means 141 to input personal status such as the user's damage status and athletic ability (step S540). In addition, the user inputs the moving means and the movable distance by the movable distance input means 142 (step S550). Further, the user inputs the surrounding situation such as a disaster situation or a congestion situation around the user by the surrounding situation input unit 143 (step S560).
 ユーザーによって個人状況,移動手段・移動可能距離,および周辺状況の入力が行われた後、避難経路探索手段140による避難経路探索処理(避難所・避難経路を探索する処理)が実行される(ステップS570)。避難経路探索処理の実行後、ユーザーによって映像撮影部(カメラ)15による風景映像の撮影が行われ、当該風景映像が表示部18の映像表示領域18bに表示される(ステップS580)。 After the user inputs the personal situation, the moving means / movable distance, and the surrounding situation, an evacuation route search process (a process for searching for an evacuation site / evacuation route) by the evacuation route searching means 140 is executed (step) S570). After execution of the evacuation route search process, the user captures a landscape video by the video imaging unit (camera) 15 and displays the landscape video in the video display area 18b of the display unit 18 (step S580).
 その後、地図表示手段150によって、地図,道路,避難所,および避難経路が表示部18の地図表示領域18aに表示される(ステップS590)。そして、映像表示領域18bに表示されている風景映像に、避難経路の案内に供される情報としてのエアタグが重ねて表示される(ステップS600)。また、各エアタグに対応するランドマークが地図表示領域18aの地図上に表示される(ステップS610)。さらに、各エアタグに対応する文字タグが映像表示領域18bに表示される(ステップS620)。さらにまた、エアタグと文字タグとを結ぶリンク線が表示部18に表示される(ステップS630)。 Thereafter, the map display means 150 displays the map, road, shelter, and evacuation route in the map display area 18a of the display unit 18 (step S590). Then, an air tag as information provided for guidance of the evacuation route is superimposed on the landscape video displayed in the video display area 18b (step S600). Also, landmarks corresponding to each air tag are displayed on the map in the map display area 18a (step S610). Further, a character tag corresponding to each air tag is displayed in the video display area 18b (step S620). Furthermore, a link line connecting the air tag and the character tag is displayed on the display unit 18 (step S630).
 以上のようにして、例えば、ステップS590の終了時点においては図27に示すような画像が表示部18に表示され、ステップS600の終了時点においては図53に示すような画像が表示部18に表示され、ステップS610の終了時点においては図48に示すような画像が表示部18に表示され、ステップS620の終了時点においては図49に示すような画像が表示部18に表示され、ステップS630の終了時点においては図51に示すような画像が表示部18に表示される。但し、ステップS590からステップS630までの処理時間は極めて短い時間であるので、人の目には図51に示すような画像が瞬時に知覚される。 As described above, for example, an image as shown in FIG. 27 is displayed on the display unit 18 at the end of step S590, and an image as shown in FIG. 53 is displayed on the display unit 18 at the end of step S600. At the end of step S610, an image as shown in FIG. 48 is displayed on the display unit 18, and at the end of step S620, an image as shown in FIG. 49 is displayed on the display unit 18, and the end of step S630 is completed. At the time, an image as shown in FIG. 51 is displayed on the display unit 18. However, since the processing time from step S590 to step S630 is extremely short, an image as shown in FIG. 51 is immediately perceived by human eyes.
 なお、本実施形態においては、ステップS570によって経路探索ステップが実現され、ステップS580によって映像表示ステップが実現され、ステップS590によって地図表示ステップが実現され、ステップS600によって第1の拡張現実画像表示ステップが実現され、ステップS620によって第2の拡張現実画像表示ステップが実現され、ステップS630によってリンク線表示ステップが実現されている。 In the present embodiment, the route search step is realized by step S570, the video display step is realized by step S580, the map display step is realized by step S590, and the first augmented reality image display step is executed by step S600. The second augmented reality image display step is realized by step S620, and the link line display step is realized by step S630.
<3.4 文字タグ>
 次に、文字タグ表示手段182によって映像表示領域18bに表示される文字タグについて詳しく説明する。
<3.4 Character tag>
Next, the character tag displayed in the video display area 18b by the character tag display means 182 will be described in detail.
<3.4.1 複数の文字タグの表示について>
 映像表示領域18bに複数の文字タグが表示される際、それら複数の文字タグが互いに重なることのないように、映像表示領域18b内における各文字タグの配置位置が決定される。仮に2つの文字タグ(文字タグM2および文字タグM3)を画面上で横方向に並べて配置すると図54のa部に示すようにそれら2つの文字タグが互いに重なり合う場合、図54のb部に示すように、画面上における縦方向についての配置位置を文字タグM2と文字タグM3とで異ならせる。このようにして、映像表示領域18bに表示される任意の2つ文字タグに関し、それら2つの文字タグが互いに重なり合うことが防止されている。
<3.4.1 Displaying multiple character tags>
When a plurality of character tags are displayed in the video display area 18b, the arrangement positions of the character tags in the video display area 18b are determined so that the plurality of character tags do not overlap each other. If two character tags (character tag M2 and character tag M3) are arranged side by side in the horizontal direction on the screen and these two character tags overlap each other as shown in part a of FIG. 54, they are shown in part b of FIG. Thus, the arrangement position in the vertical direction on the screen is made different between the character tag M2 and the character tag M3. In this way, regarding any two character tags displayed in the video display area 18b, the two character tags are prevented from overlapping each other.
 例えば、図55のa部に示すように、2つの文字タグ(文字タグM4および文字タグM5)の文字の合計数が比較的少ない場合には、それら2つの文字タグは横方向に並べて配置される。これに対して、図55のb部に示すように、2つの文字タグ(文字タグM6および文字タグM7)の文字の合計数が比較的多い場合には、画面上において一方の文字タグ(この例では文字タグM7)が他方の文字タグ(この例では文字タグM6)の下方に配置される。 For example, as shown in part a of FIG. 55, when the total number of characters of two character tags (character tag M4 and character tag M5) is relatively small, the two character tags are arranged side by side. The On the other hand, as shown in part b of FIG. 55, when the total number of characters of the two character tags (character tag M6 and character tag M7) is relatively large, one character tag (this In the example, the character tag M7) is arranged below the other character tag (in this example, the character tag M6).
 また、本実施形態においては、図55のb部に示したように複数の文字タグを縦方向に並べて配置する場合、現在位置(ユーザーの位置)から遠い距離にある事物・事象を表す文字タグほど映像表示領域18bの上方に配置される。但し、本発明はこれに限定されず、現在位置から近い距離にある事物・事象を表す文字タグほど映像表示領域18bの上方に配置しても良いし、それ以外の所定の規則に従って複数の文字タグを映像表示領域18bに配置するようにしても良い。 In the present embodiment, when a plurality of character tags are arranged in the vertical direction as shown in part b of FIG. 55, a character tag representing an object / event at a distance far from the current position (user's position). It is arranged above the video display area 18b. However, the present invention is not limited to this, and a character tag representing an object / event that is closer to the current position may be arranged above the video display area 18b, or a plurality of characters according to other predetermined rules. A tag may be arranged in the video display area 18b.
<3.4.2 文字タグの表示位置について>
 本実施形態においては、文字タグが表示されると、当該文字タグはほぼ同じ位置に固定された状態で表示される。詳しくは、文字タグは、微小距離だけ移動し得るような限られた範囲内の位置に表示される。換言すれば、文字タグは、表示されている期間中、完全に同じ位置に固定されているわけではなく、わずかな距離だけ移動し得る。例えば、図56に示すように文字タグM8が表示された場合、当該文字タグM8は符号50の点線で示す範囲内で移動し得る。以上のように、文字タグは、縦方向および横方向に微小距離だけ移動し得る状態で表示される。
<3.4.2 Character tag display position>
In the present embodiment, when a character tag is displayed, the character tag is displayed in a state of being fixed at substantially the same position. Specifically, the character tag is displayed at a position within a limited range that can move by a minute distance. In other words, the character tag is not fixed at the exact same position during the displayed period and can move a small distance. For example, when the character tag M8 is displayed as shown in FIG. 56, the character tag M8 can move within the range indicated by the dotted line 50. As described above, the character tag is displayed in a state where it can move by a minute distance in the vertical direction and the horizontal direction.
 但し、現在位置から各文字タグに対応する事物・事象までの距離が変化したことに伴って文字タグの並び順が変わる際には、各文字タグは大きく移動し得る。例えば、図57のa部に示すように4つの文字タグM11~M14が表示されていると仮定する。ここで、文字タグM12および文字タグM13に着目する。図57のa部に示す例では、文字タグM13に対応する避難所から現在位置までの距離よりも文字タグM12に対応する避難所から現在位置までの距離の方が長いので、文字タグM13よりも文字タグM12の方が上方に配置されている。ここで、ユーザーが避難経路をたどったことによって、文字タグM12に対応する避難所から現在位置までの距離よりも文字タグM13に対応する避難所から現在位置までの距離の方が長くなったとする。この場合、図57のb部に示すように、文字タグM12よりも文字タグM13の方が上方に配置される。また、図58のa部に示すように4つの文字タグM11~M14が表示されていると仮定する。ここで、ユーザーが避難経路をたどったことによって、新たな文字タグM15が表示されるべき状態になったとする。このとき、文字タグM15に対応する事物(ここでは駅)から現在位置までの距離が最も長ければ、図58のb部に示すように、文字タグM15が最も上方に配置され、文字タグM11~M14はそれぞれ元の位置よりも下方に配置される。 However, when the arrangement order of the character tags changes with the change in the distance from the current position to the thing / event corresponding to each character tag, each character tag can move greatly. For example, assume that four character tags M11 to M14 are displayed as shown in part a of FIG. Here, attention is paid to the character tag M12 and the character tag M13. In the example shown in part a of FIG. 57, the distance from the shelter corresponding to the character tag M12 to the current position is longer than the distance from the shelter corresponding to the character tag M13 to the current position. The character tag M12 is also arranged on the upper side. Here, it is assumed that the distance from the shelter corresponding to the character tag M13 to the current position becomes longer than the distance from the shelter corresponding to the character tag M12 to the current position due to the user following the evacuation route. . In this case, as shown in part b of FIG. 57, the character tag M13 is arranged above the character tag M12. Further, it is assumed that four character tags M11 to M14 are displayed as shown in part a of FIG. Here, it is assumed that a new character tag M15 is to be displayed due to the user following the evacuation route. At this time, if the distance from the object corresponding to the character tag M15 (here, the station) to the current position is the longest, the character tag M15 is arranged at the uppermost position as shown in part b of FIG. M14 is arranged below the original position.
 以上のように、本実施形態においては、1以上の文字タグが同じ並び順で表示されている期間中、各文字タグはほぼ同じ位置(微小距離だけ移動し得る範囲内の位置)に固定された状態で表示される。但し、本発明はこれに限定されない。1以上の文字タグが同じ並び順で表示されている期間中、各文字タグの表示位置が完全に固定されても良いし、各文字タグが縦方向または横方向の一方のみに微小距離だけ移動し得るようにしても良い。これに関し、仮に文字タグが完全に固定された状態で表示されると、ユーザーが文字タグを例えばボタン(メニューボタン)と誤認することが懸念される。この点、文字タグが微小距離だけ移動し得るように構成されていると、例えばユーザーの動きに伴って文字タグがわずかに動くので、ユーザーによる上述のような誤認が防止される。 As described above, in the present embodiment, during a period in which one or more character tags are displayed in the same order, each character tag is fixed at substantially the same position (a position within a range that can be moved by a minute distance). It is displayed in the state. However, the present invention is not limited to this. During the period when one or more character tags are displayed in the same order, the display position of each character tag may be completely fixed, or each character tag may be moved by a minute distance in only one of the vertical and horizontal directions. You may make it possible. In this regard, if the character tag is displayed in a completely fixed state, there is a concern that the user misidentifies the character tag as, for example, a button (menu button). In this respect, if the character tag is configured to be able to move by a minute distance, for example, the character tag slightly moves with the movement of the user, so that the above-described misidentification by the user is prevented.
<3.4.3 風景映像中における文字タグの位置>
 ユーザーによって映像撮影部15を用いた風景映像の撮影が行われると、図40に示すように、映像表示領域18bの上方の領域(符号45で示す領域)には風景映像のうちの空の映像が表示されることが多い。このような空の映像が表示されている領域に各種情報が表示されたとしても、それらの各種情報は、ユーザーが画面を見ながら避難を行うに際して何ら妨げにはならないと考えられる。そこで、本実施形態においては、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。その際、上述したように、複数の文字タグが表示される場合には、それら複数の文字タグが互いに重なることのないように各文字タグの配置位置が決定される。
<3.4.3 Position of character tags in landscape video>
When a user captures a landscape image using the image capturing unit 15, as shown in FIG. 40, an empty image of the landscape image is displayed in the region above the image display region 18b (the region indicated by reference numeral 45). Is often displayed. Even if various kinds of information are displayed in the area where such an empty image is displayed, it is considered that the various kinds of information do not hinder the user from evacuating while looking at the screen. Therefore, in the present embodiment, a character tag is arranged in an area above the video display area 18b (an area where an empty video is displayed). At this time, as described above, when a plurality of character tags are displayed, the arrangement positions of the character tags are determined so that the plurality of character tags do not overlap each other.
<3.5 リンク線>
 次に、リンク線表示手段181によって表示部18に表示されるリンク線について詳しく説明する。
<3.5 Link line>
Next, the link line displayed on the display unit 18 by the link line display unit 181 will be described in detail.
<3.5.1 リンク線と文字タグとの位置関係>
 本実施形態においては、リンク線によってエアタグと文字タグとが結ばれるところ、リンク線の文字タグ側の端部は、文字タグの長手方向のほぼ中央部に配置される。従って、リンク線は、例えば図59に示すように表示される。このようにして全てのリンク線について一端部を文字タグの長手方向のほぼ中央部に配置することによって、例えば図60に示すように複数の文字タグM16~M18が表示されている場合に、ユーザーは、文字タグM16はリンク線LK16に対応し、文字タグM17はリンク線LK17に対応し、文字タグM18はリンク線LK18に対応しているということを容易に把握することができる。なお、必ずしもリンク線の文字タグ側の端部を文字タグの長手方向のほぼ中央部に配置する必要はない。例えば、リンク線の文字タグ側の端部を文字タグの長手方向の一端に配置しても良い。
<3.5.1 Position relationship between link line and character tag>
In the present embodiment, when the air tag and the character tag are connected by the link line, the end of the link line on the character tag side is arranged at the substantially central portion in the longitudinal direction of the character tag. Accordingly, the link line is displayed as shown in FIG. 59, for example. In this way, by arranging one end portion of all link lines at substantially the center portion in the longitudinal direction of the character tag, for example, when a plurality of character tags M16 to M18 are displayed as shown in FIG. It can be easily understood that the character tag M16 corresponds to the link line LK16, the character tag M17 corresponds to the link line LK17, and the character tag M18 corresponds to the link line LK18. Note that the end of the link line on the character tag side is not necessarily arranged at the substantially central portion in the longitudinal direction of the character tag. For example, the end of the link line on the character tag side may be arranged at one end in the longitudinal direction of the character tag.
<3.5.2 リンク線の色>
 本実施形態においては、各リンク線の色は、対応するエアタグの色および対応する文字タグの色と同じにされる。これにより、エアタグ,文字タグ,およびリンク線の対応関係を把握することがユーザーにとって容易となる。但し、本発明はこれに限定されず、リンク線の色を必ずしも対応するエアタグの色および対応する文字タグの色と同じにする必要はない。
<3.5.2 Link line color>
In this embodiment, the color of each link line is the same as the color of the corresponding air tag and the color of the corresponding character tag. This makes it easy for the user to grasp the correspondence between the air tag, the character tag, and the link line. However, the present invention is not limited to this, and the color of the link line is not necessarily the same as the color of the corresponding air tag and the color of the corresponding character tag.
<3.5.3 リンク線の描画>
 ユーザーによって携帯端末装置10の向きが変えられたり、あるいは、ユーザーが避難経路をたどることによって携帯端末装置10の位置が移動すると、映像表示領域18bに表示されているエアタグの位置が変化する。このようなエアタグの位置の変化にリンク線は追従する。すなわち、リンク線表示手段181は、映像表示領域18bに表示されているエアタグの位置の変化に応じて、リアルタイムでリンク線を描画する。
<3.5.3 Link line drawing>
When the orientation of the mobile terminal device 10 is changed by the user or when the position of the mobile terminal device 10 is moved by the user following the evacuation route, the position of the air tag displayed in the video display area 18b changes. The link line follows such a change in the position of the air tag. That is, the link line display means 181 draws the link line in real time according to the change in the position of the air tag displayed in the video display area 18b.
 例えば、或る時点において、エアタグA20,文字タグM20,およびリンク線LK20が図61のa部に示すように表示されていたと仮定する。ここで、例えばユーザーが進行方向を変えたことによって、映像表示領域18bにおいてエアタグA20の位置が図61のb部の符号51で示す矢印のように移動したとする。このとき、エアタグA20の位置の変化に従って、リンク線LK20は図61のa部に示す状態から図61のc部に示す状態に変化する。 For example, assume that at a certain point in time, the air tag A20, the character tag M20, and the link line LK20 are displayed as shown in part a of FIG. Here, for example, it is assumed that the position of the air tag A20 has moved as indicated by the arrow 51 in FIG. At this time, the link line LK20 changes from the state shown in part a of FIG. 61 to the state shown in part c of FIG. 61 according to the change in the position of the air tag A20.
 ところで、本実施形態に係る避難誘導システムでは、例えば現在位置から所定範囲内にある事物・事象を表すエアタグが映像表示領域18bに表示されるように、表示の設定が行われる。しかしながら、ユーザーの視野角の範囲外にある事物・事象については、たとえ現在位置から所定範囲内にあっても、当該事物・事象を表すエアタグは映像表示領域18bには表示されない。このような場合、本実施形態においては、エアタグに対応する文字タグについては映像表示領域18bに表示される。そして、映像表示領域18bに表示されている文字タグから映像表示領域18b外におけるエアタグの仮想的な表示位置へと伸びるようにリンク線が表示される。すなわち、文字タグに対応するエアタグの位置が映像表示領域18b外に存在するときの当該エアタグの位置を仮想表示位置と定義すると、リンク線表示手段181は、文字タグの表示位置から仮想表示位置へと伸びるようにリンク線を表示する。 By the way, in the evacuation guidance system according to the present embodiment, display setting is performed such that, for example, an air tag representing an object / event within a predetermined range from the current position is displayed in the video display area 18b. However, for things / events that are outside the range of the viewing angle of the user, even if they are within a predetermined range from the current position, the air tag representing the things / events is not displayed in the video display area 18b. In such a case, in this embodiment, the character tag corresponding to the air tag is displayed in the video display area 18b. Then, a link line is displayed so as to extend from the character tag displayed in the video display area 18b to the virtual display position of the air tag outside the video display area 18b. In other words, if the position of the air tag corresponding to the character tag is outside the video display area 18b and the position of the air tag is defined as the virtual display position, the link line display means 181 moves from the character tag display position to the virtual display position. A link line is displayed so as to extend.
 例えば、或る時点において、エアタグA21,文字タグM21,およびリンク線LK21が図62のa部に示すように表示されていたと仮定する。ここで、例えばユーザーが避難経路をたどったことによって、エアタグA21の位置が図62のb部の符号52で示す矢印のように移動したとする(移動後のエアタグA21の位置は、映像表示領域18b外の位置である)。このとき、エアタグA21の位置の変化に従って、リンク線LK21は図62のa部に示す状態から図62のc部に示す状態に変化する。 For example, assume that at a certain point in time, the air tag A21, the character tag M21, and the link line LK21 are displayed as shown in part a of FIG. Here, for example, when the user follows the evacuation route, the position of the air tag A21 moves as indicated by the arrow indicated by reference numeral 52 in FIG. 62b (the position of the air tag A21 after the movement is the video display area). 18b). At this time, the link line LK21 changes from the state shown in part a of FIG. 62 to the state shown in part c of FIG. 62 in accordance with the change in the position of the air tag A21.
<3.6 効果>
 本実施形態によれば、携帯端末装置10には、避難経路の探索を行う避難経路探索手段140と、避難経路を示す地図を地図表示領域18aに表示する地図表示手段150と、ユーザーが撮影している風景映像を表示する映像表示手段170と、避難経路の案内に供される情報としてのエアタグを風景映像に重ねて表示するエアタグ表示手段180と、避難経路の案内に供される情報としての文字タグを表示する文字タグ表示手段182と、エアタグと文字タグとを結ぶリンク線を表示するリンク線表示手段181とが設けられている。上記構成により、映像表示領域18bには、避難に有用な情報としてのエアタグおよび当該エアタグに対応する文字タグが風景映像とともに表示され、地図表示領域18aには、避難経路を示す地図が表示される。そして、エアタグと文字タグとがリンク線によって結ばれる。このため、各エアタグとそれに対応する文字タグとの対応関係の把握が容易になる。従って、ユーザーは、各文字タグがどのエアタグに関する説明をしているのかを容易に把握することが可能となる。また、各文字タグはほぼ同じ位置に固定された状態で表示される。このため、ユーザーの動きに伴う文字タグの表示位置のぶれが抑制される。これにより、ユーザーが移動しながらこの避難誘導アプリを使用していても、良好な視認性を有する画像がユーザーに提供される。以上より、本実施形態によれば、良好な視認性を有し、かつ、画面上に表示されている文字タグがどの事物・事象の説明をしているのかをユーザーが容易に把握することのできる避難誘導システムが実現される。
<3.6 Effects>
According to the present embodiment, the mobile terminal device 10 has an evacuation route search means 140 for searching for an evacuation route, a map display means 150 for displaying a map indicating the evacuation route in the map display area 18a, and a user taking a picture. Image display means 170 for displaying a landscape image, air tag display means 180 for displaying an air tag as information provided for evacuation route guidance superimposed on the landscape image, and information for evacuation route guidance. Character tag display means 182 for displaying a character tag and link line display means 181 for displaying a link line connecting the air tag and the character tag are provided. With the above configuration, an air tag as information useful for evacuation and a character tag corresponding to the air tag are displayed together with a landscape video in the video display area 18b, and a map indicating the evacuation route is displayed in the map display area 18a. . The air tag and the character tag are connected by a link line. For this reason, it becomes easy to grasp the correspondence between each air tag and the corresponding character tag. Therefore, the user can easily grasp which air tag each character tag is explaining. Each character tag is displayed in a state of being fixed at substantially the same position. For this reason, the fluctuation | variation of the display position of the character tag accompanying a user's movement is suppressed. Thereby, even if the user moves and uses the evacuation guidance application, an image having good visibility is provided to the user. As described above, according to the present embodiment, the user can easily understand which things / events the character tag displayed on the screen has good visibility and explain. A possible evacuation guidance system is realized.
 また、本実施形態によれば、文字タグ表示手段182が設けられていることにより、各エアタグの情報すなわち避難経路をたどる際に有用となる情報(例えば、火災が発生している詳細な場所の情報)を文字でユーザーに提供することが可能となる。これにより、災害発生時に、より詳細な情報がユーザーに提供され、ユーザーは安全かつ確実に避難することが可能となる。 In addition, according to the present embodiment, by providing the character tag display means 182, information useful for tracing the information of each air tag, that is, the evacuation route (for example, the detailed location where the fire has occurred). Information) can be provided to the user in text. Thereby, when a disaster occurs, more detailed information is provided to the user, and the user can evacuate safely and reliably.
 さらに、本実施形態によれば、互いに対応するエアタグ,文字タグ,およびリンク線は、全て同じ色になっている。このため、ユーザーは、エアタグ,文字タグ,およびリンク線の対応関係を容易に把握することができる。これにより、より速やかにユーザーを避難させることが可能となる。 Furthermore, according to this embodiment, the air tag, the character tag, and the link line corresponding to each other are all the same color. For this reason, the user can easily grasp the correspondence between the air tag, the character tag, and the link line. This makes it possible to evacuate the user more quickly.
 さらにまた、本実施形態によれば、映像表示領域18bの上方の領域(空の映像が表示されている領域)に文字タグが配置される。仮に文字タグを当該文字タグに対応するエアタグの近傍に配置した場合、図63のa部に示すように、風景映像中の建物や道路が表示されている領域にエアタグや文字タグが密に混在することとなる。このようにエアタグや文字タグが密に混在する映像は、ユーザーにとっては視認性の悪い映像である。また、避難に際して有用な情報が文字タグによって隠されてしまうことも懸念される。以上より、図63のa部に示すように文字タグが表示される場合、特に災害発生によってユーザーがパニック状態になっていると、ユーザーにとっては進行方向を迅速に正しく把握することが困難である。この点、本実施形態によれば、図63のb部に示すように、文字タグは映像表示領域18bの上方の領域(空の映像が表示されている領域)45に表示される。このため、映像表示領域18bにおいてエアタグと文字タグとが密に混在することはなく、また、有用な情報が文字タグによって隠されることもない。しかも、文字タグによって、エアタグで示されている事物(例えば避難所)・事象(例えば火災)に関する詳細な情報をユーザーに提供することができる。さらに、上述したようにエアタグと文字タグとがリンク線によって結ばれるので、たとえ文字タグがエアタグから離れた位置に表示されていても、ユーザーは文字タグとエアタグとの対応関係を容易に把握することが可能となる。 Furthermore, according to the present embodiment, the character tag is arranged in the area above the video display area 18b (area where an empty video is displayed). If a character tag is placed in the vicinity of an air tag corresponding to the character tag, as shown in part a of FIG. 63, the air tag and the character tag are closely mixed in the area where the buildings and roads are displayed in the landscape video. Will be. Thus, an image in which air tags and character tags are densely mixed is an image with poor visibility for the user. In addition, there is a concern that useful information during evacuation may be hidden by character tags. From the above, when a character tag is displayed as shown in part a of FIG. 63, it is difficult for the user to quickly and correctly grasp the direction of travel, especially when the user is in a panic due to a disaster. . In this regard, according to the present embodiment, as shown in part b of FIG. 63, the character tag is displayed in the area 45 above the video display area 18b (area where an empty video is displayed). For this reason, air tags and character tags are not mixed closely in the video display area 18b, and useful information is not hidden by the character tags. In addition, the character tag can provide the user with detailed information regarding an object (for example, a shelter) or an event (for example, a fire) indicated by the air tag. Furthermore, as described above, since the air tag and the character tag are connected by the link line, even if the character tag is displayed at a position away from the air tag, the user can easily grasp the correspondence between the character tag and the air tag. It becomes possible.
<3.7 変形例など>
<3.7.1 第1の変形例>
 上記第3の実施形態においては、文字タグは映像表示領域18bに表示されていた。しかしながら、本発明はこれに限定されない。本変形例においては、図64に示すように、地図表示領域18aや映像表示領域18bとは別に文字タグ専用の文字表示領域18cが設けられる。そして、その文字表示領域18cに全ての文字タグが表示される。
<3.7 Modifications, etc.>
<3.7.1 First Modification>
In the third embodiment, the character tag is displayed in the video display area 18b. However, the present invention is not limited to this. In this modification, as shown in FIG. 64, a character display area 18c dedicated to character tags is provided separately from the map display area 18a and the video display area 18b. All the character tags are displayed in the character display area 18c.
 本変形例においては、エアタグは映像表示領域18bに表示され、文字タグは文字表示領域18cに表示される。すなわち、エアタグと文字タグとは異なる領域に表示される。従って、エアタグと文字タグとが混在することはない。また、文字タグは文字タグ専用の領域に表示されるので、有用な情報が文字タグによって隠されることもない。さらに、上記第3の実施形態と同様、エアタグと文字タグとはリンク線によって結ばれるので、ユーザーは文字タグとエアタグとの対応関係を容易に把握することができる。 In this modification, the air tag is displayed in the video display area 18b, and the character tag is displayed in the character display area 18c. That is, the air tag and the character tag are displayed in different areas. Therefore, the air tag and the character tag are not mixed. In addition, since the character tag is displayed in an area dedicated to the character tag, useful information is not hidden by the character tag. Furthermore, since the air tag and the character tag are connected by a link line as in the third embodiment, the user can easily grasp the correspondence between the character tag and the air tag.
<3.7.2 第2の変形例>
 上記第3の実施形態においては、文字タグとエアタグとがリンク線によって結ばれていた。しかしながら、本発明はこれに限定されず、文字タグと地図表示領域18a内のランドマークとがリンク線によって結ばれるようにしても良い(本変形例の構成)。
<3.7.2 Second Modification>
In the third embodiment, the character tag and the air tag are connected by the link line. However, the present invention is not limited to this, and the character tag and the landmark in the map display area 18a may be connected by a link line (configuration of this modification).
 本変形例においては、リンク線表示手段181は、映像表示領域18bに表示される各文字タグの位置データと各文字タグに対応するランドマークの位置データとに基づいて、映像表示領域18b内の文字タグとそれに対応するランドマークとを結ぶリンク線を表示部18に表示する。これにより、例えば図65に示すように、映像表示領域18b内の文字タグと地図表示領域18a内のランドマークとがリンク線によって結ばれた画像が表示部18に表示される。 In this modification, the link line display means 181 is based on the position data of each character tag displayed in the video display area 18b and the position data of the landmark corresponding to each character tag. A link line connecting the character tag and the corresponding landmark is displayed on the display unit 18. Thereby, for example, as shown in FIG. 65, an image in which the character tag in the video display area 18b and the landmark in the map display area 18a are connected by the link line is displayed on the display unit 18.
<3.7.3 第3の変形例>
 上記第3の実施形態においては、文字タグとエアタグとがリンク線によって結ばれていた。また、上記第2の変形例においては、文字タグとランドマークとがリンク線によって結ばれていた。これに関し、各携帯端末装置10において、リンク線の一端をエアタグとランドマークとの間で切り替えることができるようにしても良い(本変形例の構成)。このような構成によれば、携帯端末装置10においてリンク線の一端をエアタグにする旨の設定が行われると、図66のa部に示すように、文字タグとエアタグとを結ぶリンク線が表示される。また、携帯端末装置10においてリンク線の一端をランドマークにする旨の設定が行われると、図66のb部に示すように、文字タグとランドマークとを結ぶリンク線が表示される。このようにして、ユーザーは、リンク線の接続先を必要に応じて切り替えることが可能となる。
<3.7.3 Third Modification>
In the third embodiment, the character tag and the air tag are connected by the link line. In the second modification, the character tag and the landmark are connected by a link line. In this regard, in each mobile terminal device 10, one end of the link line may be switched between the air tag and the landmark (configuration of the present modification). According to such a configuration, when setting that one end of the link line is to be an air tag in the mobile terminal device 10 is performed, the link line connecting the character tag and the air tag is displayed as shown in part a of FIG. Is done. Further, when setting is made to make one end of the link line a landmark in the mobile terminal device 10, a link line connecting the character tag and the landmark is displayed as shown in part b of FIG. In this way, the user can switch the connection destination of the link line as necessary.
<3.7.4 その他>
 上記第3の実施形態においては、表示部18の上方に地図表示領域18aが配置され、表示部18の下方に映像表示領域18bが配置されていた(図3などを参照)。しかしながら、本発明はこれに限定されず、図67に示すように、表示部18の下方に地図表示領域18aが配置され、表示部18の上方に映像表示領域18bが配置されていても良い。
<3.7.4 Other>
In the third embodiment, the map display region 18a is disposed above the display unit 18, and the video display region 18b is disposed below the display unit 18 (see FIG. 3 and the like). However, the present invention is not limited to this, and as shown in FIG. 67, a map display area 18 a may be disposed below the display section 18, and a video display area 18 b may be disposed above the display section 18.
<4.第1~第3の実施形態に関する事項>
 上記第1~第3の実施形態においては、本発明に係る経路案内装置が携帯端末装置10によって実現される例を示したが、本発明はこれに限定されない。例えば、ヘッドマウントディスプレイ(頭部装着型表示装置)のように携帯端末装置10以外の端末装置によって本発明に係る経路案内装置を実現することもできる。
<4. Matter concerning first to third embodiments>
In the first to third embodiments, the example in which the route guidance device according to the present invention is realized by the mobile terminal device 10 is shown, but the present invention is not limited to this. For example, the route guidance device according to the present invention can be realized by a terminal device other than the mobile terminal device 10 such as a head-mounted display (head-mounted display device).
 また、上記第1~第3の実施形態においては、避難誘導システムを例に挙げて説明したが、本発明はこれに限定されない。ユーザーに現在位置から目的地までの進行経路を案内するための一般的なナビゲーションシステムにも、本発明を適用することができる。 In the first to third embodiments, the evacuation guidance system has been described as an example, but the present invention is not limited to this. The present invention can also be applied to a general navigation system for guiding a travel route from a current position to a destination to a user.
 また、上記第1~第3の実施形態において、アプリを実現するプログラムは、インターネットなどの通信回線を介したダウンロードの形態で携帯端末装置等に提供されていた。これに関し、アプリを実現するプログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で携帯端末装置等に提供されても良い。ここで、記録媒体は、例えば非一過性の記録媒体である。非一過性の記録媒体としては、CD-ROM、DVD-ROMなどが挙げられる。 In the first to third embodiments, the program for realizing the application is provided to the mobile terminal device or the like in the form of download via a communication line such as the Internet. In this regard, a program for realizing an application may be provided to a mobile terminal device or the like in a form stored in a computer-readable recording medium. Here, the recording medium is, for example, a non-transitory recording medium. Examples of non-transitory recording media include CD-ROM and DVD-ROM.
 10…携帯端末装置
 18…表示部
 18a…地図表示領域
 18b…映像表示領域
 20…サーバ
 40…マスク画像
 130…データ記憶手段
 140…避難経路探索手段
 150…地図表示手段
 152…ランドマーク表示手段
 170…映像表示手段
 180…エアタグ表示手段
 181…リンク線表示手段
 182…文字タグ表示手段
 190…風景映像マスク手段
DESCRIPTION OF SYMBOLS 10 ... Portable terminal device 18 ... Display part 18a ... Map display area 18b ... Video display area 20 ... Server 40 ... Mask image 130 ... Data storage means 140 ... Evacuation route search means 150 ... Map display means 152 ... Landmark display means 170 ... Image display means 180 ... Air tag display means 181 ... Link line display means 182 ... Character tag display means 190 ... Landscape image mask means

Claims (77)

  1.  目的地までの進行経路を案内するための経路案内装置であって、
     利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
     所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
     前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示手段によって表示されている撮影映像に重ねて表示する拡張現実画像表示手段と、
     前記映像表示領域において、前記経路探索手段によって得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示手段と
    を備え、
     前記マスク画像表示手段は、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像を前記マスク画像よりも前面に配置することを特徴とする、経路案内装置。
    A route guidance device for guiding a travel route to a destination,
    A route search means for searching for a route to the destination based on a condition input by the user;
    Video display means for displaying a video being shot in a predetermined video display area;
    Augmented reality image display means for displaying an augmented reality image as information provided for guidance of a travel route in the video display area so as to be superimposed on the captured video displayed by the video display means;
    A mask image display means for displaying a mask image for partially hiding the photographed video on at least one of the left side or the right side of the travel route obtained by the route search means in the video display area;
    The mask image display means arranges the augmented reality image in front of the mask image when the mask image and the augmented reality image overlap in the video display area. .
  2.  前記マスク画像表示手段は、前記マスク画像として半透明の画像を表示することを特徴とする、請求項1に記載の経路案内装置。 The route guidance device according to claim 1, wherein the mask image display means displays a translucent image as the mask image.
  3.  前記マスク画像表示手段は、前記映像表示領域において、前記経路探索手段によって得られた進行経路の左側および右側の双方に前記マスク画像を表示することを特徴とする、請求項1または2に記載の経路案内装置。 The said mask image display means displays the said mask image on both the left side and the right side of the advancing path | route obtained by the said route search means in the said image | video display area. Route guidance device.
  4.  前記マスク画像表示手段は、前記経路探索手段によって得られた進行経路が前記映像表示領域において曲がっている場合には、当該進行経路が曲がっている方向に配置されるマスク画像については当該進行経路の折れ曲がり地点よりも手前側の撮影映像のみを隠すように、前記マスク画像を表示することを特徴とする、請求項1から3までのいずれか1項に記載の経路案内装置。 When the travel route obtained by the route search unit is bent in the video display area, the mask image display unit is configured to display a mask image arranged in a direction in which the travel route is bent. The route guidance device according to any one of claims 1 to 3, wherein the mask image is displayed so as to hide only a captured image on the near side of the folding point.
  5.  前記マスク画像表示手段は、前記映像表示領域において縦方向の幅が前記経路探索手段によって得られた進行経路の進行方向に向かって徐々に狭くなるような画像を前記マスク画像として表示することを特徴とする、請求項1から4までのいずれか1項に記載の経路案内装置。 The mask image display means displays, as the mask image, an image whose width in the vertical direction in the video display area is gradually narrowed toward the traveling direction of the traveling path obtained by the path searching means. The route guidance device according to any one of claims 1 to 4.
  6.  前記マスク画像表示手段は、現在位置と前記経路探索手段によって得られた進行経路とに基づいて透視変換によって得られる画像を前記マスク画像として表示することを特徴とする、請求項5に記載の経路案内装置。 6. The route according to claim 5, wherein the mask image display means displays an image obtained by perspective transformation based on a current position and a travel route obtained by the route search means as the mask image. Guide device.
  7.  前記マスク画像の端部のうち前記経路探索手段によって得られた進行経路の進行方向側の端部の形状は、矢印状であることを特徴とする、請求項1から6までのいずれか1項に記載の経路案内装置。 The shape of the end portion on the traveling direction side of the traveling route obtained by the route searching means among the end portions of the mask image is an arrow shape, according to any one of claims 1 to 6. The route guidance device described in 1.
  8.  前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする、請求項1から7までのいずれか1項に記載の経路案内装置。
     H×0.5<Wmax
    8. The following formula is established, where H is a vertical width of the video display area, and Wmax is a maximum vertical width of the mask image. The route guidance device according to claim 1.
    H × 0.5 <Wmax
  9.  前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする、請求項1から7までのいずれか1項に記載の経路案内装置。
     H×0.2>Wmax
    8. The following formula is established, where H is a vertical width of the video display area, and Wmax is a maximum vertical width of the mask image. The route guidance device according to claim 1.
    H × 0.2> Wmax
  10.  前記拡張現実画像表示手段は、前記拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を表示することを特徴とする、請求項1から9までのいずれか1項に記載の経路案内装置。 10. The augmented reality image display means displays an arrow-shaped image representing a travel route obtained by the route search means as one of the augmented reality images. The route guidance device according to claim 1.
  11.  前記マスク画像表示手段は、前記矢印状の画像と前記マスク画像とが重なることのないように、前記マスク画像を前記映像表示領域に表示することを特徴とする、請求項10に記載の経路案内装置。 The route guidance according to claim 10, wherein the mask image display means displays the mask image in the video display area so that the arrow-shaped image and the mask image do not overlap. apparatus.
  12.  前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする、請求項1から11までのいずれか1項に記載の経路案内装置。 The route search means searches for an evacuation route to a evacuation destination as a destination and the evacuation route using information on roads and evacuation centers. The route guidance device according to item.
  13.  目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
     前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示ステップによって表示されている撮影映像に重ねて表示する拡張現実画像表示ステップと、
     前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示ステップと
    を含み、
     前記マスク画像表示ステップでは、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像が前記マスク画像よりも前面に配置されることを特徴とする、経路案内方法。
    A route guidance method for guiding a travel route to a destination using a terminal device,
    A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    In the video display area, an augmented reality image display step of displaying an augmented reality image as information to be used for guidance of a travel route superimposed on the captured video displayed by the video display step;
    A mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left side and the right side of the travel route obtained in the route search step in the video display region,
    In the mask image display step, when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image. Method.
  14.  目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
     前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     前記映像表示領域において、進行経路の案内に供される情報としての拡張現実画像を前記映像表示ステップによって表示されている撮影映像に重ねて表示する拡張現実画像表示ステップと、
     前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側または右側の少なくとも一方に前記撮影映像を部分的に隠すためのマスク画像を表示するマスク画像表示ステップと
    を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
     前記マスク画像表示ステップでは、前記映像表示領域において前記マスク画像と前記拡張現実画像とが重なる場合には、前記拡張現実画像が前記マスク画像よりも前面に配置されることを特徴とする、経路案内プログラム。
    A route guidance program executed by a terminal device for guiding a traveling route to a destination,
    A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    In the video display area, an augmented reality image display step of displaying an augmented reality image as information to be used for guidance of a travel route superimposed on the captured video displayed by the video display step;
    In the video display area, the terminal device includes a mask image display step for displaying a mask image for partially hiding the captured video on at least one of the left and right sides of the travel route obtained in the route search step. CPU of the computer to be executed using the memory,
    In the mask image display step, when the mask image and the augmented reality image overlap in the video display area, the augmented reality image is arranged in front of the mask image. program.
  15.  前記マスク画像表示ステップでは、前記マスク画像として半透明の画像が表示されることを特徴とする、請求項14に記載の経路案内プログラム。 15. The route guidance program according to claim 14, wherein in the mask image display step, a translucent image is displayed as the mask image.
  16.  前記マスク画像表示ステップでは、前記映像表示領域において、前記経路探索ステップで得られた進行経路の左側および右側の双方に前記マスク画像が表示されることを特徴とする、請求項14または15に記載の経路案内プログラム。 16. The mask image display step according to claim 14 or 15, wherein the mask image is displayed on both the left side and the right side of the travel route obtained in the route search step in the video display area. Route guidance program.
  17.  前記マスク画像表示ステップでは、前記経路探索ステップで得られた進行経路が前記映像表示領域において曲がっている場合には、当該進行経路が曲がっている方向に配置されるマスク画像については当該進行経路の折れ曲がり地点よりも手前側の撮影映像のみを隠すように、前記マスク画像が表示されることを特徴とする、請求項14から16までのいずれか1項に記載の経路案内プログラム。 In the mask image display step, when the travel route obtained in the route search step is bent in the video display area, the mask image arranged in the direction in which the travel route is bent The route guidance program according to any one of claims 14 to 16, wherein the mask image is displayed so as to hide only a photographed image in front of the bent point.
  18.  前記マスク画像表示ステップでは、前記映像表示領域において縦方向の幅が前記経路探索ステップで得られた進行経路の進行方向に向かって徐々に狭くなるような画像が前記マスク画像として表示されることを特徴とする、請求項14から17までのいずれか1項に記載の経路案内プログラム。 In the mask image display step, an image is displayed as the mask image such that the vertical width in the video display region gradually narrows toward the traveling direction of the traveling path obtained in the path searching step. The route guidance program according to any one of claims 14 to 17, characterized in that it is a feature.
  19.  前記マスク画像表示ステップでは、現在位置と前記経路探索ステップで得られた進行経路とに基づいて透視変換によって得られる画像が前記マスク画像として表示されることを特徴とする、請求項18に記載の経路案内プログラム。 19. The mask image display step according to claim 18, wherein an image obtained by perspective transformation based on a current position and a travel route obtained in the route search step is displayed as the mask image. Route guidance program.
  20.  前記マスク画像の端部のうち前記経路探索ステップで得られた進行経路の進行方向側の端部の形状は、矢印状であることを特徴とする、請求項14から19までのいずれか1項に記載の経路案内プログラム。 20. The shape of the end portion on the traveling direction side of the traveling route obtained in the route searching step among the end portions of the mask image is an arrow shape. The route guidance program described in 1.
  21.  前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする、請求項14から20までのいずれか1項に記載の経路案内プログラム。
     H×0.5<Wmax
    21. The following expression is established, where H is a vertical width of the video display area, and Wmax is a maximum vertical width of the mask image. The route guidance program according to claim 1.
    H × 0.5 <Wmax
  22.  前記映像表示領域の縦方向の幅をHとし、前記マスク画像の縦方向の幅の最大値をWmaxとしたとき、下記の式が成立することを特徴とする、請求項14から20までのいずれか1項に記載の経路案内プログラム。
     H×0.2>Wmax
    21. The following expression is established, where H is a vertical width of the video display area, and Wmax is a maximum vertical width of the mask image. The route guidance program according to claim 1.
    H × 0.2> Wmax
  23.  前記拡張現実画像表示ステップでは、前記拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が表示されることを特徴とする、請求項14から22までのいずれか1項に記載の経路案内プログラム。 23. In the augmented reality image display step, an arrow-shaped image representing a travel route obtained in the route search step is displayed as one of the augmented reality images. The route guidance program according to any one of the above items.
  24.  前記マスク画像表示ステップでは、前記矢印状の画像と前記マスク画像とが重なることのないように、前記マスク画像が前記映像表示領域に表示されることを特徴とする、請求項23に記載の経路案内プログラム。 The route according to claim 23, wherein in the mask image display step, the mask image is displayed in the video display area so that the arrow-shaped image and the mask image do not overlap. Information program.
  25.  前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする、請求項14から24までのいずれか1項に記載の経路案内プログラム。 25. The route search step according to any one of claims 14 to 24, characterized in that a search for an evacuation route to a destination and the evacuation route to the evacuation site is performed using road and evacuation site information. The route guidance program according to item 1.
  26.  目的地までの進行経路を案内するための経路案内装置であって、
     利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
     所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
     前記経路探索手段によって得られた進行経路を示す地図を所定の地図表示領域に表示する地図表示手段と、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
     前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示手段と
    を備えることを特徴とする、経路案内装置。
    A route guidance device for guiding a travel route to a destination,
    A route search means for searching for a route to the destination based on a condition input by the user;
    Video display means for displaying a video being shot in a predetermined video display area;
    Map display means for displaying a map showing a traveling route obtained by the route search means in a predetermined map display area;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
    A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area A route guidance device comprising link line display means for displaying
  27.  前記リンク線表示手段は、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする、請求項26に記載の経路案内装置。 The link line display means displays each link line so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. 27. The route guidance device according to claim 26, wherein the route guidance device is displayed.
  28.  前記リンク線表示手段は、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする、請求項26または27に記載の経路案内装置。 The link line display means draws the link line in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. The route guidance device according to claim 26 or 27, wherein:
  29.  前記第1の拡張現実画像表示手段は、前記第1の拡張現実画像の1つとして、前記経路探索手段によって得られた進行経路を表す矢印状の画像を前記映像表示領域に表示し、
     前記リンク線表示手段は、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線を表示することを特徴とする、請求項26から28までのいずれか1項に記載の経路案内装置。
    The first augmented reality image display means displays an arrow-like image representing the travel route obtained by the route search means as one of the first augmented reality images in the video display area,
    29. The link line display unit according to any one of claims 26 to 28, wherein the link line display means displays a link line that connects the arrow-shaped image and the travel route displayed in the map display area. The route guidance apparatus described.
  30.  前記地図表示手段は、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークを表示し、
     前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする、請求項26から29までのいずれか1項に記載の経路案内装置。
    The map display means is configured to position the first augmented reality at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area. Display the landmark corresponding to the image,
    30. The method according to claim 26, wherein the first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line. The route guidance device according to claim 1.
  31.  進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示手段を更に備えることを特徴とする、請求項26から30までのいずれか1項に記載の経路案内装置。 A second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line. The route guidance device according to any one of claims 26 to 30, further comprising second augmented reality image display means for displaying.
  32.  前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする、請求項31に記載の経路案内装置。 32. The route guidance according to claim 31, wherein the second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region. apparatus.
  33.  前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする、請求項32に記載の経路案内装置。 The said 2nd augmented reality image display means displays the said 2nd augmented reality image in the area | region where the image | video equivalent to the sky of the said imaging | video images is displayed. Route guidance device.
  34.  前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする、請求項31から33までのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. The route guidance device according to any one of claims 31 to 33, wherein a real image is arranged.
  35.  前記第2の拡張現実画像表示手段は、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像を表示することを特徴とする、請求項31から34までのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the second augmented reality image so that an end of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. The route guidance device according to any one of claims 31 to 34, characterized in that the route guidance device is displayed.
  36.  前記第2の拡張現実画像表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする、請求項31から35までのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays each second augmented reality image so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. The route guidance device according to any one of claims 31 to 35, wherein:
  37.  前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする、請求項31から36までのいずれか1項に記載の経路案内装置。 The route search means searches for an evacuation route to a destination and the evacuation route to the evacuation site using information on roads and evacuation centers. The route guidance device according to item.
  38.  目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
     前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
     前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
    を含むことを特徴とする、経路案内方法。
    A route guidance method for guiding a travel route to a destination using a terminal device,
    A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
    A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area And a link line display step for displaying a route guidance method.
  39.  目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
     前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     前記経路探索ステップで得られた進行経路を示す地図を前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
     前記映像表示領域に表示されている第1の拡張現実画像と、前記地図表示領域に表示されている地図上の位置のうちの当該第1の拡張現実画像に対応付けられる位置とを結ぶリンク線を表示するリンク線表示ステップと
    を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行することを特徴とする、経路案内プログラム。
    A route guidance program executed by a terminal device for guiding a traveling route to a destination,
    A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    A map display step for displaying a map indicating the travel route obtained in the route search step in a predetermined map display area of the terminal device;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
    A link line connecting the first augmented reality image displayed in the video display area and the position associated with the first augmented reality image among the positions on the map displayed in the map display area A route guide program for displaying a link line is displayed by a CPU of a computer included in the terminal device using a memory.
  40.  前記リンク線表示ステップでは、前記映像表示領域に表示されている任意の第1の拡張現実画像と当該第1の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする、請求項39に記載の経路案内プログラム。 In the link line display step, each link line is set so that an arbitrary first augmented reality image displayed in the video display area and a link line corresponding to the first augmented reality image have the same color. 40. The route guidance program according to claim 39, wherein the route guidance program is displayed.
  41.  前記リンク線表示ステップでは、前記地図表示領域に表示されている地図の変化および前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする、請求項39または40に記載の経路案内プログラム。 In the link line display step, the link line is drawn in real time according to a change in the map displayed in the map display area and a change in the position of the first augmented reality image displayed in the video display area. 41. The route guidance program according to claim 39 or 40, wherein:
  42.  前記第1の拡張現実画像表示ステップでは、前記第1の拡張現実画像の1つとして、前記経路探索ステップで得られた進行経路を表す矢印状の画像が前記映像表示領域に表示され、
     前記リンク線表示ステップでは、前記矢印状の画像と前記地図表示領域に表示されている進行経路とを結ぶリンク線が表示されることを特徴とする、請求項39から41までのいずれか1項に記載の経路案内プログラム。
    In the first augmented reality image display step, as one of the first augmented reality images, an arrow-shaped image representing the travel route obtained in the route search step is displayed in the video display area,
    42. The link line displaying step displays a link line connecting the arrow-shaped image and the travel route displayed in the map display area. The route guidance program described in 1.
  43.  前記地図表示ステップでは、前記地図表示領域に表示されている地図上の位置のうちの前記映像表示領域に表示されている第1の拡張現実画像に対応付けられる位置に、当該第1の拡張現実画像に対応するランドマークが表示され、
     前記映像表示領域に表示されている第1の拡張現実画像と当該第1の拡張現実画像に対応するランドマークとが前記リンク線で結ばれることを特徴とする、請求項39から42までのいずれか1項に記載の経路案内プログラム。
    In the map display step, the first augmented reality is located at a position associated with the first augmented reality image displayed in the video display area among positions on the map displayed in the map display area. The landmark corresponding to the image is displayed,
    The first augmented reality image displayed in the video display area and a landmark corresponding to the first augmented reality image are connected by the link line. The route guidance program according to claim 1.
  44.  進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を前記リンク線と対応付けて表示する第2の拡張現実画像表示ステップを更に含むことを特徴とする、請求項39から43までのいずれか1項に記載の経路案内プログラム。 A second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guidance of the travel route, is associated with the link line. The route guidance program according to any one of claims 39 to 43, further comprising a second augmented reality image display step of displaying.
  45.  前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項44に記載の経路案内プログラム。 45. The path according to claim 44, wherein, in the second augmented reality image display step, the second augmented reality image is displayed in a region above a central portion of the video display region. Information program.
  46.  前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項45に記載の経路案内プログラム。 46. In the second augmented reality image display step, the second augmented reality image is displayed in an area where an image corresponding to the sky of the photographed images is displayed. The described route guidance program.
  47.  前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする、請求項44から46までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. The route guidance program according to any one of claims 44 to 46, wherein an augmented reality image is arranged.
  48.  前記第2の拡張現実画像表示ステップでは、前記第2の拡張現実画像の端部が当該第2の拡張現実画像に対応するリンク線の近傍に位置するように、前記第2の拡張現実画像が表示されることを特徴とする、請求項44から47までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, the second augmented reality image is positioned such that an end portion of the second augmented reality image is positioned in the vicinity of a link line corresponding to the second augmented reality image. The route guidance program according to any one of claims 44 to 47, wherein the route guidance program is displayed.
  49.  前記第2の拡張現実画像表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする、請求項44から48までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, each second augmented reality image is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. 49. The route guidance program according to any one of claims 44 to 48, wherein:
  50.  前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする、請求項39から49までのいずれか1項に記載の経路案内プログラム。 50. The route search step according to any one of claims 39 to 49, wherein the search for the evacuation route to the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site. The route guidance program according to item 1.
  51.  目的地までの進行経路を案内するための経路案内装置であって、
     利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索手段と、
     所定の映像表示領域に撮影中の映像を表示する映像表示手段と、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示手段によって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示手段と、
     進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示手段と、
     前記経路探索手段によって得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを所定の地図表示領域に表示する地図表示手段と、
     一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示手段と
    を備え、
     前記第2の拡張現実画像表示手段は、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像を微小距離だけ移動し得る範囲内の位置に表示することを特徴とする、経路案内装置。
    A route guidance device for guiding a travel route to a destination,
    A route search means for searching for a route to the destination based on a condition input by the user;
    Video display means for displaying a video being shot in a predetermined video display area;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured video displayed by the video display means. 1 augmented reality image display means;
    A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. Image display means;
    Map display means for displaying in a predetermined map display area a map indicating the travel route obtained by the route search means and a landmark corresponding to the second augmented reality image;
    Link line display means for displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
    The second augmented reality image display means has a range in which each second augmented reality image can be moved by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. A route guidance device, characterized by being displayed at a position.
  52.  前記リンク線表示手段は、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする、請求項51に記載の経路案内装置。 52. The route guidance device according to claim 51, wherein the link line display means can switch one end of the link line between the first augmented reality image and the landmark.
  53.  前記リンク線表示手段は、
      一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線を表示し、
      前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線を描画することを特徴とする、請求項51に記載の経路案内装置。
    The link line display means includes
    Displaying a link line having one end as the first augmented reality image and the other end as the second augmented reality image;
    52. The route guidance device according to claim 51, wherein the link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
  54.  前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示手段は、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線を描画することを特徴とする、請求項53に記載の経路案内装置。 When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line 54. The route guidance device according to claim 53, wherein the display unit draws the link line so as to extend from a display position of the second augmented reality image to the virtual display position.
  55.  1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする、請求項51から54までのいずれか1項に記載の経路案内装置。 52. The display position of each second augmented reality image is completely fixed during a period in which one or more of the second augmented reality images are displayed in the same arrangement order. 55. The route guidance device according to any one of items up to 54.
  56.  1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする、請求項51から54までのいずれか1項に記載の経路案内装置。 During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. The route guidance device according to any one of claims 51 to 54.
  57.  前記第2の拡張現実画像表示手段は、複数の第2の拡張現実画像を表示する際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像を配置することを特徴とする、請求項51から56までのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the plurality of second augmented reality images so that any two second augmented reality images do not overlap each other when displaying the plurality of second augmented reality images. The route guidance device according to any one of claims 51 to 56, wherein a real image is arranged.
  58.  前記第2の拡張現実画像表示手段は、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像を表示することを特徴とする、請求項51から57までのいずれか1項に記載の経路案内装置。 The second augmented reality image display means displays the second augmented reality image in a region above a central portion of the video display region. The route guidance device according to claim 1.
  59.  前記第2の拡張現実画像表示手段は、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像を表示することを特徴とする、請求項58に記載の経路案内装置。 59. The second augmented reality image display means displays the second augmented reality image in an area where an image corresponding to the sky of the photographed image is displayed. Route guidance device.
  60.  前記第2の拡張現実画像表示手段は、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像を表示することを特徴とする、請求項51から59までのいずれか1項に記載の経路案内装置。 52. The second augmented reality image display means displays the second augmented reality image in a character display area provided separately from the video display area and the map display area. 56. The route guidance device according to any one of items 1 to 59.
  61.  前記リンク線表示手段は、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線を表示することを特徴とする、請求項51から60までのいずれか1項に記載の経路案内装置。 The link line display means displays each link line so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color. Item 51. The route guidance device according to any one of Items 51 to 60.
  62.  前記第2の拡張現実画像表示手段は、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像を表示することを特徴とする、請求項61に記載の経路案内装置。 The second augmented reality image display means is configured so that each first augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. 62. The route guidance device according to claim 61, which displays a real image.
  63.  前記経路探索手段は、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索を行うことを特徴とする、請求項51から62までのいずれか1項に記載の経路案内装置。 63. The route search means according to any one of claims 51 to 62, wherein the route search means searches for an evacuation route that is a destination and an evacuation route to the evacuation site using road and evacuation site information. The route guidance device according to item.
  64.  目的地までの進行経路を端末装置を用いて案内する経路案内方法であって、
     前記端末装置の利用者によって入力される条件に基づいて、前記端末装置が目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
     前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
     一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
    を含み、
     前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示されることを特徴とする、経路案内方法。
    A route guidance method for guiding a travel route to a destination using a terminal device,
    A route search step in which the terminal device searches for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
    A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
    A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
    A link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image;
    In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. A route guidance method, characterized by being displayed at a position.
  65.  目的地までの進行経路を案内するための、端末装置で実行される経路案内プログラムであって、
     前記端末装置の利用者によって入力される条件に基づいて、目的地までの進行経路の探索を行う経路探索ステップと、
     前記端末装置の所定の映像表示領域に撮影中の映像を表示する映像表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの図形で表される画像である第1の拡張現実画像を、前記映像表示ステップによって表示されている撮影映像に重ねて表示する第1の拡張現実画像表示ステップと、
     進行経路の案内に供される情報を表す拡張現実画像のうちの文字で表される画像であって前記第1の拡張現実画像に対応する第2の拡張現実画像を表示する第2の拡張現実画像表示ステップと、
     前記経路探索ステップで得られた進行経路を示す地図および前記第2の拡張現実画像に対応するランドマークを前記端末装置の所定の地図表示領域に表示する地図表示ステップと、
     一端を前記第1の拡張現実画像または前記ランドマークの少なくとも一方とし、他端を前記第2の拡張現実画像とするリンク線を表示するリンク線表示ステップと
    を前記端末装置に含まれるコンピュータのCPUがメモリを利用して実行し、
     前記第2の拡張現実画像表示ステップでは、1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は微小距離だけ移動し得る範囲内の位置に表示されることを特徴とする、経路案内プログラム。
    A route guidance program executed by a terminal device for guiding a traveling route to a destination,
    A route search step for searching for a travel route to a destination based on a condition input by a user of the terminal device;
    A video display step of displaying a video being shot in a predetermined video display area of the terminal device;
    A first augmented reality image, which is an image represented by a graphic of the augmented reality image representing the information provided for the guidance of the travel route, is displayed in a superimposed manner on the captured image displayed in the image display step. 1 augmented reality image display step;
    A second augmented reality that displays a second augmented reality image corresponding to the first augmented reality image, which is an image represented by characters in the augmented reality image representing information used for guiding the travel route. An image display step;
    A map display step for displaying a map indicating the travel route obtained in the route search step and a landmark corresponding to the second augmented reality image in a predetermined map display region of the terminal device;
    The CPU of the computer included in the terminal device includes a link line display step of displaying a link line having one end as at least one of the first augmented reality image or the landmark and the other end as the second augmented reality image. Runs using memory,
    In the second augmented reality image display step, each of the second augmented reality images is within a range in which the second augmented reality image can move by a minute distance during a period in which one or more second augmented reality images are displayed in the same order. A route guidance program characterized by being displayed at a position.
  66.  前記リンク線表示ステップでは、前記リンク線の一端を前記第1の拡張現実画像と前記ランドマークとの間で切り替えることができることを特徴とする、請求項65に記載の経路案内プログラム。 66. The route guidance program according to claim 65, wherein in the link line display step, one end of the link line can be switched between the first augmented reality image and the landmark.
  67.  前記リンク線表示ステップでは、
      一端を前記第1の拡張現実画像とし、他端を前記第2の拡張現実画像とするリンク線が表示され、
      前記映像表示領域に表示されている第1の拡張現実画像の位置の変化に応じて、リアルタイムで前記リンク線が描画されることを特徴とする、請求項65に記載の経路案内プログラム。
    In the link line display step,
    A link line having one end as the first augmented reality image and the other end as the second augmented reality image is displayed,
    66. The route guidance program according to claim 65, wherein the link line is drawn in real time according to a change in the position of the first augmented reality image displayed in the video display area.
  68.  前記第2の拡張現実画像に対応する第1の拡張現実画像の位置が前記映像表示領域外に存在するときの当該第1の拡張現実画像の位置を仮想表示位置と定義したとき、前記リンク線表示ステップでは、前記第2の拡張現実画像の表示位置から前記仮想表示位置へと伸びるように前記リンク線が描画されることを特徴とする、請求項67に記載の経路案内プログラム。 When the position of the first augmented reality image when the position of the first augmented reality image corresponding to the second augmented reality image exists outside the video display area is defined as a virtual display position, the link line 68. The route guidance program according to claim 67, wherein in the display step, the link line is drawn so as to extend from the display position of the second augmented reality image to the virtual display position.
  69.  1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像の表示位置は、完全に固定されていることを特徴とする、請求項65から68までのいずれか1項に記載の経路案内プログラム。 66. The display position of each second augmented reality image is completely fixed during a period in which one or more of the second augmented reality images are displayed in the same arrangement order. The route guidance program according to any one of up to 68.
  70.  1以上の前記第2の拡張現実画像が同じ並び順で表示されている期間中、各第2の拡張現実画像は、縦方向または横方向の一方のみに微小距離だけ移動し得ることを特徴とする、請求項65から68までのいずれか1項に記載の経路案内プログラム。 During a period in which one or more second augmented reality images are displayed in the same order, each second augmented reality image can move only a minute distance in one of the vertical direction and the horizontal direction. 69. The route guidance program according to any one of claims 65 to 68.
  71.  前記第2の拡張現実画像表示ステップでは、複数の第2の拡張現実画像が表示される際、任意の2つの第2の拡張現実画像が互いに重なることのないように、前記複数の第2の拡張現実画像が配置されることを特徴とする、請求項65から70までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, when the plurality of second augmented reality images are displayed, the plurality of second augmented reality images are prevented from overlapping each other. The route guidance program according to any one of claims 65 to 70, wherein an augmented reality image is arranged.
  72.  前記第2の拡張現実画像表示ステップでは、前記映像表示領域のうちの中央部よりも上方の領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項65から71までのいずれか1項に記載の経路案内プログラム。 In the second augmented reality image display step, the second augmented reality image is displayed in a region above a central portion of the video display region. The route guidance program according to any one of the above items.
  73.  前記第2の拡張現実画像表示ステップでは、前記撮影映像のうちの空に相当する映像が表示されている領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項72までのいずれか1項に記載の経路案内プログラム。 75. In the second augmented reality image display step, the second augmented reality image is displayed in a region where a video corresponding to the sky of the photographed video is displayed. The route guidance program according to any one of the above.
  74.  前記第2の拡張現実画像表示ステップでは、前記映像表示領域および前記地図表示領域とは別に設けられている文字表示領域に前記第2の拡張現実画像が表示されることを特徴とする、請求項65から73までのいずれか1項に記載の経路案内プログラム。 The second augmented reality image display step displays the second augmented reality image in a character display area provided separately from the video display area and the map display area. The route guidance program according to any one of 65 to 73.
  75.  前記リンク線表示ステップでは、任意の第2の拡張現実画像と当該第2の拡張現実画像に対応するリンク線とが同じ色になるように、各リンク線が表示されることを特徴とする、請求項65から74までのいずれか1項に記載の経路案内プログラム。 In the link line display step, each link line is displayed so that an arbitrary second augmented reality image and a link line corresponding to the second augmented reality image have the same color, The route guidance program according to any one of claims 65 to 74.
  76.  前記第2の拡張現実画像表示ステップでは、任意の第1の拡張現実画像と当該第1の拡張現実画像に対応する第2の拡張現実画像とが同じ色になるように、各第2の拡張現実画像が表示されることを特徴とする、請求項75に記載の経路案内プログラム。 In the second augmented reality image display step, each second augmented reality image and each second augmented reality image corresponding to the first augmented reality image have the same color. The route guidance program according to claim 75, wherein a real image is displayed.
  77.  前記経路探索ステップでは、道路および避難所の情報を用いて、目的地である避難所と当該避難所までの避難経路の探索が行われることを特徴とする、請求項65から76までのいずれか1項に記載の経路案内プログラム。 77. The route search step according to any one of claims 65 to 76, wherein the search for the evacuation route as the destination and the evacuation route to the evacuation site is performed using information on the road and the evacuation site. The route guidance program according to item 1.
PCT/JP2015/062083 2014-05-28 2015-04-21 Route guidance device, route guidance method, and route guidance program WO2015182290A1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2014-110320 2014-05-28
JP2014-110321 2014-05-28
JP2014110320A JP2015224981A (en) 2014-05-28 2014-05-28 Apparatus, method, and program for route guidance
JP2014110321A JP2015224982A (en) 2014-05-28 2014-05-28 Apparatus, method, and program for route guidance
JP2014129855A JP6228516B2 (en) 2014-06-25 2014-06-25 Route guidance device, route guidance method, and route guidance program
JP2014-129855 2014-06-25

Publications (1)

Publication Number Publication Date
WO2015182290A1 true WO2015182290A1 (en) 2015-12-03

Family

ID=54698631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062083 WO2015182290A1 (en) 2014-05-28 2015-04-21 Route guidance device, route guidance method, and route guidance program

Country Status (1)

Country Link
WO (1) WO2015182290A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106023621A (en) * 2016-07-22 2016-10-12 山东交通学院 Urban intelligent traffic guidance method based on RFID and WeChat platform
JP2017067457A (en) * 2015-09-28 2017-04-06 株式会社Screenホールディングス Route guidance device, route guidance system, route guidance method and route guidance program
CN109427219A (en) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 Take precautions against natural calamities learning method and device based on augmented reality education scene transformation model
US20210311472A1 (en) * 2018-09-06 2021-10-07 Volkswagen Aktiengesellschaft Monitoring and Planning a Movement of a Transportation Device
TWI770971B (en) * 2021-04-28 2022-07-11 一德金屬工業股份有限公司 Evacuation Navigation Method in Evacuation State
US11892299B2 (en) 2018-09-30 2024-02-06 Huawei Technologies Co., Ltd. Information prompt method and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186681A (en) * 2010-03-05 2011-09-22 Toshiba Corp Disaster prevention information providing system and disaster prevention information delivery server
JP2013524344A (en) * 2010-04-02 2013-06-17 クアルコム,インコーポレイテッド Augmented reality orientation mask
US20130332066A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Method for providing navigation information, machine-readable storage medium, mobile terminal, and server

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186681A (en) * 2010-03-05 2011-09-22 Toshiba Corp Disaster prevention information providing system and disaster prevention information delivery server
JP2013524344A (en) * 2010-04-02 2013-06-17 クアルコム,インコーポレイテッド Augmented reality orientation mask
US20130332066A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Method for providing navigation information, machine-readable storage medium, mobile terminal, and server

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"MapFan eye", 13 December 2012 (2012-12-13), Retrieved from the Internet <URL:http://web.archive.org/web/20121213013126/http://www.mapfan.com/iphone/ar> *
"Wikitude Drive", 19 July 2011 (2011-07-19), Retrieved from the Internet <URL:http://web.archive.org/web/20110722183343/http://www.geeky-gadgets.com/wikitude-drive-augmented-reality-navigation-android-app-released-07-19-2011> [retrieved on 20140522] *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017067457A (en) * 2015-09-28 2017-04-06 株式会社Screenホールディングス Route guidance device, route guidance system, route guidance method and route guidance program
CN106023621A (en) * 2016-07-22 2016-10-12 山东交通学院 Urban intelligent traffic guidance method based on RFID and WeChat platform
CN106023621B (en) * 2016-07-22 2018-07-31 山东交通学院 Municipal intelligent traffic abductive approach based on RFID and wechat platform
CN109427219A (en) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 Take precautions against natural calamities learning method and device based on augmented reality education scene transformation model
US20210311472A1 (en) * 2018-09-06 2021-10-07 Volkswagen Aktiengesellschaft Monitoring and Planning a Movement of a Transportation Device
US11934188B2 (en) * 2018-09-06 2024-03-19 Volkswagen Aktiengesellschaft Monitoring and planning a movement of a transportation device
US11892299B2 (en) 2018-09-30 2024-02-06 Huawei Technologies Co., Ltd. Information prompt method and electronic device
TWI770971B (en) * 2021-04-28 2022-07-11 一德金屬工業股份有限公司 Evacuation Navigation Method in Evacuation State

Similar Documents

Publication Publication Date Title
WO2015182290A1 (en) Route guidance device, route guidance method, and route guidance program
JP6228516B2 (en) Route guidance device, route guidance method, and route guidance program
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP5724543B2 (en) Terminal device, object control method, and program
JP2015224981A (en) Apparatus, method, and program for route guidance
JP4834071B2 (en) Navigation system, method, computer program, and readable medium
JP2013061210A (en) Map display device using direction/distance mark
JP6030935B2 (en) Information processing program, display control apparatus, display system, and display method
WO2020157995A1 (en) Program, information processing method, and information processing terminal
JP2009236843A (en) Navigation device, navigation method, and navigation program
JP2008070705A (en) Picture providing system and picture providing server device
US8988425B2 (en) Image display control system, image display control method, and image display control program
JP2015224982A (en) Apparatus, method, and program for route guidance
JP2007309823A (en) On-board navigation device
KR101659089B1 (en) Augmented reality apparatus using position information
JP6680499B2 (en) Route guidance device, route guidance system, route guidance method, and route guidance program
JP2017207696A (en) Electronic system
JP5715715B1 (en) Evacuation route providing system, evacuation route providing method, and evacuation route providing program
KR20230051557A (en) Navigation by computer system
JP7023775B2 (en) Route guidance program, route guidance method and information processing equipment
JP2006292616A (en) Virtual navigation system and mobile terminal
JP2007139425A (en) Landmark visual map and pedestrian navigation using it
JP2014066595A (en) Navigation apparatus
JP6177585B2 (en) Navigation device
KR101153127B1 (en) Apparatus of displaying geographic information in smart phone

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15799285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15799285

Country of ref document: EP

Kind code of ref document: A1