JP6384898B2 - Route guidance system, method and program - Google Patents

Route guidance system, method and program Download PDF

Info

Publication number
JP6384898B2
JP6384898B2 JP2014001622A JP2014001622A JP6384898B2 JP 6384898 B2 JP6384898 B2 JP 6384898B2 JP 2014001622 A JP2014001622 A JP 2014001622A JP 2014001622 A JP2014001622 A JP 2014001622A JP 6384898 B2 JP6384898 B2 JP 6384898B2
Authority
JP
Japan
Prior art keywords
information
route
image
route guidance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014001622A
Other languages
Japanese (ja)
Other versions
JP2015129696A (en
Inventor
加藤 晴久
晴久 加藤
柳原 広昌
広昌 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014001622A priority Critical patent/JP6384898B2/en
Publication of JP2015129696A publication Critical patent/JP2015129696A/en
Application granted granted Critical
Publication of JP6384898B2 publication Critical patent/JP6384898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、現在地から目的地までの経路を案内する経路案内システム、方法及びプログラムに関し、特に、位置を計測するための対象を提示するとともに更新を自動化できる経路案内システム、方法及びプログラムに関する。 The present invention, route guidance system for guiding a route from the current position to the destination, relates to a method and a program, particularly relates to a route guidance system, method and program that can automate updates with presenting an object for measuring the position .

現在地から目的地までの経路を案内する方法としては、以下のような方法が公開されている。   As a method for guiding the route from the current location to the destination, the following methods are disclosed.

GPS(Global Positioning System;全地球測位システム)による経路案内では、複数の衛星からの電波を受信することで現在位置を計測し、目的地までの経路情報を提供することが可能である。また、無線LANによる経路案内では、複数の無線アクセスポイントからの電波を受信し、三角測量などにより現在位置を計測し、目的地までの経路情報を提供することが可能である。   In route guidance by GPS (Global Positioning System), it is possible to measure the current position by receiving radio waves from multiple satellites and provide route information to the destination. In route guidance by wireless LAN, it is possible to receive radio waves from a plurality of wireless access points, measure the current position by triangulation or the like, and provide route information to the destination.

特許文献1では、固定した場所に設置されたICタグを読み取ることで、端末の位置を知るとともに、携帯端末本体にもICタグを設置して、携帯端末同士の位置関係を取得できるようにすることを提案している。固定したICタグとの位置関係に加えて、移動する携帯端末同士の位置関係を分析することにより、携帯端末の位置をより高い精度で特定することができる。   In Patent Document 1, by reading an IC tag installed at a fixed location, the position of the terminal is known, and the IC tag is also installed on the mobile terminal body so that the positional relationship between the mobile terminals can be acquired. Propose that. In addition to the positional relationship with the fixed IC tag, by analyzing the positional relationship between mobile terminals that move, the position of the mobile terminal can be specified with higher accuracy.

特許文献2では、看板や標識等の文字を画像認識することで、撮影対象のテキスト情報と、事前に登録されたテキスト情報に紐づく位置情報とに基づき、前記画像が撮影された地点を特定する方法を提案している。   In Patent Document 2, the point at which the image is photographed is identified by recognizing a character such as a signboard or a sign based on text information to be photographed and position information associated with the text information registered in advance. Proposed method to do.

特開2012-137296号公報JP 2012-137296 A 特開2013-145176号公報JP 2013-145176

GPSによる経路案内では、屋内や高層ビル等の遮蔽物により衛星からの電波を受信できない場合に、正確な現在位置を計測することが困難になるという問題がある。   In the route guidance by GPS, there is a problem that it is difficult to accurately measure the current position when radio waves from a satellite cannot be received due to a shield such as an indoor or high-rise building.

無線LANによる経路案内では、複数の無線アクセスポイントを設置することで、屋内でも現在位置を計測することが可能であるため、GPSによる経路案内の問題を解決できる。しかし、複数の無線の電波干渉やマルチパスがある場合に、正確な現在位置を計測することが困難になるという問題がある。また、無線アクセスポイントを追加・削除・変更する度に設置情報を格納するデータベースを更新する必要があるなど、運用開始後の保守コストがかかるという問題がある。   In the route guidance by wireless LAN, the current position can be measured indoors by installing a plurality of wireless access points, so the problem of route guidance by GPS can be solved. However, there is a problem that it is difficult to accurately measure the current position when there are a plurality of radio wave interferences and multipaths. In addition, there is a problem that a maintenance cost after starting operation is incurred, for example, it is necessary to update a database for storing installation information every time a wireless access point is added, deleted, or changed.

特許文献1では、位置情報を保持させたICタグを設置することで、GPSによる経路案内における問題を解決できる。また、一般的にICタグは無線LANより通信範囲が狭いため、現在位置の計測精度が高く、無線LANによる経路案内の問題も、その一部は解決できる。ただ、計測精度を高めるためにはICタグを広範に設置する必要があるため、設置等に関してコストがかかるという問題は残る。そこで、特許文献1ではICタグの設置コスト低減と計測の高精度化を両立させるため、固定したICタグの増幅器として携帯端末を利用するが、十分な数の携帯端末がICタグの近傍に存在しない状況では、位置を全く計測できないという問題がある。   In patent document 1, the problem in the route guidance by GPS can be solved by installing an IC tag holding position information. In general, IC tags have a narrower communication range than wireless LAN, so the measurement accuracy of the current position is high, and part of the problem of route guidance by wireless LAN can be solved. However, since it is necessary to install IC tags extensively in order to improve measurement accuracy, there remains a problem that the installation is costly. Therefore, in Patent Document 1, a portable terminal is used as an amplifier for a fixed IC tag in order to achieve both reduction in the installation cost of the IC tag and higher measurement accuracy. However, a sufficient number of portable terminals exist in the vicinity of the IC tag. In such a situation, there is a problem that the position cannot be measured at all.

特許文献2は、既存の看板や標識などを利用するので、GPSによる経路案内の問題および特許文献1の設置コストに関する問題を解決できる。しかし、コンビニエンスストアの看板など、同一文字列が複数の異なる場所(同一系列の異なる店舗等)にそれぞれ存在する場合、現在位置を誤認する恐れがある。また、そもそも、ユーザに提供される情報は平面の地図上における現在位置のみであり、撮像して認識させる対象をユーザに知らしめる手段を提供していないので、実用上の問題がある。第一に、ユーザは何を撮影すれば良いのか分からないという問題があり、さらに第二に、実際に見えている景色との関係でユーザは目的地へ向けてどのように移動すればよいか分からない、という問題がある。   Since Patent Literature 2 uses existing signs and signs, it can solve the problem of route guidance by GPS and the installation cost of Patent Literature 1. However, if the same character string is present in a plurality of different places (such as different stores in the same series) such as a convenience store signboard, the current position may be misidentified. In the first place, the information provided to the user is only the current position on the planar map, and does not provide a means for letting the user know the object to be imaged and recognized. First, there is a problem that the user does not know what to shoot, and second, how the user should move toward the destination in relation to the scenery that is actually visible. There is a problem of not knowing.

本発明は上記実情に鑑みて提案されたもので、位置を計測するための対象を提示することでユーザに対して直感的な経路案内を行うことができる経路案内システム、方法及びプログラムを提供することを第一の目的とする。さらに、当該提示すべき対象の更新を容易にすることを第二の目的とする。 The present invention has been proposed in view of the above circumstances, and provides a route guidance system, method, and program capable of performing intuitive route guidance for a user by presenting an object for measuring a position. This is the primary purpose. Furthermore, the second object is to facilitate the update of the object to be presented.

上記目的を達成するため、本発明は、ユーザの存在する現在地より、ユーザが入力する目的地へ至る経路案内を行う経路案内システムであって、前記ユーザの存在する現在地における情景を撮像画像として取得する撮像部と、前記撮像画像より所定の撮像対象を認識することで前記現在地を決定する認識部と、前記決定された現在地より前記ユーザが入力する目的地へと至る経路を探索する探索部と、ユーザに情報を提示する提示部と、前記探索された経路に応じた経路案内のための提示情報であって、当該経路上における情景画像を含む提示情報を、前記提示部に提示させるように制御する制御部と、前記認識部が所定の撮像対象を認識するための所定の画像特徴量及び前記認識部が前記現在地を決定するための所定の撮像対象に対応する位置情報と、前記探索部が前記経路を探索する対象としての経路構造情報と、前記制御部の制御により前記提示部に提示させる対象としての、位置情報に対応付けられた情景画像を含む提示情報と、を記憶する記憶部と、を備える経路案内システムであることを第一の特徴とする。   In order to achieve the above object, the present invention provides a route guidance system for performing route guidance from a current location where a user exists to a destination input by the user, and acquires a scene at the current location where the user exists as a captured image. An imaging unit that recognizes a predetermined imaging target from the captured image, a recognition unit that determines the current location, and a search unit that searches for a route from the determined current location to a destination input by the user; A presentation unit for presenting information to a user, and presentation information for route guidance according to the searched route, including presentation information including a scene image on the route. A control unit for controlling, a predetermined image feature amount for the recognition unit to recognize a predetermined imaging target, and a predetermined imaging target for the recognition unit to determine the current location Presentation information including position information, route structure information as an object for the search unit to search for the route, and a scene image associated with position information as an object to be presented to the presentation unit under the control of the control unit And a storage unit that stores the first feature.

また、本発明は、上記第一の特徴に加えてさらに、前記認識部が前記現在地を決定することに成功した場合には、当該成功した際の撮像画像を当該決定された現在地の位置情報を紐付けて記憶部に記憶させ、失敗した場合には記憶させず、前記成功した際の撮像画像を、前記紐付けられた位置情報における、前記提示部に提示させる対象としての情景画像または当該情景画像の候補として記憶することにより、情景画像の経時変化を最新の認識対象及び提示対象として反映させることを第二の特徴とする。 In addition to the first feature described above, the present invention further includes, when the recognizing unit succeeds in determining the current location, the captured image at the time of the success is used as position information of the determined current location. A scene image as a target to be presented to the presenting unit in the linked position information or the scene, in which the captured image at the time of success is not stored in the storage unit and stored in the storage unit. The second feature is that the change over time of the scene image is reflected as the latest recognition object and presentation object by storing the image as an image candidate.

また、本発明は、コンピュータを上記経路案内システムとして機能させる経路案内プログラムであることを第三の特徴とする。 A third feature of the present invention is a route guidance program that causes a computer to function as the route guidance system.

さらに、本発明は、ユーザの存在する現在地より、ユーザが入力する目的地へ至る経路案内を行うようにソフトウエアによりコンピュータを機能させる経路案内システムが備える経路案内方法であって、前記ユーザの存在する現在地における情景を撮像画像として取得する撮像ステップと、前記撮像画像より所定の撮像対象を認識することで前記現在地を決定する認識ステップと、前記決定された現在地より前記ユーザが入力する目的地へと至る経路を探索する探索ステップと、前記探索された経路に応じた経路案内のための提示情報であって、当該経路上における情景画像を含む提示情報を、ユーザに情報を提示する提示デバイスに提示させるように制御する制御ステップと、を備え、前記認識ステップは、所定の撮像対象を前記認識するための所定の画像特徴量及び現在地を前記決定するための所定の撮像対象に対応する位置情報を参照して実行され、前記探索ステップは、前記経路を探索する対象としての経路構造情報を参照して実行され、前記制御ステップは、位置情報に対応付けられた情景画像を含む提示情報を参照して実行されるとともに、前記提示情報は、前記撮像ステップで取得した撮像画像について、前記認識ステップが前記現在地を決定することに成功した場合には、当該成功した際の撮像ステップで取得した撮像画像を当該決定された現在地の位置情報を紐付けて記憶部に記憶させ、失敗した場合には記憶させないことにより情景画像の経時変化を反映させる経路案内方法であることを第四の特徴とする。 Furthermore, the present invention is a route guidance method provided in a route guidance system that causes a computer to function by software so as to perform route guidance from a current location where a user exists to a destination input by the user, wherein the presence of the user An imaging step of acquiring a scene at the current location as a captured image, a recognition step of determining the current location by recognizing a predetermined imaging target from the captured image, and a destination input by the user from the determined current location To a presentation device that presents information to a user as a presentation step for searching for a route that leads to the user, and presentation information for route guidance according to the searched route, including a scene image on the route. A control step for controlling to present the image, wherein the recognition step recognizes a predetermined imaging target. A predetermined image feature amount for determining the current position and the position information corresponding to a predetermined imaging target for determining the current location, and the search step refers to route structure information as a target for searching for the route. The control step is executed with reference to presentation information including a scene image associated with position information, and the presentation information includes the recognition step for the captured image acquired in the imaging step. If the current location is determined successfully, the captured image acquired in the successful imaging step is stored in the storage unit in association with the determined location information of the current location, and stored if unsuccessful. A fourth feature is that it is a route guidance method that reflects the temporal change of the scene image by not doing so.

上記第一、第三又は第四の特徴によれば、ユーザに対して、撮像対象でもある経路上の情景画像を提示することで、直感的な経路案内を行うことが可能となる。 According to the first, third, or fourth feature, intuitive route guidance can be performed by presenting a scene image on a route that is also an imaging target to the user.

上記第二の特徴によれば、現在地の特定に成功した撮像画像が情景画像またはその候補として記憶されるので、提示対象の更新が容易になる。   According to the second feature, a captured image that has been successfully identified as the current location is stored as a scene image or a candidate thereof, so that the presentation target can be easily updated.

一実施形態に係る経路案内システムの機能ブロック図である。It is a functional block diagram of the route guidance system concerning one embodiment. 経路案内システムを経路案内サーバ及び携帯端末で実現する場合の構成の、一実施形態を示す図である。It is a figure which shows one Embodiment of a structure in the case of implement | achieving a route guidance system with a route guidance server and a portable terminal. 記憶部が記憶している情報のデータ構造を示す図である。It is a figure which shows the data structure of the information which the memory | storage part has memorize | stored. 記憶部が記憶している情報のデータ構造を、地図情報としての観点から概念的に示す図である。It is a figure which shows notionally the data structure of the information which the memory | storage part has memorize | stored from a viewpoint as map information. 提示する画像情報の第二実施形態を説明するための、また、撮像画像の傾き及び/又は方向に応じた誘導情報を説明するための、図である。It is a figure for demonstrating the guidance information according to 2nd embodiment of the image information to present, and the inclination and / or direction of a captured image. 一実施形態に係る経路案内システムの動作のフローチャートである。It is a flowchart of operation | movement of the route guidance system which concerns on one Embodiment.

図1は、本発明の一実施形態に係る経路案内システムの機能ブロック図である。経路案内システム10は、入力部1、撮像部2、認識部3、探索部4、制御部5、提示部6及び記憶部7を備える。   FIG. 1 is a functional block diagram of a route guidance system according to an embodiment of the present invention. The route guidance system 10 includes an input unit 1, an imaging unit 2, a recognition unit 3, a search unit 4, a control unit 5, a presentation unit 6, and a storage unit 7.

経路案内システム10は、その全ての機能部が、経路案内を利用するユーザが保持するスマートフォン等の携帯端末によって実現されてもよいし、一部の機能部が携帯端末ではなく、別途の経路案内サーバによって実現されてもよい。図2は、経路案内システムを経路案内サーバ及び携帯端末によって機能部の役割を分担して実現する場合の構成の、一実施形態を示す図である。   In the route guidance system 10, all of the functional units may be realized by a mobile terminal such as a smartphone held by a user who uses the route guidance, or a part of the functional units is not a mobile terminal but a separate route guide. It may be realized by a server. FIG. 2 is a diagram showing an embodiment of a configuration in a case where the route guidance system is realized by sharing the roles of functional units with a route guidance server and a mobile terminal.

図2では、各ユーザが保持する携帯端末30A,30B等がそれぞれ、経路案内を利用するユーザ側にて必要となる入出力を実現するための最低限の構成として、入力部1、撮像部2及び提示部6を備え、経路案内サーバ20が、その余の構成である認識部3、探索部4、制御部5及び記憶部7を備えた例が示されている。図2では、携帯端末は30A, 30Bの2台の例が示されているが、ユーザ数に応じた任意台数を取ることができる。携帯端末30A,30B等と経路案内サーバ20との間では、ネットワーク等による周知の通信によって、本発明の実施に必要な各種の情報をやりとりすればよい。   In FIG. 2, the mobile terminals 30A, 30B, etc. held by each user have an input unit 1 and an imaging unit 2 as the minimum configuration for realizing input / output required on the user side using the route guidance. In addition, an example is shown in which the route guidance server 20 includes a recognition unit 3, a search unit 4, a control unit 5, and a storage unit 7, which are the remaining components. In FIG. 2, two examples of the mobile terminals 30A and 30B are shown, but an arbitrary number corresponding to the number of users can be taken. Various information necessary for carrying out the present invention may be exchanged between the portable terminals 30A, 30B and the like and the route guidance server 20 by well-known communication via a network or the like.

図2の構成の変形例として、経路案内サーバ20側にある認識部3、探索部4、制御部5 及び記憶部7の全て又は一部を、携帯端末30A,30B等の側が備えることも可能である。なお、少なくとも記憶部7は、1台の経路案内サーバ20が備えるようにして、複数のユーザで記憶部7を共有するようにすれば、後述するような更新情報の恩恵を、複数ユーザの存在によってより効果的に得られるようになる。   As a modification of the configuration of FIG. 2, the mobile terminal 30A, 30B, or the like may include all or part of the recognition unit 3, the search unit 4, the control unit 5, and the storage unit 7 on the route guidance server 20 side. It is. In addition, if at least the storage unit 7 is provided in one route guidance server 20 and the storage unit 7 is shared by a plurality of users, the benefits of update information as described later can be obtained by the existence of a plurality of users. Can be obtained more effectively.

図1(又は図2)に示す、経路案内システム10の各部の機能は、以下の通りである。   The function of each part of the route guidance system 10 shown in FIG. 1 (or FIG. 2) is as follows.

入力部1は、ユーザによる手動での目的地の入力を受け付ける。入力手段には、キーボードやタッチパネルによる文字入力、メニュー画面を介しての目的地一覧からの選択入力、地図画面を介しての地図上の位置及び/又は地名等からの選択入力その他を利用でき、入力部1は当該入力手段をユーザに提供する。また、目的地までの経路について、距離、費用、所要時間、経路の分岐数、階段の設置数等に基づく徒歩の際の高低差その他の、優先する経路の種別を、経路案内の際のオプション設定として入力してもよい。入力された目的地及び優先経路種別は、目的地情報及び優先経路種別情報として、探索部4へ出力される。   The input unit 1 accepts a manual input of a destination by a user. For input means, character input using a keyboard or touch panel, selection input from a destination list via a menu screen, selection input from a map location and / or place name via a map screen, etc. can be used. The input unit 1 provides the input means to the user. Options for route guidance, such as distance, cost, required time, number of branching routes, height difference when walking, etc. It may be entered as a setting. The input destination and priority route type are output to the search unit 4 as destination information and priority route type information.

入力部1ではまた、提示部6で表示された表示情報をユーザが操作するための入力を受け付け、操作情報として制御部5へ出力する。   The input unit 1 also accepts an input for the user to operate the display information displayed by the presentation unit 6 and outputs it to the control unit 5 as operation information.

記憶部7は、経路案内システム10が機能するために必要となる種々の情報を、管理者等によるマニュアル設定等によって予め記憶しており、当該各情報を、各機能部の必要に応じてその参照に供する。記憶部7は特に、認識部3、探索部4及び制御部5に対し、それぞれ必要となる情報をその参照に供する。   The storage unit 7 stores various information necessary for the function of the route guidance system 10 in advance by manual setting by an administrator or the like, and each information is stored as necessary for each functional unit. For reference. In particular, the storage unit 7 provides necessary information to the recognition unit 3, the search unit 4, and the control unit 5 for reference.

図3は、上記各部の参照に供するべく記憶部7が記憶している情報の、データ構造を示す図である。図3にて、[1]は主として認識部3の参照に供し、[2]は主として探索部4の参照に供し、[3]は主として制御部5の参照に供するための情報のデータ構造を示している。なお、当該[1]〜[3]のデータ構造を有する各情報は、それぞれ互いに独立したものではなく、各ID(撮像対象ID及びノードID)によって互いに関連付けられている。記憶部7は、当該関連付けを含めて各情報を記憶している。以下、当該[1]〜[3]を説明する。   FIG. 3 is a diagram showing a data structure of information stored in the storage unit 7 for reference to the above-described units. In FIG. 3, [1] is mainly used for reference of the recognition unit 3, [2] is mainly used for reference of the search unit 4, and [3] is a data structure of information mainly used for reference of the control unit 5. Show. Note that the pieces of information having the data structures [1] to [3] are not independent of each other, but are associated with each other by each ID (imaging target ID and node ID). The storage unit 7 stores each piece of information including the association. Hereinafter, [1] to [3] will be described.

[1]に示すデータ構造の情報は主に、認識部3が撮像対象を認識して撮像画像の現在地情報の取得するために供されるものであり、各々の撮像対象に対して、その画像特徴量と地図配置情報とを対応づけて構成されている。すなわち、個別の撮像対象の識別子である撮像対象ID101に、画像特徴量102と地図配置情報103とが対応付けられている。地図配置情報103は、当該撮像対象の地図上における配置を特定する情報であって、ノードID104及び位置情報105を下位構造として含む。   The information of the data structure shown in [1] is mainly provided for the recognition unit 3 to recognize the imaging target and acquire the current location information of the captured image, and for each imaging target, the image The feature amount is associated with the map arrangement information. That is, the image feature quantity 102 and the map arrangement information 103 are associated with the imaging object ID 101 that is an identifier of an individual imaging object. The map arrangement information 103 is information for specifying the arrangement of the imaging target on the map, and includes a node ID 104 and position information 105 as a subordinate structure.

ここで、ノードID104は、[2]のノードID204(及び[3]のノードID304)と同種のものであり、[2]の説明において後述する。また、位置情報105は当該撮像対象の物理的な位置を特定する情報であり、下位構造として例えば、経度106、緯度107、フロア108及び方位109を含んで構成することができる。フロア108は、当該撮像対象が建物の内部等に配置されている場合の、フロア(何階であるか)の情報である。方位109は、当該撮像対象が、経路案内において目印として利用される際に、どの方位に見えるかを特定する情報である。   Here, the node ID 104 is the same type as the node ID 204 of [2] (and the node ID 304 of [3]), and will be described later in the description of [2]. The position information 105 is information for specifying the physical position of the imaging target, and can be configured to include, for example, longitude 106, latitude 107, floor 108, and orientation 109 as subordinate structures. The floor 108 is information on the floor (how many floors) when the imaging target is arranged in a building or the like. The azimuth 109 is information that identifies which azimuth the imaging target looks when used as a landmark in route guidance.

なお、位置情報105は種々の実施形態が可能である。[1]に示す下位構造の一部が省略され、変更され、及び/又はその他の属性が追加される形で、位置情報105が与えられていてもよい。例えば、経度106及び緯度107に代えて所定のxy座標値として与えられていてもよい。フロアが存在しない屋外等であれば、フロア108は、連続値を取る高度情報に置き換えてもよい。また、位置情報105が、空間的な配置を表すグラフ構造や画像、3Dモデル等の立体構造その他の形式で与えられていてもよい。   The position information 105 can be various embodiments. The position information 105 may be given in a form in which a part of the substructure shown in [1] is omitted, changed, and / or other attributes are added. For example, instead of the longitude 106 and the latitude 107, it may be given as a predetermined xy coordinate value. If the floor does not exist, the floor 108 may be replaced with altitude information that takes a continuous value. Further, the position information 105 may be given in a graph structure representing a spatial arrangement, an image, a three-dimensional structure such as a 3D model, or other formats.

[2]に示すデータ構造の情報は主に、探索部4での探索処理のために供されるものである。当該情報のうち、ノードID204の各々に対して、対応する隣接ノードIDリスト121を対応付けることにより、周知のグラフ構造を取っている部分を、経路構造情報と称する。当該経路構造情報は、探索部4での探索処理に利用される。   The information of the data structure shown in [2] is mainly provided for search processing in the search unit 4. Of the information, a part having a known graph structure by associating a corresponding adjacent node ID list 121 with each node ID 204 is referred to as path structure information. The route structure information is used for search processing in the search unit 4.

なお、周知のように、1つのノードID204のノードとその隣接ノードIDリスト121の各ノードとの間にエッジを設ける構造を、ノードID204が与えられた全ノードについて組み合わせることで、ノード集合とノード間のエッジ集合とからなるグラフ構造が得られる。また、ノード間のエッジが、当該各ノードが表す地図上の位置の間を実際に行き来する際に利用する経路に対応するように、ノード及びエッジは予め設定される。   As is well known, a node set 204 and a node set 204 can be obtained by combining a structure in which an edge is provided between a node of one node ID 204 and each node of its adjacent node ID list 121 for all nodes to which the node ID 204 is given. A graph structure consisting of a set of edges in between is obtained. In addition, the nodes and edges are set in advance so that the edges between the nodes correspond to paths used when actually going between positions on the map represented by the respective nodes.

また、[2]ではノードID204に対してさらに、当該ノードに対応する撮像対象IDリスト122及び位置情報205が対応付けられているが、これらは、経路構造情報とは別途の情報であり、探索部4での探索処理においては必要とされない。当該リスト122については、図4を参照して後述する。位置情報205は、[1]の位置情報105と同種類の情報であって、当該ノードの位置を特定するものである。   Further, in [2], the imaging target ID list 122 and the position information 205 corresponding to the node are further associated with the node ID 204, but these are information separate from the path structure information, and are searched. It is not required in the search process in part 4. The list 122 will be described later with reference to FIG. The position information 205 is the same type of information as the position information 105 of [1], and specifies the position of the node.

[3]に示すデータ構造の情報は、制御部5での制御のもとで提示部6に表示して経路案内を実施するために供されるものであり、当該経路案内の際に表示するための情景画像の各々が、情景画像ID131と、その実際の内容としての情景画像132と、当該画像が取得された時刻133と、当該画像に対応する地図配置情報303と、を対応付けた構成で記憶部7に記憶されている。地図配置情報303は、当該情景画像132に対してその地図上の位置を特定する情報であり、[1]に示す撮像対象に対する地図配置情報103と同様の構成を取り、対応するノードID304及び位置情報305を下位構造として含む。位置情報305も、位置情報105と同様の構成を取る。   The information on the data structure shown in [3] is displayed on the presentation unit 6 under the control of the control unit 5 and used for route guidance, and is displayed at the time of the route guidance. Each of the scene images to be associated with the scene image ID 131, the scene image 132 as its actual content, the time 133 when the image was acquired, and the map arrangement information 303 corresponding to the image Is stored in the storage unit 7. The map arrangement information 303 is information for specifying a position on the map with respect to the scene image 132, has the same configuration as the map arrangement information 103 for the imaging target shown in [1], and has a corresponding node ID 304 and position. Information 305 is included as a substructure. The position information 305 has the same configuration as the position information 105.

図4は、以上の図3でそのデータ構造を説明した記憶部7が記憶している情報のうち[1],[2]に関して、その具体的な内容を、地図情報としての観点からの概念的な例によって示す図である。図4では、[A]に実際の経路案内の対象となるフィールドの例として市街地(の一部)が、[B]に当該市街地を対象として記憶部7に予めマニュアル等で設定されるノード及び撮像対象の例が、[C]に当該市街地を対象として構成され記憶部7に予めマニュアル等で設定されるグラフ構造の例が、それぞれ示されている。   FIG. 4 shows the concept of [1], [2] of the information stored in the storage unit 7 whose data structure has been explained with reference to FIG. It is a figure shown by a typical example. In FIG. 4, (A) is an area (part of) an area as an example of an actual route guidance target, and [B] is a node set in advance in a manual or the like in the storage unit 7 for the area. An example of the imaging target is shown in [C] as an example of a graph structure configured for the city area and set in advance in the storage unit 7 manually or the like.

[A]では、南北に延びる通路S1,S2と、東西に延びる通路S3,S4とで区画分けけされた市街地が示され、通路S1とそれぞれ通路S3,S4と、の交差点の位置がそれぞれ、ノードN1,N2に設定され、また、通路S2とそれぞれ通路S3,S4と、の交差点の位置がそれぞれ、ノードN3及びN4に設定される。各ノードN1〜N4の近辺にはそれぞれ建物B1〜B4が存在し、また、各ノードN1〜N4の中央の区画には建物B5が存在している。   In [A], a city area divided into passages S1 and S2 extending north and south and passages S3 and S4 extending east and west is shown, and the positions of the intersections of the passage S1 and the passages S3 and S4, respectively, Nodes N1 and N2 are set, and the positions of the intersections of the path S2 and the paths S3 and S4 are set to the nodes N3 and N4, respectively. Buildings B1 to B4 exist in the vicinity of each of the nodes N1 to N4, and a building B5 exists in the central section of each of the nodes N1 to N4.

[B]では、各ノードの近辺に存在する撮像対象を予め登録する例が示されている。例えば、ノードN1に対しては、当該ノードN1の位置、すなわち通路S1及びS3の交差点、において見える所定の対象物(例えば、建物B1及びB5に配置された特定の看板など)が3個、撮像対象O11,O12,O13として登録される。撮像対象O11,O12,O13の各々についてはさらに、図3の[1]で示したように、画像特徴量及び地図配置情報が登録される。当該登録の際に、地図配置情報103において、当該撮像対象O11,O12,O13がノードN1に対応付けられた旨が、ノードID104においてそれぞれ設定され、また、当該撮像対象O11,O12,O13の位置が、位置情報105においてそれぞれ設定される。   [B] shows an example in which an imaging target existing in the vicinity of each node is registered in advance. For example, for a node N1, three predetermined objects (for example, specific signs placed in buildings B1 and B5) that are visible at the position of the node N1, that is, at the intersection of the passages S1 and S3, are imaged. Registered as targets O11, O12, O13. Further, for each of the imaging targets O11, O12, and O13, as shown in [1] of FIG. 3, the image feature amount and the map arrangement information are registered. At the time of the registration, information indicating that the imaging targets O11, O12, and O13 are associated with the node N1 is set in the node ID 104 in the map arrangement information 103, and the positions of the imaging targets O11, O12, and O13 Are set in the position information 105, respectively.

同様に、ノードN2では撮像対象O21〜O24が登録され、ノードN3では撮像対象O31,O32が登録され、ノードN4では撮像対象O41〜O44が登録され、当該各撮像対象に対してそれぞれさらに、画像特徴量及び地図配置情報が登録される。このように、図3の[1]では各撮像対象を主体としてデータ構造を説明したが、当該データ構造のもとで、各ノードに対応付けられた1以上の撮像対象が存在しており、図3の[2]に示す「対応する撮像対象IDリスト122」として、これを明示的に管理し登録することができる。(すなわち、[1]のみからでも各ノードに対応する1以上の撮像対象の情報は得られるが、実際に集計してリスト化した情報として、[2]のリスト122を得ることができる。)   Similarly, the imaging targets O21 to O24 are registered in the node N2, the imaging targets O31 and O32 are registered in the node N3, and the imaging targets O41 to O44 are registered in the node N4. The feature amount and map arrangement information are registered. As described above, in [1] of FIG. 3, the data structure has been described mainly for each imaging target. However, one or more imaging targets associated with each node exist based on the data structure, This can be explicitly managed and registered as the “corresponding imaging target ID list 122” shown in [2] of FIG. (That is, although information of one or more imaging targets corresponding to each node can be obtained from [1] alone, the list 122 of [2] can be obtained as information that is actually tabulated and listed.)

[C]では、図3の[2]のデータ要素204及び121、すなわち、経路構造情報の具体例として、各ノードN1〜N4のグラフ構造が示されている。ノードN1,N2間、N1,N3間、N2,N4間、N3,N4間に隣接関係が存在し、それぞれエッジE12,E13,E24,E34が存在している。ここで、各エッジは経路案内で示される経路の各要素部分に対応しており、当該経路構造情報におけるグラフ上の経路として、本発明による経路案内の結果が与えられることとなる。   [C] shows a graph structure of each of the nodes N1 to N4 as a specific example of the data elements 204 and 121 of [2] in FIG. 3, that is, the path structure information. Adjacent relationships exist between the nodes N1, N2, N1, N3, N2, N4, and N3, N4, and edges E12, E13, E24, and E34 exist, respectively. Here, each edge corresponds to each element portion of the route indicated by the route guidance, and the result of the route guidance according to the present invention is given as a route on the graph in the route structure information.

なお、図4の例では、各ノードの位置の近辺に存在する対象物を、撮像対象に設定するものとして説明した。一般には、必ずしも近辺に存在せずとも、各ノードの位置から見える(撮像可能である)のであれば、任意の対象物を撮像対象に設定することができ、各ノードの位置と設定される撮像対象の位置との物理的な距離が大きく離れていてもよい。対応するノード位置と撮像対象の位置との関係は、図3の[1]に示す位置情報105に含めることができる。   In the example of FIG. 4, the description has been given assuming that an object existing in the vicinity of the position of each node is set as an imaging target. In general, an arbitrary object can be set as an imaging target as long as it can be seen from the position of each node (capable of imaging) even if it does not necessarily exist in the vicinity, and the imaging set as the position of each node The physical distance from the target position may be greatly separated. The relationship between the corresponding node position and the position of the imaging target can be included in the position information 105 shown in [1] of FIG.

以上、図3及び4を参照して、記憶部7の記憶している情報を主として形式的な観点から説明した。当該情報の利用等の詳細に関してはさらに、認識部3、探索部4及び制御部5等の説明の際に、併せて説明する。   The information stored in the storage unit 7 has been described mainly from a formal viewpoint with reference to FIGS. Details regarding the use of the information will be described together with the description of the recognition unit 3, the search unit 4, the control unit 5, and the like.

撮像部2は、ユーザ操作を受けて、ユーザが現に存在している地点においてユーザが見ている情景の撮像を行い、その撮像画像を得て認識部3へと渡す。ここで、当該撮像される情景には、記憶部7に予め記憶された撮像対象が含まれていることが、本発明の動作において基本的には想定されている。予め記憶される撮像対象には具体的には、街頭上又は建物内その他にて予め設置されている種々の所定の対象物、例えば既存標識やQRコード(登録商標)、マーカー、ポスター等の一部あるいは全てを利用できる。   In response to a user operation, the imaging unit 2 captures a scene that the user is viewing at a point where the user actually exists, obtains the captured image, and passes the captured image to the recognition unit 3. Here, in the operation of the present invention, it is basically assumed that the scene to be captured includes an imaging target stored in advance in the storage unit 7. Specifically, the imaging object stored in advance is one of various predetermined objects previously installed on the street or in a building or the like, such as an existing sign, a QR code (registered trademark), a marker, a poster, etc. Part or all can be used.

撮像部2における撮像は、ユーザ操作により、ユーザが望むタイミング毎になされてもよいし、所定のサンプリング周期で連続的になされてもよい。撮像部2には、携帯端末に標準装備されるデジタルカメラ等を用いることができる。   Imaging in the imaging unit 2 may be performed at every timing desired by the user by a user operation, or may be continuously performed at a predetermined sampling period. As the imaging unit 2, a digital camera or the like that is provided as a standard in a mobile terminal can be used.

認識部3は、撮像部2で得た撮像画像より画像特徴量を抽出し、記憶部7に記憶された所定の撮像対象ごとの画像特徴量(図3の[1]の画像特徴量102)に対して照合することで、当該撮像画像に含まれる撮像対象を認識すると共に、当該認識された撮像対象と紐付いた位置情報及びノード情報(図3の[1]の位置情報105及びノードID104)を、当該撮像画像が撮像された現在地情報として得て、探索部4へと渡す。   The recognizing unit 3 extracts an image feature amount from the captured image obtained by the imaging unit 2, and stores an image feature amount for each predetermined imaging target (image feature amount 102 of [1] in FIG. 3) stored in the storage unit 7. 3 is recognized, and the imaging target included in the captured image is recognized, and the positional information and node information associated with the recognized imaging target (position information 105 and node ID 104 in [1] in FIG. 3). Is obtained as current location information where the captured image is captured and passed to the search unit 4.

認識部3ではまた、撮像画像から撮像対象が認識され現在地情報を得ることに成功した場合は、当該撮像画像を、当該現在地における最新の状況を表すものとして更新等を促すべく、記憶部7へと送信してもよい。記憶部7では当該受信した撮像画像を、当該時点における最新の画像として新たなID及びタイムスタンプ(図3の[3]の情景画像ID131及び時刻133)を付与したうえで、新たに利用する情景画像(図3の[3]の情景画像132)として、あるいはその候補として、保存することができる。この際、図3における地図配置情報303の内容は、認識された撮像対象における地図配置情報103の内容とすればよい。   In the recognition unit 3, when the imaging target is recognized from the captured image and the current location information is successfully obtained, the recognition unit 3 sends the captured image to the storage unit 7 in order to prompt the update or the like to represent the latest situation at the current location. May be transmitted. The storage unit 7 assigns a new ID and time stamp (scene image ID 131 and time 133 of [3] in FIG. 3) to the received captured image as the latest image at the time, and newly uses a scene. It can be saved as an image (scene image 132 of [3] in FIG. 3) or as a candidate for it. At this time, the contents of the map arrangement information 303 in FIG. 3 may be the contents of the map arrangement information 103 in the recognized imaging target.

なお、認識部3にて現在地情報を得ることができなかった場合には、対応する撮像画像の記憶部7への送信は行わない。すなわち、現在地情報を得ることに失敗した場合には、撮像画像を情景画像あるいはその候補として記憶部7で保存する処理は実施されない。   When the current location information cannot be obtained by the recognition unit 3, the corresponding captured image is not transmitted to the storage unit 7. That is, when obtaining the current location information fails, the process of saving the captured image as a scene image or its candidate in the storage unit 7 is not performed.

認識部3による撮像対象の認識においては、画像特徴量を利用した周知手法を利用することができる。すなわち、まず、事前の準備作業として管理者等のマニュアル作業等により、所定の撮像対象から抽出した画像特徴量を当該撮像対象の位置情報と紐付けて予め記憶部7に格納しておく。この際マニュアル作業等でさらに、地図配置情報も付与することで、図3の[1]のような情報が予め用意される。次に、撮像部2で撮像された撮像画像から認識部3が抽出した画像特徴量と、記憶部7に格納された画像特徴量とを照合することで対応する撮像対象を特定し、当該特定された撮像対象に紐付いた位置情報を取得すればよい。   In the recognition of the imaging target by the recognition unit 3, a known method using an image feature amount can be used. That is, first, the image feature amount extracted from a predetermined imaging target is stored in advance in the storage unit 7 in association with the position information of the imaging target by a manual operation such as an administrator as a preparatory work. At this time, information such as [1] in FIG. 3 is prepared in advance by adding map layout information by manual work or the like. Next, the corresponding imaging target is identified by comparing the image feature amount extracted by the recognition unit 3 from the captured image captured by the imaging unit 2 with the image feature amount stored in the storage unit 7, and the identification What is necessary is just to acquire the positional information linked | related with the acquired imaging target.

ここで、画像特徴量は、画像の拡大縮小、回転等に頑強な性質を持つことが望ましい。例えば、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)、Fernsなどを利用することができる。また、画像特徴量の照合には、撮像画像の画像特徴量と記憶部7の画像特徴量の組み合わせにおいて、差異が最小となる最適な組み合わせを選択する。例えば、SIFTでは特徴量同士のドット積を求め、最も類似する特徴量と2番目に類似する特徴量を選択する。前者との類似度と後者との類似度との比が予め設定した閾値を超えた場合、前者を対応関係にある画像特徴量として推定する。最後に、一定数以上の対応関係が得られた撮像対象に紐付いた位置情報を取得する。   Here, it is desirable that the image feature amount has a robust property to enlargement / reduction, rotation, and the like of the image. For example, SIFT (Scale Invariant Feature Transform), SURF (Speeded Up Robust Features), Ferns, etc. can be used. In addition, for matching image feature amounts, an optimal combination that minimizes the difference is selected from the combination of the image feature amount of the captured image and the image feature amount of the storage unit 7. For example, in SIFT, a dot product of feature amounts is obtained, and the most similar feature amount and the second most similar feature amount are selected. When the ratio between the similarity with the former and the similarity with the latter exceeds a preset threshold, the former is estimated as an image feature quantity in a correspondence relationship. Finally, position information associated with the imaging target for which a certain number or more of correspondences are obtained is acquired.

なお、撮像画像には一般に、1つ以上の撮像対象が含まれているので、認識部3は以上の手法によって、可能な限り全ての撮像対象を特定し、全体として最も合致したノードに対応する位置情報を、現在地位置として出力する。この際、ノードに対応する撮像対象の数に応じた規格化を施して、最も合致したノードを決定してよい。例えば、ある撮像画像に対する撮像対象の認識結果として、図4の[B]の例で、ノードN3における全ての撮像対象O31,O32と、同じく2個ではあるが実際には全4個中の半分に過ぎないノードN4における撮像対象O41,O42と、が得られた場合、当該撮像画像の現在地位置を、複数ある撮像対象がより多くの割合で合致したノードN3の位置であるとして出力する。(すなわち、ノードN3では2/2=100%の割合で合致し、ノードN4では2/4=50%の割合で合致している。)その他の手法で最も合致するノードを決定してもよい。   In addition, since the captured image generally includes one or more imaging targets, the recognition unit 3 identifies all imaging targets as much as possible by the above method, and corresponds to the best matching node as a whole. The position information is output as the current position. At this time, normalization according to the number of imaging targets corresponding to the nodes may be performed to determine the most matching node. For example, as a recognition result of an imaging target for a certain captured image, in the example of [B] in FIG. 4, all the imaging targets O31 and O32 in the node N3 are also two, but actually half of all four When the imaging targets O41 and O42 at the node N4 that are only the nodes are obtained, the current position of the captured image is output as the position of the node N3 where a plurality of imaging targets match at a higher rate. (In other words, the node N3 matches at a rate of 2/2 = 100%, and the node N4 matches at a rate of 2/4 = 50%.) The best matching node may be determined by other methods. .

以上のように、本発明では、各ノードに対応する複数の撮像対象を記憶部7に予め登録しておくことにより、一部の撮像対象が変更された場合(例えば、ある1枚だけの看板が変更された場合)であっても、当該ノードに対応する位置情報を、現在地情報として取得することができるという効果がある。また、この際の撮像画像を記憶部7へと送信することで、一部の撮像対象が変更された場合であっても、変更後の情景画像を自動取得できるという効果がある。従って、当該送信の際は、複数の撮像対象のうち、認識に成功したものと失敗したものとの区別の情報も併せて送信することが好ましい。   As described above, in the present invention, by registering a plurality of imaging targets corresponding to each node in the storage unit 7 in advance, when some imaging targets are changed (for example, only one signboard) Even when the location information is changed), the position information corresponding to the node can be obtained as the current location information. In addition, by transmitting the captured image at this time to the storage unit 7, even when a part of the imaging target is changed, it is possible to automatically acquire the changed scene image. Therefore, at the time of the transmission, it is preferable to transmit information for distinguishing between a plurality of imaging targets that have been successfully recognized and those that have failed.

探索部4は、認識部3で得た現在地情報と、ユーザ入力として入力部1から得た目的地情報と、記憶部7に記憶された経路構造情報と、を入力として、当該経路構造情報上において、現在地から目的地へと至る経路情報を探索により求めて出力し、制御部5に渡す。   The search unit 4 receives the current location information obtained by the recognition unit 3, the destination information obtained from the input unit 1 as a user input, and the route structure information stored in the storage unit 7 as input. , The route information from the current location to the destination is obtained by searching and output to the control unit 5.

具体的には、探索部4は、記憶部7に格納された経路構造情報(図3の[2])を読み出し、現在地から目的地への経路を探索する。経路構造情報は図4の[C]のようなグラフとして構成されているので、探索部4は、当該グラフにおいて現在地のノードと目的地のノードとを定めたうえで、A*アルゴリズム等の既存の手法を適用し、最短経路としての経路を決定する。あるいは、全数探索を実施しても良い。なお、最短経路の決定のためには、記憶部7における経路構造情報において予めエッジに、対応する実際の経路を移動する際の物理的な距離を設定しておけばよい。   Specifically, the search unit 4 reads the route structure information ([2] in FIG. 3) stored in the storage unit 7 and searches for a route from the current location to the destination. Since the route structure information is configured as a graph such as [C] in FIG. 4, the search unit 4 defines the current node and the destination node in the graph, and then the existing A * algorithm or the like. Is applied to determine the route as the shortest route. Alternatively, an exhaustive search may be performed. In order to determine the shortest path, a physical distance for moving the corresponding actual path to the edge in the path structure information in the storage unit 7 may be set in advance.

当該探索の結果、複数の経路が存在する場合は、ユーザ入力として入力部1で入力された優先経路種別に従って、最短経路以外にも分岐が少ない経路や階段が少ない経路等を選択するようにしてもよい。階段の少なさや分岐の少なさ等の優先経路種別の特性はそれぞれ、経路構造情報におけるエッジやノードの重み等として、所定基準で数値化して、予め記憶部7に設定しておけばよい。   If there are multiple routes as a result of the search, according to the priority route type input at the input unit 1 as user input, select a route with few branches or a route with few stairs in addition to the shortest route. Also good. The characteristics of the priority route types such as the number of steps and the number of branches may be converted into numerical values on the basis of a predetermined standard as the weights of edges and nodes in the route structure information and set in the storage unit 7 in advance.

制御部5は、探索部4が探索した経路情報と、認識部3が求めた現在位置情報と、に応じた提示情報を、記憶部7から読みだして、提示部6へと渡す。そして、提示部6は当該提示情報をユーザに提供し、経路案内を実現する。当該読みだされ提示部6で提示される提示情報としては、探索された経路に関連する画像情報、地図情報、文字情報及び音声情報の一部または全てを利用することができるが、本発明では少なくとも画像情報を提示し、その他の情報は補助的なものとして提示することが好ましい。   The control unit 5 reads the presentation information corresponding to the route information searched by the search unit 4 and the current position information obtained by the recognition unit 3 from the storage unit 7 and passes it to the presentation unit 6. Then, the presentation unit 6 provides the presentation information to the user and realizes route guidance. As the presentation information read and presented by the presentation unit 6, some or all of the image information, map information, character information, and voice information related to the searched route can be used. It is preferable to present at least image information and other information as auxiliary information.

当該提示するための、経路に関連する各情報は以下(1)〜(4)の通りである。なお、当該情報を複数提示する際には、複数提示する情報の種類に応じた所定のレイアウト等を用いて提示すればよい。   Each information related to the route for presenting is as follows (1) to (4). Note that when a plurality of pieces of the information are presented, the information may be presented using a predetermined layout corresponding to the type of information to be presented.

(1)経路に関連する画像情報には、第一実施形態として、図3の[3]で説明した記憶部7に予め登録されている情景画像のうち、経路上で現在地の次に到達するノードに対応する情景画像を利用することができる。すなわち、ユーザの立場では、当該情景画像と同じ情景が見える場所が次に向かうべき場所であり、事前にその画像が提示されることにより、ユーザは経路の直感的な把握が可能となる。   (1) The image information related to the route arrives next to the current location on the route among the scene images registered in advance in the storage unit 7 described in [3] of FIG. 3 as the first embodiment. A scene image corresponding to the node can be used. That is, from the user's standpoint, the place where the same scene as the scene image can be seen is the place to go to next, and the user can intuitively grasp the route by presenting the image in advance.

また、第二実施形態として、経路に関連する画像情報には、経路上の各ノードにおいて記憶部7に予め登録されている情景画像を、当該経路の順に並べたものを利用することができる。経路探索の結果、ノード1, 2, …, nが得られたとする。すなわち、ノード1が現在地であり、ユーザは経路に従いノード2,3,…の順に移動して、ノードnが目的地であるとする。この場合、ノード1, 2, …, nに対応する情景画像1,2, …, nをこの順に並べたものとして、画像情報を用意する。あるいは、現在地のノード1の画像は省略して、ノード 2, …, nに対応する情景画像2, …, nをこの順に並べたものとして、画像情報を用意してもよい。第二実施形態においても、ユーザは経路上で順次向かうべき場所の情景画像が提示されるので、経路の直感的な把握が可能となる。   As the second embodiment, as the image information related to the route, it is possible to use scene images registered in advance in the storage unit 7 in each node on the route in the order of the route. Assume that nodes 1, 2,..., N are obtained as a result of the route search. That is, assume that node 1 is the current location, the user moves in the order of nodes 2, 3,... According to the route, and node n is the destination. In this case, image information is prepared on the assumption that scene images 1, 2,..., N corresponding to the nodes 1, 2,. Alternatively, the image information may be prepared by omitting the image of the current node 1 and arranging the scene images 2,..., N corresponding to the nodes 2,. Also in the second embodiment, since the user is presented with scene images of places to be sequentially headed on the route, it is possible to intuitively grasp the route.

ここで、複数の情景画像を並べる際には、複数の画像を表示するための種々の周知のレイアウト手法やグラフィック手法を利用できる。また、単に並べるだけでなく、入力部1を介してユーザ操作の入力を制御部5にて受け付け、複数の画像のうちユーザが特に見たいもののみを、あるいは特に見たいものを重点的に、制御部5の制御のもと提示部6で提示させるようにすることができる。   Here, when arranging a plurality of scene images, various well-known layout techniques and graphic techniques for displaying a plurality of images can be used. In addition to simply arranging them, the control unit 5 accepts input of user operations via the input unit 1, focusing only on what the user particularly wants to see among a plurality of images, The presentation unit 6 can be made to present it under the control of the control unit 5.

なお、上記第二実施形態におけるノード2の情景画像2のみで画像情報を用意したものが、第一実施形態である。   In the second embodiment, the image information is prepared using only the scene image 2 of the node 2 in the second embodiment.

図5は、第二実施形態等にて提示される画像情報を模式的に示す図である。図5では、提示部6の表示画面D1内において、その下段側に一連の情景画像G1,G2,G3,G4,G5が、互いに重なり合いつつ画像サイズが変化する形でサムネイルとして表示されると共に、入力部1を介してユーザに指定された情景画像G3を拡大させて強調表示した画像G30が、上段側に示されている。   FIG. 5 is a diagram schematically showing image information presented in the second embodiment or the like. In FIG. 5, a series of scene images G1, G2, G3, G4, and G5 are displayed as thumbnails on the lower side in the display screen D1 of the presentation unit 6 in a manner that the image sizes change while overlapping each other. An image G30 obtained by enlarging and highlighting the scene image G3 designated by the user via the input unit 1 is shown on the upper side.

図5の例にて、ユーザは、画像G1〜G5と同じ情景が見える箇所を順次移動することで、当該画像G1〜G5を案内表示として利用して、経路に従った移動が可能となる。この際、特に確認したい画像については、ユーザが指定することにより拡大表示が可能であり、図5ではユーザが指定した画像G3が拡大されて画像G30として表示されている。なお、表示画面D1内にはさらに、矢印A30が重畳して表示されているが、これについては第二実施形態とは別途の例を説明するためのものであり、後述する。(図5は当該異なる2つの例を説明するために、併用する。)   In the example of FIG. 5, the user can move according to the route using the images G1 to G5 as a guide display by sequentially moving portions where the same scene as the images G1 to G5 can be seen. At this time, an image to be particularly confirmed can be enlarged and displayed by the user, and the image G3 specified by the user is enlarged and displayed as an image G30 in FIG. Note that an arrow A30 is further superimposed in the display screen D1, but this is for explaining an example separate from the second embodiment and will be described later. (FIG. 5 is used together to explain the two different examples.)

(2)経路に関連する地図情報には、地図画像データ上に探索された経路及び現在地を重畳して表示したもの等の、経路案内における周知の情報を利用できる。なお、一般に地図は画像であるが、本発明における提示情報の用語として特に、上記(1)の「画像情報」には地図画像そのものは含まれないものとし、地図そのもの以外(地図上に付加する情報を含む)によって経路案内を実現するための画像を意味する用語として用いる。   (2) For the map information related to the route, well-known information in the route guidance such as a route that is searched for on the map image data and a current location can be displayed. In general, a map is an image, but the term “presentation information” in the present invention particularly indicates that the “image information” in (1) does not include the map image itself, and other than the map itself (added on the map) (Including information) is used as a term meaning an image for realizing route guidance.

(3)経路に関連する文字情報には、経路上で現在地の次に到達すべきノードへの到達の仕方に関するもの(例えば、「○○交差点を右折して下さい」)や、経路途中の住所やランドマークの情報等の、経路案内における周知の情報を利用できる。(4)経路に関連する音声情報には、当該文字情報を音声化したものを利用できる。なお、当該地図情報、文字情報及び音声情報も、記憶部7に管理者等のマニュアル設定等により予め登録しておく。   (3) Character information related to the route includes information on how to reach the node that should be reached next to the current location on the route (for example, “Please turn right at the XX intersection”), and addresses along the route. Well-known information in route guidance, such as information on landmarks and landmarks, can be used. (4) As voice information related to the route, voice information of the character information can be used. Note that the map information, character information, and voice information are also registered in advance in the storage unit 7 by manual setting of an administrator or the like.

なお、(3)の文字情報及び(4)の音声情報の提示においてもそれぞれ、(1)の画像情報における第二実施形態で説明したように、経路の順番に応じた形で提示を実施するようにしてもよい。(1)の画像情報における情景画像については、前述のように、図3の[3]のようなデータ構造の情報として予め記憶部7に設定しておくが、(3)の文字情報及び(4)の音声情報も同様のデータ構造の情報として、予め記憶部7に記憶させておく。すなわち、図3の[3]における情景画像132の部分を、文字情報や音声情報で置き換えたものとして記憶させておく。   In addition, in the presentation of the character information of (3) and the audio information of (4), as described in the second embodiment in the image information of (1), the presentation is performed according to the order of the routes. You may do it. As described above, the scene image in the image information (1) is set in advance in the storage unit 7 as data structure information such as [3] in FIG. 3, but the character information (3) and ( The voice information 4) is stored in advance in the storage unit 7 as information having the same data structure. That is, the scene image 132 in [3] of FIG. 3 is stored as replaced with character information or voice information.

以上、(1)〜(4)として、ユーザに対して経路案内サービスを提供するための、制御部5の制御により記憶部7から読み出して提示部6へ提示させる提示情報の各種類を説明した。当該各種の提示情報を提示するに際してはさらに、ユーザの置かれた状況に応じて適切な経路案内を実現するための工夫を施すことが可能である。   As described above, (1) to (4), each type of presentation information read from the storage unit 7 and presented to the presentation unit 6 under the control of the control unit 5 for providing a route guidance service to the user has been described. . When presenting the various types of presentation information, it is possible to further devise to realize appropriate route guidance according to the situation where the user is placed.

図6は、一実施形態に係る経路案内システム10の動作のフローチャートである。以下、図6を参照して当該動作における各ステップを説明すると共に、上記ユーザの状況に応じた適切な提示情報による経路案内の実現について説明する。   FIG. 6 is a flowchart of the operation of the route guidance system 10 according to an embodiment. Hereinafter, each step in the operation will be described with reference to FIG. 6, and the implementation of route guidance using appropriate presentation information according to the user's situation will be described.

ステップS1では、管理者等が情報を構築して、経路案内システム10に登録する。具体的には、図3で説明した情報をマニュアル等で取得して、記憶部7に記憶させる。なお、当該ステップS1は、経路案内システム10が経路案内を行うことができるようにするための準備段階に相当し、次のステップS2以降が実際の経路案内の段階となる。   In step S1, an administrator or the like builds information and registers it in the route guidance system 10. Specifically, the information described in FIG. 3 is acquired by a manual or the like and stored in the storage unit 7. The step S1 corresponds to a preparation stage for enabling the route guidance system 10 to perform route guidance, and the subsequent step S2 and subsequent steps are actual route guidance stages.

ステップS2では、経路案内システム10が、ユーザより目的地入力を入力部1にて受け付け、また、当該ユーザの操作により撮像部2にて、当該ユーザの見ている現在地の撮像画像を取得する。ステップS3では、経路案内システム10が、ステップS2で得た目的地及び撮像画像を用いて、認識部3及び探索部4を機能させることにより、経路探索を実施する。ステップS4では、経路案内システム10が、ステップS3の経路探索結果に応じて、制御部5及び提示部6を機能させることにより、ユーザに経路案内のために提示情報を提示する。   In step S2, the route guidance system 10 receives a destination input from the user at the input unit 1, and acquires a captured image of the current location viewed by the user at the imaging unit 2 by the operation of the user. In step S3, the route guidance system 10 performs a route search by causing the recognition unit 3 and the search unit 4 to function using the destination and the captured image obtained in step S2. In step S4, the route guidance system 10 presents presentation information for route guidance to the user by causing the control unit 5 and the presentation unit 6 to function according to the route search result in step S3.

以上、当該ステップS2〜S4により、ユーザの立場では、新規に経路案内を利用すべく、目的地入力と撮像画像の取得を行った後、最初の経路案内の情報として、現在地と目的地への経路とに応じた提示情報が提示されることとなる。ステップS5以降では、ユーザは目的地へ到達すべく移動しながら、継続して経路案内システム10を利用し、ユーザのその時の状況に応じた経路案内の情報を継続して受け取ることとなる。   As described above, after the steps S2 to S4, in order to newly use the route guidance, after the destination input and the acquisition of the captured image, the first route guidance information is obtained as the first route guidance information. The presentation information corresponding to the route is presented. After step S5, the user continues to use the route guidance system 10 while moving to reach the destination, and continuously receives route guidance information according to the current situation of the user.

ステップS5では、ユーザが新たに撮像部2で現在地の撮像画像を取得したか否かが経路案内システム10によって判定され、取得されていれば、当該取得した時点における最新の経路案内の情報を提供すべく、ステップS6以降へと進む。取得されていなければ、取得されるまで当該ステップS5を繰り返す。   In step S5, the route guidance system 10 determines whether or not the user has newly acquired a captured image of the current location by the imaging unit 2, and if it is acquired, provides the latest route guidance information at the time of acquisition. Therefore, the process proceeds to step S6 and subsequent steps. If not acquired, step S5 is repeated until it is acquired.

すなわち、本発明においては、ユーザがその時点における撮像画像を取得したことをトリガとして、経路案内システム10がその時点における経路案内を実現する。なお、撮像部2の説明にて前述のように、ユーザによる撮像画像の取得は、ユーザが望む時点ごとにユーザが撮像の操作を行うことによってなされてもよいし、撮像部2を眼鏡等のウェアラブル端末に付随させる等の形で構成しておき、所定のフレームレートで連続的に撮像画像が取得されてもよい。   That is, in the present invention, the route guidance system 10 realizes the route guidance at that time point, triggered by the user's acquisition of the captured image at that time point. Note that, as described above in the description of the imaging unit 2, the user may acquire the captured image by the user performing an imaging operation at each time point desired by the user. It may be configured such as being attached to a wearable terminal, and captured images may be continuously acquired at a predetermined frame rate.

ステップS6では、ステップS5で取得した撮像画像を用いて、認識部3が現在地を特定し、ステップS7へ進む。なお、現在地はノードとして特定される。また、ステップS6における特定においては、撮像画像から所定の撮像対象を認識できない等により、現在地が特定できない場合も、特定不可能な旨を結果として得たうえで、ステップS7へ進む。   In step S6, the recognition unit 3 identifies the current location using the captured image acquired in step S5, and the process proceeds to step S7. The current location is specified as a node. Further, in the identification in step S6, even if the current location cannot be identified because the predetermined imaging target cannot be recognized from the captured image, etc., the process proceeds to step S7 after obtaining that it cannot be identified as a result.

ステップS7では、ステップS6で特定された現在地が経路から逸脱しているか否かを認識部3が判定し、逸脱していればステップS8へと進み、逸脱していなければステップS9へと進む。具体的には、現在地とされたノードが、当該時点においてユーザへの提示対象となっている最新の経路情報を構成するノードでない場合には、逸脱していると判定し、それ以外の場合には逸脱していないと判定する。   In step S7, the recognizing unit 3 determines whether or not the current location specified in step S6 has deviated from the route. If deviating, the process proceeds to step S8, and if not deviating, the process proceeds to step S9. Specifically, if the node that is the current location is not a node that constitutes the latest route information that is to be presented to the user at the time, it is determined that the node has deviated, and otherwise Is determined not to deviate.

ステップS8では、探索部4が、当該経路より逸脱している現在地から、ステップS2で受け付けた目的地への経路を改めて探索し直すことで、ユーザへの提示対象としての経路情報を最新のものへと更新し、対応した提示情報を制御部5の制御のもとで提示部6に提示して、ステップS5へ戻る。   In step S8, the search unit 4 re-searches the route from the current location deviating from the route to the destination accepted in step S2, so that the latest route information as the target to be presented to the user is obtained. The corresponding presentation information is presented to the presentation unit 6 under the control of the control unit 5, and the process returns to step S5.

ステップS8における提示情報としては、上記(1)〜(4)として説明した画像情報等に加えてさらに、以前に提示した経路から逸脱した旨の情報(逸脱した旨を注意喚起する情報等)及び/又は逸脱したために経路が再設定された旨の情報を含むようにしてよい。当該逸脱した旨の提示の態様は、画像、文字、音声その他の種々が可能である。   As the presentation information in step S8, in addition to the image information and the like described as (1) to (4) above, information that deviates from the previously presented route (information that alerts the deviation) and the like Information indicating that the route has been reset due to deviation may be included. The image of the deviation can be presented in various forms such as images, characters, sounds, and the like.

ステップS8の実例として例えば、図4に示したフィールドで経路案内を行うこととなり、ユーザに当初提示された経路情報が、[C]に示すノードで「N1→N2→N4」であり、最初の地点N1から途中N2を経由して目的地N4へ向かうものであったとする。この場合、移動している途中でユーザの取得した撮像画像により、現在地がN3であると特定された場合には、経路から逸脱しているので、改めて経路が探索され、新たに経路「N3→N4」がユーザへの提示対象として設定されることとなる。   As an example of step S8, for example, route guidance is performed in the field shown in FIG. 4, and the route information initially presented to the user is “N1 → N2 → N4” at the node shown in [C]. It is assumed that the vehicle headed from the point N1 to the destination N4 via the route N2. In this case, if the current location is specified as N3 by the captured image acquired by the user while moving, the route is deviated from the route, so the route is searched again and a new route “N3 → N4 "is set as the presentation target to the user.

ステップS9では、ステップS6で特定された現在地が目的地であるか否かを認識部3が確認し、目的地である場合にはステップS10へと進み、それ以外の場合にはステップS11へと進む。ステップS10では、制御部5の制御により提示部6に目的地へ到達した旨の提示情報が提示され、図6のフローは終了する。当該目的地へ到達した旨の提示の態様は、画像、文字、音声その他の種々が可能である。   In step S9, the recognizing unit 3 confirms whether or not the current location specified in step S6 is the destination.If the current location is the destination, the process proceeds to step S10. Otherwise, the process proceeds to step S11. move on. In step S10, the presentation information indicating that the destination has been reached is presented to the presentation unit 6 under the control of the control unit 5, and the flow of FIG. 6 ends. The presentation of the arrival at the destination can be in various forms such as images, characters, voices, and the like.

ステップS11では、当該時点での経路情報上における現在地に対応した提示情報を制御部5の制御のもとで提示部6に提示して、ステップS5へ戻る。なお、ステップS11へ至る場合として、ステップS6で現在地をノードとして特定できた場合と、特定できなかった場合とがある。   In step S11, the presentation information corresponding to the current location on the route information at the time is presented to the presentation unit 6 under the control of the control unit 5, and the process returns to step S5. Note that there are cases where the current location can be identified as a node in step S6 and cases where the current location cannot be identified in step S6.

ここで、特定できなかった場合は、経路案内システム10の側の判断として、ユーザは経路に沿って正しく移動しているものの、現在地は特定できなかったものと判断する。そして、提示情報としては、直近の過去で現在地が特定できた際のものと同様のものを用いればよい。なお、現在地を特定できなかった事情としては、現在地が経路上のノード間の位置であって撮像対象の存在しない場所である、現在地はノード位置であるが(撮影方向などの影響で)撮像対象が撮像されていない、等がある。   Here, when it cannot be specified, it is determined as a determination on the side of the route guidance system 10 that the user is correctly moving along the route but the current location cannot be specified. And as presentation information, what is necessary is just to use the thing when the present location can be specified in the latest past. Note that the current location could not be specified because the current location is a position between nodes on the route and there is no imaging target, but the current location is the node position (due to the effect of shooting direction, etc.) Is not imaged.

一方、特定できた場合には、上記(1)〜(4)として説明した画像情報等に加えてさらに、当該時点に即した情報を提示情報として提示することができる。当該提示には以下のような種々の実施形態が可能である。   On the other hand, if it can be specified, in addition to the image information described as (1) to (4) above, information corresponding to the time point can be presented as presentation information. The following various embodiments are possible for the presentation.

一実施形態では、現在地をノードiとし、経路上の次のノードをi+1とした際に、経路に沿ってノードiからノードi+1へと到達するための情報(以下、誘導情報と呼ぶ)を、現在地に応じた形で提示するようにしてよい。誘導情報は、記憶部7に予め設定しておく。誘導情報は、上記(1)〜(4)の態様で構成することができる。   In one embodiment, when the current location is node i and the next node on the route is i + 1, information for reaching node i + 1 from node i along the route (hereinafter referred to as guidance information) May be presented according to the current location. The guidance information is set in the storage unit 7 in advance. The guidance information can be configured in the modes (1) to (4) above.

また、誘導情報を画像として構成し、当該現在地を特定する際に用いた撮像画像に重畳させることで、提示情報としてユーザに提示してもよい。この場合、ユーザの現に見ている情景にそのまま情報が重畳されるので、非常に直感的な経路案内が可能となる。   Further, the guidance information may be configured as an image and may be presented to the user as presentation information by superimposing it on the captured image used when specifying the current location. In this case, since the information is directly superimposed on the scene that the user is actually viewing, very intuitive route guidance is possible.

例えば、撮像画像に重畳させる画像としての誘導情報を、現在地から見て次のノードi+1の位置がどの傾き(水平方向に対する傾き)及び/又は方向(水平面上における方向)にあるかを示す情報とし、画像として表示させる際には、撮像画像の傾き及び/又は方向からの相対的変化として表示させる。なお、撮像画像の傾き及び方向については、周知のセンサ(重力センサや方位センサ等)を用いることにより、撮像部2の傾き及び方向として撮像画像と共に取得すればよい。   For example, the guidance information as an image to be superimposed on the captured image indicates the inclination (tilt with respect to the horizontal direction) and / or direction (direction on the horizontal plane) of the position of the next node i + 1 when viewed from the current location. When the information is displayed as an image, it is displayed as a relative change from the tilt and / or direction of the captured image. Note that the tilt and direction of the captured image may be acquired together with the captured image as the tilt and direction of the imaging unit 2 by using a known sensor (such as a gravity sensor or an orientation sensor).

図5の矢印A30は、当該撮像画像の傾き及び/又は方向に応じた誘導情報の例であり、撮像画像の傾き及び/又は方向において、次のノードi+1へ進むための傾き及び/又は方向がどのようになるかを、空間に配置された矢印の画像として表現したものである。当該矢印A30により、ユーザは駅の改札に進むべきことを直感的に把握できる。なお、前述の説明では画像G30は、ユーザが指定した情景画像G3を拡大したものとして説明したが、矢印A30を重畳させる対象としての画像G30は、撮像画像である。(図5では、2つの例を説明するために、画像G30の役割を併用させている。)   An arrow A30 in FIG. 5 is an example of guidance information corresponding to the inclination and / or direction of the captured image. In the inclination and / or direction of the captured image, the inclination and / or to advance to the next node i + 1. The direction is expressed as an image of arrows arranged in space. With the arrow A30, the user can intuitively understand that the user should proceed to the ticket gate of the station. In the above description, the image G30 is described as an enlarged view of the scene image G3 designated by the user, but the image G30 on which the arrow A30 is superimposed is a captured image. (In FIG. 5, in order to explain two examples, the role of the image G30 is used together.)

また、一実施形態では、地図構造情報を構成する各ノードにおいて、経路案内のための画像情報を記憶部7にて記憶させておき、且つその画像情報に、位置情報も定義しておき、現在地のノードiに対して、撮像画像に対して当該定義された位置情報の位置において重畳させたものを提示するようにしてもよい。   In one embodiment, image information for route guidance is stored in the storage unit 7 in each node constituting the map structure information, and position information is also defined in the image information, and the current location The node i may be presented by being superimposed on the captured image at the position of the defined position information.

具体的には、周知のAR(拡張現実)タグと同様の手法を利用して、撮像画像に対して重畳させて提示することができる。ただし、本発明においては、現実空間に配置するARタグそのものは不要であり、ARタグによって重畳されるのと同様の情報を、位置情報を予め定義した画像情報として重畳させて提示する。このためには、各ノードiに対して、当該ノード位置から見た相対的な位置情報を定義した画像情報を用意しておけばよい。   Specifically, it can be presented superimposed on a captured image using a technique similar to a known AR (augmented reality) tag. However, in the present invention, the AR tag itself arranged in the real space is not necessary, and the same information that is superimposed by the AR tag is presented by superimposing position information as predefined image information. For this purpose, image information that defines relative position information viewed from the node position may be prepared for each node i.

当該ARタグと同様の手法によって重畳される画像情報の内容については、経路に関連する所定内容とすることができる。例えば、経路に沿って進む際の方向を平面的又は空間的な矢印その他の画像によって、あるいは文字などによって、示すことができる。例えば、図4のフィールドの例で、経路「N1→N2→N4」の案内を行う場合に、ユーザがN1の側からN2に到達して撮像画像を取得した際に、当該撮像画像上における通路S1上に、右折すべき旨の看板としての画像情報を重畳させたものを提示するようにすることができる。   About the content of the image information superimposed by the method similar to the said AR tag, it can be set as the predetermined content relevant to a path | route. For example, the direction of traveling along the route can be indicated by a planar or spatial arrow or other image, or by characters. For example, in the example of the field of FIG. 4, when the route “N1 → N2 → N4” is guided, when the user arrives at N2 from the N1 side and acquires the captured image, the path on the captured image It is possible to present on the S1 the image information as a signboard indicating that it should turn right.

また、画像情報の内容として、経路自体が複数見えている中のどれであるかを、その領域を視覚表示することによって示すものを内容とすることができる。例えば、上記例で、経路「N1→N2→N4」の案内を行う場合に、ユーザがN1の側からN2に到達して撮像画像を取得した際に、通路S4のうちN4へ至る側の部分のみを枠で囲んで表示してよい。   Further, the content of the image information can indicate which of the plurality of routes is visible by visually displaying the area. For example, in the above example, when performing the guidance of the route “N1 → N2 → N4”, when the user reaches N2 from the N1 side and acquires the captured image, the portion of the path S4 on the side leading to N4 May be displayed in a frame.

また、上記ARタグと同様の手法における画像情報は、各ノードに複数設定しておき、ユーザが取得した撮像画像における傾き及び/又は方向に合致するもののみを、撮像画像に対して重畳させるようにしてもよい。なお、撮像画像における傾き及び/又は方向については前述同様、センサ等にて取得しておく。   In addition, a plurality of pieces of image information in the same method as the above AR tag are set in each node, and only those that match the inclination and / or direction in the captured image acquired by the user are superimposed on the captured image. It may be. Note that the tilt and / or direction in the captured image is acquired by a sensor or the like as described above.

例えば、図4のフィールドの例では、経路「N1→N2→N4」に沿ってN2に到達して撮像画像を取得した場合と、経路「N4→N2→N1」に沿ってN2に到達して撮像画像を取得した場合とでは、同じ場所N2であっても、方向が異なるので、別種類の画像を重畳させるようにしてもよい。   For example, in the example of the field of FIG. 4, when the captured image is acquired by reaching N2 along the route “N1 → N2 → N4”, and N2 is reached along the route “N4 → N2 → N1”. Even when the captured image is acquired, the direction is different even in the same place N2, and thus different types of images may be superimposed.

また、上記傾き及び/又は方向に合致するもののみを重畳させる際にさらに、当該傾き及び/又は方向から定まる所定範囲内に位置情報が存在する画像情報のみを、撮像画像に対して重畳させて提示するようにしてもよい。当該所定範囲は、当該傾き及び/又は方向において見えることが想定される所定範囲として設定すればよい。   In addition, when superimposing only those that match the tilt and / or direction, only image information having position information within a predetermined range determined from the tilt and / or direction is superimposed on the captured image. You may make it show. The predetermined range may be set as a predetermined range that is assumed to be visible in the inclination and / or direction.

例えば、撮像画像の傾き(水平方向の傾き)に応じて定まる水平方向の範囲内に限定して、画像情報を重畳させるようにしてもよく、撮像画像が下を向いて近辺の地面のみ狭く写している場合には、当該近辺の地面に限定して、撮像画像が広く水平方向を写している場合には、当該広く見えている水平方向の範囲において、画像情報を重畳させてよい。   For example, the image information may be superimposed only within a horizontal range determined according to the tilt (horizontal tilt) of the captured image, and the captured image is narrowed and only the nearby ground is captured. If the captured image is wide in the horizontal direction, the image information may be superimposed in the wide horizontal range, limited to the ground in the vicinity.

また、上記ARタグと同様の手法の画像情報を撮像画像に重畳させるに際して、本発明では特に、一般にARタグに要求される3次元空間上の位置情報の代わりに、より簡素化された情報として、対応するノードから見た際の傾き及び/又は方向のみを設定しておくようにしてもよい。そして、当該ノードにおいて取得された撮像画像における傾き及び/又は方向に所定範囲内で合致する画像情報のみを重畳対象として選別するようにしてもよい。   In addition, when superimposing image information of the same technique as the AR tag on a captured image, in the present invention, in particular, instead of position information in a three-dimensional space generally required for an AR tag, Only the inclination and / or direction when viewed from the corresponding node may be set. Then, only image information that matches the inclination and / or direction in the captured image acquired in the node within a predetermined range may be selected as a superimposition target.

また、以上のARタグと同様の手法の画像情報を、ARタグによって所定位置に表示させるようにしてもよい。この場合、位置情報が不要となる代わりに、ARタグを認識するための特徴量などの情報を記憶部7に記憶させておく必要がある。ARタグは、認識部3で認識させる撮像対象によって実現されてもよい。   Further, image information of the same technique as the above AR tag may be displayed at a predetermined position by the AR tag. In this case, information such as a feature amount for recognizing the AR tag needs to be stored in the storage unit 7 instead of needing position information. The AR tag may be realized by an imaging target that is recognized by the recognition unit 3.

以下、本発明における補足事項を述べる。   Hereinafter, supplementary matters in the present invention will be described.

(1)記憶部7で予め記憶させておく情景画像は、ユーザが情景を認識可能であれば足り、実際に自然画像として取得したもの以外にも、当該自然画像を加工したもの(重要なランドマーク等のみを抜粋したもの等)や、イラスト、CG(コンピュータグラフィック)等を用いてもよい。   (1) The scene image stored in advance in the storage unit 7 suffices if the user can recognize the scene. In addition to what is actually acquired as a natural image, an image obtained by processing the natural image (important land) It is also possible to use illustrations, CG (computer graphics), etc.

(2)認識部3では、以上の説明のように所定の撮像対象から画像特徴量を抽出して現在地を特定する実施形態に代えて、次のようにしてもよい。すなわち、可視光通信、赤外光通信等の送信装置による明滅情報に位置情報を埋め込んでおき、認識部3では当該明滅情報を解析することによって現在地を取得してよい。この場合、所定の撮像対象及びその画像特徴量等を記憶部7に設定しておくことが不要となるが、案内対象となるフィールドにおいて予め、上記機能を有する通信装置を設置しておく必要がある。なお、撮像部2においては明滅情報を得るべく、所定期間に渡る動画像として撮像を実施する必要があるが、経路案内のための情報を重畳する撮像画像としては、当該所定期間内にて得られるものを用いればよい。   (2) The recognition unit 3 may be configured as follows instead of the embodiment in which the image location is extracted from a predetermined imaging target and the current location is specified as described above. That is, position information may be embedded in blink information by a transmitter such as visible light communication or infrared light communication, and the recognition unit 3 may acquire the current location by analyzing the blink information. In this case, it is not necessary to set a predetermined imaging target and its image feature amount in the storage unit 7, but it is necessary to install a communication device having the above function in advance in the field to be guided. is there. In addition, in order to obtain flicker information in the imaging unit 2, it is necessary to perform imaging as a moving image over a predetermined period. However, a captured image on which information for route guidance is superimposed is obtained within the predetermined period. What is necessary is just to use.

(3)経路案内のためにユーザに提示する情景画像は、地図構造情報上のノード毎に用意しておくが、さらなる属性として、時間帯ごと、傾き及び/又は方向ごと、天気ごと、に用意しておいて、ユーザが撮像画像を取得した際の属性に合致するものを提示対象とするようにしてもよい。例えば、時間帯の属性を設けておき、ユーザが撮像画像を取得したのが昼の場合と夜の場合とで対応する別の情景画像を提示するようにしてよい。一般に(屋内等でなければ)昼と夜とでは情景は異なるので、当該区別を設けることで適切な経路案内が実現可能である。   (3) A scene image to be presented to the user for route guidance is prepared for each node on the map structure information, but as additional attributes, prepared for each time zone, every inclination and / or direction, every weather In this regard, an object that matches the attribute when the user acquires the captured image may be the presentation target. For example, a time zone attribute may be provided so that different scene images corresponding to the case where the user has acquired the captured image are daytime and nighttime may be presented. Generally, since the scene is different between daytime and night (unless indoors or the like), appropriate route guidance can be realized by providing this distinction.

(4)認識部3で現在地の認識に成功した際は、対応する撮像画像が記憶部7に記憶されるが、当該記憶された後は、自動で常に最新の撮像画像を対応する情景画像として利用するようにしてもよいし、当初設定されているものを継続して利用してもよい。当該継続して利用する場合でも、記憶部7は随時最新の撮像画像が蓄積されるので、管理者等がマニュアルで適切な画像を選択して、新たな情景画像として設定することができる。   (4) When the recognition unit 3 succeeds in recognizing the current location, a corresponding captured image is stored in the storage unit 7. After the storage, the latest captured image is always automatically used as a corresponding scene image. You may make it utilize, and you may continue using what was initially set. Even in the case of continuous use, since the latest captured image is stored in the storage unit 7 at any time, an administrator or the like can manually select an appropriate image and set it as a new scene image.

(5)図6の説明においては、ステップS11において、現在地における当該時点に即した種々の提示情報を提示するものとして説明したが、同様の種々の情報を、初回に経路探索がなされたステップS4においても提示してよい。   (5) In the description of FIG. 6, it has been described that various presentation information corresponding to the current time point in the current location is presented in Step S11. However, Step S4 in which a route search is performed for the same various information for the first time. May also be presented.

10…経路案内システム、1…入力部、2…撮像部、3…認識部、4…探索部、5…制御部、6…提示部、7…記憶部   DESCRIPTION OF SYMBOLS 10 ... Route guidance system, 1 ... Input part, 2 ... Imaging part, 3 ... Recognition part, 4 ... Search part, 5 ... Control part, 6 ... Presentation part, 7 ... Memory | storage part

Claims (20)

ユーザの存在する現在地より、ユーザが入力する目的地へ至る経路案内を行う経路案内システムであって、
前記ユーザの存在する現在地における情景を撮像画像として取得する撮像部と、
前記撮像画像より所定の撮像対象を認識することで前記現在地を決定する認識部と、
前記決定された現在地より前記ユーザが入力する目的地へと至る経路を探索する探索部と、
ユーザに情報を提示する提示部と、
前記探索された経路に応じた経路案内のための提示情報であって、当該経路上における情景画像を含む提示情報を、前記提示部に提示させるように制御する制御部と、
前記認識部が所定の撮像対象を認識するための所定の画像特徴量及び前記認識部が前記現在地を決定するための所定の撮像対象に対応する位置情報と、前記探索部が前記経路を探索する対象としての経路構造情報と、前記制御部の制御により前記提示部に提示させる対象としての、位置情報に対応付けられた情景画像を含む提示情報と、を記憶する記憶部と、を備え、
前記認識部が前記現在地を決定することに成功した場合には、当該成功した際の撮像画像を当該決定された現在地の位置情報を紐付けて記憶部に記憶させ、失敗した場合には記憶させないことにより情景画像の経時変化を最新の認識対象として反映させる
ことを特徴とする経路案内システム。
A route guidance system that provides route guidance from a current location where a user exists to a destination input by the user,
An imaging unit that acquires a scene in the current location where the user exists as a captured image;
A recognition unit that determines the current location by recognizing a predetermined imaging target from the captured image;
A search unit that searches for a route from the determined current location to a destination input by the user;
A presentation unit for presenting information to the user;
A control unit for controlling the presentation unit to present presentation information including a scene image on the route, which is presentation information for route guidance according to the searched route;
A predetermined image feature amount for the recognition unit to recognize a predetermined imaging target, position information corresponding to the predetermined imaging target for the recognition unit to determine the current location, and the search unit to search for the route. A storage unit that stores route structure information as a target and presentation information including a scene image associated with position information as a target to be presented to the presenting unit under the control of the control unit;
When the recognition unit succeeds in determining the current location, the captured image at the time of success is stored in the storage unit in association with the position information of the determined current location, and is not stored in case of failure. A route guidance system that reflects a temporal change of a scene image as the latest recognition target.
前記所定の撮像対象の種類に、予め設置されている既存標識、QRコード(登録商標)、マーカー及びポスターのうちの一部又は全てが含まれることを特徴とする請求項1に記載の経路案内システム。   The route guidance according to claim 1, wherein the predetermined type of imaging target includes some or all of existing signs, QR codes (registered trademark), markers, and posters installed in advance. system. 前記記憶部が、前記成功した際の撮像画像を、前記紐付けられた位置情報における、前記提示部に提示させる対象としての情景画像または当該情景画像の候補として記憶することにより情景画像の経時変化を最新の提示情報として反映させることを特徴とする請求項1に記載の経路案内システム。   The storage unit stores the captured image at the time of success as a scene image as a target to be presented to the presenting unit in the associated position information or a candidate for the scene image, and changes over time of the scene image Is reflected as the latest presentation information. The route guidance system according to claim 1, wherein: ユーザは前記目的地と併せてさらに経路優先種別を入力し、
前記探索部は、前記入力された経路優先種別を考慮して経路を探索することを特徴とする請求項1ないし3のいずれかに記載の経路案内システム。
The user inputs a route priority type in addition to the destination,
4. The route guidance system according to claim 1, wherein the search unit searches for a route in consideration of the inputted route priority type.
前記制御部は、前記探索された経路に応じた画像情報、地図情報、文字情報、音声情報の全て又は一部を含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし4のいずれかに記載の経路案内システム。   The control unit controls the presentation unit to present presentation information including all or part of image information, map information, character information, and voice information corresponding to the searched route. The route guidance system according to any one of claims 1 to 4. 前記制御部は、前記探索された経路の各箇所における画像情報、文字情報、音声情報の全て又は一部を含む提示情報を、前記探索された経路に応じた順番で、前記提示部に提示させるように制御することを特徴とする請求項1ないし4のいずれかに記載の経路案内システム。   The control unit causes the presentation unit to present presentation information including all or part of image information, character information, and voice information in each part of the searched route in an order corresponding to the searched route. 5. The route guidance system according to claim 1, wherein the route guidance system is controlled as follows. 前記制御部は、前記決定された現在地の次に前記探索された経路上で到達すべき箇所の情景画像を含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし6のいずれかに記載の経路案内システム。   The control unit controls the presentation unit to present presentation information including a scene image of a place to be reached on the searched route next to the determined current location. The route guidance system according to any one of 1 to 6. 前記制御部は、前記探索された経路に沿って到達すべき各箇所の情景画像を到達すべき順に並べたものを含む提示画像を、前記提示部に提示させるように制御することを特徴とする請求項1ないし7のいずれかに記載の経路案内システム。   The control unit controls the presentation unit to present a presentation image including scene images arranged in order of arrival at scenes to be reached along the searched route. The route guidance system according to any one of claims 1 to 7. 前記制御部は、前記決定された現在地の次に前記探索された経路上で到達すべき箇所への誘導情報を含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし8のいずれかに記載の経路案内システム。   The control unit controls the presentation unit to present presentation information including guidance information to a place to be reached on the searched route next to the determined current location. Item 9. A route guidance system according to any one of Items 1 to 8. 前記制御部は、前記誘導情報を前記撮像画像に重畳させたものを含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし9のいずれかに記載の経路案内システム。   The route according to claim 1, wherein the control unit controls the presentation unit to present presentation information including the guidance information superimposed on the captured image. Guidance system. 前記重畳させる誘導情報が、前記撮像画像において、前記決定された現在地の次に前記探索された経路上で到達すべき箇所への傾き及び/又は方向を、前記撮像画像の傾き及び/又は方向からの相対的変化として示すものであることを特徴とする請求項10に記載の経路案内システム。   In the captured image, the guidance information to be superimposed indicates the inclination and / or direction to the place to be reached on the searched route next to the determined current location from the inclination and / or direction of the captured image. The route guidance system according to claim 10, wherein the route guidance system is shown as a relative change in the distance. 前記制御部は、前記決定された現在地に応じた画像情報であって、前記撮像画像に重畳されることによって前記探索された経路をその他の経路と区別してユーザに認識させるための画像情報を含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし11のいずれかに記載の経路案内システム。   The control unit includes image information corresponding to the determined current location, and image information for allowing a user to recognize the searched route by being superimposed on the captured image so as to be distinguished from other routes. The route guidance system according to any one of claims 1 to 11, wherein presentation information is controlled to be presented to the presentation unit. 前記制御部は、前記決定された現在地と、前記撮像画像の傾き及び/又は方向と、に応じた画像情報であって、前記撮像画像に重畳されることによって前記探索された経路をユーザに認識させるための画像情報を含む提示情報を、前記提示部に提示させるように制御することを特徴とする請求項1ないし12のいずれかに記載の経路案内システム。   The control unit recognizes the searched route by superimposing on the captured image, which is image information corresponding to the determined current location and the inclination and / or direction of the captured image. The route guidance system according to claim 1, wherein presentation information including image information to be displayed is controlled to be presented to the presentation unit. 前記画像情報は、位置情報と、傾き及び/又は方向と、によって区別されることで予め複数が用意されており、
前記制御部は、前記複数の中から、前記決定された現在地の位置情報と、前記撮像画像の傾き及び/又は方向に対する所定範囲内にある傾き及び/方向と、に合致するもののみを前記重畳させることを特徴とする請求項13に記載の経路案内システム。
A plurality of image information is prepared in advance by being distinguished by position information and inclination and / or direction,
The control unit only superimposes a plurality of the position information that matches the position information of the determined current location and the inclination and / or direction within a predetermined range with respect to the inclination and / or direction of the captured image from the plurality. The route guidance system according to claim 13, wherein
前記認識部が決定した現在地が、既に前記探索部で探索された経路から逸脱している場合には、前記探索部は、当該決定した現在地より、前記入力された目的地へ至る経路を再探索することを特徴とする請求項1ないし14のいずれかに記載の経路案内システム。   When the current location determined by the recognizing unit deviates from the route already searched by the search unit, the search unit re-searches a route from the determined current location to the input destination. The route guidance system according to any one of claims 1 to 14, wherein 前記再探索がなされた場合には、ユーザにその旨を通知することを特徴とする請求項15に記載の経路案内システム。   The route guidance system according to claim 15, wherein when the re-search is performed, the user is notified of the fact. 前記情景画像は、属性ごとに用意されており、
前記制御部は、属性ごとに用意された情景画像のうち、前記撮像画像の属性に一致するものを選択し、当該選択された情景画像を含む提示情報を前記提示部に提示させるように制御することを特徴とする請求項1ないし16のいずれかに記載の経路案内システム。
The scene image is prepared for each attribute,
The control unit selects a scene image prepared for each attribute that matches the attribute of the captured image, and controls the presentation unit to present presentation information including the selected scene image. The route guidance system according to any one of claims 1 to 16, wherein
前記属性が、時間帯であることを特徴とする請求項17に記載の経路案内システム。   The route guidance system according to claim 17, wherein the attribute is a time zone. コンピュータを、請求項1ないし18のいずれかに記載の経路案内システムとして機能させることを特徴とする経路案内プログラム。   A route guidance program for causing a computer to function as the route guidance system according to any one of claims 1 to 18. ユーザの存在する現在地より、ユーザが入力する目的地へ至る経路案内を行うようにソフトウエアによりコンピュータを機能させる経路案内システムが備える経路案内方法であって、
前記ユーザの存在する現在地における情景を撮像画像として取得する撮像ステップと、
前記撮像画像より所定の撮像対象を認識することで前記現在地を決定する認識ステップと、
前記決定された現在地より前記ユーザが入力する目的地へと至る経路を探索する探索ステップと、
前記探索された経路に応じた経路案内のための提示情報であって、当該経路上における情景画像を含む提示情報を、ユーザに情報を提示する提示デバイスに提示させるように制御する制御ステップと、を備え、
前記認識ステップは、所定の撮像対象を前記認識するための所定の画像特徴量及び現在地を前記決定するための所定の撮像対象に対応する位置情報を参照して実行され、前記探索ステップは、前記経路を探索する対象としての経路構造情報を参照して実行され、前記制御ステップは、位置情報に対応付けられた情景画像を含む提示情報を参照して実行されるとともに、
前記提示情報は、前記撮像ステップで取得した撮像画像について、前記認識ステップが前記現在地を決定することに成功した場合には、当該成功した際の撮像ステップで取得した撮像画像を当該決定された現在地の位置情報を紐付けて記憶部に記憶させ、失敗した場合には記憶させないことにより情景画像の経時変化を反映させる
ことを特徴とする経路案内方法。
A route guidance method provided in a route guidance system that causes a computer to function by software so as to perform route guidance from a current location where a user exists to a destination input by the user ,
An imaging step of acquiring a scene in the current location where the user exists as a captured image;
A recognition step of determining the current location by recognizing a predetermined imaging target from the captured image;
A search step for searching for a route from the determined current location to a destination input by the user;
A control step of controlling the presentation information for route guidance according to the searched route, including presentation information including a scene image on the route to be presented to a presentation device that presents information to the user; With
The recognition step is executed with reference to a predetermined image feature amount for recognizing a predetermined imaging target and position information corresponding to the predetermined imaging target for determining the current location, and the searching step includes The control step is executed with reference to presentation information including a scene image associated with the position information, and is executed with reference to route structure information as a target for searching for a route.
When the recognition step succeeds in determining the current location for the captured image acquired in the imaging step, the presentation information indicates the captured current image acquired in the successful imaging step as the determined current location. The route guidance method is characterized in that the positional information of the scene image is linked and stored in the storage unit, and the change with time of the scene image is reflected by not storing the location information when it fails .
JP2014001622A 2014-01-08 2014-01-08 Route guidance system, method and program Active JP6384898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014001622A JP6384898B2 (en) 2014-01-08 2014-01-08 Route guidance system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001622A JP6384898B2 (en) 2014-01-08 2014-01-08 Route guidance system, method and program

Publications (2)

Publication Number Publication Date
JP2015129696A JP2015129696A (en) 2015-07-16
JP6384898B2 true JP6384898B2 (en) 2018-09-05

Family

ID=53760521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001622A Active JP6384898B2 (en) 2014-01-08 2014-01-08 Route guidance system, method and program

Country Status (1)

Country Link
JP (1) JP6384898B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111034A (en) * 2015-12-17 2017-06-22 株式会社日立ソリューションズ Terminal having camera, navigation information providing system, and navigation information display method
JP7001711B2 (en) * 2017-12-01 2022-01-20 マクセル株式会社 A position information system that uses images taken by a camera, and an information device with a camera that uses it.
JP6946203B2 (en) * 2018-01-23 2021-10-06 東芝テック株式会社 Transmitter search device and its program
TWI672482B (en) * 2018-06-08 2019-09-21 林器弘 Indoor navigation system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3517911B2 (en) * 1993-10-29 2004-04-12 トヨタ自動車株式会社 Route guidance device for vehicles
JP3779577B2 (en) * 2001-09-04 2006-05-31 株式会社東芝 Display method in navigation device
JP2005221407A (en) * 2004-02-06 2005-08-18 Matsushita Electric Ind Co Ltd Navigation system
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
WO2008044309A1 (en) * 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2010122093A (en) * 2008-11-20 2010-06-03 Alpine Electronics Inc Portable navigation device and its route searching method
JP5294827B2 (en) * 2008-12-22 2013-09-18 三洋電機株式会社 Image collection device, server device, and image collection / distribution system
JP2011094992A (en) * 2009-10-27 2011-05-12 Jvc Kenwood Holdings Inc Navigation device, navigation method and navigation program
JP5898856B2 (en) * 2011-04-28 2016-04-06 富士通テン株式会社 Server device, in-vehicle device, program, information processing system, and in-vehicle terminal
JP2013145176A (en) * 2012-01-13 2013-07-25 Toshiba Corp Road guide system

Also Published As

Publication number Publication date
JP2015129696A (en) 2015-07-16

Similar Documents

Publication Publication Date Title
US11604077B2 (en) Systems and method for using visual landmarks in initial navigation
JP5728775B2 (en) Information processing apparatus and information processing method
EP2458336B1 (en) Method and system for reporting errors in a geographic database
CN106895839A (en) A kind of indoor positioning air navigation aid based on scanning identification code
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
US20090063047A1 (en) Navigational information display system, navigational information display method, and computer-readable recording medium
JP6384898B2 (en) Route guidance system, method and program
KR102622585B1 (en) Indoor navigation apparatus and method
CN111104612B (en) Intelligent scenic spot recommendation system and method realized through target tracking
EP3827222B1 (en) Method and device for navigating two or more users to a meeting location
JP2011113245A (en) Position recognition device
JP2012194058A (en) Destination guidance system and destination guidance apparatus
JP2014185925A (en) Guide server, guide method, and guide program
JP4637133B2 (en) Guidance system, guidance server device, guidance method and program implementing the method
JP2006221109A (en) Real estate property information display system
US20150178567A1 (en) System for providing guide service
KR102157999B1 (en) Apparatus and method for automatically recognizing local information through focusing around a user
JP5131803B2 (en) Map display system for mobile information devices
KR101298071B1 (en) Destination route guidance method and system
KR20200127107A (en) Visualization System of Regional Commercial Areas Using Augmented Reality
JP6419603B2 (en) Information processing device, position display system
US20220196407A1 (en) Method for indoor route planning and automatic marker making for indoor navigation using markers
Chernykh et al. Development of a Navigation System on the University Territory Using Augmented Reality Technology
Gandhi et al. A* Algorithm and Unity for Augmented Reality-based Indoor Navigation.
JP2014092463A (en) Map display system for mobile information device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160729

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180802

R150 Certificate of patent or registration of utility model

Ref document number: 6384898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150