JP2022055218A - Route guide device, route guide system, and program - Google Patents

Route guide device, route guide system, and program Download PDF

Info

Publication number
JP2022055218A
JP2022055218A JP2020162681A JP2020162681A JP2022055218A JP 2022055218 A JP2022055218 A JP 2022055218A JP 2020162681 A JP2020162681 A JP 2020162681A JP 2020162681 A JP2020162681 A JP 2020162681A JP 2022055218 A JP2022055218 A JP 2022055218A
Authority
JP
Japan
Prior art keywords
route guidance
map
guidance device
image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020162681A
Other languages
Japanese (ja)
Inventor
若辰 司
Ruochen Si
亮介 柴崎
Ryosuke Shibazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2020162681A priority Critical patent/JP2022055218A/en
Priority to PCT/JP2021/034579 priority patent/WO2022065304A1/en
Publication of JP2022055218A publication Critical patent/JP2022055218A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Abstract

To provide a route guide device capable of providing route guidance in various spaces including indoors, and a route guidance system and a program.SOLUTION: A route guide device is configured to perform the steps of: acquiring a piece of map information in which a position where a key image is displayed is specified by the map coordinate system; detecting a key image from image data which is picked up from the vicinity of the route guide device; and acquiring relative position information between the key image in a given virtual space coordinate system and the route guide device on the basis of the detected key image. The route guide device is further configured to acquire position information in the map of the map coordinate system of the route guide device using the acquired map information and the acquired relative position information, and provide the acquired position information in the map for predetermined processing to search and guide the route.SELECTED DRAWING: Figure 1

Description

本発明は、経路案内装置、経路案内システム、及びプログラムに関する。 The present invention relates to a route guidance device, a route guidance system, and a program.

近年ではGPS(Global Positioning System)を用いた経路案内システムが普及し、屋外等、GPSの信号を受信可能な場所では、スマートフォン等で動作するアプリケーションプログラム等による経路案内システムが広く利用されている。 In recent years, a route guidance system using a GPS (Global Positioning System) has become widespread, and a route guidance system using an application program or the like running on a smartphone or the like is widely used in places where GPS signals can be received, such as outdoors.

特開2020-034531号公報Japanese Unexamined Patent Publication No. 2020-034531

この従来の経路案内システムでは、屋内等GPSの信号を受信できない場所での経路案内を行うことはできなかった。そこで、例えば特許文献1に開示された技術のように、ビーコン信号を用いて経路を案内する技術が考えられている。 With this conventional route guidance system, it is not possible to perform route guidance in a place where GPS signals cannot be received, such as indoors. Therefore, for example, a technique for guiding a route using a beacon signal, such as the technique disclosed in Patent Document 1, has been considered.

しかしながらビーコン信号を用いた経路案内技術では、案内を受けようとする利用者の、ビーコン信号の発信元に対する向きなどといった相対位置の情報が取得できないので、案内の方法に制限があった。 However, in the route guidance technology using a beacon signal, information on the relative position such as the direction of the user who is going to receive the guidance with respect to the source of the beacon signal cannot be acquired, so that the guidance method is limited.

本発明は上記実情に鑑みて為されたもので、屋内を含む種々の空間での経路案内を行うことのできる経路案内装置、経路案内システム、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and one of the objects thereof is to provide a route guidance device, a route guidance system, and a program capable of performing route guidance in various spaces including indoors. do.

上記従来例の問題点を解決する本発明の一態様は、エッジを組み合わせた経路を案内する経路案内装置であって、前記エッジ近傍には、所定のキー画像が、複数の箇所に掲示されており、所定の地図座標系によりエッジを規定する地図情報であって、少なくとも前記キー画像が掲示された位置が、前記地図座標系により規定されている地図情報を取得する地図情報取得手段と、前記経路案内装置の周辺を撮像し、当該撮像された画像データを出力する撮像手段と、前記画像データから前記キー画像を検出するキー検出手段と、前記検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置との相対的位置情報を取得する相対位置取得手段と、前記取得した地図情報と前記取得した相対的位置情報とを用いて、経路案内装置の前記地図座標系の地図内位置情報を取得する地図内位置情報取得手段と、を有し、当該取得した地図内位置情報を、前記エッジに沿った経路を検索して案内する所定の処理に供することとしたものである。 One aspect of the present invention that solves the problems of the above-mentioned conventional example is a route guidance device that guides a route in which edges are combined, and predetermined key images are posted at a plurality of places in the vicinity of the edges. The map information acquisition means for acquiring the map information defined by the map coordinate system at least at the position where the key image is posted, which is the map information defining the edge by the predetermined map coordinate system, and the above. A predetermined virtual space based on an imaging means that captures an image of the surroundings of a route guidance device and outputs the captured image data, a key detecting means that detects the key image from the image data, and the detected key image. The map of the route guidance device using the key image in the coordinate system, the relative position acquisition means for acquiring the relative position information of the route guidance device, and the acquired map information and the acquired relative position information. It has an in-map position information acquisition means for acquiring in-map position information of a coordinate system, and uses the acquired in-map position information for a predetermined process of searching and guiding a route along the edge. It was done.

本発明によると、屋内を含む種々の空間での経路案内を行うことが可能となる。 According to the present invention, it is possible to provide route guidance in various spaces including indoors.

本発明の実施の形態に係る経路案内システムの例を表す構成ブロック図である。It is a block diagram which shows the example of the route guidance system which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内システムで利用される地図情報の内容例を表す説明図である。It is explanatory drawing which shows the content example of the map information used in the route guidance system which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置の座標変換の例を表す説明図である。It is explanatory drawing which shows the example of the coordinate conversion of the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置が表示する経路案内画面の例を表す説明図である。It is explanatory drawing which shows the example of the route guidance screen displayed by the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置による座標変換の別の例を表す説明図である。It is explanatory drawing which shows another example of the coordinate transformation by the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置の動作例を表すフローチャート図である。It is a flowchart which shows the operation example of the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置による経路案内処理の概要を表すフローチャート図である。It is a flowchart which shows the outline of the route guidance processing by the route guidance apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る経路案内装置による座標変換のさらに別の例を表す説明図である。It is explanatory drawing which shows still another example of the coordinate transformation by the route guidance apparatus which concerns on embodiment of this invention.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る経路案内装置10を含む経路案内システム1は、通路など利用者が通行可能な経路をエッジとして、当該エッジの近傍に所定のキー画像を掲示した施設等で用いられる。 An embodiment of the present invention will be described with reference to the drawings. The route guidance system 1 including the route guidance device 10 according to the embodiment of the present invention is used in a facility or the like in which a predetermined key image is posted in the vicinity of the edge, with the route that the user can pass through such as a passage as an edge. ..

ここでキー画像は、矩形状の平面に表された画像であり、例えばバーコードや、二次元バーコード等のコンピュータ可読な符号画像を含んでよい。もっともキー画像は、これらの例に限られず、キー画像は例えば店舗の広告や看板そのものであっても構わない。本実施の形態の例ではキー画像は、当該キー画像をエッジ近傍の壁面等に掲示するためのフレームなどの支持部材で支持される。以下では、このキー画像と支持部材とをキー画像掲示体と呼ぶ。 Here, the key image is an image represented on a rectangular plane, and may include a computer-readable code image such as a bar code or a two-dimensional bar code. However, the key image is not limited to these examples, and the key image may be, for example, a store advertisement or a signboard itself. In the example of this embodiment, the key image is supported by a support member such as a frame for posting the key image on a wall surface or the like near the edge. In the following, this key image and the support member will be referred to as a key image bulletin board.

本実施の形態の経路案内システム1は、図1に例示するように、利用者が携帯する経路案内装置10と、この経路案内装置10に対してネットワークを介してアクセス可能に接続された地図情報サーバ20とを含んで構成される。 As illustrated in FIG. 1, the route guidance system 1 of the present embodiment has a route guidance device 10 carried by a user and map information connected to the route guidance device 10 so as to be accessible via a network. It is configured to include the server 20.

また、本実施の形態の例では、経路案内システム1の管理者は、予め地図情報を生成しておく。この地図情報は図2(a)に例示するように、経路案内を行う施設内や地域の地図画像(ラスタライズされた画像でもよいし、ベクタ画像であっても構わない)と、当該地図画像に示された施設や地域において利用者が通行可能な経路に沿って、エッジ及びノード(エッジの端点)を規定したものである。本実施の形態の例では、エッジやノードは、予め定められた地図座標系内の座標により規定される。 Further, in the example of the present embodiment, the administrator of the route guidance system 1 generates map information in advance. As illustrated in FIG. 2A, this map information includes a map image of the facility or area where route guidance is performed (a rasterized image or a vector image may be used) and the map image. It defines edges and nodes (edge endpoints) along the routes that users can pass through in the facilities and areas shown. In the example of this embodiment, the edges and nodes are defined by the coordinates in the predetermined map coordinate system.

また、この地図情報には、キー画像が掲示されている位置及び向きが、この地図座標系の座標やベクトルとして規定されているものとする。ここで地図座標系は、例えば地表の所定の位置を原点として、地表面に平行な面(地表面は近似的に平面であるとする)にX′Z′直交座標系を設定し、地表面に鉛直な方向(鉛直上方を正の向きとしてよい)をY′軸とした右手系のX′Y′Z′直交座標とすればよい。またこのとき、X′軸正の方向またはZ′軸正の方向を北向きに設定してもよい。 Further, in this map information, it is assumed that the position and direction in which the key image is posted are defined as the coordinates or vectors of this map coordinate system. Here, in the map coordinate system, for example, an X'Z'orthogonal coordinate system is set on a plane parallel to the ground surface (assuming that the ground surface is approximately a plane) with a predetermined position on the ground surface as the origin, and the ground surface is set. The X'Y'Z'cartesian coordinates of the right-handed system with the Y'axis in the vertical direction (the vertical direction may be the positive direction) may be used. At this time, the positive direction of the X'axis or the positive direction of the Z'axis may be set to the north.

具体的に図2(a)の例では、利用者が通行可能な通路P上に複数のエッジEa,Eb…及び、エッジEの端点であるノードMa,Mb…が設定されている。また、この図2の例ではエッジEの近傍にキー画像の地図座標系内での掲示位置Qと、当該掲示位置に掲示されたキー画像を特定する情報Sとを関連付けて記録している。 Specifically, in the example of FIG. 2A, a plurality of edges Ea, Eb ... And nodes Ma, Mb ..., Which are end points of the edges E, are set on the passage P through which the user can pass. Further, in the example of FIG. 2, the posting position Q of the key image in the map coordinate system is recorded in the vicinity of the edge E in association with the information S for specifying the key image posted at the posting position.

さらに地図情報には、図2(b)に示すように、キー画像を特定する情報Sに関連付けて、キー画像の地図座標系内での掲示位置Qを表す情報と、キー画像の地図座標系での方向(キー画像の面に対する法線方向でよい)Qd,及びキー画像の実際のサイズQsを表す情報などが記録されて含まれている。 Further, as shown in FIG. 2B, the map information includes information representing the posting position Q of the key image in the map coordinate system and the map coordinate system of the key image in association with the information S for specifying the key image. Information indicating the direction (which may be the normal direction with respect to the surface of the key image) Qd and the actual size Qs of the key image is recorded and included.

この地図情報には、これらのほか、例えば施設内での店舗の位置(地図座標系で表す)など、利用者が目的地として設定可能な位置が予め設定されていてもよい。 In addition to these, the map information may be preset with a position that can be set as a destination by the user, such as the position of a store in the facility (represented by a map coordinate system).

ここでキー画像を特定する情報は、キー画像に符号画像が含まれる場合には、当該符号画像を復号して得られる復号データでよい。また、キー画像が符号画像を含まないものであるときには、キー画像そのもの、あるいはキー画像に基づいて得られる特徴量等、撮像された画像データからキー画像を検索するために必要な情報(画像から所定のキーとなる画像部分を検索する方法は広く知られた種々の方法を採用できるのでここでの詳しい説明は省略する)となっていればどのようなものでも構わない。 Here, the information for specifying the key image may be decoded data obtained by decoding the coded image when the key image includes the coded image. Further, when the key image does not include the coded image, the information necessary for searching the key image from the captured image data such as the key image itself or the feature amount obtained based on the key image (from the image). As a method for searching an image portion that is a predetermined key, various well-known methods can be adopted, so detailed description here is omitted).

なお、ここではエスカレータやエレベータ、階段などを通じて接続された複数のフロアがある場合を示しているため、各フロアに対応する地図情報と、各フロアにおいて互いに対応するノードMを特定する情報を設定している。一例として、図2では、第1のフロアの地図情報Aと、第2のフロアの地図情報Bとが示され、それぞれ対応する位置にあるノードMx(エスカレータの中間点)が双方に設定されている状態を示している。 Since the case where there are multiple floors connected through escalators, elevators, stairs, etc. is shown here, map information corresponding to each floor and information specifying nodes M corresponding to each other are set on each floor. ing. As an example, in FIG. 2, map information A on the first floor and map information B on the second floor are shown, and node Mx (intermediate point of the escalator) at the corresponding positions is set in both. It shows the state of being.

本実施の形態では、地図情報は、地図情報サーバ20に蓄積される。具体的に地図情報サーバ20は、地図情報と、地図情報に対応する施設や建物等を特定する情報とを関連付けて保持する。この地図情報サーバ20は、ネットワークを介して施設や建物等を特定する情報とともに、地図情報の要求を受け入れる。地図情報サーバ20は、この地図情報の要求に応答して、当該要求とともに受け入れた情報で特定される施設や建物に対応する地図情報を読み出し、当該読み出した地図情報を、要求元のスマートフォン等に対して、ネットワークを介して送出する。 In the present embodiment, the map information is stored in the map information server 20. Specifically, the map information server 20 holds the map information in association with the information that identifies the facility, building, or the like corresponding to the map information. The map information server 20 accepts a request for map information as well as information for identifying a facility, a building, or the like via a network. In response to the request for the map information, the map information server 20 reads out the map information corresponding to the facility or building specified by the information received together with the request, and transfers the read map information to the requesting smartphone or the like. On the other hand, it is sent via the network.

さらに本実施の形態の経路案内システム1は、利用者が携帯する経路案内装置10を含む。この経路案内装置10は、例えばスマートフォン等でよく、具体的には図1に例示したように、制御部11、記憶部12、操作部13、表示部14、撮像部15及び通信部16を含んで構成される。 Further, the route guidance system 1 of the present embodiment includes a route guidance device 10 carried by the user. The route guidance device 10 may be, for example, a smartphone or the like, and specifically, as illustrated in FIG. 1, includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, an image pickup unit 15, and a communication unit 16. Consists of.

制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、経路案内装置10として動作するスマートフォンなどの本来の機能を果たすための処理を行うほか、地図情報サーバ20にアクセスして、地図情報を取得して次の経路案内の処理を行う。 The control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In the present embodiment, the control unit 11 performs processing for fulfilling the original function of a smartphone or the like that operates as the route guidance device 10, and also accesses the map information server 20 to acquire map information and next. Processes the route guidance of.

すなわち本実施の形態の例に係る経路案内装置10の制御部11は、経路案内装置10自身の周辺を撮像した画像データを撮像部15から受け入れ、当該画像データからキー画像を検出するための処理を実行する。ここでキー画像を検出すると、制御部11は、当該検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置10との相対的位置情報を表す情報を取得する。 That is, the control unit 11 of the route guidance device 10 according to the example of the present embodiment is a process for receiving image data obtained by capturing an image of the periphery of the route guidance device 10 itself from the image pickup unit 15 and detecting a key image from the image data. To execute. When the key image is detected here, the control unit 11 acquires information representing the relative position information between the key image in the predetermined virtual space coordinate system and the route guidance device 10 based on the detected key image. ..

また制御部11は、上記取得した地図情報と相対的位置情報とを用いて、経路案内装置10の地図座標系の地図内位置情報を取得し、当該取得した地図内位置情報を、エッジに沿った経路を検索して案内する所定の処理に供する。この制御部11の経路案内についての具体的な処理の内容については後に述べる。 Further, the control unit 11 acquires the position information in the map of the map coordinate system of the route guidance device 10 by using the acquired map information and the relative position information, and uses the acquired position information in the map along the edge. It is used for a predetermined process of searching for and guiding the route. The specific contents of the processing for the route guidance of the control unit 11 will be described later.

記憶部12は、メモリデバイス等であり、制御部11が実行するプログラム等を保持する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよいし、ネットワークを介してダウンロードされたものであってもよい。また、本実施の形態では、この記憶部12は制御部11のワークメモリとしても動作する。 The storage unit 12 is a memory device or the like, and holds a program or the like executed by the control unit 11. This program may be provided stored in a computer-readable and non-temporary recording medium, copied to the storage unit 12, or downloaded via a network. Further, in the present embodiment, the storage unit 12 also operates as a work memory of the control unit 11.

操作部13は、タッチパネル等であり、利用者の指示操作を受けて、当該指示操作の内容を表す情報を、制御部11に出力する。表示部14は、タッチパネルの下方に積層されたディスプレイ等であり、制御部11から入力される指示に従って、情報を表示出力する。 The operation unit 13 is a touch panel or the like, and receives an instruction operation by the user and outputs information indicating the content of the instruction operation to the control unit 11. The display unit 14 is a display or the like stacked below the touch panel, and displays and outputs information according to an instruction input from the control unit 11.

撮像部15は、カメラ等であり、経路案内装置10周辺を撮像した画像を逐次的に取得し、当該取得した画像のデータを制御部11に順次出力する。 The image pickup unit 15 is a camera or the like, and sequentially acquires images captured around the route guidance device 10, and sequentially outputs the data of the acquired images to the control unit 11.

通信部16は、無線ネットワークインタフェースを含む。この通信部16は、ネットワークを介して無線にて受信した情報を制御部11に出力する。また通信部16は、制御部11から入力された指示に従って、ネットワークを介して情報を送出する。なお、この通信部16は、例えば経路案内装置10がスマートフォンであれば、携帯電話網を介した通信を行うための構成を備えていてもよい。 The communication unit 16 includes a wireless network interface. The communication unit 16 outputs the information received wirelessly via the network to the control unit 11. Further, the communication unit 16 transmits information via the network according to the instruction input from the control unit 11. If the route guidance device 10 is a smartphone, for example, the communication unit 16 may have a configuration for performing communication via a mobile phone network.

次に、経路案内装置10の制御部11による、具体的な経路案内の処理の内容について説明する。この処理を行う制御部11は、図3に例示するように、地図情報取得部21と、キー検出部22と、相対位置取得部23と、地図内位置情報取得部24と、経路案内処理部25と、情報出力部26とを、機能的に含んで構成される。 Next, the content of specific route guidance processing by the control unit 11 of the route guidance device 10 will be described. As illustrated in FIG. 3, the control unit 11 that performs this processing includes a map information acquisition unit 21, a key detection unit 22, a relative position acquisition unit 23, a map position information acquisition unit 24, and a route guidance processing unit. The 25 and the information output unit 26 are functionally included.

なお、以下の説明において制御部11は、現実の床面に平行な面にXZ直交座標を配し、この面に鉛直な方向(上方向を正の方向とする)をY軸とした仮想空間座標系を設定し、この仮想空間座標系と、地図情報の座標系である地図座標系とを用いた処理を行う。またここで仮想空間座標系のX軸あるいはZ軸の方向は、例えば、利用者が経路案内装置10を起動した時点で経路案内装置10が向いている方向(撮像部15が撮像する画角の中心方向)をX軸正の方向としたときの右手系のXYZ座標系を仮想空間座標系とすればよい。もっとも仮想空間座標系の設定方法はこれに限られず、例えば経路案内装置10が内蔵する地磁気計等により北向きが検出できる場合は北方向をX軸正の方向としてもよい。 In the following description, the control unit 11 arranges XZ Cartesian coordinates on a surface parallel to the actual floor surface, and a virtual space having a vertical direction (the upward direction is a positive direction) as the Y axis on this surface. A coordinate system is set, and processing is performed using this virtual space coordinate system and the map coordinate system, which is the coordinate system of map information. Further, here, the direction of the X-axis or the Z-axis of the virtual space coordinate system is, for example, the direction in which the route guidance device 10 is facing when the user activates the route guidance device 10 (the angle of view imaged by the image pickup unit 15). The XYZ coordinate system of the right-handed system when the (center direction) is the positive direction of the X axis may be the virtual space coordinate system. However, the method of setting the virtual space coordinate system is not limited to this, and for example, if the north direction can be detected by a geomagnetometer or the like built in the route guidance device 10, the north direction may be the positive direction of the X-axis.

地図情報取得部21は、地図情報サーバ20にアクセスして地図情報を取得する。本実施の形態の一例では、利用者が自己の所在する施設の施設名等を入力する。地図情報取得部21は、地図情報サーバ20に対して当該入力された施設名の施設に対応する地図情報を要求する。地図情報取得部21は、地図情報サーバ20から地図情報を受け入れると、当該地図情報を記憶部12に格納する。 The map information acquisition unit 21 accesses the map information server 20 to acquire map information. In an example of this embodiment, the user inputs the facility name of the facility where he / she is located. The map information acquisition unit 21 requests the map information server 20 for map information corresponding to the facility with the input facility name. When the map information acquisition unit 21 receives the map information from the map information server 20, the map information acquisition unit 21 stores the map information in the storage unit 12.

キー検出部22は、この経路案内の処理中、撮像部15に対して、経路案内装置10の周辺を逐次的に撮像させ、当該撮像により得られた画像データを出力するよう制御しておく。キー検出部22は、撮像部15が逐次的に撮像して出力する画像データを受け入れて、当該画像データからキー画像を検出する。キー検出部22は、検出したキー画像の仮想空間座標系での位置(XZ面内の位置でもよい)及びその向き(キー画像の面に対する法線方向)を表す情報を出力する。 During this route guidance process, the key detection unit 22 controls the image pickup unit 15 to sequentially image the periphery of the route guidance device 10 and output the image data obtained by the image pickup. The key detection unit 22 receives the image data that the image pickup unit 15 sequentially captures and outputs, and detects the key image from the image data. The key detection unit 22 outputs information indicating the position (may be a position in the XZ plane) of the detected key image in the virtual space coordinate system and its direction (normal direction with respect to the plane of the key image).

ここでキー画像がコンピュータ可読な符号画像を含む場合には、キー検出部22は、撮像された画像データからキー画像となる、コンピュータ可読な符号画像を検出する。このような、画像データのうちから符号画像を検出する処理については、広く知られた方法を採用できるので、ここでの詳しい説明は省略する。 Here, when the key image includes a computer-readable code image, the key detection unit 22 detects a computer-readable code image, which is a key image, from the captured image data. As for such a process of detecting a coded image from image data, a widely known method can be adopted, and thus detailed description thereof will be omitted here.

キー検出部22は、検出したキー画像に含まれる符号画像を復号して復号データを得る。そして当該復号データをキーとして、地図情報取得部21が取得した地図情報から、検出したキー画像の地図座標上での位置を表す情報を検索して取得する。 The key detection unit 22 decodes the coded image included in the detected key image to obtain the decoded data. Then, using the decoded data as a key, the information indicating the position of the detected key image on the map coordinates is searched and acquired from the map information acquired by the map information acquisition unit 21.

そしてキー検出部22は、当該取得したキー画像の地図座標上での位置と、仮想空間座標系での位置(XZ面内の位置でもよい)及びその向き(キー画像の面に対する法線方向)を表す情報とを出力する。 Then, the key detection unit 22 has a position on the map coordinates of the acquired key image, a position in the virtual space coordinate system (may be a position in the XZ plane), and its direction (normal direction with respect to the plane of the key image). Outputs information that represents.

またキー画像が符号画像を含まない場合は、キー検出部22は、地図情報取得部21が取得した地図情報に含まれるキー画像を特定する情報を用いて、撮像された画像データからキー画像の検出を試みる。具体的には、キー検出部22は、取得した地図情報に含まれるキー画像に一致する部分を検出する処理(画像検索処理)を実行することとなる。 When the key image does not include the coded image, the key detection unit 22 uses the information for identifying the key image included in the map information acquired by the map information acquisition unit 21 to obtain the key image from the captured image data. Attempt to detect. Specifically, the key detection unit 22 will execute a process (image search process) for detecting a portion matching the key image included in the acquired map information.

そしてキー検出部22は、地図情報に含まれるキー画像のいずれかが検出されたときには、当該検出されたキー画像の地図座標上での位置(地図情報から取得する)と、仮想空間座標系での位置(XZ面内の位置でもよい)及びその向き(キー画像の面に対する法線方向)を表す情報とを出力する。 Then, when any of the key images included in the map information is detected, the key detection unit 22 determines the position of the detected key image on the map coordinates (acquired from the map information) and the virtual space coordinate system. (It may be a position in the XZ plane) and information indicating its orientation (normal direction with respect to the plane of the key image) are output.

相対位置取得部23は、キー検出部22が検出したキー画像の位置及び向きの情報に基づいて、上記仮想空間座標系でのキー画像と、経路案内装置10との相対的位置情報を取得する。具体的に、この相対位置取得部23は、まず、撮像部15が取得した画像データ内でキー画像が撮像されている領域の情報と、キー画像の位置((x2,y2,z2)とする)及び向きの情報に基づいて、撮像部15の仮想空間座標系内の位置、つまり経路案内装置10の仮想空間座標系での位置(x1,y1,z1)を推定する。この推定の方法は、仮想現実技術(いわゆるAR技術)を用いる広く知られた方法を採用できる。この方法の一例は、例えば加藤博一,et.al.,「マーカー追跡に基づく拡張現実感システムとそのキャリブレーション」,日本バーチャルリアリティ学会論文誌,Vol4, No4, pp.607-616, (1999)などにおいてカメラ座標系を求める方法が相当する。なお、高さ方向の座標y1、y2についてはいずれも予め視線高さを表す値hと設定しておいてよい。 The relative position acquisition unit 23 acquires the relative position information between the key image in the virtual space coordinate system and the route guidance device 10 based on the position and orientation information of the key image detected by the key detection unit 22. .. Specifically, the relative position acquisition unit 23 first sets the information of the region where the key image is captured in the image data acquired by the image pickup unit 15 and the position of the key image ((x2, y2, z2)). ) And the orientation information, the position in the virtual space coordinate system of the imaging unit 15, that is, the position (x1, y1, z1) of the route guidance device 10 in the virtual space coordinate system is estimated. As this estimation method, a widely known method using virtual reality technology (so-called AR technology) can be adopted. An example of this method is, for example, Hirokazu Kato, et.al., "Augmented Reality System Based on Marker Tracking and Its Calibration", Journal of the Virtual Reality Society of Japan, Vol4, No4, pp.607-616, (1999). ) Etc. corresponds to the method of finding the camera coordinate system. The coordinates y1 and y2 in the height direction may be set in advance as a value h indicating the line-of-sight height.

地図内位置情報取得部24は、相対位置取得部23が得た、撮像されたキー画像と経路案内装置10との相対的な位置に基づき、経路案内装置10の地図座標系での位置を表す情報を生成する。一例として、地図内位置情報取得部24は、仮想空間座標系でのキー画像と、経路案内装置10との相対的位置を表す情報:
x2-x1
y2-y1
z2-z1
を得る。
The position information acquisition unit 24 in the map represents the position of the route guidance device 10 in the map coordinate system based on the relative position between the captured key image and the route guidance device 10 obtained by the relative position acquisition unit 23. Generate information. As an example, the position information acquisition unit 24 in the map has information representing the relative position between the key image in the virtual space coordinate system and the route guidance device 10.
x2-x1
y2-y1
z2-z1
To get.

ここで図4(a)に例示するように、仮想空間座標系のXZ平面内でのキー画像の位置をB(x2,z2)とし、経路案内装置10の位置をA(x1,z1)とする。これらAB間の距離d(AB)は、

Figure 2022055218000002
と表される。また、図4(a)に示したように、点Bを通りZ軸に平行な線分上の点(Z軸正の方向にある点とする)をCとして、角CBAは、
Figure 2022055218000003

で表される(ただしnは0以上の整数)。ここで、
・C点がB点よりもA点に近く、かつ、z1≧z2のときには、n=0
・C点がB点よりもA点に近く、かつ、z2>z1のときには、n=1
・C点がA点よりもB点に近く、かつ、z1≧z2のときには、n=1
・C点がA点よりもB点に近く、かつ、z2>z1のときには、n=0とする。 Here, as illustrated in FIG. 4A, the position of the key image in the XZ plane of the virtual space coordinate system is B (x2, z2), and the position of the route guidance device 10 is A (x1, z1). do. The distance d (AB) between these ABs is
Figure 2022055218000002
It is expressed as. Further, as shown in FIG. 4A, the angle CBA is defined by C being a point on a line segment that passes through point B and is parallel to the Z axis (assumed to be a point in the positive direction of the Z axis).
Figure 2022055218000003

It is represented by (where n is an integer greater than or equal to 0). here,
・ When point C is closer to point A than point B and z1 ≧ z2, n = 0.
-When point C is closer to point A than point B and z2> z1, n = 1
-When point C is closer to point B than point A and z1 ≧ z2, n = 1
-When point C is closer to point B than point A and z2> z1, n = 0 is set.

なお、以下の説明で、角は、XZ平面をY軸正の方向から見たとき、時計回りに測る場合と反時計回りに測る場合とで符号を変えるものとする。つまり、角CBA=-角ABCとする。 In the following description, the angle of the angle is changed depending on whether the XZ plane is measured clockwise or counterclockwise when viewed from the positive direction of the Y axis. That is, the angle CBA = − angle ABC.

さらに点Bを通りキー画像の向き(キー画像の面の法線方向)に平行な線分上の点(B点よりもA点に近い位置にある点とする)をDとすると、

Figure 2022055218000004

が成り立つ。なお、角CBDは、設定から既知である。 Further, let D be a point on a line segment that passes through point B and is parallel to the direction of the key image (normal direction of the surface of the key image) (assumed to be a point closer to point A than point B).
Figure 2022055218000004

Is true. The angle CBD is known from the setting.

この角度に関する情報は現実の空間でも成立するので、結局、図4(b)に例示するように、地図座標系X′Y′Z′におけるX′Z′平面でも、キー画像の位置をB′(x′2,z′2)とし、経路案内装置10の位置をA′(x′1,z′1)として、さらに、点B′を通りキー画像の向き(キー画像の面の法線方向)に平行な線分上の点(B′点よりもA′点に近い位置にある点とする)をD′としたとき、

Figure 2022055218000005

が成立する。 Since the information about this angle is also valid in the actual space, the position of the key image is eventually changed to B'even in the X'Z'plane in the map coordinate system X'Y'Z', as illustrated in FIG. 4 (b). (X'2, z'2), the position of the route guidance device 10 is A'(x'1, z'1), and the direction of the key image (normal to the surface of the key image) is further passed through the point B'. When a point on a line parallel to the direction) (assumed to be a point closer to the A'point than the B'point) is D'.
Figure 2022055218000005

Is established.

ここでsは、仮想空間座標系に対する地図座標系の縮尺比であり、点C′は、地図座標系において、点B′を通りZ′軸に平行な線分上の点(Z′軸正の方向にある点とする)である。なお、縮尺比sは、仮想空間座標系におけるキー画像の大きさ(例えばその幅でよく、幅方向両端の仮想空間座標系での座標値の差として得られる)と、地図座標系でのキー画像の大きさ(対応する方向、例えば上述の例では幅方向両端の地図座標系での座標値の差)との比によって求めることができる。 Here, s is the scale ratio of the map coordinate system to the virtual space coordinate system, and the point C'is a point (Z'axis positive) on a line segment passing through the point B'and parallel to the Z'axis in the map coordinate system. The point is in the direction of). The scale ratio s is the size of the key image in the virtual space coordinate system (for example, its width may be sufficient, and is obtained as the difference between the coordinate values in the virtual space coordinate system at both ends in the width direction) and the key in the map coordinate system. It can be obtained by the ratio with the size of the image (corresponding direction, for example, the difference between the coordinate values in the map coordinate system at both ends in the width direction in the above example).

また、この(6)式から、

Figure 2022055218000006

を得て、地図座標での経路案内装置10の位置A′の座標(x′1,z′1)を、
x′1=x′2+Δx′,
z′1=z′2+Δz′
として求めることができる。 Also, from this equation (6),
Figure 2022055218000006

The coordinates (x'1, z'1) of the position A'of the route guidance device 10 in the map coordinates are obtained.
x'1 = x'2 + Δx',
z'1 = z'2 + Δz'
Can be obtained as.

地図内位置情報取得部24は、撮像されたキー画像と経路案内装置10との相対的な位置の情報に基づいて(1)乃至(3)式の値を求め、また、別途求めた縮尺比sと、これら求めた値とを用いて(4)乃至(8)式により、Δx′,Δz′を求める。そして地図内位置情報取得部24は、地図座標での、撮像されたキー画像の位置座標(x′2,z′2)を用い、
x′1=x′2+Δx′,
z′1=z′2+Δz′
として、地図座標での経路案内装置10の位置A′の座標(x′1,z′1)を求める。
The position information acquisition unit 24 in the map obtains the values of the equations (1) to (3) based on the information on the relative position between the captured key image and the route guidance device 10, and also obtains the scale ratio separately. Using s and these obtained values, Δx ′ and Δz ′ are obtained by the equations (4) to (8). Then, the position information acquisition unit 24 in the map uses the position coordinates (x'2, z'2) of the captured key image in the map coordinates.
x'1 = x'2 + Δx',
z'1 = z'2 + Δz'
, The coordinates (x'1, z'1) of the position A'of the route guidance device 10 in the map coordinates are obtained.

経路案内処理部25は、利用者から目的地の設定を受け入れて、経路を案内するための処理を行う。具体的にこの経路案内処理部25は、地図内位置情報取得部24が取得した、地図座標での経路案内装置10の位置(すなわちそれを携帯する利用者の位置)を利用して、地図情報上で、当該位置から最も近いエッジ上の点(現在位置を表す点)CUを求める。 The route guidance processing unit 25 accepts the setting of the destination from the user and performs processing for guiding the route. Specifically, the route guidance processing unit 25 uses the position of the route guidance device 10 in the map coordinates (that is, the position of the user who carries it) acquired by the position information acquisition unit 24 in the map to provide map information. Above, the point (point representing the current position) CU on the edge closest to the position is obtained.

そして経路案内処理部25は、設定された目的地のエッジ上の点DEと、現在位置を表すエッジ上の点CUとを用いて、現在位置から目的地までの経路を求める。このような、エッジ上の2点に基づいて、現在位置から目的地までのエッジ上の経路を求める方法は、広く知られているので、ここでの詳しい説明は省略する。 Then, the route guidance processing unit 25 obtains a route from the current position to the destination by using the point DE on the edge of the set destination and the point CU on the edge representing the current position. Since such a method of finding a route on the edge from the current position to the destination based on these two points on the edge is widely known, detailed description here will be omitted.

経路案内処理部25は、ここで得られた経路の情報を出力するよう、情報出力部26に指示する。 The route guidance processing unit 25 instructs the information output unit 26 to output the route information obtained here.

情報出力部26は、一般的な仮想現実(AR)処理のためのライブラリソフトウェアを利用して実現される。このようなライブラリソフトウエアとしてはARKit(米国アップルコンピュータ社)やAR Core(米国グーグル社)などがある。 The information output unit 26 is realized by using library software for general virtual reality (AR) processing. Such library software includes ARKit (Apple Computer, USA) and ARCore (Google, USA).

この情報出力部26は、こうしたライブラリソフトウエアを利用して、撮像部15が撮像して得た画像データを、表示部14に表示するとともに、この画像データに重ね合わせて、経路を案内するための案内画像を表示する。具体的にこの案内画像は、図5に例示するように、地図情報で規定されるエッジを表す直線E(仮想的な直線)と、利用者が進むべき方向を表す矢印P(仮想的な矢じりの図形)とを含む、仮想現実の画像(三次元画像)とする。 The information output unit 26 uses such library software to display the image data captured by the image pickup unit 15 on the display unit 14 and superimpose the image data on the image data to guide the route. Display the guidance image of. Specifically, as illustrated in FIG. 5, this guide image has a straight line E (virtual straight line) representing an edge defined by map information and an arrow P (virtual arrowhead) representing the direction in which the user should go. It is assumed to be a virtual reality image (three-dimensional image) including the figure).

このような案内画像は、地図情報において地図座標上の複数の点で規定されるエッジを、撮像部15が撮像して得た画像データに重ね合わせ可能な仮想空間座標系の点に変換して、変換後の点を結ぶ仮想的な直線を、仮想空間座標系内の経路案内装置10の位置から見た像として描画させることで得られる。 In such a guide image, edges defined by a plurality of points on the map coordinates in the map information are converted into points in a virtual space coordinate system that can be superimposed on the image data obtained by the image pickup unit 15. , It is obtained by drawing a virtual straight line connecting the converted points as an image seen from the position of the route guidance device 10 in the virtual space coordinate system.

具体的に地図座標系から仮想空間座標系への変換は、先に例示した仮想空間座標系から地図座標系への変換の例と同様に行われる。具体的に図6(a)に例示した地図座標系上のA′点(x′1,z′1)に経路案内装置10があるとき、エッジE12の端点(ノード)M′1及びM′2の仮想空間座標系での位置は、次のようにして求められる。 Specifically, the conversion from the map coordinate system to the virtual space coordinate system is performed in the same manner as the example of the conversion from the virtual space coordinate system to the map coordinate system exemplified above. Specifically, when the route guidance device 10 is located at the A'point (x'1, z'1) on the map coordinate system exemplified in FIG. 6A, the end points (nodes) M'1 and M'of the edge E12. The position of 2 in the virtual space coordinate system is obtained as follows.

まず情報出力部26は、地図座標での点M′1,点M′2のそれぞれについて次の処理を行う。すなわち情報出力部26は、点M′(M′1またはM′2のいずれか、図6ではM′1を例としている)を通り、Z′座標正の方向にある点をC′として設定し、またこの点M′を通り、エッジE12に直交する線分上にあって、点M′よりも点A′に近い位置にある点D′を設定する。なお、以下では点M′の座標を(x′3,z′3)と表す。 First, the information output unit 26 performs the following processing for each of the points M'1 and M'2 in the map coordinates. That is, the information output unit 26 passes through the point M'(either M'1 or M'2, M'1 is taken as an example in FIG. 6), and the point in the positive direction of the Z'coordinate is set as C'. Further, a point D'that passes through this point M'and is on a line segment orthogonal to the edge E12 and is closer to the point A'than the point M'is set. In the following, the coordinates of the point M'are expressed as (x'3, z'3).

そして情報出力部26は、点A′と点M′との距離d(A′M′)を、

Figure 2022055218000007

とし、また、
Figure 2022055218000008

を求める。ここでnは0以上の整数であり、
・C′点がM′点よりもA′点に近く、かつ、z′1≧z′3のときには、n=0
・C′点がM′点よりもA′点に近く、かつ、z′2>z′1のときには、n=1
・C′点がA′点よりもM′点に近く、かつ、z′1≧z′2のときには、n=1
・C′点がA′点よりもM′点に近く、かつ、z′2>z′1のときには、n=0とする。なお、角C′M′D′は、設定から既知である。 Then, the information output unit 26 sets the distance d (A'M') between the point A'and the point M'.
Figure 2022055218000007

And also
Figure 2022055218000008

Ask for. Here, n is an integer of 0 or more,
When the point C'is closer to the point A'than the point M'and z'1 ≥ z'3, n = 0.
When the C'point is closer to the A'point than the M'point and z'2>z'1, n = 1
When point C'is closer to point M'than point A'and z'1 ≥ z'2, n = 1
When the point C'is closer to the point M'than the point A'and z'2>z'1, n = 0 is set. The angle C'M'D'is known from the setting.

角度は変換の前後で保存されるため、情報出力部26は、各点の角度の関係と、距離とを、

Figure 2022055218000009

と、求める。ここでsは既に説明した縮尺比sと等しいものである。 Since the angles are saved before and after the conversion, the information output unit 26 determines the relationship between the angles of each point and the distance.
Figure 2022055218000009

I ask. Here, s is equal to the scale ratio s already described.

そして情報出力部26は、

Figure 2022055218000010

を得て、これから点Mの仮想空間座標系での座標値(xM,zM)を、
xM=x′3+Δx
zM=z′3+Δz
として求める。なお、Y座標値は、規定値hに設定してもよい。 And the information output unit 26
Figure 2022055218000010

From now on, the coordinate values (xM, zM) of the point M in the virtual space coordinate system are calculated.
xM = x'3 + Δx
zM = z'3 + Δz
Ask as. The Y coordinate value may be set to the specified value h.

情報出力部26は、この(9)式から(16)式を利用した変換により、地図座標での点M′1,点M′2のそれぞれについて仮想空間座標系での座標値を得る。そして、この座標値間を結ぶ仮想的な直線を描画し、仮想空間座標系内の経路案内装置10の位置から見た像としてレンダリングする。この処理は、仮想現実(AR)での描画の処理と同様である。 The information output unit 26 obtains the coordinate values in the virtual space coordinate system for each of the points M'1 and M'2 in the map coordinates by the conversion using the equations (9) to (16). Then, a virtual straight line connecting the coordinate values is drawn and rendered as an image seen from the position of the route guidance device 10 in the virtual space coordinate system. This process is similar to the process of drawing in virtual reality (AR).

また情報出力部26は、ここで描画した仮想的な直線等に重ね合わせて、点M′1または点M′2の方向(利用者が向かうべきノードの方向)向きの仮想的な矢印を描画してもよい。この処理は例えば円錐形の図形を描画することで行うことができる。 Further, the information output unit 26 draws a virtual arrow in the direction of the point M'1 or the point M'2 (the direction of the node to which the user should go) by superimposing it on the virtual straight line drawn here. You may. This process can be performed, for example, by drawing a conical figure.

[動作]
本実施の形態は基本的に以上の構成を備えており、次のように動作する。経路案内装置10を携帯する利用者が、各所にキー画像の掲示された施設を訪問したときに、経路案内装置10を起動し、キー画像の一つを撮像すると、経路案内装置10が次の図6に例示する処理を開始する。以下の例では、キー画像に二次元バーコードなどの符号画像が含まれ、当該符号画像に地図情報を特定する情報(地図情報特定情報)と、キー画像を特定する情報とが符号化されて表されているものとする。ここで地図情報には、利用者が通行可能な経路を表すエッジの情報や、キー画像の位置などの情報が含まれており、これらの情報は地図座標系で表されているものとする。
[motion]
This embodiment basically has the above configuration and operates as follows. When a user carrying the route guidance device 10 visits a facility where key images are posted in various places, the route guidance device 10 is activated and one of the key images is imaged, and the route guidance device 10 is next. The process illustrated in FIG. 6 is started. In the following example, the key image includes a code image such as a two-dimensional bar code, and the information that identifies the map information (map information identification information) and the information that identifies the key image are encoded in the code image. It shall be represented. Here, the map information includes information such as edge information representing a route that the user can pass through and information such as the position of a key image, and it is assumed that these information are represented by a map coordinate system.

まず経路案内装置10は、撮像された画像データからキー画像を認識し、当該キー画像に含まれる符号画像を抽出する。経路案内装置10は、当該抽出した符号画像を復号して復号データを得る。この復号データには、上述のように、地図情報特定情報と、キー画像を特定する情報とが含まれる。 First, the route guidance device 10 recognizes a key image from the captured image data and extracts a code image included in the key image. The route guidance device 10 decodes the extracted coded image to obtain decoded data. As described above, the decoded data includes map information specific information and information for specifying a key image.

経路案内装置10は、図7に例示するように地図情報サーバ20から、上記復号データに含まれる地図情報特定情報で特定される地図情報を取得する(S1)。また経路案内装置10は、撮像された画像データに含まれるキー画像の位置及び向きの情報を検出し(S2)、現実の床面に平行な面にXZ直交座標を配し、この面に鉛直な方向(上方向を正の方向とする)をY軸とした仮想空間座標系でのキー画像と、経路案内装置10との相対的位置情報を取得する(S3)。 As illustrated in FIG. 7, the route guidance device 10 acquires the map information specified by the map information specific information included in the decoded data from the map information server 20 (S1). Further, the route guidance device 10 detects the position and orientation information of the key image included in the captured image data (S2), arranges XZ Cartesian coordinates on a surface parallel to the actual floor surface, and is vertical on this surface. (S3), the key image in the virtual space coordinate system with the Y-axis in the above direction (the upward direction is the positive direction) and the relative position information with the route guidance device 10 are acquired (S3).

次に経路案内装置10は、撮像されたキー画像と経路案内装置10との相対的な位置に基づき、経路案内装置10の地図座標系での位置を表す情報を生成する(S4)。この経路案内装置10の地図座標系での位置の情報は、既に述べた方法で得ることができる。すなわち、経路案内装置10は、ステップS1で取得した地図情報から上記復号データ内のキー画像を特定する情報で特定されるキー画像の地図座標での位置及び向きの情報を取得する。また経路案内装置10は、ステップS3で取得した仮想空間座標系でのキー画像と経路案内装置10との相対的位置情報、並びに、当該キー画像の地図座標での位置及び向きの情報に基づいて経路案内装置10の地図座標系での位置の情報を得る。 Next, the route guidance device 10 generates information indicating the position of the route guidance device 10 in the map coordinate system based on the relative position between the captured key image and the route guidance device 10 (S4). Information on the position of the route guidance device 10 in the map coordinate system can be obtained by the method described above. That is, the route guidance device 10 acquires the position and orientation information in the map coordinates of the key image specified by the information for specifying the key image in the decoded data from the map information acquired in step S1. Further, the route guidance device 10 is based on the relative position information between the key image in the virtual space coordinate system acquired in step S3 and the route guidance device 10, and the position and orientation information of the key image in the map coordinates. Obtain information on the position of the route guidance device 10 in the map coordinate system.

この処理はまた、キー画像をマーカーとしたマーカー座標系と所与の仮想空間座標系との変換、及び、マーカー座標系と経路案内装置10から見た座標系であるカメラ座標系との変換により、マーカー座標系での経路案内装置10の位置を表す情報を取得しておき、対応するキー画像の地図座標系での位置及び向きとマーカー座標系との変換式を得て、地図座標系での経路案内装置10の位置を表す情報を取得することとしてもよい。 This process is also performed by converting the marker coordinate system using the key image as a marker and a given virtual space coordinate system, and the conversion between the marker coordinate system and the camera coordinate system which is the coordinate system seen from the route guidance device 10. , Obtain information indicating the position of the route guidance device 10 in the marker coordinate system, obtain a conversion formula between the position and orientation of the corresponding key image in the map coordinate system and the marker coordinate system, and use the map coordinate system. Information indicating the position of the route guidance device 10 may be acquired.

経路案内装置10は、また、利用者から目的地の場所を表す地図座標系での座標の情報を受け入れる(S5)。そして経路案内装置10は、入力された目的地の場所に最も近いエッジ上の点DEを求めて目的地を設定する(S6)。なお、ステップS5での目的地の入力は、例えば予め店舗名とその入口の地図座標系での位置の情報とを関連付けた目的地データベースを参照して、当該目的地データベースに含まれる店舗名の一覧を表示し、利用者から当該一覧のうちから店舗の選択を受け入れることで行ってもよい。この例では、経路案内装置10は、当該選択された店舗名に関連付けられた地図座標系での位置の情報を目的地の座標としてステップS6の処理を行う。 The route guidance device 10 also receives information on coordinates in the map coordinate system representing the location of the destination from the user (S5). Then, the route guidance device 10 finds a point DE on the edge closest to the input destination location and sets the destination (S6). In addition, in the input of the destination in step S5, for example, referring to the destination database in which the store name and the position information of the entrance in the map coordinate system are associated in advance, the store name included in the destination database is input. This may be done by displaying the list and accepting the selection of the store from the list from the user. In this example, the route guidance device 10 performs the process of step S6 using the position information in the map coordinate system associated with the selected store name as the coordinates of the destination.

経路案内装置10は、ステップS4で生成した情報が表す地図座標系での座標に最も近いエッジ上の点CUを求めて現在位置を設定し(S7)、エッジを通って現在位置を表す点CUから目的地を表す点DEまでの経路を生成して経路案内処理を実行する(S8)。ここで生成する経路は、例えば目的地へ到達するまでに通過するべきエッジ及びノードの順列として表すことができ、その生成の処理は、広く知られたナビゲーションシステムにおける処理が利用できる。 The route guidance device 10 obtains the point CU on the edge closest to the coordinates in the map coordinate system represented by the information generated in step S4, sets the current position (S7), and sets the current position (S7), and the point CU representing the current position through the edge. A route from to the point DE representing the destination is generated and the route guidance process is executed (S8). The route generated here can be represented, for example, as a sequence of edges and nodes to be passed before reaching the destination, and the processing of the generation can be processed in a well-known navigation system.

またステップS8における経路案内処理の一例は図8(a)に例示するようなものである。なお、経路案内装置10は、この経路案内処理の間、撮像部15により画像を撮像する処理を繰り返して行うものとする。 Further, an example of the route guidance process in step S8 is as illustrated in FIG. 8 (a). It should be noted that the route guidance device 10 repeats the process of capturing an image by the image pickup unit 15 during this route guidance process.

経路案内装置10は、経路案内処理として、撮像部15が撮像して得た画像データに、点CUを含むエッジを仮想空間座標系内の線分として描画した画像を合成して表示する(S11)。また経路案内装置10は、このステップS11において、エッジを表す直線の画像とともに、次に通過するべきノードの方向を指す矢印の画像を併せて描画してもよい。 As a route guidance process, the route guidance device 10 synthesizes and displays an image drawn by the image data captured by the imaging unit 15 as a line segment in the virtual space coordinate system with an edge including the point CU (S11). ). Further, in step S11, the route guidance device 10 may draw an image of a straight line representing an edge and an image of an arrow pointing in the direction of the node to be passed next.

具体的にこの例では、経路案内装置10は、点CUを含むエッジの端点の仮想空間座標系での座標を求める。この処理では、経路案内装置10は、エッジの端点の位置(地図情報内で地図座標系で表されている)を、仮想空間座標系の情報に変換し、変換後の点を結ぶ直線を、仮想空間座標系内の経路案内装置10の位置から見た像として描画する。ここで、撮像された画像データに基づいて設定される仮想空間座標系の各点を結ぶ直線等を、当該画像データに重ね合わせて描画する処理は、AR処理のためのライブラリソフトウエアを利用して実現できる。 Specifically, in this example, the route guidance device 10 obtains the coordinates of the end points of the edge including the point CU in the virtual space coordinate system. In this process, the route guidance device 10 converts the position of the end point of the edge (represented by the map coordinate system in the map information) into the information of the virtual space coordinate system, and draws a straight line connecting the converted points. It is drawn as an image seen from the position of the route guidance device 10 in the virtual space coordinate system. Here, the process of superimposing the straight line connecting each point of the virtual space coordinate system set based on the captured image data on the image data and drawing the drawing uses the library software for AR processing. Can be realized.

そして利用者が、経路案内装置10に表示された画像を参照して移動したときには、経路案内装置10は、AR処理のためのライブラリソフトウエアを利用して、モーショントラッキング処理によって、利用者とともに移動した後の、経路案内装置10の仮想空間座標系での位置を取得する(S12)。そして経路案内装置10は、ステップS11に戻り、撮像部15により最後に撮像された画像データに重ね合わせて、ステップS12で更新された位置からの案内画像として、エッジを表す仮想的な直線や、次に通過するべきノードの方向を表す仮想的な矢印等を含む案内画像を新たに描画する。経路案内装置10は、このステップS11,S12の処理を、利用者が処理を停止するよう指示するまで、あるいはステップS12で取得した位置と、目的地との距離が所定のしきい値を下回るまで繰り返す。 Then, when the user moves with reference to the image displayed on the route guidance device 10, the route guidance device 10 moves together with the user by motion tracking processing using the library software for AR processing. After that, the position of the route guidance device 10 in the virtual space coordinate system is acquired (S12). Then, the route guidance device 10 returns to step S11, superimposes the image data finally captured by the imaging unit 15, and serves as a guidance image from the position updated in step S12, such as a virtual straight line representing an edge or a virtual straight line. Next, a guide image including a virtual arrow indicating the direction of the node to be passed is newly drawn. The route guidance device 10 performs the processing of steps S11 and S12 until the user instructs to stop the processing, or until the distance between the position acquired in step S12 and the destination falls below a predetermined threshold value. repeat.

[移動中の位置補正]
また、経路案内装置10による経路案内処理の間に利用者が移動した場合、モーショントラッキング処理を行うだけでなく、撮像部15が撮像した画像データから新たなキー画像が検出できた場合には、当該新たに検出したキー画像の位置や向き等の情報に基づいて、経路案内装置10の、地図座標系内での位置情報を補正してもよい。
[Position correction during movement]
Further, when the user moves during the route guidance process by the route guidance device 10, not only the motion tracking process is performed, but also when a new key image can be detected from the image data captured by the image pickup unit 15, the new key image can be detected. The position information of the route guidance device 10 in the map coordinate system may be corrected based on the information such as the position and orientation of the newly detected key image.

この例の経路案内装置10は、ステップS9における経路案内処理の別の例として、図8(b)に例示するように、撮像部15が逐次的に撮像して得た画像データを順次受け入れており、この受け入れた画像データに対し、点CUを含むエッジを仮想空間座標系内の線分として描画した画像を合成して表示する(S21)。この処理は図8(a)に示したステップS11の処理と同様である。またこのステップS21においても、経路案内装置10は、エッジを表す直線の画像とともに、次に通過するべきノードの方向を指す矢印の画像を併せて描画してもよい。 As another example of the route guidance process in step S9, the route guidance device 10 of this example sequentially receives the image data obtained by the image pickup unit 15 sequentially taking images as illustrated in FIG. 8 (b). Then, the image in which the edge including the point CU is drawn as a line segment in the virtual space coordinate system is synthesized and displayed with respect to the accepted image data (S21). This process is the same as the process of step S11 shown in FIG. 8 (a). Further, also in this step S21, the route guidance device 10 may draw an image of a straight line representing an edge and an image of an arrow pointing in the direction of the node to be passed next.

また経路案内装置10は、撮像部15が撮像した画像データからキー画像の検出を試みる(S22)。ここで経路案内装置10が、撮像された画像データに含まれるキー画像の位置及び向きの情報を検出すると(S22:Yes)、当該検出したキー画像の位置及び向きの情報を用いて、仮想空間座標系でのキー画像と、経路案内装置10との相対的位置情報を取得する(S23)。 Further, the route guidance device 10 attempts to detect a key image from the image data captured by the image pickup unit 15 (S22). Here, when the route guidance device 10 detects the position and orientation information of the key image included in the captured image data (S22: Yes), the virtual space is used by using the position and orientation information of the detected key image. The key image in the coordinate system and the relative position information of the route guidance device 10 are acquired (S23).

そして経路案内装置10は、撮像されたキー画像と経路案内装置10との相対的な位置に基づき、経路案内装置10の地図座標系での位置を表す情報を生成する(S24)。この経路案内装置10の地図座標系での位置の情報は、既に述べた方法と同様であるので、繰り返しての説明を省略する。経路案内装置10は、これにより利用者とともに移動した後の、経路案内装置10の仮想空間座標系での位置を取得することとなる。このステップS24で取得した位置の情報は、新たに検出したキー画像により補正された位置の情報であり、モーショントラッキング処理により得た位置に比べ、比較的正確であると期待される。 Then, the route guidance device 10 generates information indicating the position of the route guidance device 10 in the map coordinate system based on the relative position between the captured key image and the route guidance device 10 (S24). Since the information on the position of the route guidance device 10 in the map coordinate system is the same as the method already described, the repeated description will be omitted. As a result, the route guidance device 10 acquires the position of the route guidance device 10 in the virtual space coordinate system after moving with the user. The position information acquired in step S24 is the position information corrected by the newly detected key image, and is expected to be relatively accurate as compared with the position obtained by the motion tracking process.

一方、経路案内装置10は、ステップS22で、撮像された画像データからキー画像が検出できなかった場合には(S22:No)、AR処理のためのライブラリソフトウエアを利用して、モーショントラッキング処理によって、利用者とともに移動した後の、経路案内装置10の仮想空間座標系での位置を取得する(S25)。そして経路案内装置10は、ステップS21に戻り、撮像部15により最後に撮像された画像データに重ね合わせて、ステップS24またはステップS25で更新された位置からの案内画像として、エッジを表す仮想的な直線や、次に通過するべきノードの方向を表す仮想的な矢印等を含む案内画像を新たに描画する。 On the other hand, if the key image cannot be detected from the captured image data in step S22 (S22: No), the route guidance device 10 uses the library software for AR processing to perform motion tracking processing. Acquires the position of the route guidance device 10 in the virtual space coordinate system after moving with the user (S25). Then, the route guidance device 10 returns to step S21, superimposes the image data finally captured by the imaging unit 15, and represents an edge as a guidance image from the position updated in step S24 or step S25. A new guide image including a straight line and a virtual arrow indicating the direction of the node to be passed next is drawn.

本実施の形態のこの例によると、利用者の移動に伴うモーショントラッキング処理によって蓄積した位置情報の誤差を、新たに検出したキー画像との相対的な位置の情報に基づいて補正できる。 According to this example of the present embodiment, the error of the position information accumulated by the motion tracking process due to the movement of the user can be corrected based on the position information relative to the newly detected key image.

[案内情報の提示]
また本実施の形態の経路案内装置10は、案内画像を含む情報の表示を行う際に、予め定めた中止条件が満足されるか否かを判断し、中止条件が満足される間、少なくとも案内画像の表示を中止することとしてもよい。
[Presentation of guidance information]
Further, the route guidance device 10 of the present embodiment determines whether or not a predetermined cancellation condition is satisfied when displaying information including a guidance image, and at least guides the user while the cancellation condition is satisfied. The display of the image may be stopped.

ここで中止条件は経路案内装置10の現在位置と、地図情報において予め定められた領域(以下中止条件領域と呼ぶ)とに基づく条件などとしてよい。 Here, the stop condition may be a condition based on the current position of the route guidance device 10 and a predetermined area (hereinafter referred to as a stop condition area) in the map information.

この例では、経路案内システム1の管理者は予め、地図情報内において中止条件領域を設定する。この中止条件領域は、中止条件領域を取り囲む3つ以上の点(中止条件領域規定点)の集合として表すことができ、ここでは当該中止条件領域規定点の座標は、地図座標系で表されるものとする。 In this example, the administrator of the route guidance system 1 sets the stop condition area in the map information in advance. This stop condition area can be represented as a set of three or more points (stop condition area specified points) surrounding the stop condition area, and here, the coordinates of the stop condition area specified points are represented by a map coordinate system. It shall be.

経路案内装置10は、案内画像を含む情報の表示を行う際、例えば図8(a),(b)におけるステップS11またはステップS21の処理を行う際に、その時点で経路案内装置10の位置を表す地図座標系内の点CUが、上記中止条件領域の内部にあるか否かを調べる。経路案内装置10は、ここで経路案内装置10の位置を表す地図座標系内の点CUが、上記中止条件領域の内部にあると判断したときには、少なくとも、エッジを表す直線や、次に通過するべきノードの方向を表す矢印等を含む案内画像の表示を中止する。 The route guidance device 10 determines the position of the route guidance device 10 at that time when displaying information including a guide image, for example, when performing the process of step S11 or step S21 in FIGS. 8A and 8B. It is checked whether or not the point CU in the represented map coordinate system is inside the stop condition area. When the route guidance device 10 determines that the point CU in the map coordinate system representing the position of the route guidance device 10 is inside the stop condition region, at least a straight line representing an edge or the next passage is passed. Stop displaying the guide image including the arrow indicating the direction of the power node.

このとき、経路案内装置10は、案内画像だけでなく、撮像部15により最後に撮像された画像データの表示も中止してもよい。また、このように案内画像等の表示を中止するときには、経路案内装置10は、経路の案内の表示を中止するよう指定された領域内にいることを示すメッセージ等を表示してもよい。 At this time, the route guidance device 10 may stop displaying not only the guide image but also the image data last captured by the image pickup unit 15. Further, when the display of the guidance image or the like is stopped in this way, the route guidance device 10 may display a message or the like indicating that the user is in the area designated to stop the display of the guidance of the route.

また経路案内装置10は、このメッセージとともに、またはこのメッセージに代えて、中止条件が満足される地図画像上の領域を表示することとしてもよい。このときには、経路案内装置10は、地図情報に含まれる地図画像とともに、当該地図画像に重ね合わせて、中止条件領域規定点で囲まれる多角形を描画し、中止条件領域を表すこととすればよい。 Further, the route guidance device 10 may display an area on the map image in which the cancellation condition is satisfied, together with or in place of this message. At this time, the route guidance device 10 may superimpose the map image included in the map information on the map image and draw a polygon surrounded by the stop condition area defined point to represent the stop condition area. ..

経路案内システム1の管理者は、例えばエスカレータの乗降位置や、交差点、その他、経路案内装置1の利用者がその画面を注視すべきでないと判断される場所を含む領域を中止条件領域として設定することができる。 The administrator of the route guidance system 1 sets, for example, an area including an escalator boarding / alighting position, an intersection, and other places where the user of the route guidance device 1 is determined not to gaze at the screen as a stop condition area. be able to.

なお、中止条件はここで述べた例に限られず、例えば撮像部15が撮像している画像データに、予め定められたキー画像が含まれるとの条件など、撮像部15が撮像している画像データに基づく条件としてもよいし、時間帯、日付、曜日などの種々の条件を採用できる。 The discontinuation condition is not limited to the example described here, and the image captured by the image pickup unit 15 is, for example, a condition that the image data captured by the image pickup unit 15 includes a predetermined key image. The conditions may be based on data, and various conditions such as time zone, date, and day of the week can be adopted.

さらにここで述べた例では、中止条件が満足される間、少なくとも案内画像の表示を中止することとしたが、本実施の形態はこれに限られない。すなわち本実施の形態の経路案内装置10は、案内画像を含む情報の表示を行う際に、予め定めた実施条件が満足されるか否かを判断し、実施条件が満足される間に限り、案内画像の表示を行うこととしてもよい。この例では、実施条件が満足されない場合は、少なくとも案内画像の表示が中止される。 Further, in the example described here, at least the display of the guide image is stopped while the cancellation condition is satisfied, but the present embodiment is not limited to this. That is, the route guidance device 10 of the present embodiment determines whether or not the predetermined implementation conditions are satisfied when displaying the information including the guidance image, and only while the implementation conditions are satisfied. The guide image may be displayed. In this example, if the implementation conditions are not satisfied, at least the display of the guide image is stopped.

この例においても、実施条件は経路案内装置10の現在位置と、地図情報において予め定められた領域(以下実施条件領域と呼ぶ)とに基づく条件などとしてよい。つまり、経路案内システム1の管理者は予め、地図情報内において実施条件領域を設定しておいてもよい。ここで実施条件領域の設定も、中止条件領域と同様、実施条件領域を取り囲む3つ以上の点(実施条件領域規定点)を定めることで行い得る。この実施条件領域規定点の座標も、地図座標系で表されるものとしておく。 Also in this example, the implementation conditions may be conditions based on the current position of the route guidance device 10 and a predetermined region (hereinafter referred to as an implementation condition region) in the map information. That is, the administrator of the route guidance system 1 may set the implementation condition area in the map information in advance. Here, the implementation condition area can also be set by defining three or more points (implementation condition area regulation points) surrounding the implementation condition area, as in the case of the stop condition area. The coordinates of this implementation condition area regulation point are also represented by the map coordinate system.

経路案内装置10は、案内画像を含む情報の表示を行う際、例えば図8(a),(b)におけるステップS11またはステップS21の処理を行う際に、その時点で経路案内装置10の位置を表す地図座標系内の点CUが、上記実施条件領域の内部にあるか否かを調べる。経路案内装置10は、ここで経路案内装置10の位置を表す地図座標系内の点CUが、上記実施条件領域の内部にないと判断したときには、少なくとも、エッジを表す直線や、次に通過するべきノードの方向を表す矢印等を含む案内画像の表示を中止する。 The route guidance device 10 determines the position of the route guidance device 10 at that time when displaying information including a guide image, for example, when performing the process of step S11 or step S21 in FIGS. 8A and 8B. It is examined whether or not the point CU in the represented map coordinate system is inside the above-mentioned implementation condition area. When the route guidance device 10 determines that the point CU in the map coordinate system representing the position of the route guidance device 10 is not inside the implementation condition region, at least a straight line representing an edge or the next passage is passed. Stop displaying the guide image including the arrow indicating the direction of the power node.

また、経路案内装置10は、ここで経路案内装置10の位置を表す地図座標系内の点CUが、上記実施条件領域の内部にあると判断したときには、撮像部15により最後に撮像された画像データに重ね合わせて、上記位置CUから見たエッジを表す仮想的な直線や、次に通過するべきノードの方向を表す仮想的な矢印等を含む案内画像を描画する。 Further, when the route guidance device 10 determines that the point CU in the map coordinate system representing the position of the route guidance device 10 is inside the implementation condition region, the image finally captured by the image pickup unit 15 is obtained. A guide image including a virtual straight line representing the edge seen from the position CU and a virtual arrow indicating the direction of the node to be passed next is drawn by superimposing the data.

なお、経路案内装置10は、経路案内装置10の位置を表す地図座標系内の点CUが、上記実施条件領域の内部にないと判断したときには、案内画像だけでなく、撮像部15により最後に撮像された画像データの表示も中止してもよい。また、このように案内画像等の表示を中止するときには、経路案内装置10は、経路の案内の表示を中止するよう指定された領域内にいることを示すメッセージ等を表示してもよい。 When the route guidance device 10 determines that the point CU in the map coordinate system representing the position of the route guidance device 10 is not inside the implementation condition region, not only the guide image but also the image pickup unit 15 finally determines. The display of the captured image data may also be stopped. Further, when the display of the guidance image or the like is stopped in this way, the route guidance device 10 may display a message or the like indicating that the user is in the area designated to stop the display of the guidance of the route.

また経路案内装置10は、このメッセージとともに、またはこのメッセージに代えて、実施条件が満足される地図画像上の領域を表示することとしてもよい。このときには、経路案内装置10は、地図情報に含まれる地図画像とともに、当該地図画像に重ね合わせて、実施条件領域規定点で囲まれる多角形を描画し、実施条件領域を表すこととすればよい。 Further, the route guidance device 10 may display an area on the map image in which the implementation conditions are satisfied, together with or in place of this message. At this time, the route guidance device 10 may superimpose the map image included in the map information on the map image and draw a polygon surrounded by the implementation condition area defining points to represent the implementation condition area. ..

経路案内システム1の管理者は、例えば案内板の近傍や、フロアマップ、その他、経路案内装置1の利用者がその画面を注視しても問題がないと判断される場所を含む領域を実施条件領域として設定することができる。 The administrator of the route guidance system 1 includes, for example, the vicinity of the guide plate, a floor map, and other areas including a place where it is judged that there is no problem even if the user of the route guidance device 1 looks at the screen. It can be set as an area.

また実施条件は、地図上に設定された領域に基づく条件に限られない。別の実施条件の例として、例えば撮像部15が撮像している画像データに、キー画像が含まれるとの条件など、撮像部15が撮像している画像データに基づいて判断される条件としてもよい。さらに日時や曜日などの条件を実施条件としてもよい。 Further, the implementation conditions are not limited to the conditions based on the area set on the map. As an example of another implementation condition, for example, a condition that the image data captured by the image pickup unit 15 includes a key image, or a condition determined based on the image data captured by the image pickup unit 15. good. Further, conditions such as the date and time and the day of the week may be used as implementation conditions.

[案内画像の他の例]
ここまでの説明において、案内画像は、撮像部15が撮像している画像データに重ね合わせて表示される仮想的な直線や図形を用いたものとしたが、本実施の形態はこれに限られない。すなわち経路案内装置10は、案内画像として、撮像部15が撮像している画像データに重ね合わせて表示される仮想的な直線や図形に代えて、またはそれとともに、地図情報に含まれる地図画像と、当該地図画像上での経路案内装置10の位置を表すマーカーとを含む画像を表示してもよい。
[Other examples of guidance images]
In the description so far, the guide image uses a virtual straight line or a figure displayed by superimposing the image data captured by the image pickup unit 15, but the present embodiment is limited to this. not. That is, the route guidance device 10 replaces or with a virtual straight line or figure displayed as a guide image superimposed on the image data captured by the image pickup unit 15, and together with the map image included in the map information. , An image including a marker indicating the position of the route guidance device 10 on the map image may be displayed.

[キー画像の検出に係る変形例]
本実施の形態では、経路案内装置10が、撮像されたキー画像が掲示されている位置の情報を識別する必要があるため、ここまでの説明ではキー画像は互いに異なるものとするか、または符号画像を合成しておくものとしていたが、本実施の形態はこれに限られない。
[Modification example related to key image detection]
In the present embodiment, the route guidance device 10 needs to identify the information of the position where the captured key image is posted. Therefore, in the above description, the key images are different from each other or have a reference numeral. Although it was supposed that the images were combined, the present embodiment is not limited to this.

例えば経路案内装置10が地表面に対する絶対的な方向(例えば北向き)を認識できる場合、つまり、地磁気測定器などを備えている場合は、掲示されたキー画像が画像自体同一または類似のものであったとしても、その掲示の向き(北方向からの角度)が互いに異なっていればそれぞれを識別可能である。 For example, if the route guidance device 10 can recognize an absolute direction (for example, northward) with respect to the ground surface, that is, if it is equipped with a geomagnetic measuring instrument or the like, the posted key image is the same or similar to the image itself. Even if they exist, they can be identified if the directions of the notices (angles from the north direction) are different from each other.

図9(a)に例示するように、キー画像の向き(キー画像の面内の所定の点Bから、当該面の法線方向)にある点D、キー画像の上記所定の点BからZ軸(仮想空間座標系のZ軸)方向にある点C、並びに北向きのN軸を用い、N軸のZ軸からの角をθ(θは床面を上から見たときの時計回り方向を正として、-π<θ≦πとする)とし、点BからN軸に平行な方向に点nを取るとき、角CBDから角θを減算して角nBDが得られる。 As illustrated in FIG. 9A, a point D in the direction of the key image (from a predetermined point B in the surface of the key image to the normal direction of the surface), and the predetermined points B to Z of the key image. Using the point C in the axis (Z-axis of the virtual space coordinate system) direction and the north-facing N-axis, the angle of the N-axis from the Z-axis is θ (θ is the clockwise direction when the floor surface is viewed from above. Is positive, and −π <θ ≦ π), and when the point n is taken from the point B in the direction parallel to the N axis, the angle θ is subtracted from the angle CBD to obtain the angle nBD.

また図9(b)に例示するように、地図座標系におけるキー画像の向き(キー画像の面内の上記点Bに対応する点B′から、当該面の法線方向)にある点D′、キー画像の点B′からZ′軸(地図座標系のZ′軸)方向にある点C′、並びに北向きのN′軸を用い、N′軸のZ′軸からの角をθ′(θ′は床面を上から見たときの時計回り方向を正として、-π<θ′≦πとする)として、点B′からN′軸に平行な方向に点n′(点nに対応する点)を取ると、角n′B′D′を、角C′B′D′から、角C′B′n′=θ′を差引きして求めることができる。 Further, as illustrated in FIG. 9B, a point D'in the direction of the key image in the map coordinate system (from the point B'corresponding to the point B in the plane of the key image to the normal direction of the plane). , Point C'in the direction of the Z'axis (Z'axis of the map coordinate system) from the point B'in the key image, and the north-facing N'axis, and the angle of the N'axis from the Z'axis is θ'. (As for θ', the clockwise direction when the floor surface is viewed from above is positive, and −π <θ ′ ≦ π), and the point n ′ (point n ′) in the direction parallel to the N ′ axis from the point B ′. The angle n'B'D'can be obtained by subtracting the angle C'B'n'= θ'from the angle C'B'D'.

この例では地図情報内に、キー画像の向き特徴量として、キー画像ごとに上記角n′B′D′(この値は事前に求めておくことができる、既知の値である)の値を関連付けて記録しておく。 In this example, in the map information, the value of the above angle n'B'D'(this value is a known value that can be obtained in advance) is set for each key image as the orientation feature amount of the key image. Associate and record.

経路案内装置10は、撮像した画像データから検出したキー画像の向き(ベクトルBD)と、別途検出した北向き(ベクトルBN)との角nBDを求める。また経路案内装置10は、撮像した画像データから検出したキー画像に一致する画像に関連付けられて、地図情報に含まれるキー画像を検索する。ここでは同一または類似のキー画像が複数、地図情報に含まれていることとしているので、この検索の結果、複数のキー画像(の候補)が見出されることとなる。 The route guidance device 10 obtains an angle nBD between the direction (vector BD) of the key image detected from the captured image data and the north direction (vector BN) separately detected. Further, the route guidance device 10 searches for a key image included in the map information in association with an image matching the key image detected from the captured image data. Here, since it is assumed that a plurality of the same or similar key images are included in the map information, a plurality of key images (candidates) are found as a result of this search.

経路案内装置10は、検索により見出されたキー画像の候補に関連付けて記録された角n′B′D′(以下ではそれぞれ区別するため、キー画像の候補ごとの角n′B′D′を、角αi(i=1,2,…;iは各キー画像候補に対応する)とする)を、地図情報から取得する。 The route guidance device 10 has an angle n'B'D'recorded in association with the key image candidate found by the search (to distinguish each of them below, the angle n'B'D'for each key image candidate. Is taken as the angle αi (i = 1, 2, ...; i corresponds to each key image candidate)) is acquired from the map information.

経路案内装置10は、取得したキー画像候補ごとの角αiと、求めた角nBDとの差の絶対値βi=|αi-角nBD|を求め、このβiのうち、最小のβiを見出す。そして経路案内装置10は、最小のβiに対応する角αiに関連するキー画像を特定し、当該特定したキー画像が撮像された画像データに含まれるキー画像であると決定する。そして経路案内装置10は、当該決定したキー画像を特定する情報を得る。 The route guidance device 10 obtains the absolute value βi = | αi − angle nBD | of the difference between the angle αi for each acquired key image candidate and the obtained angle nBD, and finds the smallest βi among the βi. Then, the route guidance device 10 identifies a key image related to the angle αi corresponding to the minimum βi, and determines that the specified key image is a key image included in the captured image data. Then, the route guidance device 10 obtains information for identifying the determined key image.

経路案内装置10は、ここで得られたキー画像を特定する情報を用い、当該キー画像を特定する情報により特定されるキー画像に関する地図座標系での位置及び向きの情報を取得して、経路案内装置10の地図座標系での位置を演算する処理等に供する。 The route guidance device 10 uses the information for specifying the key image obtained here, acquires the position and orientation information in the map coordinate system for the key image specified by the information for specifying the key image, and obtains the route. It is used for processing such as calculating the position of the guide device 10 in the map coordinate system.

[フロアの識別]
また既に述べたように、本実施の形態では、複数のフロアに跨がって地図情報が設定されていてもよいが、この場合、経路案内装置10は、自己がどのフロアに所在しているかを識別する必要がある。
[Floor identification]
Further, as already described, in the present embodiment, the map information may be set across a plurality of floors, but in this case, the route guidance device 10 is located on which floor. Need to be identified.

そこでキー画像に対応付けて当該キー画像が掲示されているフロアを特定する情報を地図情報に含めておき、経路案内装置10が、撮像した画像データからキー画像を検出したときに所在するフロアを特定することとしてもよい。 Therefore, information for identifying the floor on which the key image is posted is included in the map information in association with the key image, and the floor where the route guidance device 10 is located when the key image is detected from the captured image data is included in the map information. It may be specified.

しかしながらこの場合、エスカレータやエレベータ等でフロア間を移動した直後に、経路案内装置10がどのフロアに自己が所在するかを誤認する可能性もある。そこで、フロアごとのエスカレータやエレベータの降り口など、各フロアに到達したときに最初に撮像される床面や壁面などにキー画像を掲示しておいてもよい。 However, in this case, immediately after moving between floors by an escalator, an elevator, or the like, the route guidance device 10 may misidentify which floor the route guidance device 10 is located on. Therefore, the key image may be posted on the floor surface or wall surface that is first imaged when the floor is reached, such as the escalator for each floor or the exit of the elevator.

また、経路案内装置10が気圧計を内蔵する場合、気圧差などを利用して、フロアを移動したことを検出してもよい。 Further, when the route guidance device 10 has a built-in barometer, it may be detected that the floor has been moved by using the atmospheric pressure difference or the like.

[実施形態の効果]
本実施の形態の例によると、仮想現実(AR)技術を用いて、施設各所に配されたキー画像であるARマーカーを経路案内装置10が検出したときに、当該ARマーカーのAR座標系(例えばカメラ座標系に一致していてもよい)での位置及び向きと、地図情報として予め地表面に固定された地図座標系での対応するARマーカーの位置及び向きとの情報を利用して、地図座標系での経路案内装置10の位置及び向きを特定する。
[Effect of embodiment]
According to the example of the present embodiment, when the route guidance device 10 detects an AR marker which is a key image arranged in various places of the facility by using virtual reality (AR) technology, the AR coordinate system of the AR marker (AR coordinate system). For example, the position and orientation in (may match the camera coordinate system) and the position and orientation of the corresponding AR marker in the map coordinate system fixed to the ground surface in advance as map information are used. The position and orientation of the route guidance device 10 in the map coordinate system are specified.

またこれにより、地図情報として設定された、通行可能な経路のネットワークに含まれるエッジやノードの情報(地図座標系で表されている)を用い、特定した地図座標系での経路案内装置10の位置及び向きの情報を利用して、いわゆるナビゲーション技術によるナビゲーションを実現する。このため、屋内を含む種々の空間での経路案内を行うことが可能となっている。 Further, as a result, the route guidance device 10 in the specified map coordinate system uses the information of the edges and nodes (represented by the map coordinate system) included in the network of the passable route set as the map information. Navigation by so-called navigation technology is realized by using position and orientation information. Therefore, it is possible to provide route guidance in various spaces including indoors.

さらに本実施の形態では、AR技術を用いて、経路案内装置10の画面上に、経路案内装置10が撮像している施設内の通路の画像データ等に重ね合わせて、エッジに対応する直線等の図形や、次に通過するべきノードの方向を表す図形などの案内画像を描画して表示する。これにより利用者に対して移動方向を明示することが可能となっている。 Further, in the present embodiment, the AR technology is used to superimpose the image data of the passage in the facility imaged by the route guidance device 10 on the screen of the route guidance device 10, and to form a straight line corresponding to the edge. Draws and displays a guide image such as a figure of the above and a figure showing the direction of the node to be passed next. This makes it possible to clearly indicate the moving direction to the user.

そして経路案内装置10は、予め管理者等が定めた中止条件を満足する領域内では上記案内画像の表示を中止する。あるいは、予め管理者等が定めた実施条件を満足する領域(いわばAR表示が許容されるゾーン)においてのみ、案内表示を行う。 Then, the route guidance device 10 cancels the display of the guidance image in the area satisfying the cancellation condition predetermined by the administrator or the like. Alternatively, the guidance display is performed only in the area (so to speak, the zone where AR display is permitted) that satisfies the implementation conditions set in advance by the administrator or the like.

これにより、任意の場所で案内表示を注視することによる利用マナーの低下を抑制できる。 As a result, it is possible to suppress a decrease in usage etiquette due to watching the guidance display at an arbitrary place.

1 経路案内システム、10 経路案内装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 撮像部、16 通信部、20 地図情報サーバ、21 地図情報取得部、22 キー検出部、23 相対位置取得部、24 地図内位置情報取得部、25 経路案内処理部、26 情報出力部。
1 route guidance system, 10 route guidance device, 11 control unit, 12 storage unit, 13 operation unit, 14 display unit, 15 imaging unit, 16 communication unit, 20 map information server, 21 map information acquisition unit, 22 key detection unit, 23 Relative position acquisition unit, 24 Map position information acquisition unit, 25 Route guidance processing unit, 26 Information output unit.

Claims (9)

エッジを組み合わせた経路を案内する経路案内装置であって、
前記エッジ近傍には、所定のキー画像が、複数の箇所に掲示されており、
所定の地図座標系によりエッジを規定する地図情報であって、少なくとも前記キー画像が掲示された位置が、前記地図座標系により規定されている地図情報を取得する地図情報取得手段と、
前記経路案内装置の周辺を撮像し、当該撮像された画像データを出力する撮像手段と、
前記画像データから前記キー画像を検出するキー検出手段と、
前記検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置との相対的位置情報を取得する相対位置取得手段と、
前記取得した地図情報と前記取得した相対的位置情報とを用いて、経路案内装置の前記地図座標系の地図内位置情報を取得する地図内位置情報取得手段と、を有し、
当該取得した地図内位置情報を、前記エッジに沿った経路を検索して案内する所定の処理に供する経路案内装置。
It is a route guidance device that guides a route that combines edges.
A predetermined key image is posted in a plurality of places in the vicinity of the edge.
Map information that defines edges by a predetermined map coordinate system, and at least the position where the key image is posted is a map information acquisition means for acquiring map information defined by the map coordinate system.
An imaging means that images the periphery of the route guidance device and outputs the captured image data.
A key detecting means for detecting the key image from the image data,
Based on the detected key image, a relative position acquisition means for acquiring relative position information between the key image in a predetermined virtual space coordinate system and the route guidance device, and
It has an in-map position information acquisition means for acquiring in-map position information of the map coordinate system of the route guidance device by using the acquired map information and the acquired relative position information.
A route guidance device that performs a predetermined process of searching and guiding a route along the edge of the acquired position information in a map.
請求項1に記載の経路案内装置であって、
前記撮像手段は、経路の案内中に、前記経路案内装置の周辺を撮像し、当該撮像された画像データを出力しており、
前記キー検出手段は、当該画像データからキー画像を検出し、
前記相対位置取得手段は、画像データからキー画像が検出されたときには、当該検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置との相対的位置情報を取得し、
前記地図内位置情報取得手段は、前記相対的位置情報が取得されたときには、経路案内装置の前記地図座標系の地図内位置情報を取得し、
前記経路案内装置は、
当該取得した地図内位置情報に基づいて、経路案内装置の位置の情報を補正する補正手段をさらに有する。
The route guidance device according to claim 1.
The image pickup means takes an image of the periphery of the route guidance device while guiding the route, and outputs the captured image data.
The key detecting means detects a key image from the image data and obtains a key image.
When the key image is detected from the image data, the relative position acquisition means acquires the relative position information between the key image in the predetermined virtual space coordinate system and the route guidance device based on the detected key image. death,
When the relative position information is acquired, the map position information acquisition means acquires the map position information of the map coordinate system of the route guidance device.
The route guidance device is
It further has a correction means for correcting the position information of the route guidance device based on the acquired position information in the map.
請求項1または2に記載の経路案内装置であって、
経路の案内中、前記撮像手段が撮像した画像と、経路を案内する案内画像とを重ね合わせて表示する表示手段をさらに有する経路案内装置。
The route guidance device according to claim 1 or 2.
A route guidance device further comprising a display means for superimposing and displaying an image captured by the image pickup means and a guide image for guiding the route during route guidance.
請求項3に記載の経路案内装置であって、
前記表示手段は、予め定めた中止条件が満足される間、少なくとも前記案内画像の表示を中止する経路案内装置。
The route guidance device according to claim 3.
The display means is a route guidance device that stops the display of at least the guidance image while the predetermined stop condition is satisfied.
請求項3に記載の経路案内装置であって、
前記表示手段は、予め定めた実施条件が満足される間に限り、前記案内画像の表示を行う経路案内装置。
The route guidance device according to claim 3.
The display means is a route guidance device that displays the guidance image only while the predetermined implementation conditions are satisfied.
請求項4に記載の経路案内装置であって、
前記中止条件は、経路案内装置の位置と、地図内の領域とに基づく条件であり、
前記表示手段は、前記中止条件が満足される領域を表示する経路案内装置。
The route guidance device according to claim 4.
The discontinuation condition is a condition based on the position of the route guidance device and the area in the map.
The display means is a route guidance device that displays an area where the discontinuation condition is satisfied.
請求項5に記載の経路案内装置であって、
前記実施条件は、前記撮像手段が撮像した画像データに基づいて判断される条件である経路案内装置。
The route guidance device according to claim 5.
The implementation condition is a route guidance device which is a condition determined based on the image data captured by the image pickup means.
管理者により設置され、利用者が通行可能なエッジ近傍の複数の位置にそれぞれ所定のキー画像を掲示するキー画像掲示体と、
所定の地図座標系によりエッジを規定する地図情報であって、少なくとも前記キー画像が掲示された位置が、前記地図座標系により規定されている地図情報を提供する情報提供装置と、
利用者が携帯する経路案内装置とを含む経路案内システムであって、
前記経路案内装置が、
前記地図情報を取得する地図情報取得手段と、
前記経路案内装置の周辺を撮像し、当該撮像された画像データを出力する撮像手段と、
前記画像データから前記キー画像を検出するキー検出手段と、
前記検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置との相対的位置情報を取得する相対位置取得手段と、
前記取得した地図情報と前記取得した相対的位置情報とを用いて、経路案内装置の前記地図座標系の地図内位置情報を取得する地図内位置情報取得手段と、を有し、
当該取得した地図内位置情報を、前記エッジに沿った経路を検索して案内する所定の処理に供する経路案内システム。
A key image bulletin board installed by the administrator and posting a predetermined key image at multiple positions near the edge where the user can pass, and
An information providing device that provides map information that defines an edge by a predetermined map coordinate system, and at least the position where the key image is posted provides the map information defined by the map coordinate system.
A route guidance system that includes a route guidance device carried by the user.
The route guidance device
The map information acquisition means for acquiring the map information and
An imaging means that images the periphery of the route guidance device and outputs the captured image data.
A key detecting means for detecting the key image from the image data,
Based on the detected key image, a relative position acquisition means for acquiring relative position information between the key image in a predetermined virtual space coordinate system and the route guidance device, and
It has an in-map position information acquisition means for acquiring in-map position information of the map coordinate system of the route guidance device by using the acquired map information and the acquired relative position information.
A route guidance system that performs a predetermined process of searching and guiding a route along the edge of the acquired position information in a map.
コンピュータを、所定のキー画像が、その近傍の複数の箇所に掲示されているエッジを組み合わせた経路を案内するよう機能させるプログラムであって、
所定の地図座標系により前記エッジを規定する地図情報であって、少なくとも前記キー画像が掲示された位置が、前記地図座標系により規定されている地図情報を取得する地図情報取得手段と、
前記経路案内装置の周辺を撮像し、当該撮像された画像データを出力する撮像手段と、
前記画像データから前記キー画像を検出するキー検出手段と、
前記検出したキー画像に基づいて、所定の仮想空間座標系でのキー画像と、経路案内装置との相対的位置情報を取得する相対位置取得手段と、
前記取得した地図情報と前記取得した相対的位置情報とを用いて、経路案内装置の前記地図座標系の地図内位置情報を取得する地図内位置情報取得手段と、
として機能させ、
前記コンピュータに、当該取得した地図内位置情報を、前記エッジに沿った経路を検索して案内する所定の処理に供させるプログラム。
A program that causes a computer to guide a route in which a predetermined key image is a combination of edges posted in multiple places in the vicinity thereof.
Map information acquisition means for acquiring map information defined by the map coordinate system at least at a position where the key image is posted, which is map information defining the edge by a predetermined map coordinate system.
An imaging means that images the periphery of the route guidance device and outputs the captured image data.
A key detecting means for detecting the key image from the image data,
Based on the detected key image, a relative position acquisition means for acquiring relative position information between the key image in a predetermined virtual space coordinate system and the route guidance device, and
Using the acquired map information and the acquired relative position information, an in-map position information acquisition means for acquiring the in-map position information of the map coordinate system of the route guidance device, and an in-map position information acquisition means.
To function as
A program that causes the computer to perform a predetermined process of searching and guiding a route along the edge of the acquired position information in a map.
JP2020162681A 2020-09-28 2020-09-28 Route guide device, route guide system, and program Pending JP2022055218A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020162681A JP2022055218A (en) 2020-09-28 2020-09-28 Route guide device, route guide system, and program
PCT/JP2021/034579 WO2022065304A1 (en) 2020-09-28 2021-09-21 Route guide device, route guide system, and method for controlling route guide device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162681A JP2022055218A (en) 2020-09-28 2020-09-28 Route guide device, route guide system, and program

Publications (1)

Publication Number Publication Date
JP2022055218A true JP2022055218A (en) 2022-04-07

Family

ID=80845481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162681A Pending JP2022055218A (en) 2020-09-28 2020-09-28 Route guide device, route guide system, and program

Country Status (2)

Country Link
JP (1) JP2022055218A (en)
WO (1) WO2022065304A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014025805A (en) * 2012-07-26 2014-02-06 Pioneer Electronic Corp Electronic apparatus, notification method of guide information, program, recording medium, client server system, client terminal, and server device
US10024667B2 (en) * 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
JP7137359B2 (en) * 2018-05-30 2022-09-14 フォルシアクラリオン・エレクトロニクス株式会社 Information processing equipment

Also Published As

Publication number Publication date
WO2022065304A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
JP6635037B2 (en) Information processing apparatus, information processing method, and program
US10677596B2 (en) Image processing device, image processing method, and program
US11915353B2 (en) Display of a live scene and auxiliary object
JP6683127B2 (en) Information processing apparatus, information processing method, and program
EP2455713B1 (en) Building directory aided navigation
KR101879586B1 (en) Method and system for managing implementation of augmented reality
US20090063047A1 (en) Navigational information display system, navigational information display method, and computer-readable recording medium
JP2017106787A (en) Information processing apparatus, navigation system, information processing method, program
US11118911B2 (en) Localized map generation
WO2007114313A1 (en) Information processing method and information processing apparatus
JP7413421B2 (en) Location and orientation recognition system, mobile terminal, and location and orientation recognition method
KR102622585B1 (en) Indoor navigation apparatus and method
JP2019153274A (en) Position calculation device, position calculation program, position calculation method, and content addition system
JP2006010563A (en) Navigation system for pedestrian
US9418284B1 (en) Method, system and computer program for locating mobile devices based on imaging
US20240094007A1 (en) Indoor wayfinder interface and service
WO2022065304A1 (en) Route guide device, route guide system, and method for controlling route guide device
KR20180133052A (en) Method for authoring augmented reality contents based on 360 degree image and video
JP2020181456A (en) Work support apparatus and work support method
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
KR102442239B1 (en) Indoor navigation apparatus using digital signage
US10157189B1 (en) Method and computer program for providing location data to mobile devices
US9911190B1 (en) Method and computer program for generating a database for use in locating mobile devices based on imaging
US20230015751A1 (en) Real-Time Alignment of Multiple Point Clouds to Video Capture
Bacchewar et al. Indoor Navigation Using Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230919