JP2021144010A - Portable terminal, navigation method, and computer program - Google Patents

Portable terminal, navigation method, and computer program Download PDF

Info

Publication number
JP2021144010A
JP2021144010A JP2020044544A JP2020044544A JP2021144010A JP 2021144010 A JP2021144010 A JP 2021144010A JP 2020044544 A JP2020044544 A JP 2020044544A JP 2020044544 A JP2020044544 A JP 2020044544A JP 2021144010 A JP2021144010 A JP 2021144010A
Authority
JP
Japan
Prior art keywords
navigation
image
imaging device
route
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020044544A
Other languages
Japanese (ja)
Other versions
JP7478995B2 (en
Inventor
健太 堆朱
Kenta Tsuishu
健太 堆朱
健吾 三好
Kengo Miyoshi
健吾 三好
明夫 上杉
Akio Uesugi
明夫 上杉
幸司 中西
Koji Nakanishi
幸司 中西
崇雅 前田
Takamasa Maeda
崇雅 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020044544A priority Critical patent/JP7478995B2/en
Publication of JP2021144010A publication Critical patent/JP2021144010A/en
Application granted granted Critical
Publication of JP7478995B2 publication Critical patent/JP7478995B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To enable navigation in places where it is difficult to receive signals from positioning satellites.SOLUTION: A portable terminal equipped with an imaging device acquires an imaged video having been imaged by the imaging device, specifies the reference bearing and position of the imaging device at navigation start time on the basis of the imaged video in which an installed object having been installed at a prescribed position is imaged, specifies a route from the position of the installed object to a destination, detects the bearing change amount and movement amount of the imaging device on the basis of the movement of a feature point with the passage of time extracted from the imaged video, specifies the current bearing and position of the imaging device on the basis of bearing change amount and movement amount of the imaging device detected by a motion detection unit after having specified the reference bearing and position of the imaging device, generates a navigation image that indicates a route on the basis of the specified current bearing and position of the imaging device, and displays the generated navigation image by superimposition on the current imaged video.SELECTED DRAWING: Figure 2

Description

本開示は、携帯端末、ナビゲーション方法、及び、コンピュータプログラムに関する。 The present disclosure relates to mobile terminals, navigation methods, and computer programs.

特許文献1には、カメラ及びカメラの撮像画像を表示するための表示器を備えた、ナビゲーション機能付きの携帯端末が開示される。当該携帯端末は、当該携帯端末の現在位置を検出するための第1検出手段と、カメラの向きを検出するための第2検出手段と、目的地を設定するための設定手段と、設定手段によって設定された目的地と、第1検出手段によって検出された現在位置とに基づいて、現在位置から目的地までの経路に関する情報をサーバから取得する取得手段と、取得手段によって取得した経路に関する情報ならびに第2検出手段によって検出されたカメラの向きに基づいて、カメラの撮像画像上での進むべき方向を算出する算出手段と、カメラの撮像画像に算出手段によって算出された進むべき方向を示す指標を付加して表示器に表示させる手段と、を備える。 Patent Document 1 discloses a mobile terminal having a navigation function, which includes a camera and a display for displaying an image captured by the camera. The mobile terminal is provided by a first detecting means for detecting the current position of the mobile terminal, a second detecting means for detecting the direction of the camera, a setting means for setting a destination, and a setting means. Based on the set destination and the current position detected by the first detection means, the acquisition means for acquiring the information on the route from the current position to the destination from the server, the information on the route acquired by the acquisition means, and the information on the route acquired by the acquisition means. Based on the orientation of the camera detected by the second detection means, a calculation means for calculating the direction to go on the image captured by the camera and an index indicating the direction to go calculated by the calculation means on the image captured by the camera are provided. It is provided with a means for additionally displaying on a display.

特開2006−194665号公報Japanese Unexamined Patent Publication No. 2006-194665

しかしながら、特許文献1に開示される携帯端末は、GPS衛星に代表される測位衛星からの測位信号を用いて当該携帯端末の現在位置を測位するため、百貨店内、ショッピングモール内、駅構内、地下街といった測位信号の受信が困難な場所では、現在位置を測定できず、ナビゲーションが困難である。 However, since the mobile terminal disclosed in Patent Document 1 uses a positioning signal from a positioning satellite represented by a GPS satellite to determine the current position of the mobile terminal, the mobile terminal is located in a department store, a shopping mall, a station yard, or an underground shopping mall. In places where it is difficult to receive positioning signals such as, the current position cannot be measured and navigation is difficult.

本開示の目的は、測位衛星からの測位信号の受信が困難な場所でのナビゲーションを可能とする技術を提供することにある。 An object of the present disclosure is to provide a technique that enables navigation in a place where it is difficult to receive a positioning signal from a positioning satellite.

本開示に係る撮像装置を備える携帯端末は、前記撮像装置に撮像された撮像映像を取得する映像取得部と、所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定する基準特定部と、前記設置物の位置から目的地までのルートを特定するルート特定部と、前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出する動き検出部と、前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定する位置特定部と、特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示するナビゲーション表示部と、を備える。 A mobile terminal including the image pickup device according to the present disclosure is navigated based on an image acquisition unit that acquires an image captured by the image pickup device and the image capture image of an installation object installed at a predetermined position. The time lapse of the reference specifying unit that specifies the reference orientation and position of the imaging device at the start, the route specifying unit that specifies the route from the position of the installation object to the destination, and the feature points extracted from the captured image. A motion detection unit that detects the amount of change in direction and the amount of movement of the image pickup device based on the movement accompanying the image pickup device, and the image pickup device that is detected by the motion detection unit after specifying the reference orientation and position of the image pickup device. A position specifying unit that specifies the current direction and position of the image pickup device based on the amount of change in direction and the amount of movement, and a navigation image showing the route based on the current direction and position of the specified image pickup device are generated. A navigation display unit is provided, which superimposes and displays the generated navigation image on the current captured image.

本開示に係る撮像装置を備える携帯端末によって実行されるナビゲーション方法は、撮像装置を備える携帯端末が、前記撮像装置に撮像された撮像映像を取得し、所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定し、前記設置物の位置から目的地までのルートを特定し、前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出し、前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定し、特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示する。 In the navigation method executed by the mobile terminal including the imaging device according to the present disclosure, the mobile terminal equipped with the imaging device acquires the captured image captured by the imaging device, and the installed object installed at a predetermined position captures the image. Based on the captured image, the reference orientation and position of the image pickup device at the start of navigation are specified, the route from the position of the installation object to the destination is specified, and the feature points extracted from the captured image. The amount of change in direction and the amount of movement of the image pickup device are detected based on the movement over time, the reference direction and position of the image pickup device are specified, and then the change in direction of the image pickup device detected by the motion detection unit. The current orientation and position of the imaging device are specified based on the amount and the amount of movement, and a navigation image showing the route is generated based on the identified current orientation and position of the imaging device, and the generated navigation The image is superimposed and displayed on the current captured image.

本開示に係る撮像装置を備える携帯端末によって実行されるコンピュータプログラムは、前記撮像装置に撮像された撮像映像を取得し、所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定し、前記設置物の位置から目的地までのルートを特定し、前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出し、前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定し、特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示する、処理を前記携帯端末に実行させる。 The computer program executed by the mobile terminal including the imaging device according to the present disclosure acquires the captured image captured by the imaging device, and is based on the captured image captured by the installation object installed at a predetermined position. , The reference orientation and position of the imaging device at the start of navigation, the route from the position of the installation object to the destination, and the movement of the feature points extracted from the captured image over time. , The amount of change in direction and the amount of movement of the image pickup device are detected, the reference direction and position of the image pickup device are specified, and then the amount of change in direction and the amount of movement of the image pickup device detected by the motion detection unit are used. The current orientation and position of the imaging device are specified, a navigation image showing the route is generated based on the identified current orientation and position of the imaging device, and the generated navigation image is used as the current captured image. The mobile terminal is made to execute the process of superimposing and displaying.

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific aspects may be realized by a system, a device, a method, an integrated circuit, a computer program or a recording medium, and any of the system, a device, a method, an integrated circuit, a computer program and a recording medium. It may be realized by various combinations.

本開示によれば、測位衛星からの信号の受信が困難な場所においてもナビゲーションが可能となる。 According to the present disclosure, navigation is possible even in a place where it is difficult to receive a signal from a positioning satellite.

実施の形態1に係るAR(Augmented Reality)ナビゲーションの概要を説明するための図The figure for demonstrating the outline of AR (Augmented Reality) navigation which concerns on Embodiment 1. 実施の形態1に係る携帯端末の構成例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 1. カメラで電子看板のマークを撮影する例を示す図Diagram showing an example of shooting a mark on a digital signage with a camera ARナビゲーションの表示例を示す図Diagram showing a display example of AR navigation ARナビゲーションの開始時の処理の一例を示すフローチャートFlowchart showing an example of processing at the start of AR navigation ARナビゲーション処理の一例を示すフローチャートFlowchart showing an example of AR navigation processing ナビゲーション表示部のさらなる機能を説明するための図Diagram for explaining further functions of the navigation display 目標ノードの更新方法の一例を説明するための図Diagram for explaining an example of how to update the target node 実施の形態2に係る携帯端末の構成及びナビゲーション開始時におけるマーク検出処理の例を示す図The figure which shows the configuration of the mobile terminal which concerns on Embodiment 2 and the example of the mark detection processing at the start of navigation. 実施の形態2に係る携帯端末の構成例及びナビゲーション開始時におけるマーク検出処理の図9の続きの例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 2 and the continuation example of FIG. 9 of the mark detection processing at the start of navigation. 実施の形態2に係る携帯端末の構成例及びユーザの移動に伴うナビゲーション画像の再生成処理の例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 2 and the example of the regeneration processing of the navigation image with the movement of a user. 実施の形態2に係る携帯端末の構成例及びユーザがルートを外れた場合の処理の例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 2 and the example of processing when a user deviates from a route. 実施の形態2に係る携帯端末の構成例及びユーザがルートを外れた場合に注意情報を表示する処理の例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 2 and the example of the process which displays caution information when a user deviates from a route. 実施の形態2に係る携帯端末の構成例及びルートを外れたユーザがルートに復帰した場合の処理の例を示す図The figure which shows the configuration example of the mobile terminal which concerns on Embodiment 2 and the example of the processing when the user who deviated from the route returns to the route. 本開示に係る携帯端末の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図The figure which shows the hardware composition of the computer which realizes the function of the mobile terminal which concerns on this disclosure by a program.

以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter of the claims.

(実施の形態1)
<ARナビゲーションの概要>
図1は、実施の形態1に係るAR(Augmented Reality)ナビゲーションの概要を説明するための図である。
(Embodiment 1)
<Overview of AR navigation>
FIG. 1 is a diagram for explaining an outline of AR (Augmented Reality) navigation according to the first embodiment.

百貨店内、ショッピングモール内、駅構内、地下街といった、測位衛星から送信される測位信号の受信が困難な場所では、携帯端末100は、現在位置を測位できないため、ユーザ2を目的地までナビゲーションことは難しい。本実施の形態は、このように測位衛星から送信される測位信号の受信が困難な場所においても、ユーザ2を目的地までナビゲーションできる携帯端末100について説明する。 In places where it is difficult to receive positioning signals transmitted from positioning satellites, such as in department stores, shopping malls, train stations, and underground malls, the mobile terminal 100 cannot determine the current position, so it is not possible to navigate user 2 to the destination. difficult. The present embodiment describes the mobile terminal 100 capable of navigating the user 2 to the destination even in a place where it is difficult to receive the positioning signal transmitted from the positioning satellite.

実施の形態1では、百貨店内、ショッピングモール内、駅構内、地下街等において、所定の場所に、LinkRay(登録商標)に代表される光信号12の送信が可能な電子看板10を設置する。例えば、光信号12の送信が可能な電子看板10は、LED(Light Emitting Diode)の光源の明滅を変調させることにより、所定の情報(以下「光信号情報」という)を送信できる。 In the first embodiment, an electronic signboard 10 capable of transmitting an optical signal 12 typified by LinkRay (registered trademark) is installed at a predetermined place in a department store, a shopping mall, a station yard, an underground shopping mall, or the like. For example, the electronic signboard 10 capable of transmitting the optical signal 12 can transmit predetermined information (hereinafter referred to as "optical signal information") by modulating the blinking of the light source of the LED (Light Emitting Diode).

カメラ90を備えた携帯端末100を所持するユーザ2は、カメラ90を電子看板10に向ける。携帯端末100は、カメラ90を通じて、電子看板10から光信号情報を受信する。光信号情報には、その電子看板10のID(Identification)が含まれる。 The user 2 who owns the mobile terminal 100 provided with the camera 90 points the camera 90 at the digital signage 10. The mobile terminal 100 receives optical signal information from the digital signage 10 through the camera 90. The optical signal information includes an ID (Identification) of the digital signage 10.

携帯端末100は、移動体通信網(例えばLTE、4G、5G)又はWiFi(登録商標)といった無線の通信ネットワークを通じて、所定のサーバ20にIDを送信する。そして、携帯端末100は、サーバ20から、IDが示す電子看板10の場所を出発地として、所定の目的地に到達するためのルート30を示すルート情報202C(図2参照)を受信する。これにより、携帯端末100は、測位衛星からの測位信号を受信せずに、出発地を特定できる。なお、所定の目的地の例は、駅の改札口、乗り換え先の駅、バス乗り場、地下街の出入り口、電子看板10の広告に表示された店舗等である。 The mobile terminal 100 transmits an ID to a predetermined server 20 through a wireless communication network such as a mobile communication network (for example, LTE, 4G, 5G) or WiFi (registered trademark). Then, the mobile terminal 100 receives the route information 202C (see FIG. 2) indicating the route 30 for reaching a predetermined destination from the server 20 starting from the location of the digital signage 10 indicated by the ID. As a result, the mobile terminal 100 can specify the departure place without receiving the positioning signal from the positioning satellite. Examples of predetermined destinations are station ticket gates, transfer destination stations, bus stations, underground mall entrances and exits, stores displayed in advertisements for digital signage 10, and the like.

携帯端末100は、受信したルート情報202Cに基づき、出発地から目的地までのARナビゲーションを実行する。ARナビゲーションでは、携帯端末100は、カメラ90の撮像素子に撮像された映像(以下「撮像映像」という)201(図2参照)に対して、ルート情報202Cを可視化したナビゲーション画像205(図2、図4参照)を重畳して、ディスプレイに表示する。 The mobile terminal 100 executes AR navigation from the departure point to the destination based on the received route information 202C. In AR navigation, the mobile terminal 100 visualizes the route information 202C with respect to the image captured by the image sensor of the camera 90 (hereinafter referred to as “image captured image”) 201 (see FIG. 2), and the navigation image 205 (FIG. 2, FIG. (See FIG. 4) is superimposed and displayed on the display.

ARナビゲーションでは、実際の風景の撮像映像201に合わせてナビゲーション画像205が重畳表示されるので、ユーザ2は、2次元地図に表示されたルートを見る場合よりも迷わずに目的地まで到着できる。以下、詳細に説明する。 In AR navigation, since the navigation image 205 is superimposed and displayed in accordance with the captured image 201 of the actual landscape, the user 2 can arrive at the destination without hesitation as compared with the case of viewing the route displayed on the two-dimensional map. Hereinafter, a detailed description will be given.

<携帯端末の構成>
図2は、本実施の形態に係る携帯端末100の構成例を示す図である。図3は、カメラ90で電子看板10のマーク11を撮影する例を示す図である。図4は、ARナビゲーションの表示例を示す図である。次に、図2〜図4を参照して、携帯端末100の構成について説明する。
<Configuration of mobile terminal>
FIG. 2 is a diagram showing a configuration example of the mobile terminal 100 according to the present embodiment. FIG. 3 is a diagram showing an example in which the mark 11 of the digital signage 10 is photographed by the camera 90. FIG. 4 is a diagram showing a display example of AR navigation. Next, the configuration of the mobile terminal 100 will be described with reference to FIGS. 2 to 4.

図2に示すように、携帯端末100は、制御部110及び記憶部200を備える。制御部110は、図15に示すCPU1003(及びGPU1004)によって実現される。記憶部200は、図15に示すRAM1006及び記憶装置1007によって実現される。制御部110は、記憶部200に対して情報を書き込んだり、記憶部200から情報を読み出したりできる。 As shown in FIG. 2, the mobile terminal 100 includes a control unit 110 and a storage unit 200. The control unit 110 is realized by the CPU 1003 (and GPU 1004) shown in FIG. The storage unit 200 is realized by the RAM 1006 and the storage device 1007 shown in FIG. The control unit 110 can write information to the storage unit 200 and read information from the storage unit 200.

制御部110は、映像取得部111、光信号受信部112、情報取得部113、目的地リスト表示部114、基準特定部115、ルート特定部116、動き検出部117、位置特定部118、及び、ナビゲーション表示部119を含む。 The control unit 110 includes a video acquisition unit 111, an optical signal reception unit 112, an information acquisition unit 113, a destination list display unit 114, a reference identification unit 115, a route identification unit 116, a motion detection unit 117, a position identification unit 118, and the like. The navigation display unit 119 is included.

映像取得部111は、撮像装置1010(図15参照)の一例であるカメラ90から、当該カメラ90の撮像素子によって撮像された撮像映像201を取得し、記憶部200に書き込む。 The image acquisition unit 111 acquires the image captured image 201 captured by the image sensor of the camera 90 from the camera 90, which is an example of the image pickup device 1010 (see FIG. 15), and writes it in the storage unit 200.

光信号受信部112は、LinkRayに代表される光信号12を受信する。例えば、光信号受信部112は、電子看板10を撮像した撮像映像201から光信号12を検出し、光信号12から光信号情報を抽出する。光信号情報には、少なくともIDが含まれる。 The optical signal receiving unit 112 receives the optical signal 12 represented by LinkRay. For example, the optical signal receiving unit 112 detects the optical signal 12 from the captured image 201 obtained by capturing the electronic signboard 10, and extracts the optical signal information from the optical signal 12. The optical signal information includes at least an ID.

情報取得部113は、サーバ20に対してIDを送信し、当該サーバ20からIDに対応する電子看板情報202A、目的地リスト情報202B及びルート情報202Cを受信する。電子看板情報202Aは、電子看板10の方位及び位置に関する情報を含む。なお、「方位」は、「向き」、「方向」又は「方角」といった他の用語に読み替えられてもよい。また、「位置」は、「場所」、「座標」又は「経度及び緯度」といった他の用語に読み替えられてもよい。目的地リスト情報202Bは、電子看板10の位置を出発地とする、少なくとも1つの目的地に関する情報を含む。例えば、目的地リスト情報202Bは、目的地の名称、目的地の位置、出発地から目的地までの距離を示す情報を含む。ルート情報202Cは、出発地から各目的地までのルートを示す情報を含む。 The information acquisition unit 113 transmits an ID to the server 20, and receives the electronic signage information 202A, the destination list information 202B, and the route information 202C corresponding to the ID from the server 20. The digital signage information 202A includes information regarding the orientation and position of the digital signage 10. In addition, "direction" may be read as other terms such as "direction", "direction" or "direction". In addition, "position" may be read as other terms such as "location", "coordinates" or "longitude and latitude". The destination list information 202B includes information on at least one destination starting from the position of the digital signage 10. For example, the destination list information 202B includes information indicating the name of the destination, the position of the destination, and the distance from the departure point to the destination. The route information 202C includes information indicating a route from the starting point to each destination.

目的地リスト表示部114は、目的地リスト情報202Bに基づいて、目的地のリストを表示する。ユーザ2は、表示された目的地のリストの中から、所望の1つの目的地を選択できる。 The destination list display unit 114 displays a list of destinations based on the destination list information 202B. User 2 can select one desired destination from the displayed list of destinations.

基準特定部115は、撮像映像201に含まれる方形のマーク11の歪み及び/又はサイズに基づいて、ナビゲーション開始時におけるカメラ90の基準となる方位(以下「基準方位」という)及び位置(以下「基準位置」という)を特定する。そして、基準特定部115は、その特定したカメラ90の基準方位及び基準位置を示す情報203を、記憶部200に書き込む。 The reference specifying unit 115 is based on the distortion and / or size of the square mark 11 included in the captured image 201, and is the reference direction (hereinafter referred to as “reference direction”) and position (hereinafter referred to as “reference direction”) of the camera 90 at the start of navigation. "Reference position") is specified. Then, the reference specifying unit 115 writes the information 203 indicating the reference direction and the reference position of the specified camera 90 to the storage unit 200.

基準特定部115は、電子看板10の表示面(床面に対して垂直な面)に対してカメラ90の光軸が垂直となるカメラ90の向きに基づいて、基準方位を特定してよい。例えば、基準特定部115は、図3に示すように、撮像映像201内の方形のマーク11の歪みが最小となったときのカメラ90の向きを、基準方位とする。ここで、電子看板10の表示面の方位は電子看板情報202Aによって判明しているため、基準特定部115は、この方法によって基準方位を特定できる。例えば、電子看板10の表示面の方位が「南」である場合、基準特定部115は、基準方位を、電子看板10の表示面に対向する「北」と特定できる。なお、基準方位の取得は、方形のマーク11の歪み等から、計算によって推定してもよい。カメラ90の視野角やレンズ歪みのパラメータは既知であるため、本来方形であるはずのマーク11の見え方と、これらのパラメータとを用いた演算により、カメラ90とマーク11の相対的な角度を算出することができる。したがって、現在のカメラ90の方位を、算出した角度で補正することで基準方位を得ることができる。また、マーク11の形状は必ずしも方形である必要はない。ただし、マーク11の形状の歪みは基準方位の特定に使用するため、撮影角度によって見え方が異なる形状にするとよい。 The reference specifying unit 115 may specify the reference orientation based on the orientation of the camera 90 in which the optical axis of the camera 90 is perpendicular to the display surface (the surface perpendicular to the floor surface) of the electronic signage 10. For example, as shown in FIG. 3, the reference specifying unit 115 uses the orientation of the camera 90 when the distortion of the square mark 11 in the captured image 201 is minimized as the reference orientation. Here, since the orientation of the display surface of the electronic signboard 10 is known from the electronic signage information 202A, the reference specifying unit 115 can specify the reference orientation by this method. For example, when the orientation of the display surface of the digital signage 10 is "south", the reference specifying unit 115 can specify the reference orientation as "north" facing the display surface of the electronic signage 10. The acquisition of the reference direction may be estimated by calculation from the distortion of the square mark 11. Since the viewing angle and lens distortion parameters of the camera 90 are known, the relative angle between the camera 90 and the mark 11 can be determined by the appearance of the mark 11 which should be a square and the calculation using these parameters. Can be calculated. Therefore, the reference direction can be obtained by correcting the current direction of the camera 90 with the calculated angle. Further, the shape of the mark 11 does not necessarily have to be square. However, since the distortion of the shape of the mark 11 is used to specify the reference direction, it is preferable to make the shape look different depending on the shooting angle.

また、例えば、図3に示すように、基準特定部115は、撮像映像201内の方形のマーク11が所定の枠121に合致したときのカメラ90の位置を、基準位置とする。ここで、電子看板10の位置は電子看板情報202Aによって判明しているため、基準特定部115は、この方法によって基準位置を特定できる。例えば、電子看板10の位置から南に1m離れた位置にて、撮像映像201内の方形のマーク11が所定の枠121に合致することが予め判明している場合、基準特定部115は、基準位置を、電子看板10の位置から南に1m離れた位置と特定できる。 Further, for example, as shown in FIG. 3, the reference specifying unit 115 uses the position of the camera 90 when the square mark 11 in the captured image 201 matches the predetermined frame 121 as the reference position. Here, since the position of the electronic signboard 10 is known from the electronic signage information 202A, the reference specifying unit 115 can specify the reference position by this method. For example, when it is known in advance that the square mark 11 in the captured image 201 matches the predetermined frame 121 at a position 1 m south of the position of the digital signage 10, the reference specifying unit 115 uses the reference. The position can be specified as a position 1 m south of the position of the digital signage 10.

ルート特定部116は、ルート情報202Cに基づいて、出発地からユーザ2に選択された目的地までのルートを特定する。ルートは、出発地、目的地及び通過地点を示す複数のノードと、2つのノード間を結ぶエッジとによって構成されてよい。また、ルート特定部116は、ユーザ2の移動に伴って、ルート上の中間の目標地点である目標ノードを随時更新してよい。なお、目標ノードの更新の詳細については後述する(図8参照)。 The route identification unit 116 identifies the route from the departure point to the destination selected by the user 2 based on the route information 202C. A route may consist of a plurality of nodes indicating a starting point, a destination and a passing point, and an edge connecting the two nodes. Further, the route specifying unit 116 may update the target node, which is an intermediate target point on the route, at any time as the user 2 moves. The details of updating the target node will be described later (see FIG. 8).

動き検出部117は、撮像映像201から特徴点211を抽出する公知技術を用いて、図4に示すように、現在(最新)の撮像映像201の中から複数の特徴点211を抽出する。そして、動き検出部117は、その抽出した特徴点211の時間経過に伴う動きに基づいて、カメラ90の方位変化量及び移動量を検出する。例えば、特徴点211が左方向に動いた場合、動き検出部117は、その動いた方位変化量の分、カメラ90の方位が右に向いたことを検出する。例えば、特徴点211が下方向に動いた場合、動き検出部117は、その動いた移動量の分、カメラ90が前方に移動したことを検出する。なお、携帯端末100が6軸センサを備える場合、当該6軸センサの測定値を用いて、カメラ90の方位変化量を算出してもよい。 As shown in FIG. 4, the motion detection unit 117 extracts a plurality of feature points 211 from the current (latest) captured image 201 by using a known technique for extracting the feature points 211 from the captured image 201. Then, the motion detection unit 117 detects the amount of change in direction and the amount of movement of the camera 90 based on the movement of the extracted feature points 211 with the passage of time. For example, when the feature point 211 moves to the left, the motion detection unit 117 detects that the direction of the camera 90 has turned to the right by the amount of the movement direction change. For example, when the feature point 211 moves downward, the motion detection unit 117 detects that the camera 90 has moved forward by the amount of the movement. When the mobile terminal 100 includes a 6-axis sensor, the amount of change in the orientation of the camera 90 may be calculated using the measured value of the 6-axis sensor.

位置特定部118は、動き検出部117によって特定されたカメラ90の方位変化量及び移動量に基づいて、カメラ90の現在(最新)の方位(以下「現在方位」という)及び位置(以下「現在位置」という)を特定する。そして、位置特定部118は、その特定したカメラ90の現在方位及び現在位置を示す情報204を、記憶部200に書き込む。 The position specifying unit 118 is based on the amount of change in direction and the amount of movement of the camera 90 specified by the motion detection unit 117, and the current (latest) direction (hereinafter referred to as “current direction”) and position (hereinafter referred to as “current direction”) of the camera 90. "Position") is specified. Then, the position specifying unit 118 writes the information 204 indicating the current direction and the current position of the specified camera 90 to the storage unit 200.

例えば、位置特定部118は、カメラ90の基準方位及び基準位置を特定した時刻をtとした場合、時刻tからΔt時間経過後のカメラ90の方位変化量及び移動量に基づいて、時刻t(=t+Δt)におけるカメラ90の現在方向及び現在位置を特定する。同様に、位置特定部118は、時刻tからΔt時間経過後のカメラ90の方位変化量及び移動量に基づいて、時刻t(=t+Δt)におけるカメラ90の現在方向及び現在位置を特定する。位置特定部118は、これを繰り返すことにより、基準方位及び基準位置を起点とした、カメラ90の現在方位及び現在位置を特定できる。これにより、携帯端末100は、測位衛星からの測位信号の受信が困難な場所においても、カメラ90の現在方位及び現在位置を特定できる。 For example, when the reference orientation of the camera 90 and the time at which the reference position is specified are set to t 0 , the position specifying unit 118 sets the time based on the amount of change in the orientation and the amount of movement of the camera 90 after the lapse of Δt time from the time t 0. The current direction and the current position of the camera 90 at t 1 (= t 0 + Δt) are specified. Similarly, the position specifying unit 118 determines the current direction and the current position of the camera 90 at time t 2 (= t 1 + Δ t) based on the amount of change in direction and the amount of movement of the camera 90 after the lapse of Δt time from time t 1. Identify. By repeating this, the position specifying unit 118 can specify the current direction and the current position of the camera 90 starting from the reference direction and the reference position. As a result, the mobile terminal 100 can specify the current direction and the current position of the camera 90 even in a place where it is difficult to receive the positioning signal from the positioning satellite.

ナビゲーション表示部119は、カメラ90の現在方位及び現在位置に基づいて、ルートを示すナビゲーション画像205を生成する。そして、ナビゲーション表示部119は、生成したナビゲーション画像205を現在の撮像映像201に重畳して、図4に示すようなARナビゲーションの画像を生成及び表示する。 The navigation display unit 119 generates a navigation image 205 showing a route based on the current direction and the current position of the camera 90. Then, the navigation display unit 119 superimposes the generated navigation image 205 on the current captured image 201 to generate and display an AR navigation image as shown in FIG.

例えば、ナビゲーション表示部119は、図4に示すように、撮像映像201から所定の画像解析技術を用いて床面を検出し、その検出した床面から所定の高さにナビゲーション画像205が存在して見えるように、ARナビゲーションの画像を生成及び表示してよい。このとき、ナビゲーション表示部119は、6軸センサの測定値を用いて、床面(平面)に対するカメラ90の傾きを検出してもよい。なお、ナビゲーション表示部119のさらなる機能については後述する(図7参照)。 For example, as shown in FIG. 4, the navigation display unit 119 detects a floor surface from the captured image 201 using a predetermined image analysis technique, and the navigation image 205 exists at a predetermined height from the detected floor surface. An image of AR navigation may be generated and displayed so that it can be seen. At this time, the navigation display unit 119 may detect the inclination of the camera 90 with respect to the floor surface (plane) by using the measured value of the 6-axis sensor. Further functions of the navigation display unit 119 will be described later (see FIG. 7).

<ARナビゲーションの動作>
図5は、ARナビゲーション開始時の処理の一例を示すフローチャートである。
<Operation of AR navigation>
FIG. 5 is a flowchart showing an example of processing at the start of AR navigation.

ユーザ2は、携帯端末100のカメラ90を電子看板10に向ける(S101)。 The user 2 points the camera 90 of the mobile terminal 100 toward the digital signage 10 (S101).

光信号受信部112は、カメラ90を向けた電子看板10から光信号12を受信し、その光信号12から、IDを含む光信号情報を抽出する(S102)。 The optical signal receiving unit 112 receives the optical signal 12 from the electronic signboard 10 directed to the camera 90, and extracts the optical signal information including the ID from the optical signal 12 (S102).

情報取得部113は、受信した光信号情報に含まれるIDをサーバ20へ送信し、サーバ20からIDに対応する電子看板情報202A、目的地リスト情報202B、及び、ルート情報202Cを受信する(S103)。 The information acquisition unit 113 transmits the ID included in the received optical signal information to the server 20, and receives the electronic signage information 202A, the destination list information 202B, and the route information 202C corresponding to the ID from the server 20 (S103). ).

目的地リスト表示部114は、目的地リスト情報202Bに含まれる目的地のリストを、ディスプレイに表示する(S104)。 The destination list display unit 114 displays a list of destinations included in the destination list information 202B on the display (S104).

ユーザ2は、出力装置1002(図15参照)の一例であるディスプレイに表示された目的地のリストの中から、入力装置1001(図15参照)の一例であるタッチパネルを介して、1つの目的地を選択する(S105)。 The user 2 selects one destination from the list of destinations displayed on the display, which is an example of the output device 1002 (see FIG. 15), via the touch panel, which is an example of the input device 1001 (see FIG. 15). Is selected (S105).

ユーザ2は、図3に示すように、電子看板10に表示されたマーク11にカメラ90を向け、撮像映像201内のマーク11が枠121の中にちょうど収まるように、カメラ90を前後上下にゆっくりと動かす(S106)。 As shown in FIG. 3, the user 2 points the camera 90 at the mark 11 displayed on the digital signage 10, and moves the camera 90 back and forth and up and down so that the mark 11 in the captured image 201 fits in the frame 121. Move slowly (S106).

基準特定部115は、撮像映像201内のマーク11の歪み及びサイズに基づいて、カメラ90の基準方位及び基準位置を特定する(S107)。 The reference specifying unit 115 specifies the reference direction and the reference position of the camera 90 based on the distortion and size of the mark 11 in the captured image 201 (S107).

ルート特定部116は、ルート情報202Cに基づいて、出発地から、S105にて選択された目的地までのルートを特定する(S108)。 The route identification unit 116 identifies the route from the departure point to the destination selected in S105 based on the route information 202C (S108).

携帯端末100は、ARナビゲーション処理を開始する(S109)。なお、ARナビゲーション処理の詳細については後述する(図6参照)。 The mobile terminal 100 starts the AR navigation process (S109). The details of the AR navigation process will be described later (see FIG. 6).

以上の処理により、ナビゲーション開始時におけるカメラ90の基準方位及び基準位置を特定でき、ARナビゲーション処理を開始できる。 By the above processing, the reference direction and the reference position of the camera 90 at the start of navigation can be specified, and the AR navigation processing can be started.

図6は、ARナビゲーション処理の一例を示すフローチャートである。なお、当該フローチャートは、図5のS109の処理の詳細な説明に相当する。 FIG. 6 is a flowchart showing an example of AR navigation processing. The flowchart corresponds to a detailed description of the process of S109 in FIG.

映像取得部111は、カメラ90から、現在の撮像映像201を取得する(S201)。 The image acquisition unit 111 acquires the current captured image 201 from the camera 90 (S201).

動き検出部117は、前回の撮像映像201から現在の撮像映像201までの間の特徴点211の動きを検出し、カメラ90の方位変化量及び移動量を検出する(S202)。 The motion detection unit 117 detects the motion of the feature point 211 between the previous captured image 201 and the current captured image 201, and detects the amount of change in direction and the amount of movement of the camera 90 (S202).

位置特定部118は、前回のカメラ90の方位及び位置と、S202で検出されたカメラ90の方位変化量及び移動量とに基づいて、現在のカメラ90の方位(現在方位)及び位置(現在位置)を特定する(S203)。 The position specifying unit 118 is the current direction (current direction) and position (current position) of the camera 90 based on the previous direction and position of the camera 90 and the amount of change and movement of the camera 90 detected in S202. ) Is specified (S203).

ナビゲーション表示部119は、カメラ90の現在方向及び現在位置に基づいてナビゲーション画像205を生成する、そして、ナビゲーション表示部119は、その生成したナビゲーション画像205を現在の撮像映像201に重畳して、ARナビゲーションの画像を生成及び表示する(S204)。 The navigation display unit 119 generates a navigation image 205 based on the current direction and the current position of the camera 90, and the navigation display unit 119 superimposes the generated navigation image 205 on the current captured image 201 to perform AR. Generate and display a navigation image (S204).

位置特定部118は、カメラ90の現在位置が目的地付近であるか否かを判定する(S205)。例えば、カメラ90の現在位置と目的地との間の距離が所定の閾値未満であるか否かを判定する。 The position specifying unit 118 determines whether or not the current position of the camera 90 is near the destination (S205). For example, it is determined whether or not the distance between the current position of the camera 90 and the destination is less than a predetermined threshold value.

カメラ90の現在位置が目的地付近でないと判定した場合(S205:NO)、携帯端末100は、S201の処理に戻る。カメラ90の現在位置が目的地付近であると判定した場合(S205:YES)、携帯端末100は、目的地付近に到着した旨をユーザ2に通知し、ARナビゲーション処理を終了する。 When it is determined that the current position of the camera 90 is not near the destination (S205: NO), the mobile terminal 100 returns to the process of S201. When it is determined that the current position of the camera 90 is near the destination (S205: YES), the mobile terminal 100 notifies the user 2 that the camera 90 has arrived near the destination, and ends the AR navigation process.

以上の処理により、携帯端末100は、測位衛星から送信される測位信号の受信が困難な場所であっても、ARナビゲーションによって、ユーザ2を、電子看板10が位置する出発地から、ユーザ2が選択した目的地までナビゲーションすることができる。 By the above processing, even in a place where it is difficult to receive the positioning signal transmitted from the positioning satellite, the mobile terminal 100 allows the user 2 to be moved by AR navigation from the departure point where the digital signage 10 is located. You can navigate to the selected destination.

なお、ルート途中の電子看板10に表示されたマーク11により、カメラ90の基準方位及び基準位置を補正できてもよい。例えば、ユーザ2が、ARナビゲーションに従って移動中に、ルート途中の電子看板10に表示されたマーク11にカメラ90を向け、S106と同様の動作を行ったとする。この場合、基準特定部115は、S107と同様の処理により、当該ルート途中の電子看板10に表示されたマーク11に基づいて、カメラ90の基準方位及び基準位置を特定し直してよい。これにより、移動の途中で蓄積され得るカメラ90の現在方位及び現在位置の誤差を補正できる。 The reference direction and the reference position of the camera 90 may be corrected by the mark 11 displayed on the electronic signboard 10 in the middle of the route. For example, suppose that the user 2 points the camera 90 at the mark 11 displayed on the electronic signboard 10 in the middle of the route while moving according to the AR navigation, and performs the same operation as in S106. In this case, the reference specifying unit 115 may respecify the reference direction and the reference position of the camera 90 based on the mark 11 displayed on the electronic signboard 10 in the middle of the route by the same processing as in S107. As a result, it is possible to correct the error of the current direction and the current position of the camera 90 that may be accumulated during the movement.

<ナビゲーション表示部の機能>
図7は、ナビゲーション表示部119のさらなる機能を説明するための図である。
<Function of navigation display>
FIG. 7 is a diagram for explaining a further function of the navigation display unit 119.

道路を走行することが前提の車両とは異なり、歩行移動するユーザ2は、最初に表示したナビゲーション画像205が示すルートに沿って歩き続けるとは限らない。例えば、ユーザ2は、歩行移動の途中で、人を避けたり、人の流れに乗るために進路を左右にずらしたり、ナビゲーション画像205が示すルートを少しショートカットしたりする場合がある。このような場合、最初に表示したナビゲーション画像205のままでは、当該ナビゲーション画像205がディスプレイから外れて見えなくなってしまうおそれがある。また、例えば、特定されたルートが道路中央を通るものであるにもかかわらず歩道が端にしかない場合や、誤差の蓄積など、他の要因でナビゲーション画像205が示すルートがディスプレイから外れてしまうこともある。更に、ナビゲーション画像205が表示されているか否かにかかわらず、位置や方向の精度の限界から、ユーザ2の実際の進行方向に対して、ナビゲーション画像205の表示位置または方向がずれてしまうおそれもある。この場合、ナビゲーション画像205の指示通りにユーザ2が移動することができないことがある。また、携帯端末100が認識しているルートとユーザ2が実際に進行しているルートとが本来は一致しているはずであるにもかかわらず誤差等によりずれている場合、ナビゲーション画像205のとおりにユーザが移動すると、かえってずれが大きくなってしまうおそれもある。そこで、ナビゲーション表示部119は、ユーザ2の移動に合わせてナビゲーション画像205の表示を適宜調整する機能を有する。以下、詳細に説明する。 Unlike a vehicle that is premised on traveling on a road, the walking user 2 does not always continue walking along the route shown by the navigation image 205 displayed first. For example, the user 2 may avoid people, shift the course to the left or right in order to follow the flow of people, or short-cut the route shown by the navigation image 205 in the middle of walking. In such a case, if the navigation image 205 initially displayed remains as it is, the navigation image 205 may be removed from the display and become invisible. Further, for example, when the specified route passes through the center of the road but the sidewalk is only at the end, or the route shown by the navigation image 205 deviates from the display due to other factors such as accumulation of errors. There is also. Further, regardless of whether or not the navigation image 205 is displayed, the display position or direction of the navigation image 205 may deviate from the actual traveling direction of the user 2 due to the limit of the accuracy of the position and the direction. be. In this case, the user 2 may not be able to move as instructed by the navigation image 205. Further, when the route recognized by the mobile terminal 100 and the route actually being traveled by the user 2 are supposed to match, but are deviated due to an error or the like, as shown in the navigation image 205. If the user moves, the deviation may become larger. Therefore, the navigation display unit 119 has a function of appropriately adjusting the display of the navigation image 205 according to the movement of the user 2. Hereinafter, a detailed description will be given.

例えば、ナビゲーション画像205に沿って進路M0を進んでいたユーザ2が、進路M0から少しずれた進路M1に進んだ場合、ナビゲーション画像205の表示を変更しなければ、ナビゲーション画像205は、ディスプレイの左端に寄って見えなくなってしまう。そこで、ナビゲーション表示部119は、目標ノードNへのルートが示す目標方位V1とカメラ90の現在方位U1とがほぼ同じ(例えばV1とU1の成す角度θが所定の閾値未満)であって、カメラ90の位置が所定距離以上移動した場合に、カメラ90の現在位置から目標ノードNへ向かうナビゲーション画像205Aを再生成する。これにより、ユーザ2が元の進路M0から少しずれた進路M1に進んだ場合であっても、それに合わせて、ナビゲーション画像205Aがディスプレイの中央付近に再表示される。よって、ユーザ2が、元の進路M0から少しすれた進路M1に進んだ場合であっても、ナビゲーション画像205がディスプレイから外れて見えなくなってしまうことを防止できる。ここで、目標方位V1と現在方位U1の差は、システムが正しいと認識しているルートとユーザ2の進行方向の差に対応する。そのため、これらの方位がほぼ同じ状態で所定距離以上移動していることは、ユーザ2が概ねナビゲーション画像205が示すルートに沿って継続的に移動していることを示している。このような状況でナビゲーション画像205がディスプレイから外れる要因は上述したとおり様々なものが考えられるが、いずれの場合であっても、ユーザ2の移動方向が誤っていると厳格に判断してしまうと、正しい方位に移動しているつもりのユーザ2を混乱させてしまう。そこで、本実施の形態では、ナビゲーション画像205Aをディスプレイの中央付近に再表示することにより、ユーザの認識と表示されるナビゲーション画像205Aを見かけ上一致させることで、このような混乱の発生を抑制している。また、表示位置の修正は、ディスプレイの中央付近に急に調整してもよいし、緩やかに調整してもよい。 For example, when the user 2 who has been traveling along the path M0 along the navigation image 205 advances to the path M1 which is slightly deviated from the path M0, the navigation image 205 is displayed at the left end of the display unless the display of the navigation image 205 is changed. I can't see it because I'm close to it. Therefore, in the navigation display unit 119, the target direction V1 indicated by the route to the target node N and the current direction U1 of the camera 90 are substantially the same (for example, the angle θ 0 formed by V1 and U1 is less than a predetermined threshold value). When the position of the camera 90 moves by a predetermined distance or more, the navigation image 205A from the current position of the camera 90 toward the target node N is regenerated. As a result, even if the user 2 advances to the path M1 slightly deviated from the original path M0, the navigation image 205A is redisplayed near the center of the display accordingly. Therefore, even when the user 2 advances to the path M1 slightly deviated from the original path M0, it is possible to prevent the navigation image 205 from being disengaged from the display and disappearing. Here, the difference between the target direction V1 and the current direction U1 corresponds to the difference between the route recognized by the system as correct and the traveling direction of the user 2. Therefore, the fact that these directions move by a predetermined distance or more in substantially the same direction indicates that the user 2 is continuously moving along the route shown by the navigation image 205. In such a situation, there are various possible causes for the navigation image 205 to deviate from the display, but in any case, it is strictly determined that the moving direction of the user 2 is incorrect. , It confuses user 2 who intends to move in the correct direction. Therefore, in the present embodiment, by redisplaying the navigation image 205A near the center of the display, the recognition of the user and the displayed navigation image 205A are apparently matched, thereby suppressing the occurrence of such confusion. ing. Further, the correction of the display position may be adjusted suddenly near the center of the display or may be adjusted gently.

また、所定距離以上の移動があったか否かの判断を省略し、目標ノードNへのルートが示す目標方位V1とカメラ90の現在方位U1とがほぼ同じであるなら、随時ナビゲーション画像205Aを再表示してもよい。この場合、携帯端末100が認識している方向とユーザ2の実際の進行方向が略一致しているためである。また、所定距離以上の移動がなくともナビゲーション画像205Aを再表示する処理と、所定距離以上の移動を行った場合にナビゲーション画像205Aを再表示する処理とを併用してもよい。この場合、所定距離以上の移動がなくともナビゲーション画像205Aを再表示する処理は、例えばV1とU1の成す角度θが小さい角度の場合に実行し、所定距離以上の移動があった場合にナビゲーション画像205Aを再表示する処理はθが大きい角度の場合に実行してよい。これにより、システムの誤差に起因すると思われるずれは随時補正され、ユーザ2の進行方向自体が誤っている恐れのある大きめのずれは一定の検証期間を経てから補正することができる。 Further, if the determination of whether or not there has been a movement of a predetermined distance or more is omitted and the target direction V1 indicated by the route to the target node N and the current direction U1 of the camera 90 are substantially the same, the navigation image 205A is redisplayed at any time. You may. In this case, the direction recognized by the mobile terminal 100 and the actual traveling direction of the user 2 are substantially the same. Further, the process of redisplaying the navigation image 205A even if the navigation image 205A is not moved by the predetermined distance or more and the process of redisplaying the navigation image 205A when the movement is performed by the predetermined distance or more may be used in combination. In this case, the process of redisplaying the navigation image 205A even if there is no movement of a predetermined distance or more is executed when, for example, the angle θ 0 formed by V1 and U1 is small, and the navigation is performed when there is a movement of a predetermined distance or more. The process of redisplaying the image 205A may be executed when θ 0 is a large angle. As a result, the deviation that seems to be caused by the error of the system is corrected at any time, and the large deviation that the traveling direction itself of the user 2 may be wrong can be corrected after a certain verification period.

また、ナビゲーション画像205Aを再生成する場合、ナビゲーション画像205Aの表示位置のみを修正するのではなく、ルートそのものを補正してよい。この場合、例えば、目標ノードNのみならず全てのノードを移動または回転させてよい。これにより、携帯端末100が認識しているルートそのものを修正するため、今後の移動においても誤差が発生しにくくなる。ただし、この補正を行うと、ユーザ2が誤ったルートを移動している場合であっても、常に正解のルートを歩いていると認識されてしまうおそれがあるため、当初のルートと比べて位置または方向があまりにも大きく変わるようであればルート補正を行わず、ユーザ2の移動が誤りであると判定するなどとしてもよい。なお、ノードを移動または回転させる場合にも、その調整を急に行っても良いし、緩やかに行ってもよい。また、ノードの調整自体は即座に反映するもののナビゲーション画像205Aの表示は緩やかに調整してよい。このようにすることで、携帯端末100が内部で認識しているルートをユーザ2の実際の移動に素早く合わせるとともに、急なナビゲーション画像205Aの移動によってユーザを驚かせてしまう可能性を低減することができる。 Further, when the navigation image 205A is regenerated, the route itself may be corrected instead of modifying only the display position of the navigation image 205A. In this case, for example, not only the target node N but all the nodes may be moved or rotated. As a result, the route itself recognized by the mobile terminal 100 is corrected, so that an error is less likely to occur in future movements. However, if this correction is made, even if the user 2 is moving on the wrong route, it may be recognized that he / she is always walking on the correct route, so the position is compared with the original route. Alternatively, if the direction changes too much, the route correction may not be performed and it may be determined that the movement of the user 2 is incorrect. When moving or rotating the node, the adjustment may be made suddenly or slowly. Further, although the adjustment of the node itself is immediately reflected, the display of the navigation image 205A may be adjusted gently. By doing so, the route recognized internally by the mobile terminal 100 can be quickly adjusted to the actual movement of the user 2, and the possibility of surprise the user due to the sudden movement of the navigation image 205A can be reduced. can.

また、上記の場合に、ナビゲーション画像205Aの表示位置またはルートを構成するノードの修正は、目標ノードNへのルートが示す目標方位V1とカメラ90の現在方位U1とのずれが所定の閾値を超える場合には行わないものとしてもよい。これにより、ユーザ2がルートを逆行しているなど明らかな誤りが発生している場合にまで修正が発生してしまう可能性を低減することができる。 Further, in the above case, in the modification of the display position of the navigation image 205A or the node constituting the route, the deviation between the target direction V1 indicated by the route to the target node N and the current direction U1 of the camera 90 exceeds a predetermined threshold value. In some cases, it may not be performed. As a result, it is possible to reduce the possibility that the correction will occur even when an obvious error has occurred, such as when the user 2 is reversing the route.

また、ナビゲーション画像205Aの表示位置またはルートを構成するノードの修正は、曲がり角まで所定の距離以下の場合には実施を抑制するなどとしてもよい。曲がり角、クランク、コの字状等のルートでは、ユーザ2は、移動をショートカットしたり大回りしたりしやすいためナビゲーション画像205Aの通りに進む可能性が低く、ナビゲーション画像205Aまたはルートを構成するノードの修正が過剰に発生してしまい、その結果、かえって不都合な修正結果になってしまうおそれがあるためである。 Further, the modification of the display position of the navigation image 205A or the node constituting the route may be suppressed when the distance to the corner is less than a predetermined distance. On routes such as corners, cranks, and U-shapes, user 2 is less likely to follow the navigation image 205A because it is easy to shortcut or make a large turn, and the navigation image 205A or the nodes that make up the route. This is because an excessive number of corrections may occur, and as a result, an inconvenient correction result may occur.

また、ナビゲーション画像205Aの表示位置またはルートを構成するノードの修正は、目標ノードNとは関係なく、3次元空間内での距離が一番近い点を基準として補正してもよい。ただし、近いエッジが複数ある場合はエッジの向きと移動の向きの一致度も加味して選択してよい。このようにすることで螺旋階段のような3次元的な移動を行う場合のずれにも対応することができる。 Further, the modification of the nodes constituting the display position or the route of the navigation image 205A may be corrected based on the point where the distance in the three-dimensional space is the shortest, regardless of the target node N. However, when there are a plurality of close edges, the degree of coincidence between the edge direction and the movement direction may be taken into consideration when selecting. By doing so, it is possible to cope with a deviation when performing a three-dimensional movement such as a spiral staircase.

また、ナビゲーション表示部119は、カメラ90の視野角内に目標ノードNが含まれておらず、かつ、目標方位V1とカメラ90の現在方位U1が大きく異なる(例えばV1とU1の成す角度θが所定の閾値以上の)状態でカメラ90の位置が所定距離以上移動したことを検知した場合、ナビゲーション画像205を非表示とし、ルートから外れていることをユーザ2に注意喚起する情報(以下「注意情報」という)をディスプレイに表示してよい。これにより、ユーザ2が元の進路M0から大きく異なる進路M2に進んだ場合に、ナビゲーション表示部119は、注意情報を表示できると共に、不要なナビゲーション画像205の生成処理を省略できる。 Further, in the navigation display unit 119, the target node N is not included in the viewing angle of the camera 90, and the target direction V1 and the current direction U1 of the camera 90 are significantly different (for example, the angle θ 0 formed by V1 and U1). When it is detected that the position of the camera 90 has moved by a predetermined distance or more in a state (above a predetermined threshold value), the navigation image 205 is hidden and information that alerts the user 2 that the camera 90 is off the route (hereinafter, """Cautioninformation") may be displayed on the display. As a result, when the user 2 advances to a course M2 that is significantly different from the original course M0, the navigation display unit 119 can display caution information and can omit the unnecessary navigation image 205 generation process.

なお、ナビゲーション表示部119は、注意情報の表示と共に、あるいは、注意情報の表示に代えて、注意喚起する音声を出力したり、注意喚起する振動パターンを出力したりしてもよい。 The navigation display unit 119 may output a voice that calls attention or a vibration pattern that calls attention together with or instead of displaying the caution information.

また、ナビゲーション表示部119は、注意情報を表示中の状態が所定時間以上継続した場合、ARナビゲーションを終了してもよい。ARナビゲーションの継続が困難であると共に、携帯端末100の処理負荷及びバッテリー消費を抑制するためである。 Further, the navigation display unit 119 may end the AR navigation when the state of displaying the caution information continues for a predetermined time or more. This is because it is difficult to continue AR navigation and the processing load and battery consumption of the mobile terminal 100 are suppressed.

また、ナビゲーション表示部119は、注意情報を表示中の状態において、カメラ90の視野角内に目標ノードNが含まれ、かつ、目標方位V1とカメラ90の現在方位U1がほぼ同じ(例えばV1とU1の成す角度θが所定の閾値未満)となったことを検知した場合、注意情報を非表示とし、カメラ90の現在位置から目標ノードNへ向かうナビゲーション画像205Bを再生成及び再表示してよい。これにより、ユーザ2が元の進路M0から大きく異なる進路M2に進んだ後、元の進路M0から少しずれた進路M3に進んだ場合に、ナビゲーション表示部119は、ナビゲーション画像205を再表示できる。また、視野角内に目標ノードNが入った場合のみならず、目標ノード近傍に存在するものとして記録されている設備(看板やポスター)または地形(坂道や曲がり角など)が視野に入った場合に、ユーザ2がルートの近傍に戻ったと判断して、ナビゲーション画像205を再生成及び再表示してよい。 Further, in the navigation display unit 119, the target node N is included in the viewing angle of the camera 90 in the state of displaying the caution information, and the target azimuth V1 and the current azimuth U1 of the camera 90 are substantially the same (for example, V1). When it is detected that the angle θ 0 formed by U1 is less than a predetermined threshold, the caution information is hidden, and the navigation image 205B from the current position of the camera 90 toward the target node N is regenerated and redisplayed. good. As a result, the navigation display unit 119 can redisplay the navigation image 205 when the user 2 advances to the path M2 which is significantly different from the original path M0 and then proceeds to the path M3 which is slightly deviated from the original path M0. Also, not only when the target node N is within the viewing angle, but also when equipment (signboards and posters) or terrain (slopes, corners, etc.) recorded as existing near the target node are in the field of view. , It may be determined that the user 2 has returned to the vicinity of the route, and the navigation image 205 may be regenerated and redisplayed.

また、ナビゲーション表示部119は、基準となる地点(例えばルートの出発地又は目的地の位置、AR空間の原点)のAR空間座標と、ある時刻におけるカメラ90の位置のAR空間座標とに基づいて、ある時刻におけるカメラ90の位置の経度及び緯度を算出してよい。そして、ナビゲーション表示部119は、その算出したある時刻におけるカメラ90の位置の経度及び緯度をログ情報(図示せず)に書き込んでもよい。これにより、ログ情報には、各時刻におけるカメラ90の位置を示す経度及び緯度が記録される。つまり、ログ情報には、カメラ90の移動経路が記録される。ログ情報は、ファイルとして出力されてもよいし、サーバ20にアップロードされてもよい。このログを用いることで、基準地点において携帯端末100が認識しているカメラ90の経度および緯度を記録することができるので、記録しておいた経度および緯度を同じ基準地点で再利用することができる。これにより、基準地点と携帯端末100とで認識している位置にずれがある場合に、そのずれを補正することができる。なお、このずれは携帯端末100の性質に起因する場合もあれば、基準地点の性質に起因する場合もある。前者の例としては、カメラ90の撮像画像の歪み等が原因であり、後者の例としては、基準地点自体が移動可能な電子看板で実現されている場合などが考えられる。そこで、ログとして携帯端末の種類あるいはIDを併せて記録し、ログを解析することによって、ずれの生じやすい機種あるいは看板等を特定することも可能となる。 Further, the navigation display unit 119 is based on the AR space coordinates of the reference point (for example, the position of the departure point or destination of the route, the origin of the AR space) and the AR space coordinates of the position of the camera 90 at a certain time. , The longitude and latitude of the position of the camera 90 at a certain time may be calculated. Then, the navigation display unit 119 may write the longitude and latitude of the position of the camera 90 at the calculated time in the log information (not shown). As a result, the longitude and latitude indicating the position of the camera 90 at each time are recorded in the log information. That is, the movement route of the camera 90 is recorded in the log information. The log information may be output as a file or uploaded to the server 20. By using this log, the longitude and latitude of the camera 90 recognized by the mobile terminal 100 at the reference point can be recorded, so that the recorded longitude and latitude can be reused at the same reference point. can. As a result, when there is a deviation between the reference point and the position recognized by the mobile terminal 100, the deviation can be corrected. This deviation may be due to the nature of the mobile terminal 100 or the nature of the reference point. An example of the former is caused by distortion of the image captured by the camera 90, and an example of the latter is considered to be a case where the reference point itself is realized by a movable electronic signage. Therefore, by recording the type or ID of the mobile terminal as a log and analyzing the log, it is possible to identify a model or a signboard that is likely to be displaced.

<目標ノードの更新方法>
図8は、目標ノードの更新方法の一例を説明するための図である。
<How to update the target node>
FIG. 8 is a diagram for explaining an example of a method of updating the target node.

ルートは、複数のノードと、隣接するノード間を結ぶエッジとによって構成される。例えば、出発地のノードからN番目のノードを最初の目標ノードNとする。最初の目標ノードNは、一定の条件を満たすノードであってよい。例えば、出発地のノードから予め定められた順番のノードを、最初の目標ノードNとしてもよい。あるいは、出発地から所定距離以上離れたノードのうち、出発地に最も近いノードを最初の目標ノードNとしてもよい。 A route is composed of multiple nodes and edges connecting adjacent nodes. For example, let the Nth node from the origin node be the first target node N. The first target node N may be a node that satisfies certain conditions. For example, nodes in a predetermined order from the node of the departure place may be set as the first target node N. Alternatively, among the nodes separated from the starting point by a predetermined distance or more, the node closest to the starting point may be set as the first target node N.

ここで、ノードN−1と目標ノードNとを結ぶエッジE1と、カメラ90の現在位置と目標ノードNとを結ぶ線F1とが成す角度をθとする。ノードN−1と目標ノードNとを結ぶE1と、目標ノードNとノードN+1とを結ぶエッジE2とが成す角度をθとする。 Here, let θ 1 be the angle formed by the edge E1 connecting the node N-1 and the target node N and the line F1 connecting the current position of the camera 90 and the target node N. Let θ 2 be the angle formed by E1 connecting the node N-1 and the target node N and the edge E2 connecting the target node N and the node N + 1.

ルート特定部116は、θ>(θ/2)となったときに、ノードN+1を次の目標ノードとしてよい。ルート特定部116は、目的地に到着するまでこれを繰り返してよい。これにより、カメラ90の現在位置が、目標ノードNに十分近づいたとき、あるいは、目標ノードNを通過したときに、目標ノードが先のノードに更新される。よって、いずれの位置においても、ナビゲーション表示部119は、先の目標ノードに向かう適切なナビゲーション画像205を生成できる。 Route specification unit 116, when it becomes theta 1> and (θ 2/2), good node N + 1 as the next target node. The route identification unit 116 may repeat this until it reaches the destination. As a result, when the current position of the camera 90 is sufficiently close to the target node N or has passed the target node N, the target node is updated to the previous node. Therefore, at any position, the navigation display unit 119 can generate an appropriate navigation image 205 toward the target node.

<変形例>
上述では、電子看板10から送信された光信号12をカメラ90で受信し、IDを取得する例を説明した。しかし、携帯端末100は、他の方法でIDを取得してもよい。例えば、電子看板10に代えて、2次元コードが印刷されたポスターが所定の場所に設置されてもよい。そして、携帯端末100は、カメラ90で2次元コードを読み取り、その2次元コードからIDを取得してもよい。この場合、ポスターに所定のマーク11が印刷されてよい。また、光信号12を用いる場合であっても、その信号の発信源は電子看板の形態である必要はなく、例えば、照明器具などであってもよい。また、この光信号12を発する照明器具をバックライトとしマーク11を印刷したカバーあるいはポスターで覆った看板であってもよい。すなわち、本開示において基準位置および基準方位を特定するために撮影する対象は、任意の設置物でよい。また、位置を照明器具から取得し、方位は電子看板から取得するなど、それぞれの情報を別々の設置物を用いて取得してもよい。
<Modification example>
In the above description, an example in which the camera 90 receives the optical signal 12 transmitted from the digital signage 10 and acquires the ID has been described. However, the mobile terminal 100 may acquire the ID by another method. For example, instead of the digital signage 10, a poster on which a two-dimensional code is printed may be installed at a predetermined place. Then, the mobile terminal 100 may read the two-dimensional code with the camera 90 and acquire the ID from the two-dimensional code. In this case, the predetermined mark 11 may be printed on the poster. Further, even when the optical signal 12 is used, the source of the signal does not have to be in the form of an electronic signboard, and may be, for example, a lighting fixture. Further, the lighting fixture that emits the optical signal 12 may be used as a backlight, and the signboard may be covered with a cover or a poster on which the mark 11 is printed. That is, in the present disclosure, the object to be photographed for specifying the reference position and the reference direction may be an arbitrary installation object. Further, each information may be acquired by using different installation objects, such as acquiring the position from the lighting equipment and acquiring the direction from the digital signage.

また、上述では、電子看板10から送信する情報はIDであり、他の情報はIDを用いてサーバ20から取得していたが、電子看板10自体に情報を規則しておき、無線通信等によって全ての情報または一部の情報を携帯端末100へ送信してもよい。 Further, in the above description, the information transmitted from the digital signage 10 is an ID, and other information is acquired from the server 20 by using the ID. However, the information is regulated in the digital signage 10 itself, and the information is regulated by wireless communication or the like. All information or some information may be transmitted to the mobile terminal 100.

また、上述では、屋内向けのナビゲーションを目的としたシステムとして本開示の説明を行ったが、屋外のナビゲーションに用いても構わない。また、屋外と屋内の両方を移動するルートなどに本開示を応用する場合、GPS等の屋外で取得可能な情報を用いて計算した位置および方位を用いて、現在位置を修正してもよい。 Further, in the above description, the present disclosure has been described as a system for indoor navigation, but it may be used for outdoor navigation. Further, when the present disclosure is applied to a route that moves both outdoors and indoors, the current position may be corrected by using the position and direction calculated using information that can be acquired outdoors such as GPS.

上述では、携帯端末100は、電子看板10からのIDを受信してから、そのIDを用いてサーバ20から目的地リスト情報、ルート情報を含む情報を取得していたが、これに限られるものではない。IDを受信した際にサーバ20から目的地リスト情報を取得し、目的地選択時にサーバ20から当該目的地に対応するルート情報を取得するというように取得のタイミングを分割させてもよい。このようにすることで、不要なルート情報を取得する必要がなくなるので通信量を低減することができる。また、あらかじめ携帯端末100に目的地が設定された状態でIDを受信した場合は、目的地リスト情報の取得を省略して、設定されている目的地に対応するルート情報を取得するようにしてもよい。このようにすることで不要な目的地リスト情報を取得する必要がなくなるので通信量を低減することができる。 In the above description, the mobile terminal 100 receives the ID from the digital signage 10 and then acquires the information including the destination list information and the route information from the server 20 by using the ID, but the present invention is limited to this. is not it. The acquisition timing may be divided such that the destination list information is acquired from the server 20 when the ID is received, and the route information corresponding to the destination is acquired from the server 20 when the destination is selected. By doing so, it is not necessary to acquire unnecessary route information, so that the amount of communication can be reduced. Further, when the ID is received with the destination set in the mobile terminal 100 in advance, the acquisition of the destination list information is omitted and the route information corresponding to the set destination is acquired. May be good. By doing so, it is not necessary to acquire unnecessary destination list information, so that the amount of communication can be reduced.

(実施の形態2)
実施の形態2では、実施の形態1で説明した内容を実現する携帯端末100の構成の変形例について説明する。
(Embodiment 2)
In the second embodiment, a modified example of the configuration of the mobile terminal 100 that realizes the contents described in the first embodiment will be described.

図9は、実施の形態2に係る携帯端末の構成及びナビゲーション開始時におけるマーク検出処理の例を示す図である。 FIG. 9 is a diagram showing an example of the configuration of the mobile terminal and the mark detection process at the start of navigation according to the second embodiment.

図10は、実施の形態2に係る携帯端末の構成例及びナビゲーション開始時におけるマーク検出処理の図9の続きの例を示す図である。 FIG. 10 is a diagram showing a configuration example of the mobile terminal according to the second embodiment and a continuation example of FIG. 9 of the mark detection process at the start of navigation.

図11は、実施の形態2に係る携帯端末の構成例及びユーザ2の移動に伴うナビゲーション画像の再生成処理の例を示す図である。 FIG. 11 is a diagram showing a configuration example of a mobile terminal according to the second embodiment and an example of a navigation image regeneration process accompanying the movement of the user 2.

図12は、実施の形態2に係る携帯端末の構成例及びユーザ2がルートを外れた場合の処理の例を示す図である。 FIG. 12 is a diagram showing a configuration example of the mobile terminal according to the second embodiment and an example of processing when the user 2 deviates from the route.

図13は、実施の形態2に係る携帯端末の構成例及びユーザ2がルートを外れた場合に注意情報を表示する処理の例を示す図である。 FIG. 13 is a diagram showing a configuration example of a mobile terminal according to the second embodiment and an example of a process of displaying caution information when the user 2 deviates from the route.

図14は、実施の形態2に係る携帯端末の構成例及びルートを外れたユーザ2がルートに復帰した場合の処理の例を示す図である。 FIG. 14 is a diagram showing a configuration example of a mobile terminal according to the second embodiment and an example of processing when a user 2 who has deviated from the route returns to the route.

携帯端末100は、図9〜図14に示した構成及び処理によっても、実施の形態1で説明した内容を実現できる。 The mobile terminal 100 can also realize the contents described in the first embodiment by the configuration and processing shown in FIGS. 9 to 14.

<ハードウェア構成>
以上、本開示に係る実施形態について図面を参照して詳述した。なお、上述した携帯端末100の機能は、コンピュータプログラムにより実現され得る。
<Hardware configuration>
The embodiments according to the present disclosure have been described in detail with reference to the drawings. The function of the mobile terminal 100 described above can be realized by a computer program.

図15は、携帯端末100の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。 FIG. 15 is a diagram showing a hardware configuration of a computer that realizes the functions of the mobile terminal 100 by a program.

このコンピュータ1000は、入力装置1001、出力装置1002、CPU(Central Processing Unit)1003、GPU(Graphics Processing Unit)1004、ROM(Read Only Memory)1005、RAM(Random Access Memory)1006、記憶装置1007、読取装置1008、送受信装置1009、撮像装置1010を備え、各装置1001〜1010は、双方向通信可能なバス1011に接続される。 The computer 1000 includes an input device 1001, an output device 1002, a CPU (Central Processing Unit) 1003, a GPU (Graphics Processing Unit) 1004, a ROM (Read Only Memory) 1005, a RAM (Random Access Memory) 1006, a storage device 1007, and a read device. A device 1008, a transmission / reception device 1009, and an image pickup device 1010 are provided, and each device 1001 to 1010 is connected to a bus 1011 capable of bidirectional communication.

入力装置1001の例は、キーボード、マウス又はタッチパッドである。出力装置1002の例は、ディスプレイ又はスピーカーである。CPU1003は、プロセッサ、コントローラ、集積回路、PLD(programmable logic device)とった他の用語に読み替えられてもよい。記憶装置1007の例は、SSD(Solid State Drive)又はフラッシュメモリである。読取装置1008は、例えば、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る。送受信装置1009は、通信ネットワークを介して無線にて通信を行う。撮像装置1010は、撮像素子を備え、撮像映像(動画及び静止画)を生成する。生成された撮像映像は記憶装置1007に記憶される。 An example of the input device 1001 is a keyboard, mouse or touchpad. An example of the output device 1002 is a display or a speaker. The CPU 1003 may be read as another term such as a processor, a controller, an integrated circuit, and a PLD (programmable logic device). An example of the storage device 1007 is an SSD (Solid State Drive) or a flash memory. The reading device 1008 reads information from a recording medium such as a USB (Universal Serial Bus) memory. The transmission / reception device 1009 wirelessly communicates via a communication network. The image pickup device 1010 includes an image pickup device and generates a captured image (moving image and still image). The generated captured image is stored in the storage device 1007.

読取装置1008は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1007に記憶させる。あるいは、送受信装置1009が、通信ネットワークに接続されたサーバと通信を行い、サーバからダウンロードした上記各装置の機能を実現するためのプログラム又はアプリケーションを記憶装置1007に記憶させる。そして、CPU1003が、記憶装置1007に記憶されたプログラムをRAM1006にコピーし、そのプログラムに含まれる命令をRAM1006から順次読み出して実行することにより、上記各装置の機能が実現される。 The reading device 1008 reads the program from the recording medium on which the program for realizing the functions of the above devices is recorded, and stores the program in the storage device 1007. Alternatively, the transmission / reception device 1009 communicates with a server connected to the communication network, and stores a program or application downloaded from the server for realizing the functions of the devices in the storage device 1007. Then, the CPU 1003 copies the program stored in the storage device 1007 to the RAM 1006, and sequentially reads and executes the instructions included in the program from the RAM 1006, thereby realizing the functions of the respective devices.

上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiment is typically realized as an LSI which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them. Although it is referred to as LSI here, it may be referred to as IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology.

(本開示のまとめ)
本開示に係る撮像装置(90)を備える携帯端末(100)は、撮像装置に撮像された撮像映像(201)を取得する映像取得部(111)と、所定の位置に設置された設置物(10)が撮像された撮像映像に基づいて、ナビゲーション開始時における撮像装置の基準の方位及び位置を特定する基準特定部(115)と、設置物の位置から目的地までのルートを特定するルート特定部(116)と、撮像映像から抽出した特徴点(211)の時間経過に伴う動きに基づいて、撮像装置の方位変化量及び移動量を検出する動き検出部(117)と、撮像装置の基準の方位及び位置を特定した後に動き検出部によって検出された撮像装置の方位変化量及び移動量に基づいて、撮像装置の現在の方位及び位置を特定する位置特定部(118)と、特定された撮像装置の現在の方位及び位置に基づいてルートを示すナビゲーション画像(205)を生成し、生成したナビゲーション画像を現在の撮像映像に重畳して表示するナビゲーション表示部(119)と、を備える。
(Summary of this disclosure)
The mobile terminal (100) including the image pickup device (90) according to the present disclosure includes an image acquisition unit (111) that acquires an image pickup image (201) captured by the image pickup device, and an installation object (111) installed at a predetermined position. Based on the captured image captured by 10), the reference specifying unit (115) that specifies the reference orientation and position of the image pickup device at the start of navigation, and the route specification that specifies the route from the position of the installation object to the destination. A motion detection unit (117) that detects the amount of change in direction and the amount of movement of the image pickup device based on the movement of the unit (116) and the feature point (211) extracted from the captured image over time, and a reference of the image pickup device. Based on the amount of change in direction and the amount of movement of the image pickup device detected by the motion detection unit after specifying the direction and position of the image pickup device, the position identification section (118) for specifying the current direction and position of the image pickup device is specified. It includes a navigation display unit (119) that generates a navigation image (205) indicating a route based on the current direction and position of the image pickup apparatus and superimposes and displays the generated navigation image on the current captured image.

この構成によれば、携帯端末は、測位信号を受信することなく、ナビゲーション開始時における撮像装置(携帯端末)の位置(基準位置)を特定できると共に、電子コンパスを使用することなく、ナビゲーション開始時における撮像装置の方位(基準方位)を特定できる。そして、その後の動き検出によって、測位信号を受信することなく、かつ、電子コンパスを使用することなく、撮像装置の現在の位置(現在位置)及び方位(現在方位)を特定できる。加えて、ナビゲーション画像を撮像装置の現在位置及び現在方位に基づいて生成し、生成したナビゲーション画像を現在の撮像映像に重畳して表示できる。よって、測位信号の受信が困難な場所においても、ARナビゲーションを実現できる。 According to this configuration, the mobile terminal can specify the position (reference position) of the image pickup device (mobile terminal) at the start of navigation without receiving the positioning signal, and at the start of navigation without using an electronic compass. The orientation (reference orientation) of the imaging device in the above can be specified. Then, by the subsequent motion detection, the current position (current position) and orientation (current orientation) of the image pickup apparatus can be specified without receiving the positioning signal and without using the electronic compass. In addition, a navigation image can be generated based on the current position and current orientation of the imaging device, and the generated navigation image can be superimposed and displayed on the current captured image. Therefore, AR navigation can be realized even in a place where it is difficult to receive a positioning signal.

また、上記ルートは、所定の通過地点を示す複数のノードによって構成されてよい。そして、ナビゲーション表示部は、現在の位置から、複数のノードのうちの1つである目標ノードが示す位置へ向かうナビゲーション画像を生成してよい。また、ナビゲーション表示部は、現在の位置から目標ノードが示す位置へ向かう目標方位と現在の方位との間のずれが所定の閾値未満の場合、ナビゲーション画像の表示位置がディスプレイの略中央となるよう調整してよい。 Further, the route may be composed of a plurality of nodes indicating a predetermined passing point. Then, the navigation display unit may generate a navigation image from the current position toward the position indicated by the target node, which is one of the plurality of nodes. Further, the navigation display unit so that the display position of the navigation image is substantially in the center of the display when the deviation between the target direction toward the position indicated by the target node and the current direction from the current position is less than a predetermined threshold value. You may adjust.

この構成によれば、ナビゲーション表示部は、撮像装置の現在の位置の変化に応じて、ナビゲーション画像を再生成するので、例えば、ユーザ(2)がルートから少しずれた場合に、ナビゲーション画像が携帯端末のディスプレイから外れて見えなくなってしまうことを防止できる。 According to this configuration, the navigation display unit regenerates the navigation image according to the change in the current position of the image pickup device. Therefore, for example, when the user (2) deviates slightly from the route, the navigation image is carried. It is possible to prevent the terminal from being removed from the display and disappearing.

また、ナビゲーション表示部は、現在の位置から目標ノードが示す位置へ向かう目標方位と現在の方位との間のずれが所定の閾値以上である場合、ルートから外れていることを示す注意情報を表示し、ナビゲーション画像を非表示としてよい。 In addition, the navigation display unit displays cautionary information indicating that the vehicle is off the route when the deviation between the target direction from the current position to the position indicated by the target node and the current direction is equal to or greater than a predetermined threshold value. And the navigation image may be hidden.

この構成によれば、撮像装置の方位が本来のルートの方位から大きくずれた場合、注意情報を表示して、ユーザに対してルートから大きくずれていることを通知できる。 According to this configuration, when the orientation of the imaging device deviates significantly from the orientation of the original route, caution information can be displayed to notify the user that the orientation deviates significantly from the route.

また、ナビゲーション表示部は、注意情報を表示中に、目標方位と現在の方位との間のずれが閾値未満となった場合、注意情報を非表示とし、ナビゲーション画像を再表示してよい。 Further, the navigation display unit may hide the caution information and redisplay the navigation image when the deviation between the target direction and the current direction becomes less than the threshold value while displaying the caution information.

この構成によれば、本来のルートの方位から大きくずれていた撮像装置が本来のルートの方位に戻った場合に、ナビゲーションを再開できる。 According to this configuration, navigation can be resumed when the image pickup device, which has been largely deviated from the original route orientation, returns to the original route orientation.

また、ナビゲーション表示部は、注意情報を表示中に、目標方位と現在の方位との間のずれが閾値以上である状態が所定時間以上継続した場合、目的地までのナビゲーションを終了してよい。 Further, the navigation display unit may end the navigation to the destination when the state in which the deviation between the target direction and the current direction is equal to or greater than the threshold value continues for a predetermined time or longer while displaying the caution information.

この構成によれば、撮像装置の方位が本来のルートの方位から大きくずれ、その状態がしばらく継続した場合、ナビゲーションを終了できる。 According to this configuration, the navigation can be ended when the direction of the image pickup apparatus deviates greatly from the direction of the original route and the state continues for a while.

以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and equality within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. Further, each component in the above-described embodiment may be arbitrarily combined as long as the gist of the invention is not deviated.

本開示の技術は、携帯端末を用いたナビゲーションに利用可能である。 The technology of the present disclosure can be used for navigation using a mobile terminal.

2 ユーザ
10 電子看板
11 マーク
12 光信号
20 サーバ
30 ルート
90 カメラ
100 携帯端末
110 制御部
111 映像取得部
112 光信号受信部
113 情報取得部
114 目的地リスト表示部
115 基準特定部
116 ルート特定部
117 動き検出部
118 位置特定部
119 ナビゲーション表示部
121 枠
200 記憶部
201 撮像映像
202A 電子看板情報
202B 目的地リスト情報
202C ルート情報
203 カメラの基準方位及び基準位置を示す情報
204 カメラの現在方位及び現在位置を示す情報
205、205A、205B ナビゲーション画像
211 特徴点
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 GPU
1005 ROM
1006 RAM
1007 記憶装置
1008 読取装置
1009 送受信装置
1010 撮像装置
1011 バス
2 User 10 Electronic signboard 11 Mark 12 Optical signal 20 Server 30 Route 90 Camera 100 Mobile terminal 110 Control unit 111 Video acquisition unit 112 Optical signal reception unit 113 Information acquisition unit 114 Destination list display unit 115 Reference identification unit 116 Route identification unit 117 Motion detection unit 118 Position identification unit 119 Navigation display unit 121 Frame 200 Storage unit 201 Captured video 202A Electronic signboard information 202B Destination list information 202C Route information 203 Information indicating the reference orientation and reference position of the camera 204 Current orientation and current position of the camera Information indicating 205, 205A, 205B Navigation image 211 Feature point 1000 Computer 1001 Input device 1002 Output device 1003 CPU
1004 GPU
1005 ROM
1006 RAM
1007 Storage device 1008 Reading device 1009 Transmission / reception device 1010 Imaging device 1011 Bus

Claims (8)

撮像装置を備える携帯端末であって、
前記撮像装置に撮像された撮像映像を取得する映像取得部と、
所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定する基準特定部と、
前記設置物の位置から目的地までのルートを特定するルート特定部と、
前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出する動き検出部と、
前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定する位置特定部と、
特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示するナビゲーション表示部と、を備える、
携帯端末。
A mobile terminal equipped with an imaging device
An image acquisition unit that acquires an image captured by the image pickup device, and an image acquisition unit.
Based on the captured image of the installation object installed at the predetermined position, the reference specifying unit that specifies the reference orientation and position of the imaging device at the start of navigation, and the reference specifying unit.
A route identification unit that identifies the route from the position of the installation to the destination,
A motion detection unit that detects the amount of change in direction and the amount of movement of the image pickup device based on the movement of feature points extracted from the captured image over time.
A position specifying unit that specifies the current direction and position of the image pickup device based on the amount of change and movement of the direction of the image pickup device detected by the motion detection unit after specifying the reference direction and position of the image pickup device. When,
A navigation display unit that generates a navigation image indicating the route based on the current orientation and position of the specified imaging device and superimposes and displays the generated navigation image on the current captured image.
Mobile terminal.
前記ルートは、所定の通過地点を示す複数のノードによって構成され、
前記ナビゲーション表示部は、前記現在の位置から、前記複数のノードのうちの1つである目標ノードが示す位置へ向かう前記ナビゲーション画像を生成する、
請求項1に記載の携帯端末。
The route is composed of a plurality of nodes indicating a predetermined passing point.
The navigation display unit generates the navigation image from the current position to the position indicated by the target node, which is one of the plurality of nodes.
The mobile terminal according to claim 1.
前記ナビゲーション表示部は、前記現在の位置から前記目標ノードが示す位置へ向かう目標方位と前記現在の方位との間のずれが所定の閾値未満の場合、前記ナビゲーション画像の表示位置がディスプレイの略中央となるよう調整する、
請求項2に記載の携帯端末。
In the navigation display unit, when the deviation between the target direction toward the position indicated by the target node and the current direction from the current position is less than a predetermined threshold value, the display position of the navigation image is substantially in the center of the display. Adjust so that
The mobile terminal according to claim 2.
前記ナビゲーション表示部は、前記現在の位置から前記目標ノードが示す位置へ向かう目標方位と前記現在の方位との間のずれが所定の閾値以上である場合、前記ルートから外れていることを示す注意情報を表示し、前記ナビゲーション画像を非表示とする、
請求項2又は3に記載の携帯端末。
Note that the navigation display unit deviates from the route when the deviation between the target direction from the current position to the position indicated by the target node and the current direction is equal to or greater than a predetermined threshold value. Display information and hide the navigation image,
The mobile terminal according to claim 2 or 3.
前記ナビゲーション表示部は、前記注意情報を表示中に、前記目標方位と前記現在の方位との間のずれが前記閾値未満となった場合、前記注意情報を非表示とし、前記ナビゲーション画像を再表示する、
請求項4に記載の携帯端末。
The navigation display unit hides the caution information and redisplays the navigation image when the deviation between the target direction and the current direction becomes less than the threshold value while displaying the caution information. do,
The mobile terminal according to claim 4.
前記ナビゲーション表示部は、前記注意情報を表示中に、前記目標方位と前記現在の方位との間のずれが前記閾値以上である状態が所定時間以上継続した場合、前記目的地までのナビゲーションを終了する、
請求項4又は5に記載の携帯端末。
While displaying the caution information, the navigation display unit ends navigation to the destination when the state in which the deviation between the target direction and the current direction is equal to or greater than the threshold value continues for a predetermined time or longer. do,
The mobile terminal according to claim 4 or 5.
撮像装置を備える携帯端末によって実行されるナビゲーション方法であって、
前記撮像装置に撮像された撮像映像を取得し、
所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定し、
前記設置物の位置から目的地までのルートを特定し、
前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出し、
前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定し、
特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示する、
ナビゲーション方法。
A navigation method performed by a mobile terminal equipped with an imaging device.
The captured image captured by the imaging device is acquired, and the image is captured.
Based on the captured image of the installation object installed at the predetermined position, the reference orientation and position of the imaging device at the start of navigation are specified.
Identify the route from the location of the installation to the destination
Based on the movement of the feature points extracted from the captured image with the passage of time, the amount of change in orientation and the amount of movement of the imaging device are detected.
After specifying the reference orientation and position of the imaging device, the current orientation and position of the imaging device are specified based on the amount of change and movement of the orientation of the imaging device detected by the motion detection unit.
A navigation image showing the route is generated based on the current orientation and position of the specified imaging device, and the generated navigation image is superimposed and displayed on the current captured image.
Navigation method.
撮像装置を備える携帯端末によって実行されるコンピュータプログラムであって、
前記撮像装置に撮像された撮像映像を取得し、
所定の位置に設置された設置物が撮像された前記撮像映像に基づいて、ナビゲーション開始時における前記撮像装置の基準の方位及び位置を特定し、
前記設置物の位置から目的地までのルートを特定し、
前記撮像映像から抽出した特徴点の時間経過に伴う動きに基づいて、前記撮像装置の方位変化量及び移動量を検出し、
前記撮像装置の基準の方位及び位置を特定した後に前記動き検出部によって検出された前記撮像装置の方位変化量及び移動量に基づいて、前記撮像装置の現在の方位及び位置を特定し、
特定された前記撮像装置の現在の方位及び位置に基づいて前記ルートを示すナビゲーション画像を生成し、生成した前記ナビゲーション画像を現在の前記撮像映像に重畳して表示する、
処理を前記携帯端末に実行させる、コンピュータプログラム。
A computer program executed by a mobile terminal equipped with an image pickup device.
The captured image captured by the imaging device is acquired, and the image is captured.
Based on the captured image of the installation object installed at the predetermined position, the reference orientation and position of the imaging device at the start of navigation are specified.
Identify the route from the location of the installation to the destination
Based on the movement of the feature points extracted from the captured image with the passage of time, the amount of change in orientation and the amount of movement of the imaging device are detected.
After specifying the reference orientation and position of the imaging device, the current orientation and position of the imaging device are specified based on the amount of change and movement of the orientation of the imaging device detected by the motion detection unit.
A navigation image showing the route is generated based on the current orientation and position of the specified imaging device, and the generated navigation image is superimposed and displayed on the current captured image.
A computer program that causes the mobile terminal to execute processing.
JP2020044544A 2020-03-13 2020-03-13 Mobile terminal, navigation method, and computer program Active JP7478995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044544A JP7478995B2 (en) 2020-03-13 2020-03-13 Mobile terminal, navigation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044544A JP7478995B2 (en) 2020-03-13 2020-03-13 Mobile terminal, navigation method, and computer program

Publications (2)

Publication Number Publication Date
JP2021144010A true JP2021144010A (en) 2021-09-24
JP7478995B2 JP7478995B2 (en) 2024-05-08

Family

ID=77766416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044544A Active JP7478995B2 (en) 2020-03-13 2020-03-13 Mobile terminal, navigation method, and computer program

Country Status (1)

Country Link
JP (1) JP7478995B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4632793B2 (en) 2005-01-12 2011-02-16 京セラ株式会社 Portable terminal with navigation function
JP2008157680A (en) 2006-12-21 2008-07-10 Matsushita Electric Ind Co Ltd Navigation apparatus
JP6156486B2 (en) 2013-03-28 2017-07-05 アイシン精機株式会社 Perimeter monitoring apparatus and program
WO2019234936A1 (en) 2018-06-08 2019-12-12 マクセル株式会社 Mobile terminal, camera position estimation system, camera position estimation method, and signboard

Also Published As

Publication number Publication date
JP7478995B2 (en) 2024-05-08

Similar Documents

Publication Publication Date Title
US11604077B2 (en) Systems and method for using visual landmarks in initial navigation
US11692842B2 (en) Augmented reality maps
EP2672232B1 (en) Method for Providing Navigation Information and Server
US8154616B2 (en) Data processing apparatus and method, and recording medium
JP2019109245A (en) Visual reinforcement navigation
TWI416073B (en) Road image processing method and system of moving camera
CN112789480B (en) Method and apparatus for navigating two or more users to meeting location
JP2013225275A (en) Three-dimensional image display system
JP2015129696A (en) Route guidance system, method, program, and data structure therefor
JP2021144010A (en) Portable terminal, navigation method, and computer program
JP6828934B1 (en) Navigation devices, navigation systems, navigation methods, navigation programs
CN111837013A (en) Method and system for determining geographic position based on image
CN102087116B (en) Processing method and system of mobile camera to road scene image
JP2002081947A (en) Vehicle navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411