JP7023775B2 - Route guidance program, route guidance method and information processing equipment - Google Patents

Route guidance program, route guidance method and information processing equipment Download PDF

Info

Publication number
JP7023775B2
JP7023775B2 JP2018076123A JP2018076123A JP7023775B2 JP 7023775 B2 JP7023775 B2 JP 7023775B2 JP 2018076123 A JP2018076123 A JP 2018076123A JP 2018076123 A JP2018076123 A JP 2018076123A JP 7023775 B2 JP7023775 B2 JP 7023775B2
Authority
JP
Japan
Prior art keywords
route
user
display
point
peripheral image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018076123A
Other languages
Japanese (ja)
Other versions
JP2019184439A (en
Inventor
友児 福間
誠一郎 ▲高▼橋
伸朗 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Zenrin Datacom Co Ltd
Original Assignee
NTT Docomo Inc
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Zenrin Datacom Co Ltd filed Critical NTT Docomo Inc
Priority to JP2018076123A priority Critical patent/JP7023775B2/en
Publication of JP2019184439A publication Critical patent/JP2019184439A/en
Application granted granted Critical
Publication of JP7023775B2 publication Critical patent/JP7023775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

特許法第30条第2項適用 平成29年10月12日、平成29年12月6日及び平成30年1月17日 ウェブサイトにて、歩くべき方向を指し示すARモードを搭載した地図アプリを公開した。Application of Article 30, Paragraph 2 of the Patent Law October 12, 2017, December 6, 2017 and January 17, 2018 On the website, a map application equipped with an AR mode that indicates the direction to walk is available. Published.

本発明は、経路案内プログラム、経路案内方法及び情報処理装置に関する。 The present invention relates to a route guidance program, a route guidance method, and an information processing apparatus.

現在、出発地から目的地までの経路を検索し、検索した案内ルートをスマートフォン等の画面に表示する、歩行者向けのナビゲーションシステムが提供されている。また、歩行者向けのナビゲーションシステムの中には、単に地図画面に案内ルートを表示するのではなく、AR(Augmented Reality)技術を適用することで、カメラで撮影された外の景色の画像に目的地までの案内ルートを重ねて表示する歩行者ナビゲーションシステムも存在する(例えば特許文献1参照)。 Currently, a navigation system for pedestrians is provided that searches for a route from a departure point to a destination and displays the searched guidance route on a screen of a smartphone or the like. In addition, some navigation systems for pedestrians do not simply display the guidance route on the map screen, but by applying AR (Augmented Reality) technology, the purpose is to image the outside scenery taken by the camera. There is also a pedestrian navigation system that displays guidance routes to the ground in an overlapping manner (see, for example, Patent Document 1).

国際公開第2008/044309号International Publication No. 2008/044309

従来の歩行者ナビゲーションシステムでは、特にナビゲーションを開始する場合に、どの方向に歩き出せばよいのかを地図上に表示された案内ルートを見ながら自分で考える必要があり、分かりにくいという課題があった。また、AR技術を利用した歩行者ナビゲーションシステムであっても、道路の画像と案内ルートがずれて表示されるといったように視認性が悪い場合が多く、ユーザはどの方向に歩き出せばよいのか分かりにくいという課題があった。 In the conventional pedestrian navigation system, especially when starting navigation, it is necessary to think for yourself in which direction to start while looking at the guidance route displayed on the map, which is difficult to understand. .. Also, even with a pedestrian navigation system that uses AR technology, visibility is often poor, such as when the road image and the guidance route are displayed out of alignment, so the user knows in which direction to start walking. There was a problem that it was difficult.

そこで、本発明は、歩行者向けナビゲーションシステムにおいて、歩行者に対してどの方向に歩き出せばよいのかを適切に示すことが可能な技術を提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for pedestrian navigation system that can appropriately indicate to a pedestrian in which direction to walk.

本発明の一態様に係る経路案内プログラムは、コンピュータを、該コンピュータの現在地を取得する位置取得手段と、該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影する撮影手段と、水平面において撮影装置が向いている方向である第1方向を検出する方向検出手段と、出発地から目的地までの地図上における案内ルートを取得する経路取得手段と、案内ルート上で現在地を示す地点を基準として、該地点から案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定する決定手段と、撮影手段で撮影された周辺画像の上に仮想オブジェクトとして第2方向を示すオブジェクトを重ねて表示する表示手段と、して実行させる。 The route guidance program according to one aspect of the present invention includes a computer, a position acquisition means for acquiring the current location of the computer, a photographing means for acquiring a peripheral image including a direction in which the photographing device included in the computer is facing, and a horizontal plane. The direction detection means for detecting the first direction, which is the direction in which the photographing device is facing, the route acquisition means for acquiring the guide route on the map from the departure point to the destination, and the point indicating the current location on the guide route. As a reference, the direction in which a point that has traveled a predetermined distance from the point according to the guide route exists is determined as the second direction in which the user using the computer should proceed, and the peripheral image taken by the photographing means. As a display means for displaying an object indicating the second direction as a virtual object in an overlapping manner, the computer is executed.

本発明によれば、歩行者向けナビゲーションシステムにおいて、歩行者に対してどの方向に歩き出せばよいのかを適切に示すことが可能な技術を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, in a navigation system for pedestrians, it is possible to provide a technique capable of appropriately indicating to a pedestrian in which direction to walk.

携帯端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of a mobile terminal. 携帯端末の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a mobile terminal. 携帯端末がAR表示を行う処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure which a mobile terminal performs AR display. 周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その1)を説明するための図である。It is a figure for demonstrating the determination condition (the 1) in the case of displaying the direction which a user should go on the peripheral image. 周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その2)を説明するための図である。It is a figure for demonstrating the determination condition (the 2) at the time of displaying the direction which a user should go on the peripheral image. 携帯端末に表示する画面の一例を示す図である。It is a figure which shows an example of the screen which displays on a mobile terminal.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, those with the same reference numerals have the same or similar configurations.

<システム構成>
図1を参照して、実施形態における携帯端末(情報処理装置、コンピュータ)のハードウェア構成について説明する。本実施形態では、ユーザが利用する携帯端末10として、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、眼鏡型ウェアラブルデバイス、ナビゲーション装置などを用いることができる。携帯端末10は、例えば、制御部11、通信部12、記憶部13、操作部14、表示部15、センサ16、スピーカ17及びカメラ18を備える。制御部11は、CPU(Central Processing Unit)11aおよびメモリ11bなどをさらに備える。
<System configuration>
With reference to FIG. 1, the hardware configuration of the mobile terminal (information processing device, computer) in the embodiment will be described. In the present embodiment, as the mobile terminal 10 used by the user, for example, a mobile phone (including a smartphone), a tablet terminal, a PDA (Personal Digital Assistants), a glasses-type wearable device, a navigation device, and the like can be used. The mobile terminal 10 includes, for example, a control unit 11, a communication unit 12, a storage unit 13, an operation unit 14, a display unit 15, a sensor 16, a speaker 17, and a camera 18. The control unit 11 further includes a CPU (Central Processing Unit) 11a, a memory 11b, and the like.

制御部11は、CPU11aが、記憶部13等に記憶されたプログラムをメモリ11bに展開して実行することにより、携帯端末10の各構成要素の動作を制御し、また、各種情報処理の実行を制御する。プログラムとして、例えば、後述する経路案内(ナビゲーション)アプリケーションソフト(以下、「経路案内アプリ」ともいう。)がある。制御部11において実行される情報処理の詳細は後述する。 The control unit 11 controls the operation of each component of the mobile terminal 10 by the CPU 11a expanding the program stored in the storage unit 13 or the like into the memory 11b and executing the program, and also executes various information processing. Control. As a program, for example, there is a route guidance (navigation) application software (hereinafter, also referred to as a “route guidance application”) described later. Details of the information processing executed by the control unit 11 will be described later.

通信部12は、外部装置と通信するための通信インタフェースである。通信部12は、例えば、外部装置からデータやコマンドを受信するとともに、携帯端末10による情報処理の結果を外部へ送信する。 The communication unit 12 is a communication interface for communicating with an external device. For example, the communication unit 12 receives data and commands from an external device, and transmits the result of information processing by the mobile terminal 10 to the outside.

記憶部13は、不揮発性の記憶装置であり、例えば、半導体メモリ等により構成される。記憶部13は、制御部11における情報処理の実行に必要な各種プログラムや各種のデータを記憶する。 The storage unit 13 is a non-volatile storage device, and is configured by, for example, a semiconductor memory or the like. The storage unit 13 stores various programs and various data necessary for executing information processing in the control unit 11.

操作部14は、携帯端末10のユーザの指示を受け付け、制御部11へ出力するためのユーザインタフェースである。操作部14は、例えば、タッチパネルや操作キーなどにより構成される。 The operation unit 14 is a user interface for receiving a user's instruction of the mobile terminal 10 and outputting it to the control unit 11. The operation unit 14 is composed of, for example, a touch panel, operation keys, and the like.

表示部15は、携帯端末10による情報処理結果を表示するためのユーザインタフェースである。表示部15は、液晶、またはLED(Light Emitting Diode)などを用いた表示装置により構成される。 The display unit 15 is a user interface for displaying the information processing result of the mobile terminal 10. The display unit 15 is configured by a display device using a liquid crystal display, an LED (Light Emitting Diode), or the like.

センサ16は、各種のセンサにより構成される。センサ16として、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、および気圧センサ等を用いることができる。センサ16は、3軸方向における携帯端末10の向きや加速度、3軸周りの回転角等を検知して出力する。 The sensor 16 is composed of various sensors. As the sensor 16, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, a barometric pressure sensor, or the like can be used. The sensor 16 detects and outputs the direction and acceleration of the mobile terminal 10 in the three-axis direction, the rotation angle around the three axes, and the like.

スピーカ17は、制御部11による情報処理の制御に応じ、音声、音楽および効果音など、各種の音を出力する。 The speaker 17 outputs various sounds such as voice, music, and sound effects according to the control of information processing by the control unit 11.

カメラ18は、制御部11による情報処理の制御に応じ、携帯端末10の周辺画像(周辺の動画像を含む)を撮影する。 The camera 18 captures a peripheral image (including a moving image of the periphery) of the mobile terminal 10 in response to control of information processing by the control unit 11.

図2を参照して、実施形態における携帯端末10の機能構成を説明する。携帯端末10は、機能構成として、例えば、データベース110、経路案内部111、測位部112、撮影部113、方向検出部114、進行方向決定部115及び表示制御部116を有する。これらの機能は、例えば、制御部11において、CPU11aが、記憶部13等に記憶されたプログラム(経路案内アプリ)をメモリ11bに展開して実行することにより実現される。以下に、携帯端末10が備える各機能構成の詳細について説明する。 The functional configuration of the mobile terminal 10 in the embodiment will be described with reference to FIG. The mobile terminal 10 has, for example, a database 110, a route guidance unit 111, a positioning unit 112, an imaging unit 113, a direction detection unit 114, a traveling direction determination unit 115, and a display control unit 116 as functional configurations. These functions are realized, for example, by the CPU 11a in the control unit 11 expanding the program (route guidance application) stored in the storage unit 13 or the like into the memory 11b and executing the program. The details of each functional configuration included in the mobile terminal 10 will be described below.

データベース110は、携帯端末10において実行される情報処理に必要なデータ、および当該情報処理により生成されたデータなど、各種データを記憶する。 The database 110 stores various data such as data necessary for information processing executed by the mobile terminal 10 and data generated by the information processing.

経路案内部111(経路取得部)は、ユーザにより入力された経路探索条件に従った出発地から目的地までの最適経路(以下、「案内ルート」と言う)の情報を取得し、当該案内ルートを表示部15を介してユーザに提示すること等により、ユーザに対し、経路案内(ナビゲーション)を行う。経路案内は、例えば、経路案内アプリを起動した後に表示されるメニューから、経路案内項目を選択し、経路探索条件を入力して探索した結果得られる案内ルートに従って行われる。 The route guidance unit 111 (route acquisition unit) acquires information on the optimum route from the departure point to the destination (hereinafter referred to as "guidance route") according to the route search condition input by the user, and the route guidance unit 111 (hereinafter referred to as "guidance route") is obtained. Is presented to the user via the display unit 15 or the like to provide route guidance (navigation) to the user. For example, the route guidance is performed according to the guidance route obtained as a result of selecting a route guidance item from the menu displayed after starting the route guidance application, inputting the route search condition, and searching.

案内ルートの探索に関し、経路案内部111は、例えば、ユーザにより入力された経路探索条件に従って、データベース110に記憶された(または通信部12を介して外部装置から取得した)地図データ等を参照し、経路探索を実行することにより、案内ルートの情報を取得する。もしくは、入力された経路探索条件に従った経路探索の処理を外部の情報処理装置側で行い、経路案内部111は、当該経路探索の処理結果(案内ルートの情報)を外部の情報処理装置から取得することとしてもよい。 Regarding the search for the guide route, the route guide unit 111 refers to, for example, map data stored in the database 110 (or acquired from an external device via the communication unit 12) according to the route search condition input by the user. , Acquire information on the guided route by executing a route search. Alternatively, the route search process according to the input route search condition is performed on the external information processing device side, and the route guidance unit 111 outputs the process result (guide route information) of the route search from the external information processing device. It may be acquired.

経路探索の手法としてはラベル確定法やダイクストラ法など、任意の手法を利用することができる。なお、最適な経路とは、出発地点から目的地点までのコスト情報が最小であることをいう。リンクのコスト情報は、距離、所要時間、料金、その他のパラメータ、および各種パラメータを任意に組み合わせたもの等、目的に応じて設定可能である。 As the route search method, any method such as the label determination method or the Dijkstra method can be used. The optimum route means that the cost information from the starting point to the destination point is the minimum. The cost information of the link can be set according to the purpose, such as distance, required time, charge, other parameters, and any combination of various parameters.

測位部112(位置取得部)は、携帯端末10(または携帯端末10のユーザ)の現在位置(例えば、緯度および経度の情報)を取得して出力する。測位部112は、例えば、携帯端末10にインストールされたOS(オペレーティングシステム)が備えるAPI(Application Programming Inteface)を利用することで、携帯端末10の現在位置を取得するようにしてもよい。 The positioning unit 112 (position acquisition unit) acquires and outputs the current position (for example, latitude and longitude information) of the mobile terminal 10 (or the user of the mobile terminal 10). The positioning unit 112 may acquire the current position of the mobile terminal 10 by using, for example, an API (Application Programming Interface) included in the OS (operating system) installed in the mobile terminal 10.

撮影部113は、カメラ18(撮影装置)を用いて、カメラ18が向いている方向(カメラ18の光軸方向)を含む周辺画像を撮影する。携帯端末10は、筐体において表示部15が設けられている面の反対側の面(背面)にカメラ18が備えられており、カメラ18で撮影された画像が表示部15に表示される。つまり、ユーザが進行方向にカメラ18を向けると、表示部15には、進行方向の画像が表示されることになる。 The shooting unit 113 uses the camera 18 (shooting device) to shoot a peripheral image including the direction in which the camera 18 is facing (the direction of the optical axis of the camera 18). The mobile terminal 10 is provided with a camera 18 on a surface (rear surface) opposite to the surface on which the display unit 15 is provided in the housing, and an image taken by the camera 18 is displayed on the display unit 15. That is, when the user points the camera 18 in the traveling direction, the image in the traveling direction is displayed on the display unit 15.

方向検出部114は、センサ16に含まれるジャイロセンサ、加速度センサ及び地磁気センサの出力値を組み合わせることで、水平面においてカメラ18が向いている方向(第1方向)を検出する。水平面においてカメラ18が向いている方向は、例えば北方向を基準方向(0度)とした角度で表現されることとしてもよい。本実施形態では、ユーザは、ユーザ自身が向いている方向にカメラ18を向けながら経路案内アプリを利用することを想定している。以下の説明では、水平面においてカメラ18が向いている方向を、便宜上「ユーザが向いている方向」と言う。 The direction detection unit 114 detects the direction (first direction) in which the camera 18 is facing in the horizontal plane by combining the output values of the gyro sensor, the acceleration sensor, and the geomagnetic sensor included in the sensor 16. The direction in which the camera 18 is facing in the horizontal plane may be expressed by, for example, an angle with the north direction as the reference direction (0 degree). In the present embodiment, it is assumed that the user uses the route guidance application while pointing the camera 18 in the direction in which the user himself / herself is facing. In the following description, the direction in which the camera 18 is facing on the horizontal plane is referred to as "the direction in which the user is facing" for convenience.

進行方向決定部115は、案内ルート上で現在地を示す地点を基準として、該地点から案内ルートに従って所定の距離進んだ地点が存在する方向を、「ユーザが進むべき方向」(第2方向)として決定する。なお、測位部112が取得する現在位置は、実際には若干の誤差が含まれる可能性がある。従って、案内ルート上で現在地を示す地点とは、より詳細には、案内ルートにおいて携帯端末10の現在地に最も近い地点(すなわち、現在地を案内ルート上にマッチングさせた地点)であってもよい。 The traveling direction determination unit 115 sets the direction in which a point that has traveled a predetermined distance from the point indicating the current location on the guidance route as a "direction in which the user should travel" (second direction). decide. The current position acquired by the positioning unit 112 may actually include some errors. Therefore, the point indicating the current location on the guidance route may be, more specifically, the point closest to the current location of the mobile terminal 10 on the guidance route (that is, the point where the current location is matched on the guidance route).

表示制御部116は、表示部15に表示させる各種情報および画像の表示の制御を行う。例えば、表示制御部116は、地図画像の上に、案内ルートと携帯端末10の現在位置とを表示するように制御する。また、表示制御部116は、撮影部113で撮影された周辺画像の上に、仮想オブジェクトを重ねて表示する。仮想オブジェクトは、例えば、ユーザが進むべき方向を示すオブジェクト等である。 The display control unit 116 controls the display of various information and images to be displayed on the display unit 15. For example, the display control unit 116 controls to display the guide route and the current position of the mobile terminal 10 on the map image. Further, the display control unit 116 superimposes and displays a virtual object on the peripheral image captured by the photographing unit 113. The virtual object is, for example, an object indicating the direction in which the user should go.

また、表示制御部116は、方向検出部114で検出されたユーザが向いている方向が、進行方向決定部115で決定されたユーザが進むべき方向や案内ルートに沿った方向と概ね一致している場合に、仮想オブジェクトとして、ユーザが進むべき方向を示すオブジェクトを表示するようにしてもよい。一方、ユーザが向いている方向が、ユーザが進むべき方向や案内ルートに沿った方向と概ね一致しているとはいえない場合(例えば進むべき方向とは逆を向いているような場合)に、仮想オブジェクトとして、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを表示するようにしてもよい。 Further, in the display control unit 116, the direction in which the user detected by the direction detection unit 114 is facing is substantially the same as the direction in which the user determined by the traveling direction determination unit 115 should go or the direction along the guidance route. If so, the virtual object may be displayed as an object indicating the direction in which the user should go. On the other hand, when the direction in which the user is facing cannot be said to be substantially the same as the direction in which the user should go or the direction along the guidance route (for example, when the direction is opposite to the direction in which the user should go). , As a virtual object, an object indicating that the user is pointing in a direction different from the direction in which the user should go may be displayed.

また、表示制御部116は、案内ルートにおいて携帯端末10の現在地に最も近い地点と携帯端末10の現在地との距離が、所定の距離を超えた場合、仮想オブジェクトとして、ユーザが案内ルートから外れた場所にいることを示すオブジェクトを表示するようにしてもよい。 Further, when the distance between the point closest to the current location of the mobile terminal 10 and the current location of the mobile terminal 10 in the guidance route exceeds a predetermined distance, the display control unit 116 deviates from the guidance route as a virtual object. You may want to display an object that indicates that you are in place.

また、表示制御部116は、携帯端末10の現在位置が、出発地から所定の範囲(例えば半径25メートルや半径50メートル等)の内側である間、撮影部113で撮影された周辺画像の上に仮想オブジェクトを重ねて表示し続けるようにして、携帯端末10の現在位置が、出発地から所定の範囲の外側に移動した場合は、地図表示のみを行うようにしてもよい。つまり、表示制御部116は、周辺画像の上に仮想オブジェクトを重ねて表示する画面を常に表示部15に表示し続けるのではなく、携帯端末10の現在位置が、出発地から所定の範囲の外側に移動するまでの間に限って、周辺画像の上に仮想オブジェクトを重ねて表示する画面を表示部15に表示するようにしてもよい。 Further, the display control unit 116 is on the peripheral image taken by the photographing unit 113 while the current position of the mobile terminal 10 is inside a predetermined range (for example, a radius of 25 meters or a radius of 50 meters) from the departure place. When the current position of the mobile terminal 10 moves to the outside of a predetermined range from the departure point, the virtual object may be continuously displayed on the map. That is, the display control unit 116 does not always display the screen on which the virtual object is superimposed on the peripheral image on the display unit 15, but the current position of the mobile terminal 10 is outside the predetermined range from the departure point. A screen for displaying a virtual object superimposed on a peripheral image may be displayed on the display unit 15 only until the image is moved to.

また、表示制御部116は、表示部15に、周辺画像の上に仮想オブジェクトを重ねて表示する画面と、案内ルートを重畳した地図画面との両方を表示するようにしてもよい。以下の説明では、周辺画像の上に仮想オブジェクトを重ねて表示することを「AR表示」と呼び、出発地から所定の範囲内(周辺画像の上に仮想オブジェクトを表示し続ける範囲)を「AR表示エリア」と呼ぶ。 Further, the display control unit 116 may display on the display unit 15 both a screen in which a virtual object is superimposed on a peripheral image and a map screen in which a guide route is superimposed. In the following explanation, displaying a virtual object on top of a peripheral image is called "AR display", and the range within a predetermined range from the departure point (the range in which the virtual object continues to be displayed on the peripheral image) is called "AR". Called "display area".

<処理手順>
図3は、携帯端末10がAR表示を行う処理手順の一例を示すフローチャートである。図3に示すフローチャートは、携帯端末10の経路案内部111が、携帯端末10の現在位置を出発地とした案内ルートの探索を終了し、実際に経路案内を開始した時点で開始される。
<Processing procedure>
FIG. 3 is a flowchart showing an example of a processing procedure in which the mobile terminal 10 performs AR display. The flowchart shown in FIG. 3 is started when the route guidance unit 111 of the mobile terminal 10 finishes searching for a guide route starting from the current position of the mobile terminal 10 and actually starts route guidance.

ステップS101で、測位部112は、携帯端末10の現在位置を取得する。このとき、測位部112は、測定された携帯端末10の現在位置の精度が所定の精度よりも低いか否かを取得するようにしてもよい。携帯端末10の現在位置の精度(誤差)がどの程度であるのかについては、例えば、携帯端末10にインストールされたOSが備えるAPIを用いることで取得することができる。 In step S101, the positioning unit 112 acquires the current position of the mobile terminal 10. At this time, the positioning unit 112 may acquire whether or not the accuracy of the measured current position of the mobile terminal 10 is lower than the predetermined accuracy. The accuracy (error) of the current position of the mobile terminal 10 can be obtained by using, for example, the API provided in the OS installed in the mobile terminal 10.

ステップS102で、表示制御部116は、携帯端末10の現在位置がAR表示エリア内であるか否かを確認する。現在位置がAR表示エリア外である場合はステップS103の処理手順に進む。現在位置がAR表示エリア内である場合はステップS104の処理手順に進む。なお、表示制御部116は、携帯端末10の現在地がAR表示エリア外に移動した場合であっても、携帯端末10の現在位置の精度が所定の閾値よりも低い場合には、AR表示を継続するようにしてもよい。つまり、表示制御部116は、携帯端末10の現在位置の精度が所定の閾値よりも低い場合、ステップS103の処理手順ではなく、ステップS104の処理手順に進むようにしてもよい。 In step S102, the display control unit 116 confirms whether or not the current position of the mobile terminal 10 is within the AR display area. If the current position is outside the AR display area, the process proceeds to step S103. If the current position is within the AR display area, the process proceeds to step S104. Even if the current location of the mobile terminal 10 moves out of the AR display area, the display control unit 116 continues the AR display if the accuracy of the current position of the mobile terminal 10 is lower than a predetermined threshold value. You may try to do it. That is, when the accuracy of the current position of the mobile terminal 10 is lower than the predetermined threshold value, the display control unit 116 may proceed to the processing procedure of step S104 instead of the processing procedure of step S103.

ステップS103で、表示制御部116はAR表示を終了し、表示部15に地図画面を全面表示する。 In step S103, the display control unit 116 ends the AR display, and displays the map screen on the display unit 15 on the entire surface.

ステップS104で、表示制御部116は、携帯端末10の現在位置が、案内ルート上であるか否かを判定する。測位部112が取得する現在位置には誤差が含まれている可能性があるため、表示制御部116は、現在位置が案内ルートから若干離れている場合であっても、現在位置は案内ルート上であると判断する。具体的には、表示制御部116は、案内ルートにおいて携帯端末10の現在地に最も近い地点と携帯端末10の現在地との距離が、所定の距離以内であるか否かを確認する。所定の距離以内である場合、現在位置は案内ルート上であると判定し、現在位置を、案内ルート上において現在位置に最も近い位置にマッチングさせてからステップS105の処理手順に進む。一方、所定の距離を超えている場合、現在位置は案内ルート上ではない(案内ルートから外れている)と判定し、ステップS108の処理手順に進む。 In step S104, the display control unit 116 determines whether or not the current position of the mobile terminal 10 is on the guide route. Since the current position acquired by the positioning unit 112 may contain an error, the display control unit 116 displays the current position on the guide route even if the current position is slightly away from the guide route. Judge that. Specifically, the display control unit 116 confirms whether or not the distance between the point closest to the current location of the mobile terminal 10 and the current location of the mobile terminal 10 on the guidance route is within a predetermined distance. If it is within a predetermined distance, it is determined that the current position is on the guide route, the current position is matched with the position closest to the current position on the guide route, and then the process proceeds to step S105. On the other hand, if the distance exceeds a predetermined distance, it is determined that the current position is not on the guide route (out of the guide route), and the process proceeds to step S108.

ステップS105で、表示制御部116は、撮影部113で撮影された周辺画像の上に、ユーザが進むべき方向を示すオブジェクトを表示するか否かを判定する。表示する場合はステップS106の処理手順に進み、表示しない場合はステップS107の処理手順に進む。なお、表示制御部116は、周辺画像の上にユーザが進むべき方向を示すオブジェクトを表示するか否かを、所定の判定条件に基づいて判定する。当該判定条件の詳細については後述する。 In step S105, the display control unit 116 determines whether or not to display an object indicating the direction in which the user should go on the peripheral image captured by the photographing unit 113. If it is displayed, the process proceeds to step S106, and if it is not displayed, the process proceeds to step S107. The display control unit 116 determines whether or not to display an object indicating the direction in which the user should go on the peripheral image based on a predetermined determination condition. The details of the determination condition will be described later.

ステップS106の処理手順で、表示制御部116は、周辺画像の上に、ユーザが進むべき方向を示すオブジェクトを重ねて表示する。図6(a)に表示例を示す。携帯端末10の画面は、AR表示を行う表示エリアA200(第1の領域)と、案内ルート及び地図を表示する表示エリアA201(第2の領域)とから構成される。図6(a)の例では、表示エリアA200は画面の上半分を占めており、表示エリアA201は画面の下半分を占めているが、本実施形態はこれに限定されるものではない。例えば、画面の上半分が表示エリアA201であり、画面の下半分が表示エリアA200であるようにしてもよい。 In the processing procedure of step S106, the display control unit 116 superimposes and displays an object indicating the direction in which the user should go on the peripheral image. FIG. 6A shows a display example. The screen of the mobile terminal 10 is composed of a display area A200 (first area) for displaying AR and a display area A201 (second area) for displaying a guide route and a map. In the example of FIG. 6A, the display area A200 occupies the upper half of the screen, and the display area A201 occupies the lower half of the screen, but the present embodiment is not limited to this. For example, the upper half of the screen may be the display area A201 and the lower half of the screen may be the display area A200.

オブジェクトX1aは、ユーザが進むべき方向を示す矢印であり、オブジェクトX1bは、ユーザに対するメッセージである。図6(a)の例では、ユーザが向いている方向とユーザが進むべき方向とがほぼ一致しているので、「このまま進んでください」のメッセージを表示している。 The object X1a is an arrow indicating the direction in which the user should go, and the object X1b is a message to the user. In the example of FIG. 6A, the direction in which the user is facing and the direction in which the user should go are almost the same, so the message "Please proceed as it is" is displayed.

ステップS107の処理手順で、表示制御部116は、周辺画像の上に、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。図6(b)に表示例を示す。オブジェクトX2aは、ユーザが進むべき方向とは異なる方向を向いていることを示すマークであり、オブジェクトX2bは、ユーザに対するメッセージである。図6(b)の例では、ユーザが向いている方向が、ユーザが進むべき方向とは異なっていることから、「進む方向が違います」のメッセージを表示している。 In the processing procedure of step S107, the display control unit 116 superimposes and displays an object indicating that the user is facing a direction different from the direction in which the user should go on the peripheral image. A display example is shown in FIG. 6 (b). The object X2a is a mark indicating that the user is facing a direction different from the direction in which the user should go, and the object X2b is a message to the user. In the example of FIG. 6B, since the direction in which the user is facing is different from the direction in which the user should go, the message "The direction in which the user is heading is different" is displayed.

ステップS108の処理手順で、表示制御部116は、周辺画像の上に、ユーザが、案内ルートから外れた場所にいることを示すオブジェクトを重ねて表示する。図6(c)に表示例を示す。オブジェクトX3aは、ユーザが進むべき方向とは異なる方向を向いていることを示すマークであり、オブジェクトX3bは、ユーザに対するメッセージである。図6(c)の例では、「ルートから外れています」のメッセージを表示している。 In the processing procedure of step S108, the display control unit 116 superimposes and displays an object indicating that the user is out of the guide route on the peripheral image. A display example is shown in FIG. 6 (c). The object X3a is a mark indicating that the user is facing a direction different from the direction in which the user should go, and the object X3b is a message to the user. In the example of FIG. 6 (c), the message "off the route" is displayed.

以上説明したステップS101乃至ステップS108の処理手順は、ステップS103の処理手順にてAR表示が終了するまで繰り返し実行される。 The processing procedure of steps S101 to S108 described above is repeatedly executed until the AR display is completed in the processing procedure of step S103.

続いて、図3のステップS105の処理手順において、周辺画像の上にユーザが進むべき方向を表示する場合(図6(a)に示す画面を表示する場合)の判定条件の詳細を説明する。携帯端末10は、当該判定条件として、以下に示す判定条件(その1)、判定条件(その2)及び判定条件(その3)のうちいずれか1つを実行するようにしてもよい。 Subsequently, in the processing procedure of step S105 of FIG. 3, the details of the determination conditions when displaying the direction in which the user should go on the peripheral image (when displaying the screen shown in FIG. 6A) will be described. The mobile terminal 10 may execute any one of the following determination conditions (No. 1), determination condition (No. 2), and determination condition (No. 3) as the determination condition.

(判定条件(その1))
図4は、周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その1)を説明するための図である。図4において、地点P1は、案内ルートRにおいて現在地を示す地点である。地点P2は地点P1から案内ルートRに従って所定の距離進んだ地点である。所定の距離はどのような距離であってもよいが、例えば、数メートル程度(1m先、2m先、3m先、4m先など)であってもよい。方向D1は、水平面においてカメラ18が向いている方向(すなわち、ユーザが向いている方向)を示す。方向D2は、地点P1を基準として、地点P1から案内ルートRに従って所定の距離進んだ地点P2が存在する方向(すなわち、ユーザが進むべき方向)を示す。
(Judgment condition (1))
FIG. 4 is a diagram for explaining a determination condition (No. 1) when the direction in which the user should go is displayed on the peripheral image. In FIG. 4, the point P1 is a point indicating the current location on the guide route R. The point P2 is a point advanced from the point P1 by a predetermined distance according to the guide route R. The predetermined distance may be any distance, but may be, for example, several meters (1 m ahead, 2 m ahead, 3 m ahead, 4 m ahead, etc.). The direction D1 indicates the direction in which the camera 18 is facing (that is, the direction in which the user is facing) in the horizontal plane. The direction D2 indicates a direction in which a point P2 that has traveled a predetermined distance from the point P1 according to the guide route R with respect to the point P1 exists (that is, a direction in which the user should go).

判定条件(その1)では、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2が含まれている場合、周辺画像の上にユーザが進むべき方向を表示する。所定の範囲の方向は、図4の例では、方向D1を基準として左右30度である前提とする。一方、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2が含まれていない場合、ユーザは進むべき方向とは異なる方向を向いていることを表示する。 In the determination condition (No. 1), when the direction D2 in which the user should go is included in the direction in a predetermined range with respect to the direction D1 in which the user is facing, the direction in which the user should go is set on the peripheral image. indicate. In the example of FIG. 4, the direction of the predetermined range is assumed to be 30 degrees to the left and right with respect to the direction D1. On the other hand, if the direction D2 in which the user should go is not included in the direction in a predetermined range with respect to the direction D1 in which the user is facing, it is displayed that the user is facing in a direction different from the direction in which the user should go. ..

図4(a)のケース、図4(b)のケース及び図4(e)のケースでは、方向D1を基準とした左右30度の方向に、方向D2が含まれている。従って、表示制御部116は、図6(a)に示すように、周辺画像の上にユーザが進むべき方向を示すオブジェクトを重ねて表示する。 In the case of FIG. 4A, the case of FIG. 4B, and the case of FIG. 4E, the direction D2 is included in the direction of 30 degrees to the left and right with respect to the direction D1. Therefore, as shown in FIG. 6A, the display control unit 116 superimposes and displays an object indicating the direction in which the user should go on the peripheral image.

図4(c)のケース及び図4(d)のケースでは、方向D1を基準とした左右30度の方向に、方向D2が含まれていない。従って、表示制御部116は、図6(b)に示すように、周辺画像の上にユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。 In the case of FIG. 4 (c) and the case of FIG. 4 (d), the direction D2 is not included in the direction of 30 degrees to the left and right with respect to the direction D1. Therefore, as shown in FIG. 6B, the display control unit 116 superimposes and displays an object indicating that the user is facing a direction different from the direction in which the user should go on the peripheral image.

(判定条件(その2))
判定条件(その2)では、判定条件(その1)に示す条件に加えて、ユーザが向いている方向D1を基準とした所定の範囲の方向に、案内ルートに沿った方向D3が含まれている場合であっても、周辺画像の上にユーザが進むべき方向を表示する。すなわち、判定部条件(その2)では、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2又は案内ルートに沿った方向D3のいずれかが含まれている場合に、周辺画像の上にユーザが進むべき方向を表示する。一方、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2及び案内ルートに沿った方向D3の両方が含まれていない場合、ユーザは進むべき方向とは異なる方向を向いていることを表示する。
(Judgment condition (2))
In the determination condition (No. 2), in addition to the condition shown in the determination condition (No. 1), the direction D3 along the guide route is included in the direction in a predetermined range with respect to the direction D1 in which the user is facing. Even if there is, the direction in which the user should go is displayed on the peripheral image. That is, the determination unit condition (No. 2) includes either the direction D2 to be followed by the user or the direction D3 along the guide route in a predetermined range with respect to the direction D1 to which the user is facing. If so, the direction in which the user should go is displayed above the peripheral image. On the other hand, if both the direction D2 in which the user should go and the direction D3 along the guide route are not included in the direction in a predetermined range with respect to the direction D1 in which the user is facing, the user is in the direction to go. Show that you are facing in a different direction.

図5は、周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その2)を説明するための図である。図5において、方向D3は、案内ルートに沿った方向を示している。地点P1、地点P2、方向D1及び方向D2はそれぞれ図4と同一であるため説明は省略する。 FIG. 5 is a diagram for explaining a determination condition (No. 2) when the direction in which the user should go is displayed on the peripheral image. In FIG. 5, the direction D3 indicates a direction along the guide route. Since the point P1, the point P2, the direction D1 and the direction D2 are the same as those in FIG. 4, the description thereof will be omitted.

図5(a)のケース、図5(b)のケース、図5(d)のケース及び図5(e)のケースでは、方向D1を基準とした左右30度の方向に、方向D2及び方向D3のうち少なくとも一方が含まれている。従って、表示制御部116は、図6(a)に示すように、周辺画像の上にユーザが進むべき方向を示すオブジェクトを重ねて表示する。 In the case of FIG. 5A, the case of FIG. 5B, the case of FIG. 5D, and the case of FIG. 5E, the direction D2 and the direction are 30 degrees to the left and right with respect to the direction D1. At least one of D3 is included. Therefore, as shown in FIG. 6A, the display control unit 116 superimposes and displays an object indicating the direction in which the user should go on the peripheral image.

一方、図5(c)のケースでは、方向D1を基準とした左右30度の方向に、方向D2及び方向D3が含まれていない。従って、表示制御部116は、図6(b)に示すように、周辺画像の上にユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。 On the other hand, in the case of FIG. 5C, the direction D2 and the direction D3 are not included in the direction of 30 degrees to the left and right with respect to the direction D1. Therefore, as shown in FIG. 6B, the display control unit 116 superimposes and displays an object indicating that the user is facing a direction different from the direction in which the user should go on the peripheral image.

以上、実施形態について説明した。本実施形態によれば、出発地を基準としたAR表示エリア内において携帯端末10のカメラ18で撮影された周辺画像にユーザが進むべき方向を示すオブジェクトが重ねて表示されることから、ユーザは、ナビゲーションを開始する際に、どの方向に向かって歩き始めればよいのかを直感的かつ確実に把握することが可能になる。これにより、例えば、地下から地上に出たタイミングや自動車から降りたタイミング等でナビゲーションを開始する場合など、どの方向を向いているのか判断がつきにくい場合であっても、自身の周囲をカメラ18で撮影するだけで、歩き始めるべき方向を直感的かつ確実に把握することが可能になる。また、地図を見るのが苦手なユーザであっても、歩き始めるべき方向を直感的かつ確実に把握することが可能になる。 The embodiment has been described above. According to the present embodiment, in the AR display area with respect to the departure place, an object indicating the direction in which the user should go is superimposed on the peripheral image taken by the camera 18 of the mobile terminal 10, so that the user can use the user. , When starting navigation, it becomes possible to intuitively and surely grasp in which direction to start walking. As a result, even if it is difficult to determine which direction the camera is facing, such as when the navigation is started at the timing of going out from the basement to the ground or the timing of getting off the car, the camera 18 around itself. It is possible to intuitively and surely grasp the direction in which you should start walking just by shooting with. In addition, even a user who is not good at viewing a map can intuitively and surely grasp the direction in which he / she should start walking.

また、本実施形態によれば、周辺画像に案内ルートを重ねて表示するのではなく、ユーザが進むべき方向を示すオブジェクトを表示するようにした。これにより、周辺画像に案内ルートを重ねて表示するよりも表示内容を簡素化することができ、携帯端末10の処理負荷を軽減することが可能になる。また、ユーザの視点から見ても、周辺画像に案内ルートが重畳されることに伴う視認性の劣化を防止することができる。 Further, according to the present embodiment, instead of displaying the guide route superimposed on the peripheral image, an object indicating the direction in which the user should go is displayed. As a result, the display content can be simplified as compared with displaying the guide route superimposed on the peripheral image, and the processing load of the mobile terminal 10 can be reduced. Further, from the user's point of view, it is possible to prevent deterioration of visibility due to superimposition of the guide route on the peripheral image.

<変形例>
表示制御部116は、図3のステップS105の処理手順において、所定の判定条件を満たさない状態が所定の時間継続した場合に、ステップS107の処理手順に進むようにしてもよい。例えば、ユーザが向いている方向が図4(a)の状態から図4(c)の状態に変化した場合、表示制御部116は、図4(c)の状態に変化したタイミングで図6(a)の画面から図6(b)の画面に切り替えるのではなく、図4(c)の状態が所定の時間(例えば3秒等)継続した場合に、図6(a)の画面から図6(b)の画面に切り替えるようにしてもよい。これにより、方向検出部114の検出結果が不安定であるような場合に、図6(a)の画面と図6(b)の画面とが頻繁に切り替わってしまい、ユーザの視認性が劣化してしまうことを防止することができる。
<Modification example>
The display control unit 116 may proceed to the processing procedure of step S107 when the state of not satisfying the predetermined determination condition continues for a predetermined time in the processing procedure of step S105 of FIG. For example, when the direction in which the user is facing changes from the state of FIG. 4 (a) to the state of FIG. 4 (c), the display control unit 116 changes to the state of FIG. 4 (c) in FIG. 6 ( Instead of switching from the screen of FIG. 6 (b) to the screen of FIG. 6 (b), when the state of FIG. 4 (c) continues for a predetermined time (for example, 3 seconds, etc.), the screen of FIG. 6 (a) to FIG. 6 You may switch to the screen of (b). As a result, when the detection result of the direction detection unit 114 is unstable, the screen of FIG. 6A and the screen of FIG. 6B are frequently switched, and the visibility of the user deteriorates. It is possible to prevent it from being detected.

判定条件(その1)~判定条件(その3)における、ユーザが向いている方向を基準とした所定の範囲の方向は、案内ルートの形状に従って変化するようにしてもよい。例えば、現在位置が、案内ルートに存在する曲がり角から所定の距離以内(例えば1m以内でもよいし10m以内でもよい)である場合、所定の範囲を拡大(例えば左右60度等に拡大)又は縮小(例えば左右20度等に縮小)するようにしてもよい。若しくは、案内ルート上の各地点(例えば1mごとの地点など)に、判定条件(その1)~判定条件(その3)の判定に用いるべき所定の範囲が予め設定されていてもよい。これにより、案内ルートの形状に応じて、ユーザが進むべき方向を示すオブジェクトが表示され易くするのか否かを、案内ルートの形状に応じて柔軟に制御することが可能になる。 The direction in a predetermined range based on the direction in which the user is facing in the determination condition (No. 1) to the determination condition (No. 3) may be changed according to the shape of the guide route. For example, if the current position is within a predetermined distance (for example, within 1 m or within 10 m) from the corner existing in the guide route, the predetermined range is expanded (for example, expanded to 60 degrees to the left or right) or reduced (for example, 60 degrees to the left or right). For example, it may be reduced to 20 degrees to the left or right). Alternatively, a predetermined range to be used for the determination of the determination condition (No. 1) to the determination condition (No. 3) may be preset at each point on the guide route (for example, a point every 1 m). This makes it possible to flexibly control whether or not an object indicating the direction in which the user should go is easily displayed according to the shape of the guided route according to the shape of the guided route.

表示制御部116は、図3のステップS103の処理手順においてAR表示を終了した場合、周辺画像の上に案内ルートを重ねて表示するようにしてもよい。例えば、図6(c)に示す画面の表示エリアA200において、オブジェクトX3a及びオブジェクトX3bを消去した後、案内ルートを周辺画像に重ねて表示するようにしてもよい。 When the display control unit 116 ends the AR display in the processing procedure of step S103 in FIG. 3, the display control unit 116 may display the guide route superimposed on the peripheral image. For example, in the display area A200 of the screen shown in FIG. 6 (c), after erasing the object X3a and the object X3b, the guide route may be superimposed and displayed on the peripheral image.

表示制御部116は、画面全体にAR表示を行うようにしてもよい。例えば図6(a)~図6(c)に示す画面において、表示エリアA201を表示せずに、表示エリアA200を画面全体に表示するようにしてもよい。 The display control unit 116 may display AR on the entire screen. For example, in the screens shown in FIGS. 6A to 6C, the display area A200 may be displayed on the entire screen without displaying the display area A201.

表示制御部116は、AR表示を行っている間、AR表示の内容に応じた音声案内を行うようにしてもよい。例えば、図6(a)に示す画面を表示している間、スピーカ17から「このままお進みください」との音声案内を出力し、図6(b)に示す画面を表示している間、スピーカ17から「進む方向が違います」との音声案内を出力し、図6(c)に示す画面を表示している間、スピーカ17から「ルートから外れています」との音声案内を出力するようにしてもよい。この場合、表示制御部116を「制御部」と称してもよい。 The display control unit 116 may perform voice guidance according to the content of the AR display while performing the AR display. For example, while the screen shown in FIG. 6 (a) is displayed, the voice guidance "Please proceed as it is" is output from the speaker 17, and the speaker is displayed while the screen shown in FIG. 6 (b) is displayed. The voice guidance "The direction of travel is different" is output from 17, and the voice guidance "Out of the route" is output from the speaker 17 while the screen shown in FIG. 6 (c) is displayed. You may do it. In this case, the display control unit 116 may be referred to as a "control unit".

表示制御部116は、携帯端末10が縦向きである場合に、図6(a)~図6(c)に示すAR表示を行うようにして、携帯端末10が横向きである場合はAR表示を行わずに、案内ルート及び地図を画面全体に表示するようにしてもよい。 The display control unit 116 performs the AR display shown in FIGS. 6A to 6C when the mobile terminal 10 is in portrait orientation, and displays AR when the mobile terminal 10 is in landscape orientation. Instead of doing so, the guide route and the map may be displayed on the entire screen.

表示制御部116は、必ずしも、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトX2a、及び/又は、案内ルートから外れた場所にいることを示すオブジェクトX3aを表示しなくてもよい。例えば、表示制御部116は、ユーザが向いている方向に関わらず、ユーザが進むべき方向を示すオブジェクトX1aを表示するようにしてもよい。 The display control unit 116 does not necessarily have to display the object X2a indicating that the user is facing a direction different from the direction in which the user should go, and / or the object X3a indicating that the user is out of the guide route. good. For example, the display control unit 116 may display the object X1a indicating the direction in which the user should go, regardless of the direction in which the user is facing.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態で説明したフローチャート、シーケンス、実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting the interpretation of the present invention. The flowcharts, sequences, elements included in the embodiments, arrangements, materials, conditions, shapes, sizes, and the like described in the embodiments are not limited to those exemplified, and can be appropriately changed. Further, it is possible to partially replace or combine the configurations shown in different embodiments.

なお、本実施形態において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されてもよい。また、「部」を「手段」に置き換えることも可能である。 In the present embodiment, the "part" does not simply mean a physical means, but also includes a case where the function of the "part" is realized by software. Further, even if the function of one "part" or device is realized by two or more physical means or devices, the function of two or more "parts" or devices is realized by one physical means or device. You may. It is also possible to replace "part" with "means".

10…携帯端末、11…制御部、11a…CPU、11b…メモリ、12…通信部、13…記憶部、14…操作部、15…表示部、16…センサ、17…スピーカ、18…カメラ、110…データベース、111…経路案内部、112…測位部、113…撮影部、114…方向検出部、115…進行方向決定部、116…表示制御部 10 ... mobile terminal, 11 ... control unit, 11a ... CPU, 11b ... memory, 12 ... communication unit, 13 ... storage unit, 14 ... operation unit, 15 ... display unit, 16 ... sensor, 17 ... speaker, 18 ... camera, 110 ... Database, 111 ... Route guidance unit, 112 ... Positioning unit, 113 ... Imaging unit, 114 ... Direction detection unit, 115 ... Travel direction determination unit, 116 ... Display control unit

Claims (9)

コンピュータを、
該コンピュータの現在地を取得する位置取得手段と、
該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影する撮影手段と、
出発地から目的地までの地図上における案内ルートを取得する経路取得手段と、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定する決定手段と、
前記撮影手段で撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示する表示手段と、
して実行させ
前記表示手段は、前記現在地が前記出発地から所定の範囲内である場合に、前記周辺画像の上に前記仮想オブジェクトを重ねて表示する、
経路案内プログラム。
Computer,
A position acquisition means for acquiring the current location of the computer, and
A photographing means for photographing a peripheral image including a direction in which the photographing device provided in the computer is facing, and a photographing means.
A route acquisition method for acquiring a guide route on a map from the departure point to the destination, and
Determining means for determining the direction in which a point that has advanced a predetermined distance from the point on the guide route indicating the current location is the second direction in which the user using the computer should proceed. When,
A display means for displaying an object indicating the second direction as a virtual object on the peripheral image taken by the shooting means.
And let it run
The display means superimposes and displays the virtual object on the peripheral image when the current location is within a predetermined range from the departure location.
Route guidance program.
水平面において前記撮影装置が向いている方向である第1方向を検出する方向検出手段、を更に有し、
前記表示手段は、
前記第1方向を基準とした所定の範囲の方向に、前記第2方向が含まれる場合、前記仮想オブジェクトとして前記第2方向を示すオブジェクトを表示し、
前記第1方向を基準とした前記所定の範囲の方向に前記第2方向が含まれない場合、前記仮想オブジェクトとして、前記ユーザが、前記ユーザが進むべき方向を向いていないことを示すオブジェクトを表示する、
請求項1に記載の経路案内プログラム。
Further, it has a direction detecting means for detecting a first direction which is a direction in which the photographing apparatus is facing in a horizontal plane.
The display means is
When the second direction is included in a predetermined range of directions with respect to the first direction, an object indicating the second direction is displayed as the virtual object.
When the second direction is not included in the direction of the predetermined range with respect to the first direction, an object indicating that the user is not facing the direction in which the user should go is displayed as the virtual object. do,
The route guidance program according to claim 1.
水平面において前記撮影装置が向いている方向である第1方向を検出する方向検出手段、を更に有し、
前記表示手段は、
前記第1方向を基準とした所定の範囲の方向に、前記第2方向又は前記案内ルートに沿った方向が含まれる場合、前記仮想オブジェクトとして前記第2方向を示すオブジェクトを表示し、
前記第1方向を基準とした前記所定の範囲の方向に、前記第2方向及び前記案内ルートに沿った方向が含まれない場合、前記仮想オブジェクトとして、前記ユーザが、前記ユーザが進むべき方向を向いていないことを示すオブジェクトを表示する、
請求項1に記載の経路案内プログラム。
Further, it has a direction detecting means for detecting a first direction which is a direction in which the photographing apparatus is facing in a horizontal plane.
The display means is
When the direction in a predetermined range with respect to the first direction includes the second direction or the direction along the guide route, an object indicating the second direction is displayed as the virtual object.
When the direction in the predetermined range with respect to the first direction does not include the direction along the second direction and the guide route, as the virtual object, the user indicates the direction in which the user should go. Display an object that indicates that it is not suitable,
The route guidance program according to claim 1.
前記表示手段は、前記案内ルート上で前記現在地に最も近い地点と前記現在地との距離が、所定の距離を超えた場合、前記仮想オブジェクトとして、前記ユーザが前記案内ルートから外れた場所にいることを示すオブジェクトを表示する、
請求項1乃至3のいずれか一項に記載の経路案内プログラム。
When the distance between the point closest to the current location and the current location on the guide route exceeds a predetermined distance, the display means means that the user is at a place outside the guide route as the virtual object. Display an object that indicates
The route guidance program according to any one of claims 1 to 3.
前記第1方向を基準とした所定の範囲の方向は、前記第1方向を基準とした左右の角度で表される、
請求項2又は3に記載の経路案内プログラム。
The direction in a predetermined range with respect to the first direction is represented by a left-right angle with respect to the first direction.
The route guidance program according to claim 2 or 3 .
前記位置取得手段は、測定される現在位置の精度が所定の精度よりも低いか否かを取得し、
前記表示手段は、前記現在地が前記出発地から前記所定の範囲の外に移動した場合であっても、前記精度が所定の閾値よりも低い場合には、前記周辺画像の上に前記仮想オブジェクトを重ねて表示し続ける、
請求項1~のいずれか一項に記載の経路案内プログラム。
The position acquisition means acquires whether or not the accuracy of the measured current position is lower than a predetermined accuracy.
The display means displays the virtual object on the peripheral image when the accuracy is lower than the predetermined threshold value even when the current location moves from the departure location to the outside of the predetermined range. Continue to display on top of each other,
The route guidance program according to any one of claims 1 to 5.
前記表示手段は、第1の領域に前記周辺画像の上に前記仮想オブジェクトを重ねて表示し、第2の領域に前記案内ルート及び地図を表示する、
請求項1乃至6のいずれか一項に記載の経路案内プログラム。
The display means superimposes the virtual object on the peripheral image in the first area, and displays the guide route and the map in the second area.
The route guidance program according to any one of claims 1 to 6.
コンピュータが実行する経路案内方法であって、
該コンピュータの現在地を取得するステップと、
該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影するステップと、
出発地から目的地までの地図上における案内ルートを取得するステップと、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定するステップと、
撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示するステップと、
を含み、
前記表示するステップは、前記現在地が前記出発地から所定の範囲内である場合に、前記周辺画像の上に前記仮想オブジェクトを重ねて表示する、
経路案内方法。
It is a route guidance method executed by a computer.
Steps to get the current location of the computer and
A step of taking a peripheral image including the direction in which the photographing device provided in the computer is facing, and
Steps to get a guide route on the map from the departure point to the destination,
With reference to a point indicating the current location on the guide route, a step of determining a direction in which a point that has traveled a predetermined distance from the point according to the guide route exists as a second direction to be followed by a user using the computer. ,
A step of superimposing an object indicating the second direction as a virtual object on the photographed peripheral image, and a step of displaying the object.
Including
The display step displays the virtual object superimposed on the peripheral image when the current location is within a predetermined range from the departure location.
Route guidance method.
経路案内を行う情報処理装置であって、
該情報処理装置の現在地を取得する位置取得部と、
該情報処理装置が備える撮影装置が向いている方向を含む周辺画像を撮影する撮影部と、
出発地から目的地までの地図上における案内ルートを取得する経路取得部と、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該情報処理装置を利用するユーザが進むべき第2方向として決定する決定部と、
前記撮影部で撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示する表示部と、
を有し、
前記表示部は、前記現在地が前記出発地から所定の範囲内である場合に、前記周辺画像の上に前記仮想オブジェクトを重ねて表示する、
情報処理装置。
An information processing device that provides route guidance.
A position acquisition unit that acquires the current location of the information processing device, and
An imaging unit that captures peripheral images including the direction in which the imaging device included in the information processing device is facing, and a photographing unit.
The route acquisition unit that acquires the guidance route on the map from the departure point to the destination, and
With reference to the point indicating the current location on the guide route, the direction in which a point that has advanced a predetermined distance from the point according to the guide route exists is determined as the second direction in which the user using the information processing apparatus should proceed. The decision department and
A display unit that superimposes an object indicating the second direction as a virtual object on the peripheral image captured by the photographing unit, and a display unit.
Have,
The display unit displays the virtual object superimposed on the peripheral image when the current location is within a predetermined range from the departure location.
Information processing equipment.
JP2018076123A 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment Active JP7023775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018076123A JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018076123A JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Publications (2)

Publication Number Publication Date
JP2019184439A JP2019184439A (en) 2019-10-24
JP7023775B2 true JP7023775B2 (en) 2022-02-22

Family

ID=68340801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018076123A Active JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Country Status (1)

Country Link
JP (1) JP7023775B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058402A (en) * 2019-10-07 2021-04-15 株式会社三洋物産 Game machine
JP7290551B2 (en) * 2019-11-18 2023-06-13 ヤフー株式会社 Information processing device, information processing method and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2014020863A (en) 2012-07-17 2014-02-03 Zenrin Datacom Co Ltd Portable navigation device
JP2017173077A (en) 2016-03-23 2017-09-28 株式会社ゼンリンデータコム Map display system, map display method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044309A1 (en) 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2014020863A (en) 2012-07-17 2014-02-03 Zenrin Datacom Co Ltd Portable navigation device
JP2017173077A (en) 2016-03-23 2017-09-28 株式会社ゼンリンデータコム Map display system, map display method, and program

Also Published As

Publication number Publication date
JP2019184439A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
US11692842B2 (en) Augmented reality maps
KR101864814B1 (en) Method and device for providing guidance to street view destination
JP6025433B2 (en) Portable navigation device
CN104848863B (en) Generate the amplification view of location of interest
JP4705170B2 (en) Navigation device and method for scrolling map data displayed on navigation device
US20120026088A1 (en) Handheld device with projected user interface and interactive image
JP2009250827A (en) Navigation device, method, and program
JP4801232B1 (en) Terminal device, image display method and image display program executed by terminal device
US20210102820A1 (en) Transitioning between map view and augmented reality view
US8600677B2 (en) Method for feature recognition in mobile communication terminal
JP2009236844A (en) Navigation device, navigation method, and navigation program
JP2005241385A (en) Destination guiding system and portable terminal system
JP7023775B2 (en) Route guidance program, route guidance method and information processing equipment
WO2022039011A1 (en) Navigation using computer system
JP6680499B2 (en) Route guidance device, route guidance system, route guidance method, and route guidance program
JP5174942B2 (en) Terminal device, image display method and image display program executed by terminal device
JP2008111693A (en) Mobile apparatus and target information retrieval method
JP5036895B2 (en) Terminal device, image display method and image display program executed by terminal device
JP2019002747A (en) Destination specification system
JP2014066595A (en) Navigation apparatus
WO2021019591A1 (en) Path display device
JP2012230115A (en) Terminal device, and image display method and image display program executed by terminal device
JP2013141111A (en) Imaging system
WO2021200187A1 (en) Portable terminal, information processing method, and storage medium
JP2011149957A (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220209

R150 Certificate of patent or registration of utility model

Ref document number: 7023775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150