JP2019184439A - Route guidance program, route guidance method and information processing device - Google Patents

Route guidance program, route guidance method and information processing device Download PDF

Info

Publication number
JP2019184439A
JP2019184439A JP2018076123A JP2018076123A JP2019184439A JP 2019184439 A JP2019184439 A JP 2019184439A JP 2018076123 A JP2018076123 A JP 2018076123A JP 2018076123 A JP2018076123 A JP 2018076123A JP 2019184439 A JP2019184439 A JP 2019184439A
Authority
JP
Japan
Prior art keywords
route
user
point
display
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018076123A
Other languages
Japanese (ja)
Other versions
JP7023775B2 (en
Inventor
友児 福間
Yuji Fukuma
友児 福間
誠一郎 ▲高▼橋
誠一郎 ▲高▼橋
Seiichiro Takahashi
伸朗 西岡
Nobuaki Nishioka
伸朗 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Zenrin Datacom Co Ltd
Original Assignee
NTT Docomo Inc
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc, Zenrin Datacom Co Ltd filed Critical NTT Docomo Inc
Priority to JP2018076123A priority Critical patent/JP7023775B2/en
Publication of JP2019184439A publication Critical patent/JP2019184439A/en
Application granted granted Critical
Publication of JP7023775B2 publication Critical patent/JP7023775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a technique with which it is possible to appropriately indicate to a pedestrian in which direction it would be better to start walking.SOLUTION: Provided is a route guidance program for causing a computer (10) to execute: position acquisition means (112) for acquiring a current location of the computer; imaging means (113) for imaging a peripheral image including a direction in which an imaging device included with the computer faces; direction detection means (114) for detecting a first direction that is a direction in which the imaging device faces on a horizontal plane; route acquisition means (111) for acquiring a guidance route on a map from a starting point to a destination; determination means (115) for determining that a direction in which there exists a point reached by moving forward a prescribed distance from a point, as a point of reference, that indicates the current location on the guidance route in accordance with the guidance route is a second direction that the user utilizing the computer should go forward; and display means (116) for displaying an object, as a virtual object, that indicates the second direction by superimposition on the peripheral image imaged by the imaging means.SELECTED DRAWING: Figure 2

Description

本発明は、経路案内プログラム、経路案内方法及び情報処理装置に関する。   The present invention relates to a route guidance program, a route guidance method, and an information processing apparatus.

現在、出発地から目的地までの経路を検索し、検索した案内ルートをスマートフォン等の画面に表示する、歩行者向けのナビゲーションシステムが提供されている。また、歩行者向けのナビゲーションシステムの中には、単に地図画面に案内ルートを表示するのではなく、AR(Augmented Reality)技術を適用することで、カメラで撮影された外の景色の画像に目的地までの案内ルートを重ねて表示する歩行者ナビゲーションシステムも存在する(例えば特許文献1参照)。   Currently, a navigation system for pedestrians that searches for a route from a departure point to a destination and displays the searched guidance route on a screen of a smartphone or the like is provided. Also, some navigation systems for pedestrians do not simply display the guidance route on the map screen, but apply AR (Augmented Reality) technology to the image of the scenery taken by the camera. There is also a pedestrian navigation system that displays a guide route to the ground in an overlapping manner (see, for example, Patent Document 1).

国際公開第2008/044309号International Publication No. 2008/044309

従来の歩行者ナビゲーションシステムでは、特にナビゲーションを開始する場合に、どの方向に歩き出せばよいのかを地図上に表示された案内ルートを見ながら自分で考える必要があり、分かりにくいという課題があった。また、AR技術を利用した歩行者ナビゲーションシステムであっても、道路の画像と案内ルートがずれて表示されるといったように視認性が悪い場合が多く、ユーザはどの方向に歩き出せばよいのか分かりにくいという課題があった。   The conventional pedestrian navigation system has a problem that it is difficult to understand by looking at the guidance route displayed on the map to determine which direction to start, especially when starting navigation. . Moreover, even in a pedestrian navigation system using AR technology, the visibility is often poor, such as when the road image and the guide route are displayed in a shifted manner, and the user can know which direction to walk. There was a problem that it was difficult.

そこで、本発明は、歩行者向けナビゲーションシステムにおいて、歩行者に対してどの方向に歩き出せばよいのかを適切に示すことが可能な技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique capable of appropriately indicating in which direction the pedestrian should walk in a pedestrian navigation system.

本発明の一態様に係る経路案内プログラムは、コンピュータを、該コンピュータの現在地を取得する位置取得手段と、該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影する撮影手段と、水平面において撮影装置が向いている方向である第1方向を検出する方向検出手段と、出発地から目的地までの地図上における案内ルートを取得する経路取得手段と、案内ルート上で現在地を示す地点を基準として、該地点から案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定する決定手段と、撮影手段で撮影された周辺画像の上に仮想オブジェクトとして第2方向を示すオブジェクトを重ねて表示する表示手段と、して実行させる。   A route guidance program according to an aspect of the present invention includes a computer, a position acquisition unit that acquires the current location of the computer, a shooting unit that captures a peripheral image including a direction in which a shooting device included in the computer is facing, and a horizontal plane. A direction detecting means for detecting a first direction which is a direction in which the photographing apparatus is facing, a route acquiring means for acquiring a guide route on a map from the departure point to the destination, and a point indicating the current location on the guide route As a reference, a determination unit that determines a direction in which a point advanced by a predetermined distance from the point according to the guidance route exists as a second direction in which the user using the computer should proceed, and an upper image of a peripheral image captured by the imaging unit And display means for displaying an object indicating the second direction as a virtual object in a superimposed manner.

本発明によれば、歩行者向けナビゲーションシステムにおいて、歩行者に対してどの方向に歩き出せばよいのかを適切に示すことが可能な技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, in the navigation system for pedestrians, the technique which can show appropriately which direction should walk with respect to a pedestrian can be provided.

携帯端末のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a portable terminal. 携帯端末の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a portable terminal. 携帯端末がAR表示を行う処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in which a portable terminal performs AR display. 周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その1)を説明するための図である。It is a figure for demonstrating the determination conditions (the 1) in the case of displaying the direction which a user should advance on a periphery image. 周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その2)を説明するための図である。It is a figure for demonstrating the determination conditions (the 2) in the case of displaying the direction which a user should advance on a periphery image. 携帯端末に表示する画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a portable terminal.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。   A preferred embodiment of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, what attached | subjected the same code | symbol has the same or similar structure.

<システム構成>
図1を参照して、実施形態における携帯端末(情報処理装置、コンピュータ)のハードウェア構成について説明する。本実施形態では、ユーザが利用する携帯端末10として、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、眼鏡型ウェアラブルデバイス、ナビゲーション装置などを用いることができる。携帯端末10は、例えば、制御部11、通信部12、記憶部13、操作部14、表示部15、センサ16、スピーカ17及びカメラ18を備える。制御部11は、CPU(Central Processing Unit)11aおよびメモリ11bなどをさらに備える。
<System configuration>
With reference to FIG. 1, the hardware configuration of a mobile terminal (information processing apparatus, computer) in the embodiment will be described. In the present embodiment, for example, a mobile phone (including a smartphone), a tablet terminal, a PDA (Personal Digital Assistant), a glasses-type wearable device, a navigation device, or the like can be used as the mobile terminal 10 used by the user. The mobile terminal 10 includes, for example, a control unit 11, a communication unit 12, a storage unit 13, an operation unit 14, a display unit 15, a sensor 16, a speaker 17, and a camera 18. The control unit 11 further includes a CPU (Central Processing Unit) 11a and a memory 11b.

制御部11は、CPU11aが、記憶部13等に記憶されたプログラムをメモリ11bに展開して実行することにより、携帯端末10の各構成要素の動作を制御し、また、各種情報処理の実行を制御する。プログラムとして、例えば、後述する経路案内(ナビゲーション)アプリケーションソフト(以下、「経路案内アプリ」ともいう。)がある。制御部11において実行される情報処理の詳細は後述する。   The control unit 11 controls the operation of each component of the mobile terminal 10 by the CPU 11a expanding and executing the program stored in the storage unit 13 or the like in the memory 11b, and executes various information processing. Control. Examples of the program include route guidance (navigation) application software (hereinafter also referred to as “route guidance application”). Details of the information processing executed in the control unit 11 will be described later.

通信部12は、外部装置と通信するための通信インタフェースである。通信部12は、例えば、外部装置からデータやコマンドを受信するとともに、携帯端末10による情報処理の結果を外部へ送信する。   The communication unit 12 is a communication interface for communicating with an external device. For example, the communication unit 12 receives data and commands from an external device and transmits the result of information processing by the mobile terminal 10 to the outside.

記憶部13は、不揮発性の記憶装置であり、例えば、半導体メモリ等により構成される。記憶部13は、制御部11における情報処理の実行に必要な各種プログラムや各種のデータを記憶する。   The storage unit 13 is a non-volatile storage device, and includes, for example, a semiconductor memory. The storage unit 13 stores various programs and various data necessary for execution of information processing in the control unit 11.

操作部14は、携帯端末10のユーザの指示を受け付け、制御部11へ出力するためのユーザインタフェースである。操作部14は、例えば、タッチパネルや操作キーなどにより構成される。   The operation unit 14 is a user interface for receiving an instruction from the user of the mobile terminal 10 and outputting the instruction to the control unit 11. The operation unit 14 includes, for example, a touch panel and operation keys.

表示部15は、携帯端末10による情報処理結果を表示するためのユーザインタフェースである。表示部15は、液晶、またはLED(Light Emitting Diode)などを用いた表示装置により構成される。   The display unit 15 is a user interface for displaying information processing results by the mobile terminal 10. The display unit 15 is configured by a display device using liquid crystal, LED (Light Emitting Diode), or the like.

センサ16は、各種のセンサにより構成される。センサ16として、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、および気圧センサ等を用いることができる。センサ16は、3軸方向における携帯端末10の向きや加速度、3軸周りの回転角等を検知して出力する。   The sensor 16 is composed of various sensors. As the sensor 16, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, an atmospheric pressure sensor, or the like can be used. The sensor 16 detects and outputs the direction and acceleration of the mobile terminal 10 in the triaxial direction and the rotation angle around the triaxial direction.

スピーカ17は、制御部11による情報処理の制御に応じ、音声、音楽および効果音など、各種の音を出力する。   The speaker 17 outputs various sounds such as voice, music, and sound effects according to control of information processing by the control unit 11.

カメラ18は、制御部11による情報処理の制御に応じ、携帯端末10の周辺画像(周辺の動画像を含む)を撮影する。   The camera 18 captures a peripheral image (including peripheral moving images) of the mobile terminal 10 in accordance with control of information processing by the control unit 11.

図2を参照して、実施形態における携帯端末10の機能構成を説明する。携帯端末10は、機能構成として、例えば、データベース110、経路案内部111、測位部112、撮影部113、方向検出部114、進行方向決定部115及び表示制御部116を有する。これらの機能は、例えば、制御部11において、CPU11aが、記憶部13等に記憶されたプログラム(経路案内アプリ)をメモリ11bに展開して実行することにより実現される。以下に、携帯端末10が備える各機能構成の詳細について説明する。   With reference to FIG. 2, the functional configuration of the mobile terminal 10 in the embodiment will be described. The mobile terminal 10 includes, for example, a database 110, a route guide unit 111, a positioning unit 112, a photographing unit 113, a direction detection unit 114, a traveling direction determination unit 115, and a display control unit 116 as functional configurations. These functions are realized, for example, in the control unit 11 by the CPU 11a developing and executing a program (route guidance application) stored in the storage unit 13 or the like in the memory 11b. Below, the detail of each function structure with which the portable terminal 10 is provided is demonstrated.

データベース110は、携帯端末10において実行される情報処理に必要なデータ、および当該情報処理により生成されたデータなど、各種データを記憶する。   The database 110 stores various data such as data necessary for information processing executed in the mobile terminal 10 and data generated by the information processing.

経路案内部111(経路取得部)は、ユーザにより入力された経路探索条件に従った出発地から目的地までの最適経路(以下、「案内ルート」と言う)の情報を取得し、当該案内ルートを表示部15を介してユーザに提示すること等により、ユーザに対し、経路案内(ナビゲーション)を行う。経路案内は、例えば、経路案内アプリを起動した後に表示されるメニューから、経路案内項目を選択し、経路探索条件を入力して探索した結果得られる案内ルートに従って行われる。   The route guidance unit 111 (route acquisition unit) acquires information on the optimum route (hereinafter referred to as “guidance route”) from the departure point to the destination according to the route search condition input by the user, and the guidance route. Is presented to the user via the display unit 15, and route guidance (navigation) is performed for the user. For example, the route guidance is performed according to a guidance route obtained as a result of searching by selecting a route guidance item from a menu displayed after starting the route guidance application and inputting a route search condition.

案内ルートの探索に関し、経路案内部111は、例えば、ユーザにより入力された経路探索条件に従って、データベース110に記憶された(または通信部12を介して外部装置から取得した)地図データ等を参照し、経路探索を実行することにより、案内ルートの情報を取得する。もしくは、入力された経路探索条件に従った経路探索の処理を外部の情報処理装置側で行い、経路案内部111は、当該経路探索の処理結果(案内ルートの情報)を外部の情報処理装置から取得することとしてもよい。   Regarding the search for the guidance route, the route guidance unit 111 refers to, for example, map data stored in the database 110 (or acquired from an external device via the communication unit 12) according to the route search condition input by the user. Information on the guide route is acquired by executing a route search. Alternatively, a route search process according to the input route search condition is performed on the external information processing apparatus side, and the route guidance unit 111 obtains the result of the route search process (guidance route information) from the external information processing apparatus. It is good also as acquiring.

経路探索の手法としてはラベル確定法やダイクストラ法など、任意の手法を利用することができる。なお、最適な経路とは、出発地点から目的地点までのコスト情報が最小であることをいう。リンクのコスト情報は、距離、所要時間、料金、その他のパラメータ、および各種パラメータを任意に組み合わせたもの等、目的に応じて設定可能である。   As a route search method, an arbitrary method such as a label determination method or a Dijkstra method can be used. The optimal route means that the cost information from the starting point to the destination point is the minimum. The cost information of the link can be set according to the purpose, such as a distance, a required time, a fee, other parameters, and an arbitrary combination of various parameters.

測位部112(位置取得部)は、携帯端末10(または携帯端末10のユーザ)の現在位置(例えば、緯度および経度の情報)を取得して出力する。測位部112は、例えば、携帯端末10にインストールされたOS(オペレーティングシステム)が備えるAPI(Application Programming Inteface)を利用することで、携帯端末10の現在位置を取得するようにしてもよい。   The positioning unit 112 (position acquisition unit) acquires and outputs the current position (for example, latitude and longitude information) of the mobile terminal 10 (or the user of the mobile terminal 10). The positioning unit 112 may acquire the current position of the mobile terminal 10 by using, for example, an API (Application Programming Interface) provided in an OS (operating system) installed in the mobile terminal 10.

撮影部113は、カメラ18(撮影装置)を用いて、カメラ18が向いている方向(カメラ18の光軸方向)を含む周辺画像を撮影する。携帯端末10は、筐体において表示部15が設けられている面の反対側の面(背面)にカメラ18が備えられており、カメラ18で撮影された画像が表示部15に表示される。つまり、ユーザが進行方向にカメラ18を向けると、表示部15には、進行方向の画像が表示されることになる。   The imaging unit 113 uses the camera 18 (imaging device) to capture a peripheral image including the direction in which the camera 18 is facing (the optical axis direction of the camera 18). The mobile terminal 10 includes a camera 18 on a surface (back surface) opposite to the surface on which the display unit 15 is provided in the housing, and an image captured by the camera 18 is displayed on the display unit 15. That is, when the user points the camera 18 in the traveling direction, an image in the traveling direction is displayed on the display unit 15.

方向検出部114は、センサ16に含まれるジャイロセンサ、加速度センサ及び地磁気センサの出力値を組み合わせることで、水平面においてカメラ18が向いている方向(第1方向)を検出する。水平面においてカメラ18が向いている方向は、例えば北方向を基準方向(0度)とした角度で表現されることとしてもよい。本実施形態では、ユーザは、ユーザ自身が向いている方向にカメラ18を向けながら経路案内アプリを利用することを想定している。以下の説明では、水平面においてカメラ18が向いている方向を、便宜上「ユーザが向いている方向」と言う。   The direction detection unit 114 detects the direction (first direction) in which the camera 18 faces in the horizontal plane by combining the output values of the gyro sensor, the acceleration sensor, and the geomagnetic sensor included in the sensor 16. The direction in which the camera 18 faces in the horizontal plane may be expressed by an angle with the north direction as a reference direction (0 degrees), for example. In the present embodiment, it is assumed that the user uses the route guidance application while pointing the camera 18 in the direction in which the user is facing. In the following description, the direction in which the camera 18 is facing on the horizontal plane is referred to as “the direction in which the user is facing” for convenience.

進行方向決定部115は、案内ルート上で現在地を示す地点を基準として、該地点から案内ルートに従って所定の距離進んだ地点が存在する方向を、「ユーザが進むべき方向」(第2方向)として決定する。なお、測位部112が取得する現在位置は、実際には若干の誤差が含まれる可能性がある。従って、案内ルート上で現在地を示す地点とは、より詳細には、案内ルートにおいて携帯端末10の現在地に最も近い地点(すなわち、現在地を案内ルート上にマッチングさせた地点)であってもよい。   The traveling direction determination unit 115 uses, as a reference, a point indicating the current location on the guidance route, and a direction where there is a point that has traveled a predetermined distance from the point according to the guidance route is defined as a “direction in which the user should travel” (second direction). decide. Note that the current position acquired by the positioning unit 112 may actually include some errors. Therefore, the point indicating the current location on the guidance route may be a point closest to the current location of the mobile terminal 10 on the guidance route (that is, a point where the current location is matched with the guidance route).

表示制御部116は、表示部15に表示させる各種情報および画像の表示の制御を行う。例えば、表示制御部116は、地図画像の上に、案内ルートと携帯端末10の現在位置とを表示するように制御する。また、表示制御部116は、撮影部113で撮影された周辺画像の上に、仮想オブジェクトを重ねて表示する。仮想オブジェクトは、例えば、ユーザが進むべき方向を示すオブジェクト等である。   The display control unit 116 controls display of various information and images displayed on the display unit 15. For example, the display control unit 116 controls to display the guidance route and the current position of the mobile terminal 10 on the map image. In addition, the display control unit 116 displays the virtual object on the peripheral image captured by the imaging unit 113 in an overlapping manner. The virtual object is, for example, an object indicating a direction in which the user should proceed.

また、表示制御部116は、方向検出部114で検出されたユーザが向いている方向が、進行方向決定部115で決定されたユーザが進むべき方向や案内ルートに沿った方向と概ね一致している場合に、仮想オブジェクトとして、ユーザが進むべき方向を示すオブジェクトを表示するようにしてもよい。一方、ユーザが向いている方向が、ユーザが進むべき方向や案内ルートに沿った方向と概ね一致しているとはいえない場合(例えば進むべき方向とは逆を向いているような場合)に、仮想オブジェクトとして、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを表示するようにしてもよい。   In addition, the display control unit 116 substantially matches the direction in which the user is detected detected by the direction detection unit 114 with the direction determined by the traveling direction determination unit 115 and the direction along the guidance route. In this case, an object indicating the direction in which the user should proceed may be displayed as a virtual object. On the other hand, when it cannot be said that the direction in which the user is facing generally coincides with the direction in which the user should travel or the direction along the guidance route (for example, when the direction is opposite to the direction in which the user should travel). An object indicating that the user is facing a direction different from the direction in which the user should proceed may be displayed as the virtual object.

また、表示制御部116は、案内ルートにおいて携帯端末10の現在地に最も近い地点と携帯端末10の現在地との距離が、所定の距離を超えた場合、仮想オブジェクトとして、ユーザが案内ルートから外れた場所にいることを示すオブジェクトを表示するようにしてもよい。   Further, the display control unit 116 determines that the user has deviated from the guidance route as a virtual object when the distance between the location closest to the current location of the mobile terminal 10 in the guidance route and the current location of the mobile terminal 10 exceeds a predetermined distance. You may make it display the object which shows that it exists in a place.

また、表示制御部116は、携帯端末10の現在位置が、出発地から所定の範囲(例えば半径25メートルや半径50メートル等)の内側である間、撮影部113で撮影された周辺画像の上に仮想オブジェクトを重ねて表示し続けるようにして、携帯端末10の現在位置が、出発地から所定の範囲の外側に移動した場合は、地図表示のみを行うようにしてもよい。つまり、表示制御部116は、周辺画像の上に仮想オブジェクトを重ねて表示する画面を常に表示部15に表示し続けるのではなく、携帯端末10の現在位置が、出発地から所定の範囲の外側に移動するまでの間に限って、周辺画像の上に仮想オブジェクトを重ねて表示する画面を表示部15に表示するようにしてもよい。   In addition, the display control unit 116 displays the upper image of the peripheral image captured by the imaging unit 113 while the current position of the mobile terminal 10 is inside a predetermined range (for example, a radius of 25 meters or a radius of 50 meters) from the departure place. If the current position of the mobile terminal 10 moves outside the predetermined range from the departure place, only the map display may be performed so that the virtual object is continuously displayed. That is, the display control unit 116 does not always display the screen for displaying the virtual object on the surrounding image on the display unit 15, but the current position of the mobile terminal 10 is outside the predetermined range from the departure place. The screen for displaying the virtual object on the surrounding image may be displayed on the display unit 15 only during the period until it moves to.

また、表示制御部116は、表示部15に、周辺画像の上に仮想オブジェクトを重ねて表示する画面と、案内ルートを重畳した地図画面との両方を表示するようにしてもよい。以下の説明では、周辺画像の上に仮想オブジェクトを重ねて表示することを「AR表示」と呼び、出発地から所定の範囲内(周辺画像の上に仮想オブジェクトを表示し続ける範囲)を「AR表示エリア」と呼ぶ。   In addition, the display control unit 116 may display both a screen on which the virtual object is superimposed on the peripheral image and a map screen on which the guidance route is superimposed on the display unit 15. In the following description, displaying a virtual object superimposed on a peripheral image is referred to as “AR display”, and within a predetermined range from the departure point (a range in which the virtual object is continuously displayed on the peripheral image) is indicated by “AR This is called “display area”.

<処理手順>
図3は、携帯端末10がAR表示を行う処理手順の一例を示すフローチャートである。図3に示すフローチャートは、携帯端末10の経路案内部111が、携帯端末10の現在位置を出発地とした案内ルートの探索を終了し、実際に経路案内を開始した時点で開始される。
<Processing procedure>
FIG. 3 is a flowchart illustrating an example of a processing procedure in which the mobile terminal 10 performs AR display. The flowchart shown in FIG. 3 is started when the route guidance unit 111 of the mobile terminal 10 finishes searching for a guidance route with the current position of the mobile terminal 10 as a departure point and actually starts route guidance.

ステップS101で、測位部112は、携帯端末10の現在位置を取得する。このとき、測位部112は、測定された携帯端末10の現在位置の精度が所定の精度よりも低いか否かを取得するようにしてもよい。携帯端末10の現在位置の精度(誤差)がどの程度であるのかについては、例えば、携帯端末10にインストールされたOSが備えるAPIを用いることで取得することができる。   In step S <b> 101, the positioning unit 112 acquires the current position of the mobile terminal 10. At this time, the positioning unit 112 may acquire whether or not the accuracy of the measured current position of the mobile terminal 10 is lower than a predetermined accuracy. The degree of accuracy (error) of the current position of the mobile terminal 10 can be obtained by using, for example, an API provided in the OS installed in the mobile terminal 10.

ステップS102で、表示制御部116は、携帯端末10の現在位置がAR表示エリア内であるか否かを確認する。現在位置がAR表示エリア外である場合はステップS103の処理手順に進む。現在位置がAR表示エリア内である場合はステップS104の処理手順に進む。なお、表示制御部116は、携帯端末10の現在地がAR表示エリア外に移動した場合であっても、携帯端末10の現在位置の精度が所定の閾値よりも低い場合には、AR表示を継続するようにしてもよい。つまり、表示制御部116は、携帯端末10の現在位置の精度が所定の閾値よりも低い場合、ステップS103の処理手順ではなく、ステップS104の処理手順に進むようにしてもよい。   In step S102, the display control unit 116 checks whether or not the current position of the mobile terminal 10 is within the AR display area. If the current position is outside the AR display area, the process proceeds to step S103. If the current position is within the AR display area, the process proceeds to step S104. Note that the display control unit 116 continues the AR display when the accuracy of the current position of the mobile terminal 10 is lower than a predetermined threshold even when the current location of the mobile terminal 10 moves outside the AR display area. You may make it do. That is, when the accuracy of the current position of the mobile terminal 10 is lower than the predetermined threshold, the display control unit 116 may proceed to the processing procedure of step S104 instead of the processing procedure of step S103.

ステップS103で、表示制御部116はAR表示を終了し、表示部15に地図画面を全面表示する。   In step S103, the display control unit 116 ends the AR display and displays the entire map screen on the display unit 15.

ステップS104で、表示制御部116は、携帯端末10の現在位置が、案内ルート上であるか否かを判定する。測位部112が取得する現在位置には誤差が含まれている可能性があるため、表示制御部116は、現在位置が案内ルートから若干離れている場合であっても、現在位置は案内ルート上であると判断する。具体的には、表示制御部116は、案内ルートにおいて携帯端末10の現在地に最も近い地点と携帯端末10の現在地との距離が、所定の距離以内であるか否かを確認する。所定の距離以内である場合、現在位置は案内ルート上であると判定し、現在位置を、案内ルート上において現在位置に最も近い位置にマッチングさせてからステップS105の処理手順に進む。一方、所定の距離を超えている場合、現在位置は案内ルート上ではない(案内ルートから外れている)と判定し、ステップS108の処理手順に進む。   In step S104, the display control unit 116 determines whether or not the current position of the mobile terminal 10 is on the guidance route. Since there is a possibility that an error is included in the current position acquired by the positioning unit 112, the display control unit 116 may display the current position on the guidance route even when the current position is slightly away from the guidance route. It is judged that. Specifically, the display control unit 116 checks whether or not the distance between the location closest to the current location of the mobile terminal 10 and the current location of the mobile terminal 10 in the guidance route is within a predetermined distance. If it is within the predetermined distance, it is determined that the current position is on the guide route, and the current position is matched with the position closest to the current position on the guide route, and then the process proceeds to step S105. On the other hand, if the distance exceeds the predetermined distance, it is determined that the current position is not on the guidance route (departs from the guidance route), and the process proceeds to step S108.

ステップS105で、表示制御部116は、撮影部113で撮影された周辺画像の上に、ユーザが進むべき方向を示すオブジェクトを表示するか否かを判定する。表示する場合はステップS106の処理手順に進み、表示しない場合はステップS107の処理手順に進む。なお、表示制御部116は、周辺画像の上にユーザが進むべき方向を示すオブジェクトを表示するか否かを、所定の判定条件に基づいて判定する。当該判定条件の詳細については後述する。   In step S <b> 105, the display control unit 116 determines whether or not to display an object indicating the direction in which the user should travel on the peripheral image captured by the imaging unit 113. If so, the process proceeds to step S106. If not, the process proceeds to step S107. Note that the display control unit 116 determines whether or not to display an object indicating the direction in which the user should travel on the surrounding image based on a predetermined determination condition. Details of the determination condition will be described later.

ステップS106の処理手順で、表示制御部116は、周辺画像の上に、ユーザが進むべき方向を示すオブジェクトを重ねて表示する。図6(a)に表示例を示す。携帯端末10の画面は、AR表示を行う表示エリアA200(第1の領域)と、案内ルート及び地図を表示する表示エリアA201(第2の領域)とから構成される。図6(a)の例では、表示エリアA200は画面の上半分を占めており、表示エリアA201は画面の下半分を占めているが、本実施形態はこれに限定されるものではない。例えば、画面の上半分が表示エリアA201であり、画面の下半分が表示エリアA200であるようにしてもよい。   In the processing procedure of step S106, the display control unit 116 displays an object indicating the direction in which the user should travel on the surrounding image. A display example is shown in FIG. The screen of the mobile terminal 10 includes a display area A200 (first area) for displaying AR, and a display area A201 (second area) for displaying a guidance route and a map. In the example of FIG. 6A, the display area A200 occupies the upper half of the screen, and the display area A201 occupies the lower half of the screen, but this embodiment is not limited to this. For example, the upper half of the screen may be the display area A201, and the lower half of the screen may be the display area A200.

オブジェクトX1aは、ユーザが進むべき方向を示す矢印であり、オブジェクトX1bは、ユーザに対するメッセージである。図6(a)の例では、ユーザが向いている方向とユーザが進むべき方向とがほぼ一致しているので、「このまま進んでください」のメッセージを表示している。   The object X1a is an arrow indicating the direction in which the user should proceed, and the object X1b is a message to the user. In the example of FIG. 6A, since the direction in which the user is facing and the direction in which the user should proceed are substantially the same, the message “Please proceed as it is” is displayed.

ステップS107の処理手順で、表示制御部116は、周辺画像の上に、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。図6(b)に表示例を示す。オブジェクトX2aは、ユーザが進むべき方向とは異なる方向を向いていることを示すマークであり、オブジェクトX2bは、ユーザに対するメッセージである。図6(b)の例では、ユーザが向いている方向が、ユーザが進むべき方向とは異なっていることから、「進む方向が違います」のメッセージを表示している。   In the processing procedure of step S107, the display control unit 116 displays an object indicating that the user is facing a direction different from the direction in which the user should travel on the surrounding image. FIG. 6B shows a display example. The object X2a is a mark indicating that the user is facing a direction different from the direction in which the user should proceed, and the object X2b is a message to the user. In the example of FIG. 6B, since the direction in which the user is facing is different from the direction in which the user is to travel, the message “The traveling direction is different” is displayed.

ステップS108の処理手順で、表示制御部116は、周辺画像の上に、ユーザが、案内ルートから外れた場所にいることを示すオブジェクトを重ねて表示する。図6(c)に表示例を示す。オブジェクトX3aは、ユーザが進むべき方向とは異なる方向を向いていることを示すマークであり、オブジェクトX3bは、ユーザに対するメッセージである。図6(c)の例では、「ルートから外れています」のメッセージを表示している。   In the processing procedure of step S108, the display control unit 116 displays an object indicating that the user is outside the guidance route on the surrounding image. A display example is shown in FIG. The object X3a is a mark indicating that the user is facing a direction different from the direction in which the user should proceed, and the object X3b is a message to the user. In the example of FIG. 6C, the message “I am out of route” is displayed.

以上説明したステップS101乃至ステップS108の処理手順は、ステップS103の処理手順にてAR表示が終了するまで繰り返し実行される。   The processing procedure from step S101 to step S108 described above is repeatedly executed until the AR display is completed in the processing procedure of step S103.

続いて、図3のステップS105の処理手順において、周辺画像の上にユーザが進むべき方向を表示する場合(図6(a)に示す画面を表示する場合)の判定条件の詳細を説明する。携帯端末10は、当該判定条件として、以下に示す判定条件(その1)、判定条件(その2)及び判定条件(その3)のうちいずれか1つを実行するようにしてもよい。   Subsequently, in the processing procedure of step S105 in FIG. 3, details of the determination condition when the direction in which the user should proceed is displayed on the peripheral image (when the screen shown in FIG. 6A is displayed) will be described. The portable terminal 10 may execute any one of the following determination conditions (part 1), determination conditions (part 2), and determination conditions (part 3) as the determination conditions.

(判定条件(その1))
図4は、周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その1)を説明するための図である。図4において、地点P1は、案内ルートRにおいて現在地を示す地点である。地点P2は地点P1から案内ルートRに従って所定の距離進んだ地点である。所定の距離はどのような距離であってもよいが、例えば、数メートル程度(1m先、2m先、3m先、4m先など)であってもよい。方向D1は、水平面においてカメラ18が向いている方向(すなわち、ユーザが向いている方向)を示す。方向D2は、地点P1を基準として、地点P1から案内ルートRに従って所定の距離進んだ地点P2が存在する方向(すなわち、ユーザが進むべき方向)を示す。
(Judgment condition (1))
FIG. 4 is a diagram for explaining a determination condition (part 1) when the direction in which the user should proceed is displayed on the peripheral image. In FIG. 4, a point P <b> 1 is a point indicating the current location on the guidance route R. The point P2 is a point advanced from the point P1 by a predetermined distance according to the guide route R. The predetermined distance may be any distance, but may be, for example, about several meters (1 m ahead, 2 m ahead, 3 m ahead, 4 m ahead, etc.). The direction D1 indicates the direction in which the camera 18 is facing in the horizontal plane (that is, the direction in which the user is facing). The direction D2 indicates a direction in which a point P2 that has traveled a predetermined distance from the point P1 according to the guide route R with respect to the point P1 exists (that is, a direction in which the user should travel).

判定条件(その1)では、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2が含まれている場合、周辺画像の上にユーザが進むべき方向を表示する。所定の範囲の方向は、図4の例では、方向D1を基準として左右30度である前提とする。一方、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2が含まれていない場合、ユーザは進むべき方向とは異なる方向を向いていることを表示する。   In the determination condition (part 1), when the direction D2 to be traveled by the user is included in the direction of the predetermined range with respect to the direction D1 to which the user is facing, the direction in which the user should travel is displayed on the peripheral image. indicate. The direction of the predetermined range is assumed to be 30 degrees left and right with respect to the direction D1 in the example of FIG. On the other hand, when the direction D2 to which the user should proceed is not included in the direction of the predetermined range based on the direction D1 to which the user is facing, the user is displayed indicating that he is facing a direction different from the direction to proceed. .

図4(a)のケース、図4(b)のケース及び図4(e)のケースでは、方向D1を基準とした左右30度の方向に、方向D2が含まれている。従って、表示制御部116は、図6(a)に示すように、周辺画像の上にユーザが進むべき方向を示すオブジェクトを重ねて表示する。   In the case of FIG. 4 (a), the case of FIG. 4 (b), and the case of FIG. 4 (e), the direction D2 is included in the direction 30 degrees to the left and right with respect to the direction D1. Therefore, as shown in FIG. 6A, the display control unit 116 superimposes and displays an object indicating the direction in which the user should travel on the surrounding image.

図4(c)のケース及び図4(d)のケースでは、方向D1を基準とした左右30度の方向に、方向D2が含まれていない。従って、表示制御部116は、図6(b)に示すように、周辺画像の上にユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。   In the case of FIG. 4C and the case of FIG. 4D, the direction D2 is not included in the direction 30 degrees left and right with respect to the direction D1. Therefore, as shown in FIG. 6B, the display control unit 116 superimposes and displays an object indicating that the user is facing a direction different from the direction in which the user should proceed on the peripheral image.

(判定条件(その2))
判定条件(その2)では、判定条件(その1)に示す条件に加えて、ユーザが向いている方向D1を基準とした所定の範囲の方向に、案内ルートに沿った方向D3が含まれている場合であっても、周辺画像の上にユーザが進むべき方向を表示する。すなわち、判定部条件(その2)では、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2又は案内ルートに沿った方向D3のいずれかが含まれている場合に、周辺画像の上にユーザが進むべき方向を表示する。一方、ユーザが向いている方向D1を基準とした所定の範囲の方向に、ユーザが進むべき方向D2及び案内ルートに沿った方向D3の両方が含まれていない場合、ユーザは進むべき方向とは異なる方向を向いていることを表示する。
(Judgment condition (2))
In the determination condition (part 2), in addition to the condition shown in the determination condition (part 1), the direction D3 along the guide route is included in the direction of a predetermined range based on the direction D1 the user is facing. Even if it is, the direction which a user should advance is displayed on a surrounding image. That is, in the determination unit condition (No. 2), either the direction D2 that the user should travel or the direction D3 along the guidance route is included in the direction of the predetermined range based on the direction D1 that the user is facing. When the user is present, the direction in which the user should proceed is displayed on the peripheral image. On the other hand, when both the direction D2 that the user should travel and the direction D3 along the guidance route are not included in the direction of the predetermined range with respect to the direction D1 that the user is facing, Show that you are facing in a different direction.

図5は、周辺画像の上にユーザが進むべき方向を表示する場合の判定条件(その2)を説明するための図である。図5において、方向D3は、案内ルートに沿った方向を示している。地点P1、地点P2、方向D1及び方向D2はそれぞれ図4と同一であるため説明は省略する。   FIG. 5 is a diagram for explaining the determination condition (part 2) when the direction in which the user should proceed is displayed on the peripheral image. In FIG. 5, a direction D3 indicates a direction along the guide route. The point P1, the point P2, the direction D1, and the direction D2 are the same as those in FIG.

図5(a)のケース、図5(b)のケース、図5(d)のケース及び図5(e)のケースでは、方向D1を基準とした左右30度の方向に、方向D2及び方向D3のうち少なくとも一方が含まれている。従って、表示制御部116は、図6(a)に示すように、周辺画像の上にユーザが進むべき方向を示すオブジェクトを重ねて表示する。   In the case of FIG. 5 (a), the case of FIG. 5 (b), the case of FIG. 5 (d), and the case of FIG. 5 (e), the direction D2 and the direction in the direction 30 degrees left and right with respect to the direction D1. At least one of D3 is included. Therefore, as shown in FIG. 6A, the display control unit 116 superimposes and displays an object indicating the direction in which the user should travel on the surrounding image.

一方、図5(c)のケースでは、方向D1を基準とした左右30度の方向に、方向D2及び方向D3が含まれていない。従って、表示制御部116は、図6(b)に示すように、周辺画像の上にユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトを重ねて表示する。   On the other hand, in the case of FIG. 5C, the direction D2 and the direction D3 are not included in the direction 30 degrees left and right with respect to the direction D1. Therefore, as shown in FIG. 6B, the display control unit 116 superimposes and displays an object indicating that the user is facing a direction different from the direction in which the user should proceed on the peripheral image.

以上、実施形態について説明した。本実施形態によれば、出発地を基準としたAR表示エリア内において携帯端末10のカメラ18で撮影された周辺画像にユーザが進むべき方向を示すオブジェクトが重ねて表示されることから、ユーザは、ナビゲーションを開始する際に、どの方向に向かって歩き始めればよいのかを直感的かつ確実に把握することが可能になる。これにより、例えば、地下から地上に出たタイミングや自動車から降りたタイミング等でナビゲーションを開始する場合など、どの方向を向いているのか判断がつきにくい場合であっても、自身の周囲をカメラ18で撮影するだけで、歩き始めるべき方向を直感的かつ確実に把握することが可能になる。また、地図を見るのが苦手なユーザであっても、歩き始めるべき方向を直感的かつ確実に把握することが可能になる。   The embodiment has been described above. According to the present embodiment, since the object indicating the direction in which the user should proceed is superimposed on the peripheral image captured by the camera 18 of the mobile terminal 10 in the AR display area based on the departure place, the user can When starting navigation, it is possible to intuitively and surely grasp in which direction to start walking. Thus, for example, even when it is difficult to determine which direction it is facing, such as when navigation starts at the timing of getting out of the ground from the ground or when getting out of the car, the camera 18 By simply shooting with, you can intuitively and reliably grasp the direction to start walking. Further, even a user who is not good at seeing a map can intuitively and surely grasp the direction to start walking.

また、本実施形態によれば、周辺画像に案内ルートを重ねて表示するのではなく、ユーザが進むべき方向を示すオブジェクトを表示するようにした。これにより、周辺画像に案内ルートを重ねて表示するよりも表示内容を簡素化することができ、携帯端末10の処理負荷を軽減することが可能になる。また、ユーザの視点から見ても、周辺画像に案内ルートが重畳されることに伴う視認性の劣化を防止することができる。   Further, according to the present embodiment, an object indicating a direction in which the user should proceed is displayed instead of displaying a guidance route on a surrounding image. As a result, the display content can be simplified as compared to displaying the guidance route on the surrounding image, and the processing load on the mobile terminal 10 can be reduced. In addition, even when viewed from the user's viewpoint, it is possible to prevent deterioration of visibility due to the guidance route being superimposed on the surrounding image.

<変形例>
表示制御部116は、図3のステップS105の処理手順において、所定の判定条件を満たさない状態が所定の時間継続した場合に、ステップS107の処理手順に進むようにしてもよい。例えば、ユーザが向いている方向が図4(a)の状態から図4(c)の状態に変化した場合、表示制御部116は、図4(c)の状態に変化したタイミングで図6(a)の画面から図6(b)の画面に切り替えるのではなく、図4(c)の状態が所定の時間(例えば3秒等)継続した場合に、図6(a)の画面から図6(b)の画面に切り替えるようにしてもよい。これにより、方向検出部114の検出結果が不安定であるような場合に、図6(a)の画面と図6(b)の画面とが頻繁に切り替わってしまい、ユーザの視認性が劣化してしまうことを防止することができる。
<Modification>
The display control unit 116 may proceed to the processing procedure of step S107 when a state in which the predetermined determination condition is not satisfied continues for a predetermined time in the processing procedure of step S105 in FIG. For example, when the direction in which the user is facing changes from the state shown in FIG. 4A to the state shown in FIG. 4C, the display control unit 116 changes to the state shown in FIG. Instead of switching from the screen of a) to the screen of FIG. 6B, when the state of FIG. 4C continues for a predetermined time (for example, 3 seconds), the screen of FIG. You may make it switch to the screen of (b). Thereby, when the detection result of the direction detection unit 114 is unstable, the screen in FIG. 6A and the screen in FIG. 6B are frequently switched, and the visibility of the user is deteriorated. Can be prevented.

判定条件(その1)〜判定条件(その3)における、ユーザが向いている方向を基準とした所定の範囲の方向は、案内ルートの形状に従って変化するようにしてもよい。例えば、現在位置が、案内ルートに存在する曲がり角から所定の距離以内(例えば1m以内でもよいし10m以内でもよい)である場合、所定の範囲を拡大(例えば左右60度等に拡大)又は縮小(例えば左右20度等に縮小)するようにしてもよい。若しくは、案内ルート上の各地点(例えば1mごとの地点など)に、判定条件(その1)〜判定条件(その3)の判定に用いるべき所定の範囲が予め設定されていてもよい。これにより、案内ルートの形状に応じて、ユーザが進むべき方向を示すオブジェクトが表示され易くするのか否かを、案内ルートの形状に応じて柔軟に制御することが可能になる。   In the determination condition (part 1) to the determination condition (part 3), the direction in a predetermined range based on the direction in which the user is facing may be changed according to the shape of the guide route. For example, when the current position is within a predetermined distance (for example, within 1 m or within 10 m) from a corner existing in the guide route, the predetermined range is expanded (for example, expanded to 60 degrees on the left and right, etc.) or reduced ( For example, it may be reduced to 20 degrees on the left and right. Or the predetermined range which should be used for determination of the determination conditions (the 1)-the determination conditions (the 3) may be preset at each point (for example, a point for every 1 m) on the guidance route. This makes it possible to flexibly control whether or not an object indicating the direction in which the user should proceed is easily displayed according to the shape of the guidance route according to the shape of the guidance route.

表示制御部116は、図3のステップS103の処理手順においてAR表示を終了した場合、周辺画像の上に案内ルートを重ねて表示するようにしてもよい。例えば、図6(c)に示す画面の表示エリアA200において、オブジェクトX3a及びオブジェクトX3bを消去した後、案内ルートを周辺画像に重ねて表示するようにしてもよい。   When the AR display is terminated in the processing procedure of step S103 in FIG. 3, the display control unit 116 may display the guidance route on the surrounding image. For example, in the display area A200 of the screen shown in FIG. 6C, after deleting the object X3a and the object X3b, the guidance route may be displayed so as to overlap the surrounding image.

表示制御部116は、画面全体にAR表示を行うようにしてもよい。例えば図6(a)〜図6(c)に示す画面において、表示エリアA201を表示せずに、表示エリアA200を画面全体に表示するようにしてもよい。   The display control unit 116 may perform AR display on the entire screen. For example, in the screens shown in FIGS. 6A to 6C, the display area A200 may be displayed on the entire screen without displaying the display area A201.

表示制御部116は、AR表示を行っている間、AR表示の内容に応じた音声案内を行うようにしてもよい。例えば、図6(a)に示す画面を表示している間、スピーカ17から「このままお進みください」との音声案内を出力し、図6(b)に示す画面を表示している間、スピーカ17から「進む方向が違います」との音声案内を出力し、図6(c)に示す画面を表示している間、スピーカ17から「ルートから外れています」との音声案内を出力するようにしてもよい。この場合、表示制御部116を「制御部」と称してもよい。   The display control unit 116 may perform voice guidance according to the content of the AR display while performing the AR display. For example, while the screen shown in FIG. 6A is displayed, a voice guidance “Proceed as it is” is output from the speaker 17, and while the screen shown in FIG. 6B is displayed, the speaker A voice guidance saying “The direction of travel is different” is output from the speaker 17, and while the screen shown in FIG. 6C is displayed, a voice guidance saying “I am off the route” is output from the speaker 17. It may be. In this case, the display control unit 116 may be referred to as a “control unit”.

表示制御部116は、携帯端末10が縦向きである場合に、図6(a)〜図6(c)に示すAR表示を行うようにして、携帯端末10が横向きである場合はAR表示を行わずに、案内ルート及び地図を画面全体に表示するようにしてもよい。   The display control unit 116 performs the AR display shown in FIGS. 6A to 6C when the mobile terminal 10 is in the vertical orientation, and displays the AR display when the mobile terminal 10 is in the horizontal orientation. You may make it display a guidance route and a map on the whole screen, without performing.

表示制御部116は、必ずしも、ユーザが進むべき方向とは異なる方向を向いていることを示すオブジェクトX2a、及び/又は、案内ルートから外れた場所にいることを示すオブジェクトX3aを表示しなくてもよい。例えば、表示制御部116は、ユーザが向いている方向に関わらず、ユーザが進むべき方向を示すオブジェクトX1aを表示するようにしてもよい。   The display control unit 116 does not necessarily have to display the object X2a indicating that the user is facing a direction different from the direction in which the user should travel and / or the object X3a indicating that the user is away from the guidance route. Good. For example, the display control unit 116 may display the object X1a indicating the direction in which the user should travel regardless of the direction in which the user is facing.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態で説明したフローチャート、シーケンス、実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。   The embodiments described above are for facilitating the understanding of the present invention, and are not intended to limit the present invention. The flowcharts, sequences, and elements included in the embodiments, and the arrangement, materials, conditions, shapes, sizes, and the like included in the embodiments are not limited to those illustrated, but can be changed as appropriate. In addition, the structures shown in different embodiments can be partially replaced or combined.

なお、本実施形態において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されてもよい。また、「部」を「手段」に置き換えることも可能である。   In the present embodiment, the “unit” does not simply mean a physical means, but includes a case where the function of the “unit” is realized by software. Also, even if the functions of one “unit” or device are realized by two or more physical means or devices, the functions of two or more “units” or devices are realized by one physical means or device. May be. It is also possible to replace “part” with “means”.

10…携帯端末、11…制御部、11a…CPU、11b…メモリ、12…通信部、13…記憶部、14…操作部、15…表示部、16…センサ、17…スピーカ、18…カメラ、110…データベース、111…経路案内部、112…測位部、113…撮影部、114…方向検出部、115…進行方向決定部、116…表示制御部   DESCRIPTION OF SYMBOLS 10 ... Portable terminal, 11 ... Control part, 11a ... CPU, 11b ... Memory, 12 ... Communication part, 13 ... Memory | storage part, 14 ... Operation part, 15 ... Display part, 16 ... Sensor, 17 ... Speaker, 18 ... Camera, DESCRIPTION OF SYMBOLS 110 ... Database, 111 ... Route guidance part, 112 ... Positioning part, 113 ... Imaging | photography part, 114 ... Direction detection part, 115 ... Travel direction determination part, 116 ... Display control part

Claims (9)

コンピュータを、
該コンピュータの現在地を取得する位置取得手段と、
該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影する撮影手段と、
出発地から目的地までの地図上における案内ルートを取得する経路取得手段と、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定する決定手段と、
前記撮影手段で撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示する表示手段と、
して実行させる、経路案内プログラム。
Computer
Position acquisition means for acquiring the current location of the computer;
Photographing means for photographing a peripheral image including a direction in which a photographing device provided in the computer is facing;
Route acquisition means for acquiring a guide route on the map from the departure point to the destination;
A determining unit that determines, as a second direction in which a user using the computer is to travel, a direction in which a point that is a predetermined distance away from the point according to the guide route exists on the guide route as a reference When,
Display means for displaying an object indicating the second direction as a virtual object superimposed on the peripheral image photographed by the photographing means;
Route guidance program to be executed.
水平面において前記撮影装置が向いている方向である第1方向を検出する方向検出手段、を更に有し、
前記表示手段は、
前記第1方向を基準とした所定の範囲の方向に、前記第2方向が含まれる場合、前記仮想オブジェクトとして前記第2方向を示すオブジェクトを表示し、
前記第1方向を基準とした前記所定の範囲の方向に前記第2方向が含まれない場合、前記仮想オブジェクトとして、前記ユーザが、前記ユーザが進むべき方向を向いていないことを示すオブジェクトを表示する、
請求項1に記載の経路案内プログラム。
Direction detection means for detecting a first direction that is a direction in which the photographing apparatus is facing in a horizontal plane;
The display means includes
When the second direction is included in the direction of the predetermined range with respect to the first direction, an object indicating the second direction is displayed as the virtual object,
When the second direction is not included in the direction of the predetermined range based on the first direction, an object indicating that the user is not facing the direction in which the user should proceed is displayed as the virtual object. To
The route guidance program according to claim 1.
水平面において前記撮影装置が向いている方向である第1方向を検出する方向検出手段、を更に有し、
前記表示手段は、
前記第1方向を基準とした所定の範囲の方向に、前記第2方向又は前記案内ルートに沿った方向が含まれる場合、前記仮想オブジェクトとして前記第2方向を示すオブジェクトを表示し、
前記第1方向を基準とした前記所定の範囲の方向に、前記第2方向及び前記案内ルートに沿った方向が含まれない場合、前記仮想オブジェクトとして、前記ユーザが、前記ユーザが進むべき方向を向いていないことを示すオブジェクトを表示する、
請求項1に記載の経路案内プログラム。
Direction detection means for detecting a first direction that is a direction in which the photographing apparatus is facing in a horizontal plane;
The display means includes
When the direction of the predetermined range based on the first direction includes the second direction or the direction along the guide route, an object indicating the second direction is displayed as the virtual object,
When the direction of the predetermined range with respect to the first direction does not include the second direction and the direction along the guide route, the virtual object is set as a direction in which the user should proceed. Display an object indicating that it is not suitable,
The route guidance program according to claim 1.
前記表示手段は、前記案内ルート上で前記現在地に最も近い地点と前記現在地との距離が、所定の距離を超えた場合、前記仮想オブジェクトとして、前記ユーザが前記案内ルートから外れた場所にいることを示すオブジェクトを表示する、
請求項1乃至3のいずれか一項に記載の経路案内プログラム。
The display means, when a distance between a point closest to the current location on the guidance route and the current location exceeds a predetermined distance, the user is at a place off the guidance route as the virtual object. Display an object that indicates
The route guidance program according to any one of claims 1 to 3.
前記表示手段は、前記現在地が前記出発地から所定の範囲内である場合に、前記周辺画像の上に前記仮想オブジェクトを重ねて表示し続ける、
請求項1乃至4のいずれか一項に記載の経路案内プログラム。
The display means continues to display the virtual object superimposed on the surrounding image when the current location is within a predetermined range from the departure location.
The route guidance program according to any one of claims 1 to 4.
前記位置取得手段は、測定される現在位置の精度が所定の精度よりも低いか否かを取得し、
前記表示手段は、前記現在地が前記出発地から前記所定の範囲の外に移動した場合であっても、前記精度が所定の閾値よりも低い場合には、前記周辺画像の上に前記仮想オブジェクトを重ねて表示し続ける、
請求項5に記載の経路案内プログラム。
The position acquisition means acquires whether or not the accuracy of the current position to be measured is lower than a predetermined accuracy,
The display means displays the virtual object on the surrounding image when the accuracy is lower than a predetermined threshold even when the current location moves out of the predetermined range from the departure location. Keep displaying overlaid,
The route guidance program according to claim 5.
前記表示手段は、第1の領域に前記周辺画像の上に前記仮想オブジェクトを重ねて表示し、第2の領域に前記案内ルート及び地図を表示する、
請求項1乃至6のいずれか一項に記載の経路案内プログラム。
The display means displays the virtual object superimposed on the peripheral image in a first area, and displays the guidance route and map in a second area.
The route guidance program according to any one of claims 1 to 6.
コンピュータが実行する経路案内方法であって、
該コンピュータの現在地を取得するステップと、
該コンピュータが備える撮影装置が向いている方向を含む周辺画像を撮影するステップと、
出発地から目的地までの地図上における案内ルートを取得するステップと、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該コンピュータを利用するユーザが進むべき第2方向として決定するステップと、
撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示するステップと、
を含む経路案内方法。
A route guidance method executed by a computer,
Obtaining the current location of the computer;
Photographing a peripheral image including a direction in which a photographing apparatus included in the computer is facing;
Obtaining a guide route on the map from the starting point to the destination;
Determining, as a second direction to be followed by a user using the computer, a direction in which a point that is a predetermined distance away from the point according to the guide route exists on the guide route indicating the current location as a reference; ,
Superimposing and displaying an object indicating the second direction as a virtual object on the captured peripheral image;
Route guidance method including
経路案内を行う情報処理装置であって、
該情報処理装置の現在地を取得する位置取得部と、
該情報処理装置が備える撮影装置が向いている方向を含む周辺画像を撮影する撮影部と、
出発地から目的地までの地図上における案内ルートを取得する経路取得部と、
前記案内ルート上で前記現在地を示す地点を基準として、該地点から前記案内ルートに従って所定の距離進んだ地点が存在する方向を、該情報処理装置を利用するユーザが進むべき第2方向として決定する決定部と、
前記撮影部で撮影された前記周辺画像の上に仮想オブジェクトとして前記第2方向を示すオブジェクトを重ねて表示する表示部と、
を有する、情報処理装置。
An information processing apparatus that provides route guidance,
A position acquisition unit for acquiring the current location of the information processing apparatus;
An imaging unit that captures a peripheral image including a direction in which the imaging device included in the information processing apparatus is facing;
A route acquisition unit that acquires a guide route on a map from the departure point to the destination;
Based on a point indicating the current location on the guide route, a direction in which a point that is advanced a predetermined distance from the point according to the guide route exists is determined as a second direction in which the user using the information processing apparatus should go A decision unit;
A display unit that overlays and displays an object indicating the second direction as a virtual object on the peripheral image captured by the imaging unit;
An information processing apparatus.
JP2018076123A 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment Active JP7023775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018076123A JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018076123A JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Publications (2)

Publication Number Publication Date
JP2019184439A true JP2019184439A (en) 2019-10-24
JP7023775B2 JP7023775B2 (en) 2022-02-22

Family

ID=68340801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018076123A Active JP7023775B2 (en) 2018-04-11 2018-04-11 Route guidance program, route guidance method and information processing equipment

Country Status (1)

Country Link
JP (1) JP7023775B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081278A (en) * 2019-11-18 2021-05-27 ヤフー株式会社 Information processing device, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044309A1 (en) * 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2014020863A (en) * 2012-07-17 2014-02-03 Zenrin Datacom Co Ltd Portable navigation device
JP2017173077A (en) * 2016-03-23 2017-09-28 株式会社ゼンリンデータコム Map display system, map display method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044309A1 (en) * 2006-10-13 2008-04-17 Navitime Japan Co., Ltd. Navigation system, mobile terminal device, and route guiding method
JP2014020863A (en) * 2012-07-17 2014-02-03 Zenrin Datacom Co Ltd Portable navigation device
JP2017173077A (en) * 2016-03-23 2017-09-28 株式会社ゼンリンデータコム Map display system, map display method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081278A (en) * 2019-11-18 2021-05-27 ヤフー株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP7023775B2 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
JP6025433B2 (en) Portable navigation device
KR101864814B1 (en) Method and device for providing guidance to street view destination
JP5897791B2 (en) User terminal device, position providing method thereof, and route guidance method thereof
JP6176541B2 (en) Information display device, information display method, and program
JP2009250827A (en) Navigation device, method, and program
JP4801232B1 (en) Terminal device, image display method and image display program executed by terminal device
JP2011094992A (en) Navigation device, navigation method and navigation program
JP2009236844A (en) Navigation device, navigation method, and navigation program
US9329050B2 (en) Electronic device with object indication function and an object indicating method thereof
JP2009237945A (en) Moving image information collection system and vehicle-mounted device
JP2008293280A (en) Traffic light detection device, traffic light detection method, and program
JP2019184439A (en) Route guidance program, route guidance method and information processing device
RU2375756C2 (en) Navigation device with information received from camera
JP2012032339A (en) Digital camera
JP2023075236A (en) Locus display device
JP6828934B1 (en) Navigation devices, navigation systems, navigation methods, navigation programs
JP5174942B2 (en) Terminal device, image display method and image display program executed by terminal device
JP2007263849A (en) Navigation device
JP2019002747A (en) Destination specification system
JP2008111693A (en) Mobile apparatus and target information retrieval method
JP2008157680A (en) Navigation apparatus
JP2014066595A (en) Navigation apparatus
JP5036895B2 (en) Terminal device, image display method and image display program executed by terminal device
JP2017067457A (en) Route guidance device, route guidance system, route guidance method and route guidance program
JP6523353B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220209

R150 Certificate of patent or registration of utility model

Ref document number: 7023775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150