JP2010216815A - Navigation system, navigation device, and navigation method - Google Patents

Navigation system, navigation device, and navigation method Download PDF

Info

Publication number
JP2010216815A
JP2010216815A JP2009060546A JP2009060546A JP2010216815A JP 2010216815 A JP2010216815 A JP 2010216815A JP 2009060546 A JP2009060546 A JP 2009060546A JP 2009060546 A JP2009060546 A JP 2009060546A JP 2010216815 A JP2010216815 A JP 2010216815A
Authority
JP
Japan
Prior art keywords
feature information
navigation
information
guidance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009060546A
Other languages
Japanese (ja)
Other versions
JP4376962B1 (en
Inventor
Hisafumi Yoshida
尚史 吉田
Shuichi Kurabayashi
修一 倉林
Takanori Takano
孝典 鷹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keeper Smith LLP
Original Assignee
Keeper Smith LLP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keeper Smith LLP filed Critical Keeper Smith LLP
Priority to JP2009060546A priority Critical patent/JP4376962B1/en
Application granted granted Critical
Publication of JP4376962B1 publication Critical patent/JP4376962B1/en
Publication of JP2010216815A publication Critical patent/JP2010216815A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform guidance by efficient navigation by the use of a mobile terminal. <P>SOLUTION: This navigation system includes an information providing device and a navigation device. The information providing device includes various pieces of information on a plurality of objects which are possible landmarks for guidance by navigation, selects objects locatable in places up to a destination appropriately in response to a request by the navigation device, and provides information on the selected objects to the navigation device. Moreover, the navigation device obtains information on objects locatable between the position of its user up to the destination, by detecting the user's position by using a sensor such as a GPS, and outputting the detected position to the information providing device. Based on information on objects photographed with the camera of the navigation device, and information on objects obtained from the information providing device, the navigation device creates information for performing guidance by navigation, and displays the information on a display screen of the navigation device. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本願は、移動端末を用いたナビゲーションシステム、ナビゲーション装置およびその方法に関する。   The present application relates to a navigation system, a navigation apparatus and a method using a mobile terminal.

例えば,非特許文献1,2は、データベースなどのデバイスを動的に接続し、指定された情報をリアルタイムにユーザに提供するアクティブ・メタレベルシステムを開示する。
しかしながら、非特許文献1,2は、移動端末を用いたナビゲーションシステム、ナビゲーション装置およびその方法を開示せず、示唆すらしていない。
For example, Non-Patent Documents 1 and 2 disclose active metalevel systems that dynamically connect devices such as databases and provide specified information to users in real time.
However, Non-Patent Documents 1 and 2 do not disclose or even suggest a navigation system, a navigation apparatus and a method using a mobile terminal.

倉林修一, 石橋直樹, 清木康: "モバイル・コンピューティング環境におけるアクティブ型マルチデータベースシステムの実現方式", 情報処理学会研究報告 2000-DBS-122, 2000, 463-470.Shuichi Kurabayashi, Naoki Ishibashi, Yasushi Kiyoki: "Realization of an active multi-database system in mobile computing environments", IPSJ SIG 2000-DBS-122, 2000, 463-470. Shuichi Kurabayashi, Naoki Ishibashi, Yasushi Kiyoki: A Multidatabase System Architecture for Integrating Heterogeneous Databases with Meta-Level Active Rule Primitives. In Proceedings of the 20th IASTED International Conference on Applied Informatics, 2002, 378-387.Shuichi Kurabayashi, Naoki Ishibashi, Yasushi Kiyoki: A Multidatabase System Architecture for Integrating Heterogeneous Databases with Meta-Level Active Rule Primitives.In Proceedings of the 20th IASTED International Conference on Applied Informatics, 2002, 378-387.

本願開示のナビゲーション装置は、上記背景からなされたものであって、その1つの実施形態は、ナビゲーションの対象となる範囲内で撮影された全ての画像の内、ナビゲーションによる誘導の開始位置から誘導の目的地までの誘導の目印となり得る物体の全ての位置、撮影方向およびこれらの物体の画像の特徴を示す第1の特徴情報を用いて、ナビゲーションを行うナビゲーション装置であって、周囲に存在する物体の画像を撮影するカメラと、前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジックと、前記選択された第1の特徴情報と、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスとを有する。   The navigation device disclosed in the present application has been made from the above background, and one embodiment of the navigation device is that the navigation is performed from the start position of navigation by navigation among all images taken within the range to be navigated. A navigation device that performs navigation using first feature information indicating all positions, photographing directions, and image characteristics of these objects that can serve as landmarks for guidance to a destination, the objects existing around Of the first feature information, a second feature information generation logic for generating second feature information indicating the feature of the image obtained by the shooting, and the generated first feature information. 2 based on the first feature information selection logic for selecting one of the closest feature information, the selected first feature information, and the second feature information. The navigation device detects, based on the direction detection logic for detecting the shooting direction of the object indicated by the second feature information by the camera, the selected first feature information, and the detected shooting direction. A guidance direction determination logic that determines a guidance direction indicating a direction to the destination at an existing position; a display device that displays the captured image; and an image indicating the guidance direction.

[サマリー]
以下、本願開示のナビゲーションシステムの1つの実施形態の概要を説明する。
ただし、以下の説明は、本願開示事項の理解を助けることのみを目的とし、その技術的範囲の限定を目的としていない。
本願開示のナビゲーションシステムは、情報提供装置とナビゲーション装置とを有し、ユーザを所望の目的地へと誘導する。
本願開示の情報提供装置は、ナビゲーションによる誘導の目印となりうる建物などの複数の物体についての様々な情報を有する。
また、本願開示の情報提供装置は、ナビゲーション装置の要求に応じて、複数の物体のうちから、目的地までに存在しうる物体を適切に選択し、選択された物体についての情報を、ナビゲーション装置に提供する。
本願開示のナビゲーション装置は、GPSなどのセンサを用いて、ユーザの位置を検出し、検出された位置を、本願開示の情報提供装置に対して出力することにより、その位置から目的地までに存在しうる物体についての情報を取得する。
また、本願開示のナビゲーション装置は、ナビゲーション装置のカメラにより撮影した物体についての情報と、情報提供装置から取得した物体についての情報とに基づいて、ナビゲーションによる誘導のための情報を生成する。
さらに、本願開示のナビゲーション装置は、生成された情報を、ナビゲーション装置の表示画面に表示させて、ナビゲーションによる誘導を実現する。
[summary]
The outline of one embodiment of the navigation system disclosed herein will be described below.
However, the following description is only for the purpose of helping understanding of the present disclosure, and is not intended to limit the technical scope thereof.
The navigation system disclosed herein includes an information providing device and a navigation device, and guides the user to a desired destination.
The information providing apparatus disclosed in the present application has various pieces of information about a plurality of objects such as buildings that can serve as a guide for navigation.
Further, the information providing apparatus disclosed in the present application appropriately selects an object that can exist up to a destination from a plurality of objects in response to a request from the navigation apparatus, and transmits information about the selected object to the navigation apparatus. To provide.
The navigation device disclosed in the present application detects the position of the user using a sensor such as GPS, and outputs the detected position to the information providing device disclosed in the present application. Get information about possible objects.
Further, the navigation device disclosed in the present application generates information for guidance by navigation based on information about an object photographed by the camera of the navigation device and information about an object acquired from the information providing device.
Furthermore, the navigation device disclosed in the present application displays the generated information on the display screen of the navigation device, thereby realizing navigation guidance.

本願の開示事項が適用されるナビゲーションシステムの構成を例示する図である。It is a figure which illustrates the structure of the navigation system to which the disclosed matter of this application is applied. 図1に示した移動端末のハードウェア構成を例示する図であるIt is a figure which illustrates the hardware constitutions of the mobile terminal shown in FIG. 図1に示したサーバ装置のハードウェア構成を例示する図である。It is a figure which illustrates the hardware constitutions of the server apparatus shown in FIG. 図1,図2に示した移動端末において実行される端末プログラムを例示する図である。It is a figure which illustrates the terminal program run in the mobile terminal shown in FIG. 1, FIG. 図2に示した出力デバイスの表示画面に出力される誘導方向表示画面を例示する図である。It is a figure which illustrates the guidance direction display screen output on the display screen of the output device shown in FIG. 図2に示した出力デバイスの表示画面に出力される経路履歴画面を例示する図である。It is a figure which illustrates the path | route log | history screen output on the display screen of the output device shown in FIG. 図1,図3に示したサーバ装置において実行されるサーバプログラムを例示する図である。It is a figure which illustrates the server program performed in the server apparatus shown in FIG. 1, FIG. 図1に示したナビゲーションシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the navigation system shown in FIG.

[ナビゲーションシステム1]
以下、本願開示事項が適用されるナビゲーションシステム1を説明する。
図1は、本願の開示事項が適用されるナビゲーションシステム1の構成を例示する図である。
図1に示すように、ナビゲーションシステム1は、移動端末2−1〜2−n、移動端末2−1〜2−nとの間で無線回線を介したデータ伝送を行う基地局102−1〜102−n、および、サーバ装置4が、有線および無線通信の両方に対応したネットワーク100を介して接続されて構成される。
[Navigation system 1]
Hereinafter, the navigation system 1 to which the present disclosure is applied will be described.
FIG. 1 is a diagram illustrating a configuration of a navigation system 1 to which the disclosed matter of the present application is applied.
As shown in FIG. 1, the navigation system 1 includes base stations 102-1 to 102-1 that perform data transmission via mobile stations 2-1 to 2-n and mobile terminals 2-1 to 2-n. 102-n and the server apparatus 4 are connected and configured through a network 100 that supports both wired and wireless communication.

なお、nは1以上の整数を示すが、すべてのnが常に同じ数を示すとは限らない。
また、以下、移動端末2−1〜2−nなど、複数ある構成部分のいずれか1つ以上を特定せずに示すときには、単に移動端末2などと略記することがある。
また、移動端末2、基地局102およびサーバ装置4など、情報通信および情報処理の主体となりうる構成部分を、ノードと総称することがある。
また、以下、各図において実質的に同じ構成部分には同じ符号が付される。
In addition, although n shows an integer greater than or equal to 1, not all n always shows the same number.
In addition, hereinafter, when one or more of a plurality of constituent parts such as the mobile terminals 2-1 to 2-n are indicated without being specified, they may be simply abbreviated as the mobile terminal 2 or the like.
In addition, components such as the mobile terminal 2, the base station 102, and the server device 4 that can be the subject of information communication and information processing may be collectively referred to as nodes.
In the following, substantially the same components are denoted by the same reference numerals in the drawings.

[ハードウェア構成]
以下、ナビゲーションシステム1の各ノードのハードウェア構成を説明する。
図2は、図1に示した移動端末2のハードウェア構成を例示する図である。
図2に示すように、移動端末2は、無線通信回線または有線通信回線を介してネットワーク100と接続される通信装置120、データ処理部14およびGPSデバイス160から構成される。
データ処理部14は、CPU140、メモリ142、記録媒体154に対するデータの読み書きを行う記録媒体インタフェースなどのCPU周辺装置144、テンキーの入力ボタンなどの入力デバイス146、液晶表示画面などの出力デバイス148、および、カメ
ラ150などから構成される。
GPSデバイス160は、GPS用人工衛星104(図1)からの電波信号を受信し、移動端末2の位置(緯度・経度)を検出する。
つまり、移動端末2は、位置の検出、情報処理および情報通信を行うことができる一般的なコンピュータとしての構成部分を有している。
[Hardware configuration]
Hereinafter, the hardware configuration of each node of the navigation system 1 will be described.
FIG. 2 is a diagram illustrating a hardware configuration of the mobile terminal 2 illustrated in FIG.
As shown in FIG. 2, the mobile terminal 2 includes a communication device 120, a data processing unit 14, and a GPS device 160 that are connected to the network 100 via a wireless communication line or a wired communication line.
The data processing unit 14 includes a CPU 140, a memory 142, a CPU peripheral device 144 such as a recording medium interface for reading and writing data to and from the recording medium 154, an input device 146 such as a numeric keypad input button, an output device 148 such as a liquid crystal display screen, and the like. The camera 150 and the like.
The GPS device 160 receives a radio signal from the GPS artificial satellite 104 (FIG. 1), and detects the position (latitude / longitude) of the mobile terminal 2.
That is, the mobile terminal 2 has a configuration part as a general computer that can perform position detection, information processing, and information communication.

図3は、図1に示したサーバ装置4のハードウェア構成を示す図である。
図3に示すように、サーバ装置4は、通信装置120、CPU140、メモリ142、入力デバイス146、出力デバイス148およびHDD・CD装置などの記録媒体154に対してデータの記録を行う記録装置152から構成される。
つまり、サーバ装置4は、情報処理および情報通信が可能な一般的なコンピュータとしての構成部分を有している。
FIG. 3 is a diagram illustrating a hardware configuration of the server device 4 illustrated in FIG. 1.
As shown in FIG. 3, the server device 4 includes a communication device 120, a CPU 140, a memory 142, an input device 146, an output device 148, and a recording device 152 that records data on a recording medium 154 such as an HDD / CD device. Composed.
That is, the server device 4 has a configuration part as a general computer capable of information processing and information communication.

[ソフトウェア]
以下、ナビゲーションシステム1の各ノードにおいて実行されるソフトウェア(プログラム)を説明する。
[software]
Hereinafter, software (program) executed in each node of the navigation system 1 will be described.

[端末プログラム20]
まず、移動端末2において実行される端末プログラム20を説明する。
図4は、図1,図2に示した移動端末2において実行される端末プログラム20を示す図である。
図4に示すように、端末プログラム20は、ユーザインタフェース(UI)部200、通信処理部202、目的地設定部204、地図情報データベース(DB)206、位置検出部208、経路履歴DB210、情報取得部212、情報DB214、画像生成部216、画像特徴抽出部218、特徴情報選択部220、方向検出部222、誘導方向決定部224、経路履歴生成部226、表示部228、付加情報受入部230から構成される。
端末プログラム20は、例えば、メモリ142(図2)に記憶されて移動端末2(図1)に供給され、必要に応じて移動端末2にインストールされたOS(図示せず)上で、移動端末2のハードウェア資源を、具体的に利用して実行される(以下のプログラムについても同様である)。
端末プログラム20は、これらの構成部分により、カメラ150(図2)で撮影された画像の情報と、サーバ装置4(図1)から取得した情報とを用いて、ナビゲーションによる誘導を実現する。
[Terminal program 20]
First, the terminal program 20 executed in the mobile terminal 2 will be described.
FIG. 4 is a diagram showing a terminal program 20 executed in the mobile terminal 2 shown in FIGS.
As shown in FIG. 4, the terminal program 20 includes a user interface (UI) unit 200, a communication processing unit 202, a destination setting unit 204, a map information database (DB) 206, a position detection unit 208, a route history DB 210, and information acquisition. Unit 212, information DB 214, image generation unit 216, image feature extraction unit 218, feature information selection unit 220, direction detection unit 222, guidance direction determination unit 224, route history generation unit 226, display unit 228, additional information reception unit 230 Composed.
The terminal program 20 is stored in the memory 142 (FIG. 2) and supplied to the mobile terminal 2 (FIG. 1), for example, on an OS (not shown) installed in the mobile terminal 2 as necessary. The second hardware resource is specifically used and executed (the same applies to the following programs).
The terminal program 20 uses these components to realize navigation guidance using information on an image captured by the camera 150 (FIG. 2) and information acquired from the server device 4 (FIG. 1).

UI部200は、例えば、出力デバイス148(図2)の表示装置に対して、ナビゲーションを行うために必要な操作を促すGUI(Graphical User interface)画像(図示せず)を表示する。
また、UI部200は、表示したGUI画像に応じて、ユーザがナビゲーションによる誘導を受けるために入力した操作を、入力デバイス146から受け入れ、受け入れた操作を、端末プログラム20の各構成部分に対して出力する。
また、UI部200は、表示部222からユーザの操作に応じて生成されたナビゲーション画面を受け入れて、出力デバイス148の表示画面にナビゲーション画面を表示させる。
The UI unit 200 displays, for example, a GUI (Graphical User interface) image (not shown) that prompts an operation necessary for navigation on the display device of the output device 148 (FIG. 2).
Also, the UI unit 200 accepts an operation input by the user for receiving guidance by navigation in accordance with the displayed GUI image from the input device 146, and accepts the accepted operation for each component of the terminal program 20. Output.
In addition, the UI unit 200 accepts a navigation screen generated according to a user operation from the display unit 222 and displays the navigation screen on the display screen of the output device 148.

通信処理部202は、移動端末2と、ネットワーク100を介したサーバ装置4との情報通信のための処理を行う。
目的地設定部204は、UI部200を介して入力されたナビゲーションによる誘導の目的地を示す位置(緯度・経度)を受け入れて、通信処理部202を介してサーバ装置4(図1)に対して出力する。
また、目的地設定部204は、入力された目的地を示す位置を、誘導方向決定部224
および経路履歴生成部226から参照可能に記憶する。
地図情報DB206は、ナビゲーションのために用いられ、道路および建物の位置を示す地図情報を、誘導方向決定部224および経路履歴生成部226から参照可能に記憶する。
なお、地図情報DB206は、地図情報を、通信処理部202を介して、サーバ装置4(図1)から取得してもよい。
The communication processing unit 202 performs processing for information communication between the mobile terminal 2 and the server device 4 via the network 100.
The destination setting unit 204 receives the position (latitude / longitude) indicating the destination of navigation guidance input via the UI unit 200, and sends it to the server device 4 (FIG. 1) via the communication processing unit 202. Output.
In addition, the destination setting unit 204 sets a position indicating the input destination as a guidance direction determination unit 224.
And stored so that it can be referred to from the route history generation unit 226.
The map information DB 206 is used for navigation, and stores map information indicating the positions of roads and buildings so that they can be referred to from the guidance direction determination unit 224 and the route history generation unit 226.
Note that the map information DB 206 may acquire map information from the server device 4 (FIG. 1) via the communication processing unit 202.

位置検出部208は、ナビゲーションによる誘導のために、ユーザがカメラ150(図2)により周囲の画像を撮影する操作に応じて、撮影時の移動端末2の位置を、GPSデバイス160(図2)により検出する。
なお、GPSデバイス160が、GPS用人工衛星104(図1)からの電波信号を受信できないときは、位置検出部208は、方向センサや加速度センサ(図示せず)を駆動して、移動端末2の位置を検出することもできる。
位置検出部208は、検出された位置を画像の撮影位置として、撮影された時間とともに経路履歴DB210に記憶させる。
また、位置検出部208は、画像の撮影位置を、情報取得部212、特徴情報選択部220、および、誘導方向決定部224に対して出力する。
また、位置検出部208は、移動端末2の位置を定期的に検出し、検出した位置を、経路履歴として経路履歴DB210に記憶させる。
The position detection unit 208 determines the position of the mobile terminal 2 at the time of shooting according to an operation of shooting a surrounding image with the camera 150 (FIG. 2) for guidance by navigation, and the GPS device 160 (FIG. 2). To detect.
When the GPS device 160 cannot receive a radio wave signal from the GPS artificial satellite 104 (FIG. 1), the position detection unit 208 drives a direction sensor or an acceleration sensor (not shown) to move the mobile terminal 2. The position of can also be detected.
The position detection unit 208 stores the detected position in the route history DB 210 as a shooting position of the image together with the shooting time.
In addition, the position detection unit 208 outputs the shooting position of the image to the information acquisition unit 212, the feature information selection unit 220, and the guidance direction determination unit 224.
Further, the position detection unit 208 periodically detects the position of the mobile terminal 2 and stores the detected position in the route history DB 210 as a route history.

経路履歴DB210は、位置検出部208から入力された画像の撮影位置と撮影された時間と経路履歴とを、経路履歴生成部226から参照可能に記憶する。
情報取得部212は、位置検出部208から入力された移動端末2の位置を受け入れて、受け入れた位置と、受け入れた位置から目的地の位置までに存在し、誘導の目印となりうる1つ以上の物体の特徴情報の選択要求とを、通信処理部202を介してサーバ装置4(図1)に対して出力する(図1A)。
物体特徴情報は、例えば、物体(お店、建物、駅など)の位置およびその付加情報と、物体が撮影された方向と、その物体の画像特徴情報とを示す。
物体の画像特徴情報は、例えば、画像の変化点(建物の外観、窓、ドアなどを示すエッジ)、平均色相、彩度、輝度ヒストグラムを計算することにより求められる。
物体の付加情報は、例えば、お店の営業時間や建物に対するユーザのコメントなどを示す。
The route history DB 210 stores the shooting position of the image input from the position detection unit 208, the shooting time, and the route history so that the route history generation unit 226 can refer to the shooting history.
The information acquisition unit 212 receives the position of the mobile terminal 2 input from the position detection unit 208, and is present between the received position and the received position to the destination position, and can be one or more guide signs An object feature information selection request is output to the server device 4 (FIG. 1) via the communication processing unit 202 (FIG. 1A).
The object feature information indicates, for example, the position of the object (shop, building, station, etc.) and its additional information, the direction in which the object was photographed, and the image feature information of the object.
The image feature information of the object is obtained, for example, by calculating a change point of the image (an edge indicating the appearance of a building, a window, a door, etc.), an average hue, a saturation, and a luminance histogram.
The additional information of the object indicates, for example, the business hours of the store, the user's comment on the building, and the like.

また、情報取得部212は、選択要求に応じてサーバ装置4から返された目的地までの物体特徴情報を、情報DB214に記憶させる。
情報DB214は、サーバ装置4から返された1つ以上の物体特徴情報を、特徴情報選択部220から参照可能に記憶する。
画像生成部216は、ユーザがカメラ150(図2)により周囲の物体の画像を撮影する操作に応じて、撮影された物体の画像データ(以下、単に「撮影画像」と記述する)を生成する。
また、画像生成部216は、生成された撮影画像を、画像特徴抽出部218および誘導方向決定部224に対して出力する。
In addition, the information acquisition unit 212 causes the information DB 214 to store the object feature information up to the destination returned from the server device 4 in response to the selection request.
The information DB 214 stores one or more object feature information returned from the server device 4 so that the feature information selection unit 220 can refer to it.
The image generation unit 216 generates image data of a captured object (hereinafter simply referred to as “captured image”) in response to an operation in which the user captures an image of a surrounding object with the camera 150 (FIG. 2). .
Further, the image generation unit 216 outputs the generated captured image to the image feature extraction unit 218 and the guidance direction determination unit 224.

画像特徴抽出部218は、画像生成部216から入力された撮影画像を受け入れて、撮影画像の特徴情報を抽出する。
また、画像特徴抽出部218は、抽出された撮影画像の特徴情報を、特徴情報選択部220および方向検出部222に対して出力する。
特徴情報選択部220は、情報DB214に記憶された1つ以上の物体特徴情報のうち、各物体特徴情報に含まれる物体の位置が、位置検出部208により入力された位置から所定の範囲内(例えば、半径30m以内)にある物体特徴情報(以下、「周辺物体特徴情報」と記述する)を選択する。
さらに、特徴情報選択部220は、周辺物体特徴情報それぞれと、画像特徴抽出部218から入力された撮影画像の特徴情報とを比較して、周辺物体特徴情報のうち、撮影画像の特徴情報と最も近いいずれかを選択する。
The image feature extraction unit 218 accepts the captured image input from the image generation unit 216 and extracts feature information of the captured image.
Further, the image feature extraction unit 218 outputs the extracted feature information of the captured image to the feature information selection unit 220 and the direction detection unit 222.
The feature information selection unit 220 has a position of an object included in each piece of object feature information in one or more pieces of object feature information stored in the information DB 214 within a predetermined range from the position input by the position detection unit 208 ( For example, object feature information within a radius of 30 m) (hereinafter referred to as “peripheral object feature information”) is selected.
Further, the feature information selection unit 220 compares each of the surrounding object feature information with the feature information of the photographed image input from the image feature extraction unit 218, and among the feature information of the surrounding object, Choose one that is close.

具体的には、例えば、特徴情報選択部220は、周辺物体特徴情報それぞれに含まれる画像の変化点と、撮影画像の変化点とがどの程度類似しているかを示す類似度を計算し、最も類似度が高い周辺物体特徴情報のいずれかを選択する。
また、特徴情報選択部220は、選択された物体特徴情報を、方向検出部222誘導方向決定部224、および、付加情報受入部230に対して出力する。
方向検出部222は、画像特徴抽出部218から入力された撮影画像の特徴情報および特徴情報選択部220から入力された物体特徴情報を受け入れて、受け入れた情報を用いて、撮影画像の撮影方向を検出する。
Specifically, for example, the feature information selection unit 220 calculates a similarity indicating how similar the change point of the image included in each of the peripheral object feature information and the change point of the captured image is, One of the peripheral object feature information having a high similarity is selected.
The feature information selection unit 220 outputs the selected object feature information to the direction detection unit 222 guidance direction determination unit 224 and the additional information reception unit 230.
The direction detection unit 222 accepts the feature information of the photographed image input from the image feature extraction unit 218 and the object feature information input from the feature information selection unit 220, and uses the received information to determine the photographing direction of the photographed image. To detect.

具体的には、例えば、方向検出部222は、物体特徴情報に含まれる画像の変化点と、撮影画像の変化点との差分から、撮影画像の傾きを計算する。
さらに、方向検出部222は、撮影画像の傾きと、物体特徴情報に含まれる物体の撮影方向とに基づいて、撮影画像の撮影方向を検出する。
撮影方向は、ユーザがどのような位置から撮影画像を撮影しているか、つまり、ユーザの撮影方向を示す。
また、方向検出部222は、検出されたユーザの撮影方向を、誘導方向決定部224に対して出力する。
Specifically, for example, the direction detection unit 222 calculates the inclination of the captured image from the difference between the change point of the image included in the object feature information and the change point of the captured image.
Furthermore, the direction detection unit 222 detects the shooting direction of the shot image based on the tilt of the shot image and the shooting direction of the object included in the object feature information.
The shooting direction indicates from which position the user is shooting the shot image, that is, the shooting direction of the user.
In addition, the direction detection unit 222 outputs the detected shooting direction of the user to the guidance direction determination unit 224.

誘導方向決定部224は、位置検出部208から入力された検出位置と、特徴情報選択部220から入力された物体特徴情報と、方向検出部222から入力されたユーザの撮影方向と、目的地設定部204から入力された目的地の位置と、地図情報DB206に記憶された地図情報とに基づいて、誘導方向を決定する。
具体的には、例えば、誘導方向決定部224は、検出位置または物体特徴情報に含まれる物体の位置と、目的地の位置と、地図情報とに基づいて、ユーザが次に進むべき道を選択する。
誘導方向決定部224は、さらに、ユーザの撮影方向と、選択された道とに基づいて、次に進むべき道をどの方向に進むべきかを示す誘導方向を決定する。
The guidance direction determination unit 224 includes the detection position input from the position detection unit 208, the object feature information input from the feature information selection unit 220, the shooting direction of the user input from the direction detection unit 222, and the destination setting. The guidance direction is determined based on the position of the destination input from the unit 204 and the map information stored in the map information DB 206.
Specifically, for example, the guidance direction determination unit 224 selects the road on which the user should proceed based on the detected position or the position of the object included in the object feature information, the position of the destination, and the map information. To do.
The guidance direction determination unit 224 further determines a guidance direction indicating which direction to follow the next road to be traveled based on the shooting direction of the user and the selected road.

誘導方向決定部224は、さらに、画像生成部216から入力された撮影画像に、決定された誘導方向を付加して、誘導方向表示画像を生成する(図5を参照して後述)。
また、誘導方向決定部224は、特徴情報選択部220から入力された物体特徴情報に付加情報が含まれているときは、誘導方向表示画像に、さらにその付加情報を示してもよい。
また、誘導方向決定部224は、生成された誘導方向表示画像を、表示部228に対して出力する。
経路履歴生成部226は、経路履歴DB210が記憶する撮影画像の位置などと、目的地設定部204から入力された目的地と、地図情報DB206に記憶された地図情報とに基づいて、経路履歴画像を生成する。
具体的には、例えば、経路履歴生成部226は、ユーザからの要求に応じて、これまでの撮影画像の位置と、それぞれの画像が撮影された時間と、経路履歴とを、経路履歴DB210から取得する。
The guide direction determination unit 224 further generates a guide direction display image by adding the determined guide direction to the captured image input from the image generation unit 216 (described later with reference to FIG. 5).
In addition, when the object feature information input from the feature information selection unit 220 includes additional information, the guidance direction determination unit 224 may further indicate the additional information in the guidance direction display image.
In addition, the guidance direction determination unit 224 outputs the generated guidance direction display image to the display unit 228.
The route history generation unit 226 uses the route history image based on the position of the captured image stored in the route history DB 210, the destination input from the destination setting unit 204, and the map information stored in the map information DB 206. Is generated.
Specifically, for example, in response to a request from the user, the route history generation unit 226 obtains the position of the captured image so far, the time when each image was captured, and the route history from the route history DB 210. get.

また、経路履歴生成部226は、経路履歴の表示に利用されうる地図情報を、地図情報DB206から取得する。
また、経路履歴生成部226は、地図情報に基づいて、地図画像を生成する。
さらに、経路履歴生成部226は、地図画像上の撮影位置に対応する場所に撮影位置アイコンと撮影時間を付加し、目的地に対応する場所に目的地アイコンを付加し、これまでにたどった経路を示す破線の矢印を付加して、経路履歴画像を生成する(図6を参照して後述)。
さらに、経路履歴生成部226は、生成した経路履歴画像を、表示部228に対して出力する。
In addition, the route history generation unit 226 acquires map information that can be used to display the route history from the map information DB 206.
Further, the route history generation unit 226 generates a map image based on the map information.
Further, the route history generation unit 226 adds a shooting position icon and a shooting time to a location corresponding to the shooting position on the map image, adds a destination icon to a location corresponding to the destination, and has followed the route taken so far. Is added to generate a route history image (described later with reference to FIG. 6).
Further, the route history generation unit 226 outputs the generated route history image to the display unit 228.

表示部228は、誘導方向決定部224から入力された誘導方向表示画像を受け入れて、受け入れた画像を、UI部を介して、出力デバイス148(図2)の表示画面に出力させる(以下、表示された画面を「誘導方向表示画面」と記述する)。
また、表示部228は、経路履歴生成部226から入力された経路履歴画像を受け入れて、受け入れた画像を、UI部200を介して、出力デバイス148の表示画面に出力させる(以下、表示された画面を「経路履歴画面」と記述する)。
付加情報受入部230は、特徴情報選択部220から入力された物体特徴情報に対応する物体の付加情報を、UI部200を介して、ユーザから受け入れて、受け入れた付加情報を、通信処理部202を介して、サーバ装置4(図1)に対して出力する。
The display unit 228 receives the guidance direction display image input from the guidance direction determination unit 224, and causes the received image to be output to the display screen of the output device 148 (FIG. 2) via the UI unit (hereinafter referred to as display). The written screen is described as a “guidance direction display screen”).
In addition, the display unit 228 receives the route history image input from the route history generation unit 226 and outputs the received image to the display screen of the output device 148 via the UI unit 200 (hereinafter, the displayed image is displayed). The screen is described as a “route history screen”).
The additional information receiving unit 230 receives additional information of the object corresponding to the object feature information input from the feature information selecting unit 220 from the user via the UI unit 200, and receives the received additional information as the communication processing unit 202. To the server device 4 (FIG. 1).

[誘導方向表示画面]
以下、出力デバイス148(図2)の表示画面に出力される誘導方向表示画面を説明する。
図5は、出力デバイス148の表示画面に出力される誘導方向表示画面を例示する図である。
図5に示すように、誘導方向表示画面は、撮影画像300、誘導方向矢印302、付加情報304から構成される。
撮影画像300は、画像生成部216により、ナビゲーションによる誘導に用いるために生成される。
[Guidance direction display screen]
Hereinafter, the guidance direction display screen output to the display screen of the output device 148 (FIG. 2) will be described.
FIG. 5 is a diagram illustrating a guide direction display screen output on the display screen of the output device 148.
As shown in FIG. 5, the guidance direction display screen includes a captured image 300, a guidance direction arrow 302, and additional information 304.
The captured image 300 is generated by the image generation unit 216 for use in navigation guidance.

誘導方向矢印302は、誘導方向決定部224により決定された誘導方向を示し、誘導方向決定部224により、撮影画像300に付加される。
例えば、図5(A)に示すように、撮影画像に含まれる建物から右へ進むときには、撮影画像300に、右方向を示す誘導方向矢印302が付加される。
また、図5(B)に示すように、撮影画像に含まれる建物の右側の道を奥へと進むときには、撮影画像300に、奥方向を示す誘導方向矢印302が付加される。
付加情報304は、特徴情報選択部220により選択された物体特徴情報に含まれているときに、誘導方向決定部224により、撮影画像300に付加される。
例えば、図5に示すように、付加情報304は、誘導方向決定部224により、「5Fのお店は24時まで開いています」や「1Fロビーで待ち合わせ」と吹き出しで示されて、撮影画像300に付加される。
A guidance direction arrow 302 indicates the guidance direction determined by the guidance direction determination unit 224, and is added to the captured image 300 by the guidance direction determination unit 224.
For example, as illustrated in FIG. 5A, when going right from a building included in the captured image, a guidance direction arrow 302 indicating the right direction is added to the captured image 300.
Further, as shown in FIG. 5B, when the road on the right side of the building included in the photographed image goes forward, a guidance direction arrow 302 indicating the depth direction is added to the photographed image 300.
When the additional information 304 is included in the object feature information selected by the feature information selection unit 220, the additional information 304 is added to the captured image 300 by the guidance direction determination unit 224.
For example, as illustrated in FIG. 5, the additional information 304 is indicated by the guidance direction determination unit 224 in a balloon indicating that “the shop on 5F is open until 24:00” or “waiting in the 1F lobby”. 300.

[経路履歴画面]
以下、出力デバイス148(図2)の表示画面に出力される経路履歴画面を説明する。
図6は、出力デバイス148の表示画面に出力される経路履歴画面を例示する図である。
図6に示すように、経路履歴画面は、地図画像312、開始位置アイコン314、目的地アイコン316、撮影位置アイコン318、経路表示320、撮影時間322から構成される。
地図画像312は、経路履歴生成部226(図4)により、地図情報に基づいて生成される
[Route history screen]
Hereinafter, the route history screen output on the display screen of the output device 148 (FIG. 2) will be described.
FIG. 6 is a diagram illustrating a route history screen output on the display screen of the output device 148.
As shown in FIG. 6, the route history screen includes a map image 312, a start position icon 314, a destination icon 316, a shooting position icon 318, a route display 320, and a shooting time 322.
The map image 312 is generated based on the map information by the route history generation unit 226 (FIG. 4).

開始位置アイコン314は、経路履歴生成部226により、地図画像上の撮影位置に対
応する場所のうち、一番古い時間に撮影された位置に対応する場所に付加される。
目的地アイコン316は、経路履歴生成部226により、地図画像上の目的地に対応する場所に付加される。
撮影位置アイコン318は、経路履歴生成部226により、地図画像上の撮影位置に対応するそれぞれの場所に付加される。
経路表示320は、経路履歴生成部226により、地図画像上にこれまでたどった経路を示す破線の矢印として付加される。
撮影時間322は、経路履歴生成部226により、地図画像上の撮影位置に対応するそれぞれの場所に付加される。
The start position icon 314 is added by the route history generation unit 226 to a place corresponding to the position taken at the oldest time among the places corresponding to the taken positions on the map image.
The destination icon 316 is added to a place corresponding to the destination on the map image by the route history generation unit 226.
The shooting position icon 318 is added by the route history generation unit 226 to each location corresponding to the shooting position on the map image.
The route display 320 is added by the route history generation unit 226 as a dashed arrow indicating a route traced so far on the map image.
The shooting time 322 is added by the route history generation unit 226 to each location corresponding to the shooting position on the map image.

[サーバプログラム40]
以下、図1に示したサーバ装置4において実行されるサーバプログラム40を説明する。
図7は、図1に示したサーバ装置4において実行されるサーバプログラム40を示す図である。
図7に示すように、サーバプログラム40は、UI部200、通信処理部202、目的地DB400、物体特徴DB402、特徴情報提供部404、特徴情報選択部406から構成される。
サーバプログラム40は、これらの構成部分により、ナビゲーションによる誘導に利用されうる情報を、移動端末2(図1)の要求に応じて適切に選択し、移動端末2へ提供する。
[Server program 40]
Hereinafter, the server program 40 executed in the server device 4 shown in FIG. 1 will be described.
FIG. 7 is a diagram showing a server program 40 executed in the server device 4 shown in FIG.
As shown in FIG. 7, the server program 40 includes a UI unit 200, a communication processing unit 202, a destination DB 400, an object feature DB 402, a feature information providing unit 404, and a feature information selecting unit 406.
With these components, the server program 40 appropriately selects information that can be used for guidance by navigation in response to a request from the mobile terminal 2 (FIG. 1), and provides the mobile terminal 2 with the information.

目的地DB400は、通信処理部202を介して移動端末2から入力された目的地を示す位置を、特徴情報選択部406から参照可能に記憶する。
物体特徴DB402は、ナビゲーションの対象となる全ての範囲内で撮影され、ナビゲーションによる誘導に利用されうる全ての物体の特徴情報を、UI部200または通信処理部202を介して外部から受け入れ、特徴情報選択部406から参照可能に記憶する。
また、物体特徴DB402は、物体の付加情報を、通信処理部202を介して、任意の移動端末2(図1)から受け入れ、受け入れた付加情報を、対応する物体特徴情報に付加して、特徴情報選択部406から参照可能に記憶する。
特徴情報提供部404は、通信処理部202を介して、移動端末2から入力された位置と、その位置から目的地までに存在しうる1つ以上の物体特徴情報の選択要求とを受け入れて、受け入れた位置と選択要求とを、特徴情報選択部406に対して出力する。
The destination DB 400 stores the position indicating the destination input from the mobile terminal 2 via the communication processing unit 202 so that the feature information selection unit 406 can refer to the position.
The object feature DB 402 captures feature information of all objects that are photographed within the entire range to be navigated and can be used for navigation guidance from the outside via the UI unit 200 or the communication processing unit 202, and feature information. The information is stored so that it can be referred to from the selection unit 406.
Further, the object feature DB 402 accepts additional information of an object from an arbitrary mobile terminal 2 (FIG. 1) via the communication processing unit 202, adds the received additional information to the corresponding object feature information, and features The information is stored so that it can be referred to from the information selection unit 406.
The feature information providing unit 404 receives a position input from the mobile terminal 2 via the communication processing unit 202 and a selection request for one or more object feature information that may exist from the position to the destination. The received position and the selection request are output to the feature information selection unit 406.

また、特徴情報提供部404は、選択要求に応じて特徴情報選択部406から返された1つ以上の物体特徴情報を受け入れて、通信処理部202を介して、移動端末2に対して出力する(図1B)。
なお、移動端末2に対して出力する物体特徴情報に含まれる画像の特徴情報のサイズは、画像1枚当たり数バイト〜数十バイトなので、現在のネットワーク環境において、サーバ装置4は、数百枚の画像の特徴情報を、移動端末2に対して送信することができる。
特徴情報選択部406は、特徴情報提供部404から入力された位置と選択要求とを受け入れて、目的地DB400に記憶された目的地と、物体特徴DB402に記憶された物体特徴情報とを参照して、選択要求に応じた物体特徴情報を選択する。
具体的には、例えば、特徴情報選択部406は、移動端末2が存在する緯度・経度から目的地の緯度・経度までに含まれうる緯度・経度に位置する全ての物体の特徴情報を選択する。
Also, the feature information providing unit 404 accepts one or more object feature information returned from the feature information selecting unit 406 in response to the selection request, and outputs it to the mobile terminal 2 via the communication processing unit 202. (FIG. 1B).
Since the size of the image feature information included in the object feature information output to the mobile terminal 2 is several bytes to several tens of bytes per image, the server device 4 has several hundred images in the current network environment. Image feature information can be transmitted to the mobile terminal 2.
The feature information selection unit 406 accepts the position and selection request input from the feature information provision unit 404, and refers to the destination stored in the destination DB 400 and the object feature information stored in the object feature DB 402. Then, the object feature information corresponding to the selection request is selected.
Specifically, for example, the feature information selection unit 406 selects feature information of all objects located at latitude / longitude that can be included from the latitude / longitude where the mobile terminal 2 exists to the latitude / longitude of the destination. .

[ナビゲーションシステム1の第1の動作例]
以下、ナビゲーションシステム1の第1の動作例を説明する。
図8は、図1に示したナビゲーションシステム1の第1の動作を示すフローチャートで
ある。
図8に示すように、ステップ100(S100)において、移動端末2において端末プログラム20(図4)が起動され、サーバ装置4においてサーバプログラム40(図7)が起動されると、端末プログラム20の目的地設定部204は、ユーザから入力された目的地を示す位置を受け入れて、通信処理部202を介して、サーバプログラム40の目的地DB400に記憶させる。
[First Operation Example of Navigation System 1]
Hereinafter, a first operation example of the navigation system 1 will be described.
FIG. 8 is a flowchart showing a first operation of the navigation system 1 shown in FIG.
As shown in FIG. 8, when the terminal program 20 (FIG. 4) is started in the mobile terminal 2 and the server program 40 (FIG. 7) is started in the server device 4 in step 100 (S100), the terminal program 20 The destination setting unit 204 accepts the position indicating the destination input by the user and stores it in the destination DB 400 of the server program 40 via the communication processing unit 202.

ステップ102(S102)において、画像生成部216は、ユーザがカメラ150(図2)により周囲に存在する物体を撮影する操作を行った否かを判断する。
端末プログラム20は、操作を行ったときにはS104の処理に進み、これ以外のときには、S102の処理に留まる。
ステップ104(S104)において、画像生成部216は、ユーザのカメラ操作に応じて撮影された画像を生成する。
さらに、画像生成部216は、生成された撮影画像の特徴情報を抽出する。
In step 102 (S102), the image generation unit 216 determines whether or not the user has performed an operation of photographing an object existing around the camera 150 (FIG. 2).
The terminal program 20 proceeds to the process of S104 when the operation is performed, and stays in the process of S102 otherwise.
In step 104 (S104), the image generation unit 216 generates an image photographed according to the user's camera operation.
Further, the image generation unit 216 extracts feature information of the generated captured image.

ステップ106(S106)において、位置検出部208は、GPSデバイス160(図2)などにより、移動端末2の位置を検出する。
ステップ108(S108)において、情報取得部212は、S106において
検出された位置と、その位置から目的地までに存在しうる1つ以上の物体特徴情報の選択要求を、通信処理部202を介して、サーバプログラム40の特徴提供部404に対して出力する(図1A)。
さらに、情報取得部212は、この要求に応じて特徴情報選択部406により選択された物体特徴情報を、通信処理部202を介して取得する(図1B)。
In step 106 (S106), the position detection unit 208 detects the position of the mobile terminal 2 using the GPS device 160 (FIG. 2) or the like.
In step 108 (S108), the information acquisition unit 212 sends, via the communication processing unit 202, a selection request for the position detected in S106 and one or more object feature information that may exist from the position to the destination. And output to the feature providing unit 404 of the server program 40 (FIG. 1A).
Further, the information acquisition unit 212 acquires the object feature information selected by the feature information selection unit 406 in response to this request via the communication processing unit 202 (FIG. 1B).

ステップ110(S110)において、情報取得部212は、S108において受け取った物体特徴情報が1つ以上存在するか否かを判断する。
端末プログラム20は、物体特徴情報が1つ以上存在するときにはS112の処理に進み、これ以外のときには、S124の処理に進み、移動端末2の位置から目的地までに物体特徴情報が存在しない旨のエラーを出力デバイス148(図2)に表示する処理を行い、S102の処理に戻る。
ステップ112(S112)において、特徴情報選択部220は、S108において取得した1つ以上の物体特徴情報のうち、各物体特徴情報に含まれる位置が、S106において検出された位置から所定の範囲内にある物体特徴情報を選択する。
さらに、特徴情報選択部220は、選択された物体特徴情報それぞれと、S104において抽出された撮影画像の特徴情報との類似度を計算する。
In step 110 (S110), the information acquisition unit 212 determines whether one or more object feature information received in S108 exists.
The terminal program 20 proceeds to the process of S112 when one or more object feature information exists, and proceeds to the process of S124 otherwise, indicating that there is no object feature information from the position of the mobile terminal 2 to the destination. Processing for displaying an error on the output device 148 (FIG. 2) is performed, and the processing returns to S102.
In step 112 (S112), the feature information selection unit 220 determines that the position included in each object feature information among the one or more pieces of object feature information acquired in S108 is within a predetermined range from the position detected in S106. Certain object feature information is selected.
Further, the feature information selection unit 220 calculates the similarity between each of the selected object feature information and the feature information of the captured image extracted in S104.

ステップ114(S114)において、特徴情報選択部220は、S112において計算した類似度が所定の閾値以上の物体特徴情報が存在する否かを判断する。
端末プログラム20は、存在するときには、S116の処理に進み、これ以外のときには、S124の処理に進み、S104において抽出された撮影画像の特徴情報に類似する物体特徴情報が存在しない旨のエラーを、表示デバイス148(図2)に出力する処理を行い、S102の処理に戻る。
ステップ116(S116)において、特徴情報選択部220は、S112において計算した類似度のうち、最も類似度が高い物体特徴情報を選択する。
ステップ118(S118)において、付加情報受入部230は、S116において選択された物体特徴情報に対応する物体の付加情報を、ユーザから受け入れて、受け入れた付加情報を、通信処理部202を介して、サーバプログラム40(図7)の物体特徴DB402に記憶させる。
In step 114 (S114), the feature information selection unit 220 determines whether or not there is object feature information whose similarity calculated in S112 is equal to or greater than a predetermined threshold.
If the terminal program 20 exists, the process proceeds to S116. Otherwise, the terminal program 20 proceeds to S124, and an error indicating that there is no object feature information similar to the feature information of the photographed image extracted in S104. A process of outputting to the display device 148 (FIG. 2) is performed, and the process returns to S102.
In step 116 (S116), the feature information selection unit 220 selects object feature information having the highest similarity among the similarities calculated in S112.
In step 118 (S118), the additional information receiving unit 230 receives additional information of the object corresponding to the object feature information selected in S116 from the user, and receives the received additional information via the communication processing unit 202. It is stored in the object feature DB 402 of the server program 40 (FIG. 7).

ステップ120(S120)において、方向検出部222は、S116において選択さ
れた物体特徴情報と、S104において抽出された撮影画像の特徴情報とに基づいて、撮影画像の傾きを計算する。
さらに、方向検出部222は、計算された撮影画像の傾きと、S116において選択された物体特徴情報に含まれる撮影方向とに基づいて、S104において生成された撮影画像の撮影方向を検出する。
ステップ122(S122)において、誘導方向決定部224は、S106において検出された位置またはS116において選択された物体特徴情報に含まれる位置と、目的地の位置と、地図情報とに基づいて、ユーザが次に進むべき道を選択する。
さらに、誘導方向決定部224は、S120において検出された撮影方向と、選択された道とに基づいて、誘導方向を決定し、S104において生成された撮影画像に誘導方向を付加して、誘導方向表示画像を生成する(図5)。
In step 120 (S120), the direction detection unit 222 calculates the inclination of the captured image based on the object feature information selected in S116 and the captured image feature information extracted in S104.
Further, the direction detection unit 222 detects the shooting direction of the shot image generated in S104 based on the calculated tilt of the shot image and the shooting direction included in the object feature information selected in S116.
In step 122 (S122), the guidance direction determination unit 224 determines whether the user has detected the position detected in S106 or the position included in the object feature information selected in S116, the position of the destination, and the map information. Choose the way to go next.
Furthermore, the guidance direction determination unit 224 determines a guidance direction based on the imaging direction detected in S120 and the selected road, adds the guidance direction to the captured image generated in S104, and guides the guidance direction. A display image is generated (FIG. 5).

ステップ126(S126)において、表示部228は、S122において生成された誘導方向表示画像を、UI部200を介して、出力デバイス148(図2)に対して出力する。
ステップ128(S128)において、端末プログラム20は、UI部200を介して、ユーザから目的地到着などによりナビゲーションを終了する要求がなされたか否かを判断する。
端末プログラム20は、要求がなされたときには、処理を終了し、これ以外のときには、S102の処理に戻る。
In step 126 (S126), the display unit 228 outputs the guidance direction display image generated in S122 to the output device 148 (FIG. 2) via the UI unit 200.
In step 128 (S128), the terminal program 20 determines whether or not a request for ending navigation is made by the user due to arrival at the destination or the like via the UI unit 200.
The terminal program 20 ends the process when a request is made, and returns to the process of S102 otherwise.

[ナビゲーションシステム1の第2の動作例]
以下、ナビゲーションシステム1の第2の動作例を説明する。
S104(図8)において、GPSデバイス160(図2)による移動端末2の位置検出の代わりに、情報取得部212(図4)は、S104において抽出された撮影画像の特徴情報を用いて、移動端末2の位置を特定することもできる。
具体的には、例えば、情報取得部212は、通信処理部202を介して、サーバプログラム40の物体特徴DB402が記憶する全ての物体特徴情報を取得する。
さらに、情報取得部212は、取得した全ての物体特徴情報の内、S104において抽出された撮影画像の特徴情報と最も類似する物体特徴情報に含まれる位置を、移動端末2の位置として特定する。
また、S108において、目的地までに存在しうる1つ以上の物体特徴情報をサーバ装置4から取得する代わりに、情報取得部212は、移動端末2の位置として特定された位置から目的地までに存在し得る物体特徴情報を、サーバ装置4から取得した全ての物体特徴情報から選択することもできる。
[Second Operation Example of Navigation System 1]
Hereinafter, a second operation example of the navigation system 1 will be described.
In S104 (FIG. 8), instead of detecting the position of the mobile terminal 2 by the GPS device 160 (FIG. 2), the information acquisition unit 212 (FIG. 4) moves using the feature information of the captured image extracted in S104. The position of the terminal 2 can also be specified.
Specifically, for example, the information acquisition unit 212 acquires all object feature information stored in the object feature DB 402 of the server program 40 via the communication processing unit 202.
Further, the information acquisition unit 212 specifies, as the position of the mobile terminal 2, the position included in the object feature information that is most similar to the feature information of the captured image extracted in S104, among all the acquired object feature information.
Further, in S108, instead of acquiring from the server device 4 one or more pieces of object feature information that may exist up to the destination, the information acquisition unit 212 moves from the position specified as the position of the mobile terminal 2 to the destination. The object feature information that may exist can be selected from all the object feature information acquired from the server device 4.

1・・・ナビゲーションシステム
100・・・ネットワーク
102・・・基地局
104・・・GPS用人工衛星
2・・・移動端末
120・・・通信装置
14・・・データ処理部
140・・・CPU
142・・・メモリ
144・・・CPU周辺装置
146・・・入力デバイス
148・・・出力デバイス
150・・・カメラ
154・・・記録媒体
160・・・GPSデバイス
20・・・端末プログラム
200・・・UI部
202・・・通信処理部
204・・・目的地設定部
206・・・地図情報DB
208・・・位置検出部
210・・・経路履歴DB
212・・・情報取得部
214・・・情報DB
216・・・画像生成部
218・・・画像特徴抽出部
220・・・特徴情報選択部
222・・・方向検出部
224・・・誘導方向決定部
226・・・経路履歴生成部
228・・・表示部
230・・・付加情報受入部
300・・・撮影画像
302・・・誘導方向矢印
304・・・付加情報
312・・・地図画像
314・・・開始位置アイコン
316・・・目的地アイコン
318・・・撮影位置アイコン
320・・・経路表示
322・・・撮影時間
4・・・サーバ装置
152・・・記録装置
40・・・サーバプログラム
400・・・目的地DB
402・・・物体特徴DB
404・・・特徴情報提供部
406・・・特徴情報選択部
DESCRIPTION OF SYMBOLS 1 ... Navigation system 100 ... Network 102 ... Base station 104 ... GPS artificial satellite 2 ... Mobile terminal 120 ... Communication apparatus 14 ... Data processing part 140 ... CPU
142 ... Memory 144 ... CPU peripheral device 146 ... Input device 148 ... Output device 150 ... Camera 154 ... Recording medium 160 ... GPS device 20 ... Terminal program 200 ... UI unit 202 ... communication processing unit 204 ... destination setting unit 206 ... map information DB
208: Position detection unit 210 ... Path history DB
212 ... Information acquisition unit 214 ... Information DB
216: Image generation unit 218: Image feature extraction unit 220: Feature information selection unit 222 ... Direction detection unit 224 ... Guidance direction determination unit 226 ... Path history generation unit 228 ... Display unit 230 ... Additional information receiving unit 300 ... Captured image 302 ... Guide direction arrow 304 ... Additional information 312 ... Map image 314 ... Start position icon 316 ... Destination icon 318 ... Shooting position icon 320 ... Route display 322 ... Shooting time 4 ... Server device 152 ... Recording device 40 ... Server program 400 ... Destination DB
402 ... Object feature DB
404: Feature information providing unit 406: Feature information selecting unit

Claims (10)

情報提供装置と、
ナビゲーション装置と
を有するナビゲーションシステムであって、
前記情報提供装置は、
前記ナビゲーションシステムによる誘導の範囲内で撮影された全ての画像から、この範囲内における誘導の目印となり得る物体の全ての位置、撮影方向およびその付加情報と、これらの物体の画像の特徴とを示す第1の特徴情報を記憶する特徴記憶ロジックと、
前記ナビゲーション装置が誘導する目的地の位置を示す第1の位置情報と、前記ナビゲーション装置による誘導の開始位置を示す第2の位置情報とに基づいて、前記ナビゲーション装置による誘導が開始された位置から、前記目的地までに存在しうる前記物体の第1の特徴情報を選択する特徴情報選択ロジックと、
前記選択された第1の特徴情報を、前記ナビゲーション装置に対して提供する情報提供ロジックと
を有し、
前記ナビゲーション装置は、
周囲に存在する物体の画像を撮影するカメラと、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、
前記ナビゲーション装置が存在する位置を検出する位置検出デバイスと、
前記提供された第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジッと、
前記検出された位置情報および前記提供された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、
前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスと
を有する
ナビゲーションシステム。
An information providing device;
A navigation system having a navigation device,
The information providing apparatus includes:
From all the images taken within the range of guidance by the navigation system, all positions, photographing directions and additional information of objects that can serve as guides for guidance within this range, and characteristics of the images of these objects are shown. A feature storage logic for storing first feature information;
Based on the first position information indicating the position of the destination guided by the navigation device and the second position information indicating the start position of the guidance by the navigation device, from the position where the guidance by the navigation device is started Feature information selection logic for selecting first feature information of the object that may exist up to the destination;
Information providing logic for providing the selected first feature information to the navigation device;
The navigation device
A camera that captures images of objects in the surroundings;
Second feature information generation logic for generating second feature information indicating the feature of the image obtained by the photographing;
A position detection device for detecting a position where the navigation device exists;
First feature information selection logic for selecting one of the provided first feature information closest to the generated second feature information;
A direction detection logic for detecting a shooting direction of an object indicated by the second feature information by the camera based on the selected first feature information and the second feature information;
Guidance indicating the direction to the destination at the position where the navigation device exists based on the detected position information and the provided first feature information or any of them and the detected shooting direction Guidance direction determination logic to determine the direction;
A navigation system comprising: a display device that displays the captured image and an image indicating the guidance direction.
ナビゲーションの対象となる範囲内で撮影された全ての画像の内、ナビゲーションによる誘導の開始位置から誘導の目的地までの誘導の目印となり得る物体の全ての位置、撮影方向およびこれらの物体の画像の特徴を示す第1の特徴情報を用いて、ナビゲーションを行うナビゲーション装置であって、
周囲に存在する物体の画像を撮影するカメラと、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、
前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジッと、
前記選択された第1の特徴情報と、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、
前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスと
を有するナビゲーション装置。
Of all the images captured within the range to be navigated, all the positions of objects that can be a guide for navigation from the navigation start position to the destination of navigation, shooting directions, and images of these objects A navigation device that performs navigation using first feature information indicating a feature,
A camera that captures images of objects in the surroundings;
Second feature information generation logic for generating second feature information indicating the feature of the image obtained by the photographing;
First feature information selection logic for selecting one of the first feature information closest to the generated second feature information;
A direction detection logic for detecting a shooting direction of an object indicated by the second feature information by the camera based on the selected first feature information and the second feature information;
Guidance direction determination logic for determining a guidance direction indicating a direction to the destination at a position where the navigation device exists based on the selected first feature information and the detected shooting direction;
A navigation device comprising: a display device that displays the captured image and an image indicating the guidance direction.
前記ナビゲーション装置が存在する位置を検出する位置検出デバイス
をさらに有し、
前記方向表示画像生成ロジックは、前記検出された位置情報および前記供給された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する
請求項2に記載のナビゲーション装置。
A position detecting device for detecting a position where the navigation device exists;
Based on the detected position information and the supplied first feature information or any one of them, and the detected shooting direction, the direction display image generation logic is configured to output the navigation device at the position where the navigation device exists. The navigation device according to claim 2, wherein a guidance direction indicating a direction to a destination is determined.
前記第1の特徴情報は、前記カメラにより撮影されたナビゲーションの開始位置の周囲の物体の画像から、前記第2の特徴情報生成ロジックが生成した第2の特徴情報と、ナビゲーションの対象となる全ての範囲内で撮影され、ナビゲーションによる誘導に用いられ得る全ての物体の画像の特徴を示す第3の特徴情報の内、前記ナビゲーションの開始位置の周囲の物体の画像から得られた第2の特徴情報に最も近いいずれかとを用いて、前記第1の特徴情報選択ロジックが、前記第1の特徴情報として選択した第1の特徴情報に含まれるナビゲーションによる誘導の開始位置を示す情報と、前記ナビゲーションによる誘導の目的地の位置を示す情報とに基づいて選択される
請求項2に記載のナビゲーション装置。
The first feature information includes the second feature information generated by the second feature information generation logic from the image of the object around the navigation start position photographed by the camera, and all of the navigation targets. The second feature obtained from the images of the objects around the start position of the navigation among the third feature information indicating the features of the images of all the objects that can be used for navigation guidance. Information indicating a start position of guidance by navigation included in the first feature information selected by the first feature information selection logic as the first feature information using any one closest to the information, and the navigation The navigation device according to claim 2, wherein the navigation device is selected based on information indicating a position of a destination of guidance by the navigation device.
前記第1の特徴情報は、前記位置検出デバイスが検出したナビゲーションの開始位置を示す情報と、前記ナビゲーションによる誘導の目的地の位置を示す情報とを含む要求に応じて、外部から供給される
請求項3に記載のナビゲーション装置。
The first feature information is supplied from the outside in response to a request including information indicating a navigation start position detected by the position detection device and information indicating a destination position of guidance by the navigation. Item 4. The navigation device according to Item 3.
前記選択された第1の特徴情報に付加する付加情報を、外部から受け入れる付加情報受け入れロジック
をさらに有し、
前記表示デバイスは、前記選択された第1の特徴情報が示す物体の画像に、この第1の特徴情報に付加された付加情報を、さらに表示する
請求項2に記載のナビゲーション装置。
An additional information acceptance logic for accepting additional information to be added to the selected first feature information from outside;
The navigation apparatus according to claim 2, wherein the display device further displays additional information added to the first feature information on an image of the object indicated by the selected first feature information.
前記カメラによる物体の撮影が行われるたびに、その撮影位置を示す情報を時系列に記憶する位置情報記憶ロジックと、
前記記憶された撮影位置を示す情報を用いて、撮影位置の履歴情報を示す画像を生成する経路履歴生成ロジックと
をさらに有し、
前記表示デバイスは、前記経路履歴生成ロジックにより生成された画像を表示する
請求項2に記載のナビゲーション装置。
Each time an object is photographed by the camera, position information storage logic for storing information indicating the photographing position in time series,
Path history generation logic for generating an image indicating the history information of the shooting position using the stored information indicating the shooting position; and
The navigation device according to claim 2, wherein the display device displays an image generated by the route history generation logic.
ナビゲーションの対象となる範囲内で撮影された全ての画像の内、ナビゲーションによる誘導の開始位置から誘導の目的地までの誘導の目印となり得る物体の全ての位置、撮影方向およびこれらの物体の画像の特徴を示す第1の特徴情報を用いて、ナビゲーションを行うナビゲーション方法であって、
周囲に存在する物体の画像を撮影し、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成し、
前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択し、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出し、
前記選択された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、ナビゲーションによる誘導の開始位置における前記目的地への方向を示す誘導方向を決定し、
前記撮影された画像と、前記誘導方向を示す画像とを表示する
ナビゲーション方法。
Of all the images captured within the range to be navigated, all the positions of objects that can be a guide for navigation from the navigation start position to the destination of navigation, shooting directions, and images of these objects A navigation method for performing navigation using first feature information indicating a feature,
Take an image of an object around you,
Generating second feature information indicating the features of the image obtained by the photographing,
Selecting one of the first feature information closest to the generated second feature information;
Based on the selected first feature information and the second feature information, a shooting direction of the object indicated by the second feature information by the camera is detected,
Based on the selected first feature information or any of these and the detected shooting direction, a guidance direction indicating a direction to the destination at a guidance start position by navigation is determined,
A navigation method for displaying the photographed image and an image indicating the guidance direction.
ナビゲーションの対象となる全ての範囲内で撮影され、ナビゲーションによる誘導に用いられ得る全ての物体の位置および撮影方向と、これらの物体の画像の特徴とを示す第1の特徴情報を記憶する特徴記憶ロジックと、
ナビゲーションによる誘導の目的地の位置を示す情報と、ナビゲーションによる誘導の開始位置を示す情報とに基づいて、ナビゲーションによる誘導が開始された位置から、前記目的地までに存在しうる前記物体の第1の特徴情報を選択する特徴情報選択ロジックと、
前記選択された第1の特徴情報を、外部へ提供する情報提供ロジックと
を有する情報提供装置。
Feature storage for storing first feature information indicating the positions and shooting directions of all objects that can be used for guidance by navigation, and the features of the images of these objects. Logic and
Based on the information indicating the position of the navigation guidance destination and the information indicating the navigation guidance start position, the first of the objects that can exist from the position where navigation guidance is started to the destination. Feature information selection logic for selecting feature information of
An information providing apparatus comprising: information providing logic for providing the selected first feature information to the outside.
前記第1の特徴情報は、前記物体の付加情報をさらに含む
請求項9に記載の情報提供装置。
The information providing apparatus according to claim 9, wherein the first feature information further includes additional information of the object.
JP2009060546A 2009-03-13 2009-03-13 Navigation system, navigation apparatus and method Expired - Fee Related JP4376962B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060546A JP4376962B1 (en) 2009-03-13 2009-03-13 Navigation system, navigation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060546A JP4376962B1 (en) 2009-03-13 2009-03-13 Navigation system, navigation apparatus and method

Publications (2)

Publication Number Publication Date
JP4376962B1 JP4376962B1 (en) 2009-12-02
JP2010216815A true JP2010216815A (en) 2010-09-30

Family

ID=41459715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060546A Expired - Fee Related JP4376962B1 (en) 2009-03-13 2009-03-13 Navigation system, navigation apparatus and method

Country Status (1)

Country Link
JP (1) JP4376962B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003227722A (en) * 2002-02-05 2003-08-15 Mitsubishi Electric Corp Navigation system
JP2005077214A (en) * 2003-08-29 2005-03-24 Mitsubishi Electric Corp Route guidance system
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guide information display
JP2008070557A (en) * 2006-09-13 2008-03-27 Clarion Co Ltd Landmark display method, navigation device, on-vehicle equipment, and navigation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003227722A (en) * 2002-02-05 2003-08-15 Mitsubishi Electric Corp Navigation system
JP2005077214A (en) * 2003-08-29 2005-03-24 Mitsubishi Electric Corp Route guidance system
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guide information display
JP2008070557A (en) * 2006-09-13 2008-03-27 Clarion Co Ltd Landmark display method, navigation device, on-vehicle equipment, and navigation system

Also Published As

Publication number Publication date
JP4376962B1 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
KR101620299B1 (en) Picture positioning method and system based on mobile terminal navigation function
KR102325495B1 (en) Method and system for pushing point of interest information
US8938355B2 (en) Human assisted techniques for providing local maps and location-specific annotated data
US20150138230A1 (en) Method and apparatus for annotating point of interest information
US8757477B2 (en) Identifier generation for visual beacon
US11243288B2 (en) Location error radius determination
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US9171011B1 (en) Building search by contents
BR112016025128B1 (en) COMPUTER IMPLEMENTED METHOD OF DETERMINING A CALCULATED POSITION OF A MOBILE PROCESSING DEVICE, COMPUTER STORAGE MEDIA, AND MOBILE PROCESSING DEVICE
EP3351008B1 (en) Event-based image management using clustering
JP6292915B2 (en) Display control apparatus, control method therefor, and program
CN107193820B (en) Position information acquisition method, device and equipment
CA2765557C (en) System and method of relative location detection using image perspective analysis
US20130279755A1 (en) Information processing system, information processing method, and information processing program
JP2010129032A (en) Device and program for retrieving image
JP4376962B1 (en) Navigation system, navigation apparatus and method
EP2487623A1 (en) System and method of relative location detection using image perspective analysis
JP5636983B2 (en) Image output apparatus, image output method, and program
KR20220008328A (en) Location tracking method that combines real and virtual

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090908

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090909

R150 Certificate of patent or registration of utility model

Ref document number: 4376962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees