JP2010216815A - Navigation system, navigation device, and navigation method - Google Patents
Navigation system, navigation device, and navigation method Download PDFInfo
- Publication number
- JP2010216815A JP2010216815A JP2009060546A JP2009060546A JP2010216815A JP 2010216815 A JP2010216815 A JP 2010216815A JP 2009060546 A JP2009060546 A JP 2009060546A JP 2009060546 A JP2009060546 A JP 2009060546A JP 2010216815 A JP2010216815 A JP 2010216815A
- Authority
- JP
- Japan
- Prior art keywords
- feature information
- navigation
- information
- guidance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
Description
本願は、移動端末を用いたナビゲーションシステム、ナビゲーション装置およびその方法に関する。 The present application relates to a navigation system, a navigation apparatus and a method using a mobile terminal.
例えば,非特許文献1,2は、データベースなどのデバイスを動的に接続し、指定された情報をリアルタイムにユーザに提供するアクティブ・メタレベルシステムを開示する。
しかしながら、非特許文献1,2は、移動端末を用いたナビゲーションシステム、ナビゲーション装置およびその方法を開示せず、示唆すらしていない。
For example, Non-Patent
However,
本願開示のナビゲーション装置は、上記背景からなされたものであって、その1つの実施形態は、ナビゲーションの対象となる範囲内で撮影された全ての画像の内、ナビゲーションによる誘導の開始位置から誘導の目的地までの誘導の目印となり得る物体の全ての位置、撮影方向およびこれらの物体の画像の特徴を示す第1の特徴情報を用いて、ナビゲーションを行うナビゲーション装置であって、周囲に存在する物体の画像を撮影するカメラと、前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジックと、前記選択された第1の特徴情報と、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスとを有する。 The navigation device disclosed in the present application has been made from the above background, and one embodiment of the navigation device is that the navigation is performed from the start position of navigation by navigation among all images taken within the range to be navigated. A navigation device that performs navigation using first feature information indicating all positions, photographing directions, and image characteristics of these objects that can serve as landmarks for guidance to a destination, the objects existing around Of the first feature information, a second feature information generation logic for generating second feature information indicating the feature of the image obtained by the shooting, and the generated first feature information. 2 based on the first feature information selection logic for selecting one of the closest feature information, the selected first feature information, and the second feature information. The navigation device detects, based on the direction detection logic for detecting the shooting direction of the object indicated by the second feature information by the camera, the selected first feature information, and the detected shooting direction. A guidance direction determination logic that determines a guidance direction indicating a direction to the destination at an existing position; a display device that displays the captured image; and an image indicating the guidance direction.
[サマリー]
以下、本願開示のナビゲーションシステムの1つの実施形態の概要を説明する。
ただし、以下の説明は、本願開示事項の理解を助けることのみを目的とし、その技術的範囲の限定を目的としていない。
本願開示のナビゲーションシステムは、情報提供装置とナビゲーション装置とを有し、ユーザを所望の目的地へと誘導する。
本願開示の情報提供装置は、ナビゲーションによる誘導の目印となりうる建物などの複数の物体についての様々な情報を有する。
また、本願開示の情報提供装置は、ナビゲーション装置の要求に応じて、複数の物体のうちから、目的地までに存在しうる物体を適切に選択し、選択された物体についての情報を、ナビゲーション装置に提供する。
本願開示のナビゲーション装置は、GPSなどのセンサを用いて、ユーザの位置を検出し、検出された位置を、本願開示の情報提供装置に対して出力することにより、その位置から目的地までに存在しうる物体についての情報を取得する。
また、本願開示のナビゲーション装置は、ナビゲーション装置のカメラにより撮影した物体についての情報と、情報提供装置から取得した物体についての情報とに基づいて、ナビゲーションによる誘導のための情報を生成する。
さらに、本願開示のナビゲーション装置は、生成された情報を、ナビゲーション装置の表示画面に表示させて、ナビゲーションによる誘導を実現する。
[summary]
The outline of one embodiment of the navigation system disclosed herein will be described below.
However, the following description is only for the purpose of helping understanding of the present disclosure, and is not intended to limit the technical scope thereof.
The navigation system disclosed herein includes an information providing device and a navigation device, and guides the user to a desired destination.
The information providing apparatus disclosed in the present application has various pieces of information about a plurality of objects such as buildings that can serve as a guide for navigation.
Further, the information providing apparatus disclosed in the present application appropriately selects an object that can exist up to a destination from a plurality of objects in response to a request from the navigation apparatus, and transmits information about the selected object to the navigation apparatus. To provide.
The navigation device disclosed in the present application detects the position of the user using a sensor such as GPS, and outputs the detected position to the information providing device disclosed in the present application. Get information about possible objects.
Further, the navigation device disclosed in the present application generates information for guidance by navigation based on information about an object photographed by the camera of the navigation device and information about an object acquired from the information providing device.
Furthermore, the navigation device disclosed in the present application displays the generated information on the display screen of the navigation device, thereby realizing navigation guidance.
[ナビゲーションシステム1]
以下、本願開示事項が適用されるナビゲーションシステム1を説明する。
図1は、本願の開示事項が適用されるナビゲーションシステム1の構成を例示する図である。
図1に示すように、ナビゲーションシステム1は、移動端末2−1〜2−n、移動端末2−1〜2−nとの間で無線回線を介したデータ伝送を行う基地局102−1〜102−n、および、サーバ装置4が、有線および無線通信の両方に対応したネットワーク100を介して接続されて構成される。
[Navigation system 1]
Hereinafter, the
FIG. 1 is a diagram illustrating a configuration of a
As shown in FIG. 1, the
なお、nは1以上の整数を示すが、すべてのnが常に同じ数を示すとは限らない。
また、以下、移動端末2−1〜2−nなど、複数ある構成部分のいずれか1つ以上を特定せずに示すときには、単に移動端末2などと略記することがある。
また、移動端末2、基地局102およびサーバ装置4など、情報通信および情報処理の主体となりうる構成部分を、ノードと総称することがある。
また、以下、各図において実質的に同じ構成部分には同じ符号が付される。
In addition, although n shows an integer greater than or equal to 1, not all n always shows the same number.
In addition, hereinafter, when one or more of a plurality of constituent parts such as the mobile terminals 2-1 to 2-n are indicated without being specified, they may be simply abbreviated as the
In addition, components such as the
In the following, substantially the same components are denoted by the same reference numerals in the drawings.
[ハードウェア構成]
以下、ナビゲーションシステム1の各ノードのハードウェア構成を説明する。
図2は、図1に示した移動端末2のハードウェア構成を例示する図である。
図2に示すように、移動端末2は、無線通信回線または有線通信回線を介してネットワーク100と接続される通信装置120、データ処理部14およびGPSデバイス160から構成される。
データ処理部14は、CPU140、メモリ142、記録媒体154に対するデータの読み書きを行う記録媒体インタフェースなどのCPU周辺装置144、テンキーの入力ボタンなどの入力デバイス146、液晶表示画面などの出力デバイス148、および、カメ
ラ150などから構成される。
GPSデバイス160は、GPS用人工衛星104(図1)からの電波信号を受信し、移動端末2の位置(緯度・経度)を検出する。
つまり、移動端末2は、位置の検出、情報処理および情報通信を行うことができる一般的なコンピュータとしての構成部分を有している。
[Hardware configuration]
Hereinafter, the hardware configuration of each node of the
FIG. 2 is a diagram illustrating a hardware configuration of the
As shown in FIG. 2, the
The
The GPS device 160 receives a radio signal from the GPS artificial satellite 104 (FIG. 1), and detects the position (latitude / longitude) of the
That is, the
図3は、図1に示したサーバ装置4のハードウェア構成を示す図である。
図3に示すように、サーバ装置4は、通信装置120、CPU140、メモリ142、入力デバイス146、出力デバイス148およびHDD・CD装置などの記録媒体154に対してデータの記録を行う記録装置152から構成される。
つまり、サーバ装置4は、情報処理および情報通信が可能な一般的なコンピュータとしての構成部分を有している。
FIG. 3 is a diagram illustrating a hardware configuration of the
As shown in FIG. 3, the
That is, the
[ソフトウェア]
以下、ナビゲーションシステム1の各ノードにおいて実行されるソフトウェア(プログラム)を説明する。
[software]
Hereinafter, software (program) executed in each node of the
[端末プログラム20]
まず、移動端末2において実行される端末プログラム20を説明する。
図4は、図1,図2に示した移動端末2において実行される端末プログラム20を示す図である。
図4に示すように、端末プログラム20は、ユーザインタフェース(UI)部200、通信処理部202、目的地設定部204、地図情報データベース(DB)206、位置検出部208、経路履歴DB210、情報取得部212、情報DB214、画像生成部216、画像特徴抽出部218、特徴情報選択部220、方向検出部222、誘導方向決定部224、経路履歴生成部226、表示部228、付加情報受入部230から構成される。
端末プログラム20は、例えば、メモリ142(図2)に記憶されて移動端末2(図1)に供給され、必要に応じて移動端末2にインストールされたOS(図示せず)上で、移動端末2のハードウェア資源を、具体的に利用して実行される(以下のプログラムについても同様である)。
端末プログラム20は、これらの構成部分により、カメラ150(図2)で撮影された画像の情報と、サーバ装置4(図1)から取得した情報とを用いて、ナビゲーションによる誘導を実現する。
[Terminal program 20]
First, the
FIG. 4 is a diagram showing a
As shown in FIG. 4, the
The
The
UI部200は、例えば、出力デバイス148(図2)の表示装置に対して、ナビゲーションを行うために必要な操作を促すGUI(Graphical User interface)画像(図示せず)を表示する。
また、UI部200は、表示したGUI画像に応じて、ユーザがナビゲーションによる誘導を受けるために入力した操作を、入力デバイス146から受け入れ、受け入れた操作を、端末プログラム20の各構成部分に対して出力する。
また、UI部200は、表示部222からユーザの操作に応じて生成されたナビゲーション画面を受け入れて、出力デバイス148の表示画面にナビゲーション画面を表示させる。
The
Also, the
In addition, the
通信処理部202は、移動端末2と、ネットワーク100を介したサーバ装置4との情報通信のための処理を行う。
目的地設定部204は、UI部200を介して入力されたナビゲーションによる誘導の目的地を示す位置(緯度・経度)を受け入れて、通信処理部202を介してサーバ装置4(図1)に対して出力する。
また、目的地設定部204は、入力された目的地を示す位置を、誘導方向決定部224
および経路履歴生成部226から参照可能に記憶する。
地図情報DB206は、ナビゲーションのために用いられ、道路および建物の位置を示す地図情報を、誘導方向決定部224および経路履歴生成部226から参照可能に記憶する。
なお、地図情報DB206は、地図情報を、通信処理部202を介して、サーバ装置4(図1)から取得してもよい。
The
The
In addition, the
And stored so that it can be referred to from the route
The
Note that the
位置検出部208は、ナビゲーションによる誘導のために、ユーザがカメラ150(図2)により周囲の画像を撮影する操作に応じて、撮影時の移動端末2の位置を、GPSデバイス160(図2)により検出する。
なお、GPSデバイス160が、GPS用人工衛星104(図1)からの電波信号を受信できないときは、位置検出部208は、方向センサや加速度センサ(図示せず)を駆動して、移動端末2の位置を検出することもできる。
位置検出部208は、検出された位置を画像の撮影位置として、撮影された時間とともに経路履歴DB210に記憶させる。
また、位置検出部208は、画像の撮影位置を、情報取得部212、特徴情報選択部220、および、誘導方向決定部224に対して出力する。
また、位置検出部208は、移動端末2の位置を定期的に検出し、検出した位置を、経路履歴として経路履歴DB210に記憶させる。
The
When the GPS device 160 cannot receive a radio wave signal from the GPS artificial satellite 104 (FIG. 1), the
The
In addition, the
Further, the
経路履歴DB210は、位置検出部208から入力された画像の撮影位置と撮影された時間と経路履歴とを、経路履歴生成部226から参照可能に記憶する。
情報取得部212は、位置検出部208から入力された移動端末2の位置を受け入れて、受け入れた位置と、受け入れた位置から目的地の位置までに存在し、誘導の目印となりうる1つ以上の物体の特徴情報の選択要求とを、通信処理部202を介してサーバ装置4(図1)に対して出力する(図1A)。
物体特徴情報は、例えば、物体(お店、建物、駅など)の位置およびその付加情報と、物体が撮影された方向と、その物体の画像特徴情報とを示す。
物体の画像特徴情報は、例えば、画像の変化点(建物の外観、窓、ドアなどを示すエッジ)、平均色相、彩度、輝度ヒストグラムを計算することにより求められる。
物体の付加情報は、例えば、お店の営業時間や建物に対するユーザのコメントなどを示す。
The
The
The object feature information indicates, for example, the position of the object (shop, building, station, etc.) and its additional information, the direction in which the object was photographed, and the image feature information of the object.
The image feature information of the object is obtained, for example, by calculating a change point of the image (an edge indicating the appearance of a building, a window, a door, etc.), an average hue, a saturation, and a luminance histogram.
The additional information of the object indicates, for example, the business hours of the store, the user's comment on the building, and the like.
また、情報取得部212は、選択要求に応じてサーバ装置4から返された目的地までの物体特徴情報を、情報DB214に記憶させる。
情報DB214は、サーバ装置4から返された1つ以上の物体特徴情報を、特徴情報選択部220から参照可能に記憶する。
画像生成部216は、ユーザがカメラ150(図2)により周囲の物体の画像を撮影する操作に応じて、撮影された物体の画像データ(以下、単に「撮影画像」と記述する)を生成する。
また、画像生成部216は、生成された撮影画像を、画像特徴抽出部218および誘導方向決定部224に対して出力する。
In addition, the
The
The
Further, the
画像特徴抽出部218は、画像生成部216から入力された撮影画像を受け入れて、撮影画像の特徴情報を抽出する。
また、画像特徴抽出部218は、抽出された撮影画像の特徴情報を、特徴情報選択部220および方向検出部222に対して出力する。
特徴情報選択部220は、情報DB214に記憶された1つ以上の物体特徴情報のうち、各物体特徴情報に含まれる物体の位置が、位置検出部208により入力された位置から所定の範囲内(例えば、半径30m以内)にある物体特徴情報(以下、「周辺物体特徴情報」と記述する)を選択する。
さらに、特徴情報選択部220は、周辺物体特徴情報それぞれと、画像特徴抽出部218から入力された撮影画像の特徴情報とを比較して、周辺物体特徴情報のうち、撮影画像の特徴情報と最も近いいずれかを選択する。
The image
Further, the image
The feature
Further, the feature
具体的には、例えば、特徴情報選択部220は、周辺物体特徴情報それぞれに含まれる画像の変化点と、撮影画像の変化点とがどの程度類似しているかを示す類似度を計算し、最も類似度が高い周辺物体特徴情報のいずれかを選択する。
また、特徴情報選択部220は、選択された物体特徴情報を、方向検出部222誘導方向決定部224、および、付加情報受入部230に対して出力する。
方向検出部222は、画像特徴抽出部218から入力された撮影画像の特徴情報および特徴情報選択部220から入力された物体特徴情報を受け入れて、受け入れた情報を用いて、撮影画像の撮影方向を検出する。
Specifically, for example, the feature
The feature
The
具体的には、例えば、方向検出部222は、物体特徴情報に含まれる画像の変化点と、撮影画像の変化点との差分から、撮影画像の傾きを計算する。
さらに、方向検出部222は、撮影画像の傾きと、物体特徴情報に含まれる物体の撮影方向とに基づいて、撮影画像の撮影方向を検出する。
撮影方向は、ユーザがどのような位置から撮影画像を撮影しているか、つまり、ユーザの撮影方向を示す。
また、方向検出部222は、検出されたユーザの撮影方向を、誘導方向決定部224に対して出力する。
Specifically, for example, the
Furthermore, the
The shooting direction indicates from which position the user is shooting the shot image, that is, the shooting direction of the user.
In addition, the
誘導方向決定部224は、位置検出部208から入力された検出位置と、特徴情報選択部220から入力された物体特徴情報と、方向検出部222から入力されたユーザの撮影方向と、目的地設定部204から入力された目的地の位置と、地図情報DB206に記憶された地図情報とに基づいて、誘導方向を決定する。
具体的には、例えば、誘導方向決定部224は、検出位置または物体特徴情報に含まれる物体の位置と、目的地の位置と、地図情報とに基づいて、ユーザが次に進むべき道を選択する。
誘導方向決定部224は、さらに、ユーザの撮影方向と、選択された道とに基づいて、次に進むべき道をどの方向に進むべきかを示す誘導方向を決定する。
The guidance
Specifically, for example, the guidance
The guidance
誘導方向決定部224は、さらに、画像生成部216から入力された撮影画像に、決定された誘導方向を付加して、誘導方向表示画像を生成する(図5を参照して後述)。
また、誘導方向決定部224は、特徴情報選択部220から入力された物体特徴情報に付加情報が含まれているときは、誘導方向表示画像に、さらにその付加情報を示してもよい。
また、誘導方向決定部224は、生成された誘導方向表示画像を、表示部228に対して出力する。
経路履歴生成部226は、経路履歴DB210が記憶する撮影画像の位置などと、目的地設定部204から入力された目的地と、地図情報DB206に記憶された地図情報とに基づいて、経路履歴画像を生成する。
具体的には、例えば、経路履歴生成部226は、ユーザからの要求に応じて、これまでの撮影画像の位置と、それぞれの画像が撮影された時間と、経路履歴とを、経路履歴DB210から取得する。
The guide
In addition, when the object feature information input from the feature
In addition, the guidance
The route
Specifically, for example, in response to a request from the user, the route
また、経路履歴生成部226は、経路履歴の表示に利用されうる地図情報を、地図情報DB206から取得する。
また、経路履歴生成部226は、地図情報に基づいて、地図画像を生成する。
さらに、経路履歴生成部226は、地図画像上の撮影位置に対応する場所に撮影位置アイコンと撮影時間を付加し、目的地に対応する場所に目的地アイコンを付加し、これまでにたどった経路を示す破線の矢印を付加して、経路履歴画像を生成する(図6を参照して後述)。
さらに、経路履歴生成部226は、生成した経路履歴画像を、表示部228に対して出力する。
In addition, the route
Further, the route
Further, the route
Further, the route
表示部228は、誘導方向決定部224から入力された誘導方向表示画像を受け入れて、受け入れた画像を、UI部を介して、出力デバイス148(図2)の表示画面に出力させる(以下、表示された画面を「誘導方向表示画面」と記述する)。
また、表示部228は、経路履歴生成部226から入力された経路履歴画像を受け入れて、受け入れた画像を、UI部200を介して、出力デバイス148の表示画面に出力させる(以下、表示された画面を「経路履歴画面」と記述する)。
付加情報受入部230は、特徴情報選択部220から入力された物体特徴情報に対応する物体の付加情報を、UI部200を介して、ユーザから受け入れて、受け入れた付加情報を、通信処理部202を介して、サーバ装置4(図1)に対して出力する。
The
In addition, the
The additional
[誘導方向表示画面]
以下、出力デバイス148(図2)の表示画面に出力される誘導方向表示画面を説明する。
図5は、出力デバイス148の表示画面に出力される誘導方向表示画面を例示する図である。
図5に示すように、誘導方向表示画面は、撮影画像300、誘導方向矢印302、付加情報304から構成される。
撮影画像300は、画像生成部216により、ナビゲーションによる誘導に用いるために生成される。
[Guidance direction display screen]
Hereinafter, the guidance direction display screen output to the display screen of the output device 148 (FIG. 2) will be described.
FIG. 5 is a diagram illustrating a guide direction display screen output on the display screen of the
As shown in FIG. 5, the guidance direction display screen includes a captured
The captured
誘導方向矢印302は、誘導方向決定部224により決定された誘導方向を示し、誘導方向決定部224により、撮影画像300に付加される。
例えば、図5(A)に示すように、撮影画像に含まれる建物から右へ進むときには、撮影画像300に、右方向を示す誘導方向矢印302が付加される。
また、図5(B)に示すように、撮影画像に含まれる建物の右側の道を奥へと進むときには、撮影画像300に、奥方向を示す誘導方向矢印302が付加される。
付加情報304は、特徴情報選択部220により選択された物体特徴情報に含まれているときに、誘導方向決定部224により、撮影画像300に付加される。
例えば、図5に示すように、付加情報304は、誘導方向決定部224により、「5Fのお店は24時まで開いています」や「1Fロビーで待ち合わせ」と吹き出しで示されて、撮影画像300に付加される。
A
For example, as illustrated in FIG. 5A, when going right from a building included in the captured image, a
Further, as shown in FIG. 5B, when the road on the right side of the building included in the photographed image goes forward, a
When the additional information 304 is included in the object feature information selected by the feature
For example, as illustrated in FIG. 5, the additional information 304 is indicated by the guidance
[経路履歴画面]
以下、出力デバイス148(図2)の表示画面に出力される経路履歴画面を説明する。
図6は、出力デバイス148の表示画面に出力される経路履歴画面を例示する図である。
図6に示すように、経路履歴画面は、地図画像312、開始位置アイコン314、目的地アイコン316、撮影位置アイコン318、経路表示320、撮影時間322から構成される。
地図画像312は、経路履歴生成部226(図4)により、地図情報に基づいて生成される
[Route history screen]
Hereinafter, the route history screen output on the display screen of the output device 148 (FIG. 2) will be described.
FIG. 6 is a diagram illustrating a route history screen output on the display screen of the
As shown in FIG. 6, the route history screen includes a
The
開始位置アイコン314は、経路履歴生成部226により、地図画像上の撮影位置に対
応する場所のうち、一番古い時間に撮影された位置に対応する場所に付加される。
目的地アイコン316は、経路履歴生成部226により、地図画像上の目的地に対応する場所に付加される。
撮影位置アイコン318は、経路履歴生成部226により、地図画像上の撮影位置に対応するそれぞれの場所に付加される。
経路表示320は、経路履歴生成部226により、地図画像上にこれまでたどった経路を示す破線の矢印として付加される。
撮影時間322は、経路履歴生成部226により、地図画像上の撮影位置に対応するそれぞれの場所に付加される。
The
The
The shooting position icon 318 is added by the route
The
The shooting time 322 is added by the route
[サーバプログラム40]
以下、図1に示したサーバ装置4において実行されるサーバプログラム40を説明する。
図7は、図1に示したサーバ装置4において実行されるサーバプログラム40を示す図である。
図7に示すように、サーバプログラム40は、UI部200、通信処理部202、目的地DB400、物体特徴DB402、特徴情報提供部404、特徴情報選択部406から構成される。
サーバプログラム40は、これらの構成部分により、ナビゲーションによる誘導に利用されうる情報を、移動端末2(図1)の要求に応じて適切に選択し、移動端末2へ提供する。
[Server program 40]
Hereinafter, the
FIG. 7 is a diagram showing a
As shown in FIG. 7, the
With these components, the
目的地DB400は、通信処理部202を介して移動端末2から入力された目的地を示す位置を、特徴情報選択部406から参照可能に記憶する。
物体特徴DB402は、ナビゲーションの対象となる全ての範囲内で撮影され、ナビゲーションによる誘導に利用されうる全ての物体の特徴情報を、UI部200または通信処理部202を介して外部から受け入れ、特徴情報選択部406から参照可能に記憶する。
また、物体特徴DB402は、物体の付加情報を、通信処理部202を介して、任意の移動端末2(図1)から受け入れ、受け入れた付加情報を、対応する物体特徴情報に付加して、特徴情報選択部406から参照可能に記憶する。
特徴情報提供部404は、通信処理部202を介して、移動端末2から入力された位置と、その位置から目的地までに存在しうる1つ以上の物体特徴情報の選択要求とを受け入れて、受け入れた位置と選択要求とを、特徴情報選択部406に対して出力する。
The
The
Further, the
The feature
また、特徴情報提供部404は、選択要求に応じて特徴情報選択部406から返された1つ以上の物体特徴情報を受け入れて、通信処理部202を介して、移動端末2に対して出力する(図1B)。
なお、移動端末2に対して出力する物体特徴情報に含まれる画像の特徴情報のサイズは、画像1枚当たり数バイト〜数十バイトなので、現在のネットワーク環境において、サーバ装置4は、数百枚の画像の特徴情報を、移動端末2に対して送信することができる。
特徴情報選択部406は、特徴情報提供部404から入力された位置と選択要求とを受け入れて、目的地DB400に記憶された目的地と、物体特徴DB402に記憶された物体特徴情報とを参照して、選択要求に応じた物体特徴情報を選択する。
具体的には、例えば、特徴情報選択部406は、移動端末2が存在する緯度・経度から目的地の緯度・経度までに含まれうる緯度・経度に位置する全ての物体の特徴情報を選択する。
Also, the feature
Since the size of the image feature information included in the object feature information output to the
The feature
Specifically, for example, the feature
[ナビゲーションシステム1の第1の動作例]
以下、ナビゲーションシステム1の第1の動作例を説明する。
図8は、図1に示したナビゲーションシステム1の第1の動作を示すフローチャートで
ある。
図8に示すように、ステップ100(S100)において、移動端末2において端末プログラム20(図4)が起動され、サーバ装置4においてサーバプログラム40(図7)が起動されると、端末プログラム20の目的地設定部204は、ユーザから入力された目的地を示す位置を受け入れて、通信処理部202を介して、サーバプログラム40の目的地DB400に記憶させる。
[First Operation Example of Navigation System 1]
Hereinafter, a first operation example of the
FIG. 8 is a flowchart showing a first operation of the
As shown in FIG. 8, when the terminal program 20 (FIG. 4) is started in the
ステップ102(S102)において、画像生成部216は、ユーザがカメラ150(図2)により周囲に存在する物体を撮影する操作を行った否かを判断する。
端末プログラム20は、操作を行ったときにはS104の処理に進み、これ以外のときには、S102の処理に留まる。
ステップ104(S104)において、画像生成部216は、ユーザのカメラ操作に応じて撮影された画像を生成する。
さらに、画像生成部216は、生成された撮影画像の特徴情報を抽出する。
In step 102 (S102), the
The
In step 104 (S104), the
Further, the
ステップ106(S106)において、位置検出部208は、GPSデバイス160(図2)などにより、移動端末2の位置を検出する。
ステップ108(S108)において、情報取得部212は、S106において
検出された位置と、その位置から目的地までに存在しうる1つ以上の物体特徴情報の選択要求を、通信処理部202を介して、サーバプログラム40の特徴提供部404に対して出力する(図1A)。
さらに、情報取得部212は、この要求に応じて特徴情報選択部406により選択された物体特徴情報を、通信処理部202を介して取得する(図1B)。
In step 106 (S106), the
In step 108 (S108), the
Further, the
ステップ110(S110)において、情報取得部212は、S108において受け取った物体特徴情報が1つ以上存在するか否かを判断する。
端末プログラム20は、物体特徴情報が1つ以上存在するときにはS112の処理に進み、これ以外のときには、S124の処理に進み、移動端末2の位置から目的地までに物体特徴情報が存在しない旨のエラーを出力デバイス148(図2)に表示する処理を行い、S102の処理に戻る。
ステップ112(S112)において、特徴情報選択部220は、S108において取得した1つ以上の物体特徴情報のうち、各物体特徴情報に含まれる位置が、S106において検出された位置から所定の範囲内にある物体特徴情報を選択する。
さらに、特徴情報選択部220は、選択された物体特徴情報それぞれと、S104において抽出された撮影画像の特徴情報との類似度を計算する。
In step 110 (S110), the
The
In step 112 (S112), the feature
Further, the feature
ステップ114(S114)において、特徴情報選択部220は、S112において計算した類似度が所定の閾値以上の物体特徴情報が存在する否かを判断する。
端末プログラム20は、存在するときには、S116の処理に進み、これ以外のときには、S124の処理に進み、S104において抽出された撮影画像の特徴情報に類似する物体特徴情報が存在しない旨のエラーを、表示デバイス148(図2)に出力する処理を行い、S102の処理に戻る。
ステップ116(S116)において、特徴情報選択部220は、S112において計算した類似度のうち、最も類似度が高い物体特徴情報を選択する。
ステップ118(S118)において、付加情報受入部230は、S116において選択された物体特徴情報に対応する物体の付加情報を、ユーザから受け入れて、受け入れた付加情報を、通信処理部202を介して、サーバプログラム40(図7)の物体特徴DB402に記憶させる。
In step 114 (S114), the feature
If the
In step 116 (S116), the feature
In step 118 (S118), the additional
ステップ120(S120)において、方向検出部222は、S116において選択さ
れた物体特徴情報と、S104において抽出された撮影画像の特徴情報とに基づいて、撮影画像の傾きを計算する。
さらに、方向検出部222は、計算された撮影画像の傾きと、S116において選択された物体特徴情報に含まれる撮影方向とに基づいて、S104において生成された撮影画像の撮影方向を検出する。
ステップ122(S122)において、誘導方向決定部224は、S106において検出された位置またはS116において選択された物体特徴情報に含まれる位置と、目的地の位置と、地図情報とに基づいて、ユーザが次に進むべき道を選択する。
さらに、誘導方向決定部224は、S120において検出された撮影方向と、選択された道とに基づいて、誘導方向を決定し、S104において生成された撮影画像に誘導方向を付加して、誘導方向表示画像を生成する(図5)。
In step 120 (S120), the
Further, the
In step 122 (S122), the guidance
Furthermore, the guidance
ステップ126(S126)において、表示部228は、S122において生成された誘導方向表示画像を、UI部200を介して、出力デバイス148(図2)に対して出力する。
ステップ128(S128)において、端末プログラム20は、UI部200を介して、ユーザから目的地到着などによりナビゲーションを終了する要求がなされたか否かを判断する。
端末プログラム20は、要求がなされたときには、処理を終了し、これ以外のときには、S102の処理に戻る。
In step 126 (S126), the
In step 128 (S128), the
The
[ナビゲーションシステム1の第2の動作例]
以下、ナビゲーションシステム1の第2の動作例を説明する。
S104(図8)において、GPSデバイス160(図2)による移動端末2の位置検出の代わりに、情報取得部212(図4)は、S104において抽出された撮影画像の特徴情報を用いて、移動端末2の位置を特定することもできる。
具体的には、例えば、情報取得部212は、通信処理部202を介して、サーバプログラム40の物体特徴DB402が記憶する全ての物体特徴情報を取得する。
さらに、情報取得部212は、取得した全ての物体特徴情報の内、S104において抽出された撮影画像の特徴情報と最も類似する物体特徴情報に含まれる位置を、移動端末2の位置として特定する。
また、S108において、目的地までに存在しうる1つ以上の物体特徴情報をサーバ装置4から取得する代わりに、情報取得部212は、移動端末2の位置として特定された位置から目的地までに存在し得る物体特徴情報を、サーバ装置4から取得した全ての物体特徴情報から選択することもできる。
[Second Operation Example of Navigation System 1]
Hereinafter, a second operation example of the
In S104 (FIG. 8), instead of detecting the position of the
Specifically, for example, the
Further, the
Further, in S108, instead of acquiring from the
1・・・ナビゲーションシステム
100・・・ネットワーク
102・・・基地局
104・・・GPS用人工衛星
2・・・移動端末
120・・・通信装置
14・・・データ処理部
140・・・CPU
142・・・メモリ
144・・・CPU周辺装置
146・・・入力デバイス
148・・・出力デバイス
150・・・カメラ
154・・・記録媒体
160・・・GPSデバイス
20・・・端末プログラム
200・・・UI部
202・・・通信処理部
204・・・目的地設定部
206・・・地図情報DB
208・・・位置検出部
210・・・経路履歴DB
212・・・情報取得部
214・・・情報DB
216・・・画像生成部
218・・・画像特徴抽出部
220・・・特徴情報選択部
222・・・方向検出部
224・・・誘導方向決定部
226・・・経路履歴生成部
228・・・表示部
230・・・付加情報受入部
300・・・撮影画像
302・・・誘導方向矢印
304・・・付加情報
312・・・地図画像
314・・・開始位置アイコン
316・・・目的地アイコン
318・・・撮影位置アイコン
320・・・経路表示
322・・・撮影時間
4・・・サーバ装置
152・・・記録装置
40・・・サーバプログラム
400・・・目的地DB
402・・・物体特徴DB
404・・・特徴情報提供部
406・・・特徴情報選択部
DESCRIPTION OF
142 ...
208:
212 ...
216: Image generation unit 218: Image feature extraction unit 220: Feature
402 ... Object feature DB
404: Feature information providing unit 406: Feature information selecting unit
Claims (10)
ナビゲーション装置と
を有するナビゲーションシステムであって、
前記情報提供装置は、
前記ナビゲーションシステムによる誘導の範囲内で撮影された全ての画像から、この範囲内における誘導の目印となり得る物体の全ての位置、撮影方向およびその付加情報と、これらの物体の画像の特徴とを示す第1の特徴情報を記憶する特徴記憶ロジックと、
前記ナビゲーション装置が誘導する目的地の位置を示す第1の位置情報と、前記ナビゲーション装置による誘導の開始位置を示す第2の位置情報とに基づいて、前記ナビゲーション装置による誘導が開始された位置から、前記目的地までに存在しうる前記物体の第1の特徴情報を選択する特徴情報選択ロジックと、
前記選択された第1の特徴情報を、前記ナビゲーション装置に対して提供する情報提供ロジックと
を有し、
前記ナビゲーション装置は、
周囲に存在する物体の画像を撮影するカメラと、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、
前記ナビゲーション装置が存在する位置を検出する位置検出デバイスと、
前記提供された第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジッと、
前記検出された位置情報および前記提供された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、
前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスと
を有する
ナビゲーションシステム。 An information providing device;
A navigation system having a navigation device,
The information providing apparatus includes:
From all the images taken within the range of guidance by the navigation system, all positions, photographing directions and additional information of objects that can serve as guides for guidance within this range, and characteristics of the images of these objects are shown. A feature storage logic for storing first feature information;
Based on the first position information indicating the position of the destination guided by the navigation device and the second position information indicating the start position of the guidance by the navigation device, from the position where the guidance by the navigation device is started Feature information selection logic for selecting first feature information of the object that may exist up to the destination;
Information providing logic for providing the selected first feature information to the navigation device;
The navigation device
A camera that captures images of objects in the surroundings;
Second feature information generation logic for generating second feature information indicating the feature of the image obtained by the photographing;
A position detection device for detecting a position where the navigation device exists;
First feature information selection logic for selecting one of the provided first feature information closest to the generated second feature information;
A direction detection logic for detecting a shooting direction of an object indicated by the second feature information by the camera based on the selected first feature information and the second feature information;
Guidance indicating the direction to the destination at the position where the navigation device exists based on the detected position information and the provided first feature information or any of them and the detected shooting direction Guidance direction determination logic to determine the direction;
A navigation system comprising: a display device that displays the captured image and an image indicating the guidance direction.
周囲に存在する物体の画像を撮影するカメラと、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成する第2の特徴情報生成ロジックと、
前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択する第1の特徴情報選択ロジックと、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出する方向検出ロジッと、
前記選択された第1の特徴情報と、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する誘導方向決定ロジックと、
前記撮影された画像と、前記誘導方向を示す画像とを表示する表示デバイスと
を有するナビゲーション装置。 Of all the images captured within the range to be navigated, all the positions of objects that can be a guide for navigation from the navigation start position to the destination of navigation, shooting directions, and images of these objects A navigation device that performs navigation using first feature information indicating a feature,
A camera that captures images of objects in the surroundings;
Second feature information generation logic for generating second feature information indicating the feature of the image obtained by the photographing;
First feature information selection logic for selecting one of the first feature information closest to the generated second feature information;
A direction detection logic for detecting a shooting direction of an object indicated by the second feature information by the camera based on the selected first feature information and the second feature information;
Guidance direction determination logic for determining a guidance direction indicating a direction to the destination at a position where the navigation device exists based on the selected first feature information and the detected shooting direction;
A navigation device comprising: a display device that displays the captured image and an image indicating the guidance direction.
をさらに有し、
前記方向表示画像生成ロジックは、前記検出された位置情報および前記供給された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、前記ナビゲーション装置が存在する位置における前記目的地への方向を示す誘導方向を決定する
請求項2に記載のナビゲーション装置。 A position detecting device for detecting a position where the navigation device exists;
Based on the detected position information and the supplied first feature information or any one of them, and the detected shooting direction, the direction display image generation logic is configured to output the navigation device at the position where the navigation device exists. The navigation device according to claim 2, wherein a guidance direction indicating a direction to a destination is determined.
請求項2に記載のナビゲーション装置。 The first feature information includes the second feature information generated by the second feature information generation logic from the image of the object around the navigation start position photographed by the camera, and all of the navigation targets. The second feature obtained from the images of the objects around the start position of the navigation among the third feature information indicating the features of the images of all the objects that can be used for navigation guidance. Information indicating a start position of guidance by navigation included in the first feature information selected by the first feature information selection logic as the first feature information using any one closest to the information, and the navigation The navigation device according to claim 2, wherein the navigation device is selected based on information indicating a position of a destination of guidance by the navigation device.
請求項3に記載のナビゲーション装置。 The first feature information is supplied from the outside in response to a request including information indicating a navigation start position detected by the position detection device and information indicating a destination position of guidance by the navigation. Item 4. The navigation device according to Item 3.
をさらに有し、
前記表示デバイスは、前記選択された第1の特徴情報が示す物体の画像に、この第1の特徴情報に付加された付加情報を、さらに表示する
請求項2に記載のナビゲーション装置。 An additional information acceptance logic for accepting additional information to be added to the selected first feature information from outside;
The navigation apparatus according to claim 2, wherein the display device further displays additional information added to the first feature information on an image of the object indicated by the selected first feature information.
前記記憶された撮影位置を示す情報を用いて、撮影位置の履歴情報を示す画像を生成する経路履歴生成ロジックと
をさらに有し、
前記表示デバイスは、前記経路履歴生成ロジックにより生成された画像を表示する
請求項2に記載のナビゲーション装置。 Each time an object is photographed by the camera, position information storage logic for storing information indicating the photographing position in time series,
Path history generation logic for generating an image indicating the history information of the shooting position using the stored information indicating the shooting position; and
The navigation device according to claim 2, wherein the display device displays an image generated by the route history generation logic.
周囲に存在する物体の画像を撮影し、
前記撮影によって得られた画像の特徴を示す第2の特徴情報を生成し、
前記第1の特徴情報の内、前記生成された第2の特徴情報に最も近いいずれかを選択し、
前記選択された第1の特徴情報と、前記第2の特徴情報とに基づいて、前記カメラによる前記第2の特徴情報が示す物体の撮影方向を検出し、
前記選択された第1の特徴情報またはこれらのいずれかと、前記検出された撮影方向とに基づいて、ナビゲーションによる誘導の開始位置における前記目的地への方向を示す誘導方向を決定し、
前記撮影された画像と、前記誘導方向を示す画像とを表示する
ナビゲーション方法。 Of all the images captured within the range to be navigated, all the positions of objects that can be a guide for navigation from the navigation start position to the destination of navigation, shooting directions, and images of these objects A navigation method for performing navigation using first feature information indicating a feature,
Take an image of an object around you,
Generating second feature information indicating the features of the image obtained by the photographing,
Selecting one of the first feature information closest to the generated second feature information;
Based on the selected first feature information and the second feature information, a shooting direction of the object indicated by the second feature information by the camera is detected,
Based on the selected first feature information or any of these and the detected shooting direction, a guidance direction indicating a direction to the destination at a guidance start position by navigation is determined,
A navigation method for displaying the photographed image and an image indicating the guidance direction.
ナビゲーションによる誘導の目的地の位置を示す情報と、ナビゲーションによる誘導の開始位置を示す情報とに基づいて、ナビゲーションによる誘導が開始された位置から、前記目的地までに存在しうる前記物体の第1の特徴情報を選択する特徴情報選択ロジックと、
前記選択された第1の特徴情報を、外部へ提供する情報提供ロジックと
を有する情報提供装置。 Feature storage for storing first feature information indicating the positions and shooting directions of all objects that can be used for guidance by navigation, and the features of the images of these objects. Logic and
Based on the information indicating the position of the navigation guidance destination and the information indicating the navigation guidance start position, the first of the objects that can exist from the position where navigation guidance is started to the destination. Feature information selection logic for selecting feature information of
An information providing apparatus comprising: information providing logic for providing the selected first feature information to the outside.
請求項9に記載の情報提供装置。 The information providing apparatus according to claim 9, wherein the first feature information further includes additional information of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060546A JP4376962B1 (en) | 2009-03-13 | 2009-03-13 | Navigation system, navigation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060546A JP4376962B1 (en) | 2009-03-13 | 2009-03-13 | Navigation system, navigation apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4376962B1 JP4376962B1 (en) | 2009-12-02 |
JP2010216815A true JP2010216815A (en) | 2010-09-30 |
Family
ID=41459715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009060546A Expired - Fee Related JP4376962B1 (en) | 2009-03-13 | 2009-03-13 | Navigation system, navigation apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4376962B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003227722A (en) * | 2002-02-05 | 2003-08-15 | Mitsubishi Electric Corp | Navigation system |
JP2005077214A (en) * | 2003-08-29 | 2005-03-24 | Mitsubishi Electric Corp | Route guidance system |
JP2006101013A (en) * | 2004-09-28 | 2006-04-13 | Hitachi Ltd | Guide information display |
JP2008070557A (en) * | 2006-09-13 | 2008-03-27 | Clarion Co Ltd | Landmark display method, navigation device, on-vehicle equipment, and navigation system |
-
2009
- 2009-03-13 JP JP2009060546A patent/JP4376962B1/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003227722A (en) * | 2002-02-05 | 2003-08-15 | Mitsubishi Electric Corp | Navigation system |
JP2005077214A (en) * | 2003-08-29 | 2005-03-24 | Mitsubishi Electric Corp | Route guidance system |
JP2006101013A (en) * | 2004-09-28 | 2006-04-13 | Hitachi Ltd | Guide information display |
JP2008070557A (en) * | 2006-09-13 | 2008-03-27 | Clarion Co Ltd | Landmark display method, navigation device, on-vehicle equipment, and navigation system |
Also Published As
Publication number | Publication date |
---|---|
JP4376962B1 (en) | 2009-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101620299B1 (en) | Picture positioning method and system based on mobile terminal navigation function | |
KR102325495B1 (en) | Method and system for pushing point of interest information | |
US8938355B2 (en) | Human assisted techniques for providing local maps and location-specific annotated data | |
US20150138230A1 (en) | Method and apparatus for annotating point of interest information | |
US8757477B2 (en) | Identifier generation for visual beacon | |
US11243288B2 (en) | Location error radius determination | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
US9171011B1 (en) | Building search by contents | |
BR112016025128B1 (en) | COMPUTER IMPLEMENTED METHOD OF DETERMINING A CALCULATED POSITION OF A MOBILE PROCESSING DEVICE, COMPUTER STORAGE MEDIA, AND MOBILE PROCESSING DEVICE | |
EP3351008B1 (en) | Event-based image management using clustering | |
JP6292915B2 (en) | Display control apparatus, control method therefor, and program | |
CN107193820B (en) | Position information acquisition method, device and equipment | |
CA2765557C (en) | System and method of relative location detection using image perspective analysis | |
US20130279755A1 (en) | Information processing system, information processing method, and information processing program | |
JP2010129032A (en) | Device and program for retrieving image | |
JP4376962B1 (en) | Navigation system, navigation apparatus and method | |
EP2487623A1 (en) | System and method of relative location detection using image perspective analysis | |
JP5636983B2 (en) | Image output apparatus, image output method, and program | |
KR20220008328A (en) | Location tracking method that combines real and virtual |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090908 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4376962 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130918 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |