JP5093667B2 - Navigation system, navigation method, and navigation program - Google Patents

Navigation system, navigation method, and navigation program Download PDF

Info

Publication number
JP5093667B2
JP5093667B2 JP2008061232A JP2008061232A JP5093667B2 JP 5093667 B2 JP5093667 B2 JP 5093667B2 JP 2008061232 A JP2008061232 A JP 2008061232A JP 2008061232 A JP2008061232 A JP 2008061232A JP 5093667 B2 JP5093667 B2 JP 5093667B2
Authority
JP
Japan
Prior art keywords
information
user
image data
image
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008061232A
Other languages
Japanese (ja)
Other versions
JP2009020091A (en
Inventor
理恵子 門林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2008061232A priority Critical patent/JP5093667B2/en
Publication of JP2009020091A publication Critical patent/JP2009020091A/en
Application granted granted Critical
Publication of JP5093667B2 publication Critical patent/JP5093667B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ナビゲーションシステム、ナビゲーション方法、およびナビゲーションプロ
グラムに関する。
The present invention relates to a navigation system, a navigation method, and a navigation program.

近年、自動車の運転などの際に有用な情報を提供するナビゲーションシステムが各種提
案されている。一般的なナビゲーションシステムは、GPS受信機やジャイロなどで、自
車の位置や方位を検出し、検出された自車位置からリモコン、音声認識装置などにより入
力された目的地や経由地に基づき、誘導経路を算出し、自車位置ならびにその周辺部の地
図をディスプレイ上に表示し、地図をスクロールさせて目的地まで自車位置を案内するよ
うに構成されている(たとえば、特許文献1〜3を参照。)。
In recent years, various navigation systems that provide useful information when driving a car have been proposed. A general navigation system detects the position and direction of the own vehicle with a GPS receiver or a gyro, and based on the destination or waypoint input from the detected own vehicle position by a remote control, a voice recognition device, etc. A guide route is calculated, and the vehicle position and a map of the surrounding area are displayed on the display, and the map is scrolled to guide the vehicle position to the destination (for example, Patent Documents 1 to 3). See).

特開平6−309595号公報JP-A-6-309595 特開2004−94444号公報JP 2004-94444 A 特開2004−140811号公報JP 2004-140811 A

しかしながら、従来のナビゲーションシステムでは、ユーザがあらかじめいくつかのポ
イントを経由地として設定することで、ユーザが所望する目的地までのルートを探索する
ことができるが、具体的な道路の危険情報(たとえば工事中の道路など)を提示すること
はできない。したがって、ナビゲーションシステムが提供した情報のみでは、容易に通行
できるか否かを判断することはできないという問題があった。なかには、ルート探索に加
えて当該ルートの渋滞情報や事故情報を提示できる、主に自動車の運転に使用する従来の
ナビゲーションシステムもあるが、このようなシステムでも前述のような道路の危険情報
を提示することはできない。
However, in a conventional navigation system, the user can search for a route to a destination desired by the user by setting several points as transit points in advance, but specific road risk information (for example, The road under construction etc.) cannot be presented. Therefore, there is a problem that it is impossible to determine whether or not the vehicle can be easily passed only by the information provided by the navigation system. Some conventional navigation systems, mainly used for driving a car, can present traffic congestion information and accident information on the route in addition to route search, but such systems also present road risk information as described above. I can't do it.

また、従来のナビゲーションシステムでは、ユーザが所望する目的物などを画像で示す
ことができるものがある。しかし、ここで提示される画像は、目的物などを一定の方向か
ら撮影した画像のみであって、ユーザが望む方向から撮影されたものではない。このため
、ユーザが本当に必要とする情報を取得することができない。
Further, some conventional navigation systems can display an object desired by a user with an image. However, the image presented here is only an image obtained by photographing the object or the like from a certain direction, and is not photographed from the direction desired by the user. For this reason, information that the user really needs cannot be acquired.

この発明は、上述した従来技術による問題点を解消するため、ユーザにとって必要な情
報を取得できるナビゲーションシステム、ナビゲーション方法、およびナビゲーションプ
ログラムを提供することを目的とする。
An object of the present invention is to provide a navigation system, a navigation method, and a navigation program that can acquire information necessary for a user in order to solve the above-described problems caused by the prior art.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかるナビゲーション
システムは、ネットワークを介して接続されたナビゲーション装置とサーバとを含み構成
されるナビゲーションシステムであって、前記ナビゲーション装置が、ユーザの現存地点
周囲の各種情報を画像として取得するカメラと、画像を表示する表示手段と、各種情報の
入力を行う入力手段と、ユーザの現存位置の情報を認識する位置認識手段と、前記カメラ
が向いている方向を検出する方位検出手段と、前記カメラが取得した画像、前記入力手段
から入力された取得画像の被写体名、前記位置認識手段により認識されたユーザの現存位
置情報、および前記方位検出手段が検出した取得画像の方位情報を関連付けて前記サーバ
における処理で用いられるサンプル画像データを生成する画像データ生成手段と、を備え
ていることを特徴とする。
In order to solve the above-described problems and achieve the object, a navigation system according to claim 1 is a navigation system including a navigation device and a server connected via a network, and the navigation device A camera that acquires various information around the user's existing point as an image, a display unit that displays an image, an input unit that inputs various types of information, a position recognition unit that recognizes information about the user's existing location, Direction detection means for detecting a direction in which the camera is facing; an image acquired by the camera; a subject name of an acquired image input from the input means; a user's existing position information recognized by the position recognition means; The sun used in the processing in the server in association with the orientation information of the acquired image detected by the orientation detection means. Characterized in that it comprises an image data generation means for generating Le image data.

また、請求項2の発明にかかるナビゲーションシステムは、請求項1に記載の発明にお
いて、前記ナビゲーション装置が、前記位置認識手段が認識した位置情報および前記方位
検出手段が検出した方位情報を常時前記ネットワークを介して前記サーバへ送信すること
を特徴とする。
The navigation system according to a second aspect of the present invention is the navigation system according to the first aspect, wherein the navigation device always displays the position information recognized by the position recognition unit and the direction information detected by the direction detection unit. It transmits to the said server via, It is characterized by the above-mentioned.

また、請求項3の発明にかかるナビゲーションシステムは、請求項1または2に記載の
発明において、前記サーバが、前記ナビゲーション装置から取得したサンプル画像データ
を被写体ごとに分類し、一つの被写体に対して複数の方向から撮影された画像を含む、ユ
ーザに供給するための供給用画像データを構築するデータ分類構築手段と、前記データ分
類構築手段により分類構築された供給用画像データを格納するデータベースと、前記ナビ
ゲーション装置が取得を希望する目的地点情報に合致する供給用画像データが前記データ
ベースにあるか否かを検索し、合致する供給用画像データがある場合に当該画像データを
前記データベースから抽出するデータ検索抽出手段と、を備えていることを特徴とする。
A navigation system according to a third aspect of the invention is the navigation system according to the first or second aspect, wherein the server classifies the sample image data acquired from the navigation device for each subject, and Data classification construction means for constructing supply image data to be supplied to the user, including images taken from a plurality of directions; a database for storing supply image data classified and constructed by the data classification construction means; Data for searching whether or not supply image data matching the destination point information desired to be acquired by the navigation device exists in the database, and extracting the image data from the database when there is a matching supply image data And a search extraction means.

また、請求項4の発明にかかるナビゲーションシステムは、請求項3に記載の発明にお
いて、前記データ分類構築手段が、取得した前記サンプル画像データに含まれる画像を該
画像に関連付けられた位置情報およびその方位情報を参照して位置方位ごとに分類し、分
類された画像を分析し当該画像に含まれる道路の危険情報が視覚的に判別可能な危険情報
画像データを構築することを特徴とする。
According to a fourth aspect of the present invention, there is provided the navigation system according to the third aspect, wherein the data classification and construction means includes the positional information associated with the image and the position information associated with the image included in the acquired sample image data. It is characterized by classifying each position and orientation with reference to the direction information, analyzing the classified image, and constructing danger information image data that can visually distinguish the danger information of the road included in the image.

また、請求項5の発明にかかるナビゲーションシステムは、請求項3または4に記載の
発明において、前記サーバが、前記ナビゲーション装置から送られてきた位置情報および
方位情報に基づき、ユーザの現存位置を検出するユーザ位置検出手段を備え、前記データ
検索抽出手段が、前記ユーザ位置検出手段により検出されたユーザの現存位置に合致する
画像データが前記データベースにあるか否かを検索し、合致する画像データがある場合に
当該画像データを前記データベースから抽出することを特徴とする。
According to a fifth aspect of the present invention, in the navigation system according to the third or fourth aspect, the server detects an existing position of the user based on position information and direction information sent from the navigation device. A user position detecting means that searches the database for image data that matches the existing position of the user detected by the user position detecting means. In some cases, the image data is extracted from the database.

また、請求項6の発明にかかるナビゲーションシステムは、請求項3〜5のいずれか一
つに記載の発明において、前記ナビゲーション装置が、前記供給用画像データを前記ネッ
トワークを介して前記サーバから取得し、前記供給用画像データに含まれる画像のうち、
前記入力手段から入力された情報と合致する画像を抽出して前記表示手段に表示させるデ
ータ処理手段と、を備えていることを特徴とする。
A navigation system according to a sixth aspect of the present invention is the navigation system according to any one of the third to fifth aspects, wherein the navigation device acquires the supply image data from the server via the network. Of the images included in the supply image data,
And data processing means for extracting an image that matches the information input from the input means and displaying the image on the display means.

また、請求項7の発明にかかるナビゲーションシステムは、請求項6に記載の発明にお
いて、前記データ処理手段が、取得した供給用画像情報データのなかから、前記位置認識
手段が認識した位置情報および前記方位検出手段が検出した方位情報と合致する位置情報
および方位情報が関連付けられている画像を前記表示手段に表示させることを特徴とする
The navigation system according to a seventh aspect of the present invention is the navigation system according to the sixth aspect, wherein the data processing means recognizes the position information recognized by the position recognition means from the acquired supply image information data, and the The display means displays an image associated with position information and azimuth information that match the azimuth information detected by the azimuth detection means.

また、請求項8の発明にかかるナビゲーションシステムは、請求項3〜7のいずれか一
つに記載の発明において、前記サーバが、前記ナビゲーション装置から送られてきたユー
ザの位置情報および方位情報の履歴に基づき、ユーザの状況を推定するユーザ状況推定手
段を備え、その推定結果を前記データ検索抽出手段の検索抽出条件に入力することを特徴
とする。
A navigation system according to an eighth aspect of the present invention is the navigation system according to any one of the third to seventh aspects, wherein the server stores a history of position information and direction information of a user sent from the navigation device. And a user situation estimation means for estimating the user situation, and the estimation result is input to a search and extraction condition of the data search and extraction means.

また、請求項9の発明にかかるナビゲーションシステムは、請求項3〜8のいずれか一
つに記載の発明において、前記方位検出手段の不使用時に、前記サーバが、前記ナビゲー
ション装置から送られてきたユーザの位置情報の履歴に基づき、ユーザの方位情報を推定
するユーザ方位推定手段を備え、その推定結果を前記データ検索抽出手段の検索抽出条件
に入力することを特徴とする。
A navigation system according to a ninth aspect of the present invention is the navigation system according to any one of the third to eighth aspects, wherein the server is sent from the navigation device when the azimuth detecting means is not used. User orientation estimation means for estimating user orientation information based on a history of user position information is provided, and the estimation result is input to a search extraction condition of the data search extraction means.

また、請求項10の発明にかかるナビゲーションシステムは、請求項3〜9のいずれか
一つに記載の発明において、前記サーバが、前記ナビゲーション装置から送られてきたユ
ーザの位置情報に基づき、ユーザの現存位置の周辺の推奨スポットを前記データベースか
ら検索抽出する推奨スポット検索抽出手段を備え、その検索抽出結果を前記データ検索抽
出手段の検索抽出条件に入力することを特徴とする。
A navigation system according to a tenth aspect of the present invention is the navigation system according to any one of the third to ninth aspects, wherein the server is based on the position information of the user sent from the navigation device. Recommended spot search extraction means for searching and extracting recommended spots around the existing position from the database, and the search extraction result is input to a search extraction condition of the data search extraction means.

また、請求項11の発明にかかるナビゲーションシステムは、請求項10に記載の発明
において、前記方位検出手段の不使用時には、前記サーバが、前記推奨スポット検索抽出
手段で方位情報付きの推奨スポット情報を検索抽出することを特徴とする。
The navigation system according to an eleventh aspect of the present invention is the navigation system according to the tenth aspect, wherein when the azimuth detecting means is not used, the server obtains recommended spot information with azimuth information by the recommended spot search extracting means. It is characterized by searching and extracting.

また、請求項12の発明にかかるナビゲーション方法は、ユーザの現存位置の情報を取
得する位置情報取得工程と、画像を取得する画像取得工程と、取得した画像の被写体名を
設定する被写体名設定工程と、取得した画像の方位情報を取得する方位情報取得工程と、
前記位置情報取得工程で取得された位置情報と、前記画像取得工程で取得された画像と、
前記被写体名設定工程で設定された被写体名と、前記方位情報取得工程で取得された方位
情報とを関連づけて、サンプル画像データを生成するサンプル画像データ生成工程と、前
記サンプル画像データ生成工程で生成されたサンプル画像データを被写体ごとに分類し、
一つの被写体に対して複数の方向から撮影された画像を含む、ユーザに供給するための供
給用画像データを構築する供給用画像データ分類構築工程と、を有することを特徴とする
A navigation method according to a twelfth aspect of the present invention includes a position information acquisition step of acquiring information on a user's existing position, an image acquisition step of acquiring an image, and a subject name setting step of setting a subject name of the acquired image. And an orientation information acquisition step of acquiring orientation information of the acquired image,
The position information acquired in the position information acquisition step, the image acquired in the image acquisition step, and
A sample image data generation step for generating sample image data by associating the subject name set in the subject name setting step with the azimuth information acquired in the azimuth information acquisition step, and generated in the sample image data generation step Categorized sample image data for each subject,
And a supply image data classification and construction step for constructing supply image data to be supplied to a user including images taken from a plurality of directions with respect to one subject.

また、請求項13の発明にかかるナビゲーション方法は、請求項12に記載の発明にお
いて、さらに、ユーザが所望する画像情報の目的地点情報を設定する目的地点情報設定工
程と、前記供給用画像データ分類構築工程で分類構築された供給用画像データのなかから
、前記目的地点情報設定工程で設定された目的地点情報に合致する供給用画像データを検
索抽出する供給用画像データ検索抽出工程と、前記供給用画像データ検索抽出工程で検索
抽出された供給用画像データのなかからユーザが所望する方向から撮影された画像を選択
表示する画像選択表示工程と、を有することを特徴とする。
According to a thirteenth aspect of the present invention, in the navigation method according to the twelfth aspect of the present invention, a destination point information setting step for setting destination point information of image information desired by a user, and the supply image data classification Supply image data search and extraction step for searching and extracting supply image data that matches the destination point information set in the destination point information setting step from among the supply image data classified and constructed in the construction step, and the supply An image selection display step of selecting and displaying an image photographed from a direction desired by the user from the supply image data searched and extracted in the image data search and extraction step.

また、請求項14の発明にかかるナビゲーション方法は、ユーザの現存位置の情報を取
得する位置情報取得工程と、画像を取得する画像取得工程と、取得した画像の方位情報を
取得する方位情報取得工程と、前記位置情報取得工程で取得された位置情報と、前記画像
取得工程で取得された画像と、前記方位情報取得工程で取得された方位情報とを関連づけ
て、サンプル画像データを生成するサンプル画像データ生成工程と、前記サンプル画像デ
ータ生成工程で生成されたサンプル画像データに含まれる画像を当該画像に関連付けられ
た位置情報およびその方位情報を参照して位置方位ごとに分類し、分類された画像を分析
し当該画像に含まれる高低が視覚的に判別可能な危険情報画像データを構築する危険情報
画像データ分類構築工程と、を有することを特徴とする。
Further, the navigation method according to the invention of claim 14 includes a position information acquisition step of acquiring information on the user's existing position, an image acquisition step of acquiring an image, and an orientation information acquisition step of acquiring the orientation information of the acquired image. A sample image that generates sample image data by associating the position information acquired in the position information acquisition step, the image acquired in the image acquisition step, and the direction information acquired in the direction information acquisition step A data generation step and an image included in the sample image data generated in the sample image data generation step are classified for each position and direction by referring to the position information associated with the image and the direction information, and the classified image A risk information image data classification construction step for constructing risk information image data that can be visually discriminated from the level of the image included in the image. Characterized in that it.

また、請求項15の発明にかかるナビゲーション方法は、請求項14に記載の発明にお
いて、さらに、ユーザの現在地点の位置情報および方位情報を取得するユーザ位置方位情
報取得工程と、前記危険情報画像データ分類構築工程で分類構築された危険情報画像デー
タのなかから、前記ユーザ位置方位情報取得工程で取得されたユーザの現在地点の位置情
報および方位情報に合致する危険情報画像データを検索抽出する危険情報画像データ検索
抽出工程と、前記危険情報画像データ検索抽出工程で検索抽出された危険情報画像データ
を表示する危険情報画像表示工程と、を有することを特徴とする。
According to a fifteenth aspect of the present invention, there is provided a navigation method according to the fourteenth aspect of the present invention, further comprising: a user position / orientation information acquisition step of acquiring position information and direction information of the current location of the user; Danger information that retrieves and extracts danger information image data that matches the position information and direction information of the current location of the user acquired in the user position / orientation information acquisition step from the danger information image data classified and constructed in the classification / construction step An image data search and extraction step; and a risk information image display step for displaying the risk information image data searched and extracted in the risk information image data search and extraction step.

また、請求項16の発明にかかるナビゲーション方法は、請求項12〜15のいずれか
一つに記載の発明において、さらに、前記ユーザ位置方位情報取得工程を連続的に複数回
行い、ユーザの位置情報および方位情報の履歴を得るユーザ位置方位履歴情報取得工程と
、前記ユーザ位置方位履歴情報取得工程で取得されたユーザの位置情報および方位情報の
履歴からユーザの注視状況を推定するユーザ状況推定工程と、を有することを特徴とする
According to a sixteenth aspect of the present invention, in the navigation method according to any one of the twelfth to fifteenth aspects, the user position / orientation information acquisition step is continuously performed a plurality of times to obtain user position information. A user position / azimuth history information acquisition step for obtaining a history of the user position / azimuth information, and a user situation estimation step for estimating a user's gaze situation from a history of the user's position information and direction information acquired in the user position / direction history information acquisition step It is characterized by having.

また、請求項17の発明にかかるナビゲーション方法は、請求項16に記載の発明にお
いて、さらに、前記ユーザ状況推定工程で、前記ユーザ位置方位履歴情報取得工程で取得
された連続2回のユーザの注視対象が同一であれば、ユーザはその注視対象を見ている状
況であると判断し、その注視対象に関する情報をユーザへ提供する注視対象情報提供工程
を有することを特徴とする。
In addition, the navigation method according to the invention of claim 17 is the navigation method according to claim 16, wherein the user situation estimation step further includes two consecutive gazes of the user acquired in the user position / direction history information acquisition step. If the target is the same, the user is determined to be in a situation where he / she is looking at the gaze target, and has a gaze target information providing step of providing information regarding the gaze target to the user.

また、請求項18の発明にかかるナビゲーション方法は、請求項16に記載の発明にお
いて、さらに、前記ユーザ状況推定工程で、前記ユーザ位置方位履歴情報取得工程で取得
された連続2回のユーザの注視対象が異なれば、次回のユーザの注視対象の入力を待ち、
それが前2回のうち前の方の注視対象と同一ならば、ユーザは前2回の注視対象の間で見
るものを迷っている状況であると判断し、その前2回の注視対象に関する情報をユーザへ
提供する注視対象情報提供工程を有することを特徴とする。
Further, the navigation method according to the invention of claim 18 is the navigation method according to claim 16, wherein the user's gaze of the user twice acquired in the user position direction history information acquisition step in the user situation estimation step is further provided. If the target is different, wait for the next user ’s gaze input,
If it is the same as the preceding gaze target in the previous two times, the user determines that he / she is confused about what to see between the previous two gaze targets, and relates to the previous two gaze targets. It has a gaze target information providing step of providing information to the user.

また、請求項19の発明にかかるナビゲーション方法は、請求項16に記載の発明にお
いて、さらに、前記ユーザ状況推定工程で、前記ユーザ位置方位履歴情報取得工程で取得
された連続2回のユーザの注視対象が異なれば、次回のユーザの注視対象の入力を待ち、
それが前2回のうち後の方の注視対象と同一ならば、ユーザはその前2回のうち後の方の
注視対象を見ている状況であると判断し、その前2回のうち後の方の注視対象に関する情
報をユーザへ提供する注視対象情報提供工程を有することを特徴とする。
Further, the navigation method according to the invention of claim 19 is the navigation method according to claim 16, wherein the user's situation estimation step further includes two continuous gazes of the user acquired in the user position / direction history information acquisition step. If the target is different, wait for the next user ’s gaze input,
If it is the same as the object to be watched later in the previous two times, it is determined that the user is looking at the object to be watched in the latter two times, and the rear of the previous two times. It has the gaze target information provision process which provides the user with the information regarding the gaze target of the direction to a user.

また、請求項20の発明にかかるナビゲーション方法は、請求項16に記載の発明にお
いて、さらに、前記ユーザ状況推定工程で、前記ユーザ位置方位履歴情報取得工程で取得
された連続2回のユーザの注視対象が異なれば、次回のユーザの注視対象の入力を待ち、
それが前2回のユーザの注視対象のいずれとも異なれば、ユーザは注視対象を定めていな
い状況であると判断し、ユーザの現存位置の周辺に関する情報をユーザへ提供する注視対
象情報提供工程を有することを特徴とする。
Further, the navigation method according to the invention of claim 20 is the navigation method according to claim 16, wherein the user situation estimation step further includes two continuous gazes of the user acquired in the user position / direction history information acquisition step. If the target is different, wait for the next user ’s gaze input,
If it differs from any of the previous two user's gaze targets, the gaze target information providing step of determining that the user has not determined the gaze target and providing the user with information about the periphery of the user's existing position It is characterized by having.

また、請求項21の発明にかかるナビゲーション方法は、請求項17〜19のいずれか
一つに記載の発明において、さらに、前記注視対象情報提供工程で提供される注視対象に
関する情報が、注視対象の写真を含むことを特徴とする。
The navigation method according to the invention of claim 21 is the navigation method according to any one of claims 17 to 19, wherein the information regarding the gaze target provided in the gaze target information providing step further comprises: It is characterized by including a photograph.

また、請求項22の発明にかかるナビゲーション方法は、請求項17〜19のいずれか
一つに記載の発明において、さらに、前記注視対象情報提供工程で提供される注視対象に
関する情報が、注視対象の名称を含むことを特徴とする。
The navigation method according to a twenty-second aspect of the present invention is the navigation method according to any one of the seventeenth to nineteenth aspects, wherein the information regarding the gaze target provided in the gaze target information providing step further includes: The name is included.

また、請求項23の発明にかかるナビゲーション方法は、請求項17〜19のいずれか
一つに記載の発明において、さらに、前記注視対象情報提供工程で提供される注視対象に
関する情報が、注視対象の詳細説明へのリンクを含むことを特徴とする。
A navigation method according to a twenty-third aspect of the present invention is the navigation method according to any one of the seventeenth to nineteenth aspects, wherein the information regarding the gaze target provided in the gaze target information providing step further includes: Includes links to detailed descriptions.

また、請求項24の発明にかかるナビゲーション方法は、請求項20に記載の発明にお
いて、さらに、前記注視対象情報提供工程で提供されるユーザの現存位置の周辺に関する
情報が、ユーザの現存位置の周辺の写真を含むことを特徴とする。
The navigation method according to a twenty-fourth aspect of the present invention is the navigation method according to the twentieth aspect, wherein the information related to the periphery of the user's existing position provided in the gaze target information providing step is the periphery of the user's existing position. It is characterized by including the photograph of.

また、請求項25の発明にかかるナビゲーション方法は、請求項20に記載の発明にお
いて、さらに、前記注視対象情報提供工程で提供されるユーザの現存位置の周辺に関する
情報が、ユーザの現存位置の周辺の地図を含むことを特徴とする。
According to a 25th aspect of the present invention, in the navigation method according to the 20th aspect of the present invention, the information related to the periphery of the user's existing position provided in the gaze target information providing step is the periphery of the user's existing position. It is characterized by including the map of.

また、請求項26の発明にかかるナビゲーション方法は、請求項25に記載の発明にお
いて、さらに、前記注視対象情報提供工程で提供されるユーザの現存位置の周辺に関する
情報が、地図上に示される他のユーザの注視情報を含むことを特徴とする。
The navigation method according to the invention of claim 26 is the navigation method according to claim 25, wherein the information about the periphery of the user's existing position provided in the gaze target information providing step is displayed on a map. It includes the gaze information of the user.

また、請求項27の発明にかかるナビゲーション方法は、請求項20に記載の発明にお
いて、前記注視対象情報提供工程で提供されるユーザの現存位置の周辺に関する情報が、
ユーザの現存位置の周辺の詳細情報へのリンクを含むことを特徴とする。
Further, in the navigation method according to the invention of claim 27, in the invention of claim 20, information on the periphery of the existing position of the user provided in the gaze target information providing step is:
It includes a link to detailed information around the user's existing location.

また、請求項28の発明にかかるナビゲーション方法は、請求項12〜27のいずれか
一つに記載の発明において、前記方位情報取得工程を経ない場合に、前記位置情報取得工
程で取得された位置情報の履歴に基づき、ユーザの方位情報を推定するユーザ方位推定工
程を有することを特徴とする。
A navigation method according to the invention of claim 28 is the navigation method according to any one of claims 12 to 27, wherein the position acquired in the position information acquisition step when the orientation information acquisition step is not passed. It has a user azimuth | direction estimation process which estimates a user's azimuth | direction information based on the history of information.

また、請求項29の発明にかかるナビゲーション方法は、請求項28に記載の発明にお
いて、前記ユーザ方位推定工程が、ユーザの位置情報を連続的に2回行い、その位置の変
化を元に、ユーザの方位を推定する演算であることを特徴とする。
According to a 29th aspect of the present invention, in the navigation method according to the 28th aspect of the present invention, the user orientation estimating step performs the user position information twice in succession, and based on the change in the position, It is the calculation which estimates the azimuth | direction of.

また、請求項30の発明にかかるナビゲーション方法は、請求項12〜29のいずれか
一つに記載の発明において、前記位置情報取得工程で取得された位置情報に基づき、ユー
ザの現存位置の周辺の推奨スポットを、前記供給用画像データまたは前記危険情報画像デ
ータを含むデータベースから検索抽出する推奨スポット検索抽出工程を有することを特徴
とする。
A navigation method according to a thirtieth aspect of the present invention is the navigation method according to any one of the twelfth to thirty-ninth aspects, based on the position information acquired in the position information acquisition step. A recommended spot search and extraction step of searching and extracting a recommended spot from a database including the supply image data or the danger information image data is provided.

また、請求項31の発明にかかるナビゲーション方法は、請求項12〜29のいずれか
一つに記載の発明において、前記方位情報取得工程を経ない場合には、前記位置情報取得
工程で取得された位置情報に基づき、ユーザの現存位置の周辺の方位情報付きの推奨スポ
ット情報を、前記供給用画像データまたは前記危険情報画像データを含むデータベースか
ら検索抽出する推奨スポット検索抽出工程を有することを特徴とする。
A navigation method according to a thirty-first aspect of the present invention is the navigation method according to any one of the twelfth to thirty-ninth aspects, wherein the navigation method is acquired in the position information acquisition step when the direction information acquisition step is not performed. It has a recommended spot search extraction step of searching and extracting recommended spot information with orientation information around the existing position of the user from the database including the supply image data or the danger information image data based on the position information. To do.

また、請求項32の発明にかかるナビゲーション方法は、請求項30または31に記載
の発明において、前記推奨スポット検索抽出工程で検索抽出される推奨スポットに関する
情報が、推奨スポットの写真を含むことを特徴とする。
Further, in the navigation method according to the invention of claim 32, in the invention of claim 30 or 31, the information on the recommended spot searched and extracted in the recommended spot search extracting step includes a photograph of the recommended spot. And

また、請求項33の発明にかかるナビゲーション方法は、請求項30または31に記載
の発明において、前記推奨スポット検索抽出工程で検索抽出される推奨スポットに関する
情報が、推奨スポットの地図を含むことを特徴とする。
Further, in the navigation method according to the invention of claim 33, in the invention of claim 30 or 31, the information on the recommended spot searched and extracted in the recommended spot search extracting step includes a map of recommended spots. And

また、請求項34の発明にかかるナビゲーション方法は、請求項30または31に記載
の発明において、前記推奨スポット検索抽出工程で検索抽出される推奨スポットに関する
情報が、推奨スポットの名称を含むことを特徴とする。
Further, in the navigation method according to the invention of claim 34, in the invention of claim 30 or 31, the information on the recommended spot searched and extracted in the recommended spot search extracting step includes the name of the recommended spot. And

また、請求項35の発明にかかるナビゲーション方法は、請求項30または31に記載
の発明において、前記推奨スポット検索抽出工程で検索抽出される推奨スポットに関する
情報が、推奨スポットの詳細説明へのリンクを含むことを特徴とする。
Further, in the navigation method according to the invention of claim 35, in the invention of claim 30 or 31, the information regarding the recommended spot searched and extracted in the recommended spot search extracting step provides a link to a detailed description of the recommended spot. It is characterized by including.

また、請求項36の発明にかかるナビゲーションプログラムは、請求項12〜35のい
ずれか一つに記載のナビゲーション方法をコンピュータに実行させることを特徴とする。
A navigation program according to a thirty-sixth aspect of the invention causes a computer to execute the navigation method according to any one of the twelfth to thirty-fifth aspects.

本発明にかかるナビゲーションシステム、ナビゲーション方法、およびナビゲーション
プログラムによれば、ユーザが所望する方向からの目的物の画像情報や、道路の危険情報
や、ユーザの状況を推定してのガイドなど、ユーザが本当に必要とする情報を画像で容易
に提供できるようになるという効果を奏する。
According to the navigation system, the navigation method, and the navigation program according to the present invention, the user can obtain image information of a target object from a direction desired by the user, road danger information, a guide for estimating the user situation, and the like. There is an effect that information that is really necessary can be easily provided by an image.

以下、添付図面を参照して、本発明にかかるナビゲーションシステム、ナビゲーション
方法、およびナビゲーションプログラムの好適な実施の形態を詳細に説明する。
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of a navigation system, a navigation method, and a navigation program according to the present invention will be described in detail with reference to the accompanying drawings.

(ナビゲーションシステムの概要)
図1は、本発明の実施の形態にかかるナビゲーションシステムの概略構成を示す図であ
る。本実施の形態にかかるナビゲーションシステムは、複数のナビゲーション装置101
と、サーバ102と、がネットワーク100を介して接続される。ナビゲーション装置1
01としては、たとえば携帯電話や携帯情報端末(PDA)、ノートパソコンなどを用い
ることができる。周囲の様子を撮影可能なカメラが備えられているか、もしくは接続でき
るようになっていることが好ましい。また、サーバ102には、データベースを構築する
ことができるパーソナル・コンピュータを用いる。
(Outline of the navigation system)
FIG. 1 is a diagram showing a schematic configuration of a navigation system according to an embodiment of the present invention. The navigation system according to the present embodiment includes a plurality of navigation devices 101.
And the server 102 are connected via the network 100. Navigation device 1
As 01, for example, a mobile phone, a personal digital assistant (PDA), a notebook computer, or the like can be used. It is preferable that a camera capable of photographing the surrounding situation is provided or connected. The server 102 uses a personal computer capable of constructing a database.

本実施の形態のナビゲーションシステムは、ユーザが所持するナビゲーション装置10
1により収集した画像情報を、より個々のユーザの要望に合致するように再構築して、各
ユーザに提供するものである。すなわち、各ユーザに提供される情報は、画一化された情
報ではなく、各ユーザから寄せられた情報をもとにより個々のユーザの要望を満たすよう
により洗練された情報を提供することを目的としている。
The navigation system of the present embodiment is a navigation device 10 possessed by a user.
The image information collected in step 1 is reconstructed so as to match the needs of individual users and provided to each user. In other words, the information provided to each user is not unified information, but is intended to provide more sophisticated information that satisfies each user's request based on information received from each user. It is said.

(ナビゲーション装置の機能的構成)
図2は、本発明の実施の形態にかかるナビゲーションシステムに用いるナビゲーション
装置の機能的構成の一例を示すブロック図である。このナビゲーション装置101は、カ
メラ201と、表示部202と、入力部203と、記憶部204と、位置認識部205と
、方位検出部206と、画像データ生成部207と、データ処理部208と、送受信部2
09と、を備えている。
(Functional configuration of navigation device)
FIG. 2 is a block diagram showing an example of a functional configuration of the navigation device used in the navigation system according to the embodiment of the present invention. The navigation device 101 includes a camera 201, a display unit 202, an input unit 203, a storage unit 204, a position recognition unit 205, an orientation detection unit 206, an image data generation unit 207, a data processing unit 208, Transceiver 2
09.

カメラ201は、ユーザの現存地点周囲における各種情報を画像として取得する。   The camera 201 acquires various information around the user's existing point as an image.

表示部202は、画像を表示する。   The display unit 202 displays an image.

入力部203は、各種情報(たとえば、ユーザ個人を特定するユーザIDやパスワード
、取得した画像の被写体名、目的地点情報など)の入力を行う。
The input unit 203 inputs various types of information (for example, a user ID and password for identifying a user, a subject name of the acquired image, destination point information, and the like).

記憶部204は、カメラ201が取得した画像、入力部203から入力された各種情報
、およびネットワーク100を介して取得した各種データなどを格納する。
The storage unit 204 stores an image acquired by the camera 201, various information input from the input unit 203, various data acquired via the network 100, and the like.

位置認識部205は、ユーザの現存位置の情報を取得する。ここで位置情報は、GPS
衛星からの電波を受信し、GPS衛星との幾何学的位置を求めるものであり、地球上どこ
でも計測可能である。電波としては、1.575.42MHzの搬送波で、C/A(Co
arse and Access)コードおよび航法メッセージが乗っているL1電波を
使う。
The position recognition unit 205 acquires information about the user's existing position. The location information here is GPS
It receives radio waves from a satellite and obtains a geometric position with respect to a GPS satellite, and can be measured anywhere on the earth. As a radio wave, a carrier wave of 1.575.42 MHz, C / A (Co
arse and access) code and navigation messages are used.

方位検出部206は、カメラ201が向いている方向を検出する。したがって、カメラ
201で画像情報を取得することで、位置認識部205が取得したユーザの現存位置情報
とあわせ、当該画像が取得された地点およびその地点からの方位を把握することができる

カメラ201としては、例えば、携帯電話などユーザが備える可般型の場合は、画像情
報を取得することをトリガとして方位の検出機能を動作させることができる。街頭カメラ
などのように、路上に設置されたカメラの場合は、そのカメラの向く方位を変えられるタ
イプが好ましい。固定カメラの方位が可変であると、サーバ102に対して画像情報をリ
クエストする場合に、カメラ201を可動させた状態でカメラ201を所望の方向へ向け
ることで、取得を望む画像の方位情報を設定することができる。
The direction detection unit 206 detects a direction in which the camera 201 is facing. Therefore, by acquiring the image information with the camera 201, it is possible to grasp the point where the image is acquired and the azimuth from the point, together with the user's existing position information acquired by the position recognition unit 205.
As the camera 201, for example, in the case of a general type provided by the user such as a mobile phone, the direction detection function can be operated with the acquisition of image information as a trigger. In the case of a camera installed on the road, such as a street camera, a type that can change the orientation of the camera is preferable. When the orientation of the fixed camera is variable, when requesting image information from the server 102, the orientation of the image desired to be acquired can be obtained by pointing the camera 201 in a desired direction while moving the camera 201. Can be set.

画像データ生成部207は、カメラ201が取得した画像、入力部203から入力され
た取得画像の被写体名、位置認識部205により認識されたユーザの現存位置情報、およ
び方位検出部206が検出した取得画像の方位情報などを関連付けてサンプル画像データ
を生成する。ここで生成されたサンプル画像データは、ネットワーク100を介してサー
バ102へ送られ、このサーバ102における処理で用いられる。
The image data generation unit 207 includes the image acquired by the camera 201, the subject name of the acquired image input from the input unit 203, the user's existing position information recognized by the position recognition unit 205, and the acquisition detected by the direction detection unit 206. Sample image data is generated by associating image orientation information and the like. The sample image data generated here is sent to the server 102 via the network 100 and used in processing in the server 102.

データ処理部208は、供給用画像データ(詳細は後述する)をネットワーク100を
介して取得する。そして、取得した供給用画像データに含まれる画像のうちユーザが所望
するものを抽出して表示部202に表示させる。また、データ処理部208は、取得した
供給用画像データのなかから、位置認識部205が認識した位置情報および方位検出部2
06が検出した方位情報に合致する位置情報および方位情報が関連付けられている画像を
自動的に抽出して表示部202に表示させるようにしてもよい。
The data processing unit 208 acquires supply image data (details will be described later) via the network 100. Then, the image desired by the user among the images included in the acquired supply image data is extracted and displayed on the display unit 202. The data processing unit 208 also detects the position information and orientation detection unit 2 recognized by the position recognition unit 205 from the acquired supply image data.
An image associated with position information and direction information that matches the direction information detected by 06 may be automatically extracted and displayed on the display unit 202.

送受信部209は、ネットワーク100に対して行うデータの送受信を制御する。入力
部203から入力された情報や画像データ生成部207で生成されたサンプル画像データ
などをネットワーク100へ送信する。また、ユーザが所望する供給用画像データをネッ
トワーク100から受信する。
The transmission / reception unit 209 controls transmission / reception of data performed on the network 100. Information input from the input unit 203 and sample image data generated by the image data generation unit 207 are transmitted to the network 100. Further, the image data for supply desired by the user is received from the network 100.

また、このナビゲーション装置101では、位置認識部205が認識した位置情報およ
び方位検出部206が検出した方位情報を常時ネットワーク100を介してサーバ102
へ送信することで、サーバ102がユーザの現存位置を把握することができる。
In the navigation apparatus 101, the position information recognized by the position recognition unit 205 and the direction information detected by the direction detection unit 206 are always transmitted via the network 100 to the server 102.
By transmitting to, the server 102 can grasp the user's existing position.

さらに、このナビゲーション装置101では、音声取得部などを設けてユーザの声やユ
ーザ周辺の音声を音声情報として取得し、これを画像情報に付加してもよい。
Further, in this navigation apparatus 101, a voice acquisition unit or the like may be provided to acquire a user's voice or voice around the user as voice information and add this to the image information.

(サーバの機能的構成)
図3は、本発明の実施の形態にかかるナビゲーションシステムに用いるサーバの機能的
構成の一例を示すブロック図である。このサーバ102は、データベース301と、送受
信部302と、データ分類構築部303と、データ検索抽出部304と、ユーザ位置検出
部305と、経路誘導情報生成部306と、を備えている。
(Functional configuration of server)
FIG. 3 is a block diagram illustrating an example of a functional configuration of a server used in the navigation system according to the embodiment of the present invention. The server 102 includes a database 301, a transmission / reception unit 302, a data classification construction unit 303, a data search / extraction unit 304, a user position detection unit 305, and a route guidance information generation unit 306.

データベース301は、各種情報を格納する。たとえば、地図情報や建築物などに関す
る情報などを格納している。また、各ユーザのナビゲーション装置101(図1参照)か
ら送信されてきた各種情報を再構築して生成したユーザに提供するためのデータ(詳細は
後述する)を格納する。なお、このデータベース301は、ネットワーク100を介して
このサーバ102と接続できるようにしてもよい。
The database 301 stores various information. For example, it stores information about map information and buildings. In addition, data (details will be described later) for storing a user generated by reconstructing various information transmitted from the navigation device 101 (see FIG. 1) of each user is stored. The database 301 may be connected to the server 102 via the network 100.

送受信部302は、ネットワーク100に対して行うデータの送受信を制御する。   The transmission / reception unit 302 controls transmission / reception of data to / from the network 100.

データ分類構築部303は、ユーザに供給するための供給用画像データを分類構築する
。たとえば、取得した複数の画像を被写体ごとに分類し、被写体ごとの画像データを構築
する。各画像情報には被写体がどの地点でどちらの方向から撮影されたものであるかを示
す位置情報および方位情報が付与されているので、被写体ごとに分類することで、たとえ
ば同じ被写体を複数の方向から撮影した画像をひとまとまりのデータとすることができる
。また、受信したサンプル画像データから道路の危険箇所情報を生成する場合は、前記サ
ンプル画像データに含まれる画像をその画像に関連付けられた位置情報およびその方位情
報を参照して位置方位ごとに分類し、分類された画像を分析し当該画像に含まれる道路の
危険情報を判別可能な画像データを構築する危険情報画像データを構築する。ここで構築
された各データは、データベース301に格納される。
The data classification construction unit 303 classifies and constructs supply image data to be supplied to the user. For example, a plurality of acquired images are classified for each subject, and image data for each subject is constructed. Each image information is provided with position information and direction information that indicate from which direction and where the subject was taken, so by classifying by subject, for example, the same subject can be Images taken from can be used as a set of data. In addition, when generating dangerous point information on the road from the received sample image data, the image included in the sample image data is classified for each position and direction by referring to the position information associated with the image and the direction information. Then, risk information image data is constructed for analyzing the classified images and constructing image data capable of discriminating road risk information included in the images. Each data constructed here is stored in the database 301.

データ検索抽出部304は、ナビゲーション装置101から送られてきたユーザが所望
する目的地点情報に合致するデータがデータベース301にあるか否かを検索し、合致す
るデータがある場合にそのデータをデータベース301から抽出する。ここで抽出された
データは、送受信部302によりネットワーク100を介してナビゲーション装置101
へ送られる。
The data search / extraction unit 304 searches the database 301 for data that matches the destination point information desired by the user sent from the navigation apparatus 101. If there is matching data, the data 301 is stored in the database 301. Extract from The data extracted here is transmitted to the navigation device 101 via the network 100 by the transmission / reception unit 302.
Sent to.

ユーザ位置検出部305は、ナビゲーション装置101から送られてきた位置情報およ
び方位情報に基づき、ユーザの現存位置を検出する。サーバ102では、このユーザ位置
検出部305で検出されたユーザの現存位置に合致するデータがデータベース301にあ
るか否かをデータ検索抽出部304に検索させ、合致するデータがある場合にデータ検索
抽出部304がそのデータをデータベース301から抽出するようにしてもよい。
The user position detection unit 305 detects the user's existing position based on the position information and the direction information sent from the navigation device 101. The server 102 causes the data search / extraction unit 304 to search the database 301 for data matching the user's existing position detected by the user position detection unit 305. If there is matching data, the data search / extraction is performed. The unit 304 may extract the data from the database 301.

経路誘導情報生成部306は、ユーザが設定した目的地点情報と送受信部302が取得
したユーザの現存位置情報とから、目的地までの経路を検出する。そして、ここで検出し
た経路を含む周辺の地図情報をデータベース301から取得し、ユーザの現存位置から目
的地までの経路誘導情報を生成する。ここで生成された経路誘導情報は、送受信部302
によりネットワーク100を介して情報をナビゲーション装置101へ送られる。
The route guidance information generation unit 306 detects a route to the destination from the destination point information set by the user and the user's existing location information acquired by the transmission / reception unit 302. And the map information of the periphery containing the path | route detected here is acquired from the database 301, and the route guidance information from a user's existing position to the destination is produced | generated. The route guidance information generated here is the transmission / reception unit 302.
Thus, information is sent to the navigation device 101 via the network 100.

(ナビゲーション装置のハードウェア構成)
次に、ナビゲーション装置101のハードウェア構成について説明する。図4は、本発
明の実施の形態にかかるナビゲーションシステムに用いるナビゲーション装置のハードウ
ェア構成の一例を示すブロック図である。このナビゲーション装置101は、CPU40
1と、ROM402と、RAM403と、音声I/F(インタフェース)404と、マイ
ク405と、スピーカ406と、入力デバイス407と、映像I/F(インタフェース)
408と、ディスプレイ409と、カメラ410と、通信I/F(インタフェース)41
1と、GPSユニット412と、各種センサ413と、を備えている。なお、各構成部4
01〜413はバス420によってそれぞれ接続されている。
(Hardware configuration of navigation device)
Next, the hardware configuration of the navigation device 101 will be described. FIG. 4 is a block diagram showing an example of a hardware configuration of the navigation device used in the navigation system according to the embodiment of the present invention. The navigation device 101 includes a CPU 40.
1, ROM 402, RAM 403, audio I / F (interface) 404, microphone 405, speaker 406, input device 407, and video I / F (interface).
408, display 409, camera 410, and communication I / F (interface) 41
1, a GPS unit 412, and various sensors 413. Each component 4
01 to 413 are connected by a bus 420.

まず、CPU401は、ナビゲーション装置101の全体の制御を司る。ROM402
は、たとえばブートプログラム、音声生成プログラム、地図情報表示プログラム、通信プ
ログラムなどの各種プログラムを記録している。CPU401が、前記各プログラムを実
行することで、図2に示した画像データ生成部207およびデータ処理部208の機能を
実現する。
First, the CPU 401 governs overall control of the navigation device 101. ROM402
For example, various programs such as a boot program, a sound generation program, a map information display program, and a communication program are recorded. The CPU 401 executes the respective programs, thereby realizing the functions of the image data generation unit 207 and the data processing unit 208 shown in FIG.

また、音声生成プログラムは、音声パターンに対応したトーンと音声の情報を生成させ
る。たとえばCPU401を介して音声I/F404へ出力する。
The voice generation program generates tone and voice information corresponding to the voice pattern. For example, it outputs to audio | voice I / F404 via CPU401.

また、地図情報表示プログラムは、映像I/F408によってディスプレイ409に表
示する地図情報(サーバ102から取得する)の表示形式を決定させ、決定された表示形
式によって地図情報をディスプレイ409に表示させる。
Further, the map information display program determines the display format of the map information (acquired from the server 102) to be displayed on the display 409 by the video I / F 408, and displays the map information on the display 409 according to the determined display format.

RAM403は、たとえばCPU401のワークエリアとして使用される。また、この
RAM403と前述したROM402で、図2に示した記憶部204の機能を実現する。
The RAM 403 is used as a work area for the CPU 401, for example. The RAM 403 and the ROM 402 described above realize the functions of the storage unit 204 shown in FIG.

また、音声I/F404は、音声入力用のマイク405および音声出力用のスピーカ4
06に接続される。マイク405に受音された音声は、音声I/F404内でA/D変換
される。このスピーカ406からは、音声I/F404からの音声信号に基づく音声が出
力される。また、マイク405から入力された音声は、たとえば音声データとして記録す
ることが可能である。
The audio I / F 404 includes an audio input microphone 405 and an audio output speaker 4.
06 is connected. The sound received by the microphone 405 is A / D converted in the sound I / F 404. From the speaker 406, sound based on the sound signal from the sound I / F 404 is output. The voice input from the microphone 405 can be recorded as voice data, for example.

入力デバイス407には、文字、数値、各種指示などの入力のための複数のキーを備え
たキーボード、タッチパネルなどが考えられ、図2に示した入力部203の機能を実現す
る。
The input device 407 may be a keyboard having a plurality of keys for inputting characters, numerical values, various instructions, a touch panel, and the like, and implements the function of the input unit 203 illustrated in FIG.

また、映像I/F408は、ディスプレイ409およびカメラ410と接続される。こ
のディスプレイ409は図2に示した表示部202の機能を実現し、カメラ410は図2
に示したカメラ201の機能を実現する。この映像I/F408は、具体的には、たとえ
ば、ディスプレイ409全体の制御を行うグラフィックコントローラや、即時表示可能な
画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリや、
グラフィックコントローラから出力される画像データに基づいて、ディスプレイ409を
表示制御する制御ICなどを含む。
The video I / F 408 is connected to the display 409 and the camera 410. The display 409 realizes the function of the display unit 202 shown in FIG.
The function of the camera 201 shown in FIG. Specifically, the video I / F 408 includes, for example, a graphic controller that controls the entire display 409, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately,
A control IC that controls display of the display 409 based on image data output from the graphic controller is included.

ディスプレイ409には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字
や画像などの各種データが表示される。このディスプレイ409としては、たとえば、T
FT液晶ディスプレイなどを採用することができる。
The display 409 displays icons, cursors, menus, windows, or various data such as characters and images. As this display 409, for example, T
An FT liquid crystal display or the like can be employed.

また、通信I/F411は、無線を介してネットワークに接続され、CPU401との
インタフェースとして機能する。この通信I/F411は、図2に示した送受信部209
の機能を実現する。
In addition, the communication I / F 411 is connected to a network via wireless and functions as an interface with the CPU 401. The communication I / F 411 is the transmission / reception unit 209 shown in FIG.
Realize the function.

また、GPSユニット412は、GPS衛星からの受信波や後述する各種センサ413
からの出力値を用いて、ナビゲーション装置101の現在位置を示す位置情報を算出する
。現在位置を示す位置情報は、たとえば、緯度・経度、高度などの地図情報上の1点を特
定する情報である。このGPSユニット412は、図2に示した位置認識部205の機能
を実現する。
In addition, the GPS unit 412 receives received waves from GPS satellites and various sensors 413 described later.
Is used to calculate position information indicating the current position of the navigation device 101. The position information indicating the current position is information specifying one point on map information such as latitude / longitude and altitude, for example. The GPS unit 412 realizes the function of the position recognition unit 205 shown in FIG.

各種センサ413は、車速センサ、加速度センサ、角速度センサ、方位センサなどであ
り、その出力値は、GPSユニット412による位置情報の算出や、速度や方位の変化量
の測定に用いられる。この各種センサ413は、図2に示した方位検出部206の機能を
実現する。
The various sensors 413 are a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, an azimuth sensor, and the like, and output values thereof are used for calculation of position information by the GPS unit 412 and measurement of changes in speed and azimuth. The various sensors 413 realize the function of the orientation detection unit 206 shown in FIG.

(サーバのハードウェア構成)
次に、サーバ102のハードウェア構成について説明する。図5は、本発明の実施の形
態にかかるナビゲーションシステムに用いるサーバのハードウェア構成の一例を示すブロ
ック図である。このサーバ102は、CPU501と、ROM502と、RAM503と
、磁気ディスクドライブ504と、磁気ディスク505と、光ディスクドライブ506と
、光ディスク507と、音声I/F(インタフェース)508と、マイク509と、スピ
ーカ510と、入力デバイス511と、映像I/F(インタフェース)512と、ディス
プレイ513と、通信I/F(インタフェース)514と、を備えている。なお、各構成
部501〜514はバス520によってそれぞれ接続されている。
(Hardware configuration of the server)
Next, the hardware configuration of the server 102 will be described. FIG. 5 is a block diagram showing an example of a hardware configuration of a server used in the navigation system according to the embodiment of the present invention. The server 102 includes a CPU 501, ROM 502, RAM 503, magnetic disk drive 504, magnetic disk 505, optical disk drive 506, optical disk 507, audio I / F (interface) 508, microphone 509, and speaker 510. An input device 511, a video I / F (interface) 512, a display 513, and a communication I / F (interface) 514. Note that the components 501 to 514 are connected by a bus 520, respectively.

まず、CPU501は、サーバ102の全体の制御を司る。ROM502は、たとえば
ブートプログラム、経路探索プログラム、音声生成プログラム、地図情報表示プログラム
、通信プログラム、データベース作成プログラム、データ解析プログラムなどの各種プロ
グラムを記録している。特に、CPU501がデータベース作成プログラムを実行するこ
とで、図3に示したデータ分類構築部303の機能を実現できる。また、CPU501が
データ解析プログラムを実行することで、図3に示したデータ検索抽出部304の機能を
実現できる。また、CPU501がブートプログラムを実行することで、図3に示したユ
ーザ位置検出部305の機能を実現できる。
First, the CPU 501 governs overall control of the server 102. The ROM 502 records various programs such as a boot program, a route search program, a voice generation program, a map information display program, a communication program, a database creation program, and a data analysis program. In particular, the function of the data classification construction unit 303 shown in FIG. 3 can be realized by the CPU 501 executing the database creation program. Further, the CPU 501 executes the data analysis program, thereby realizing the function of the data search / extraction unit 304 shown in FIG. Also, the function of the user position detection unit 305 shown in FIG. 3 can be realized by the CPU 501 executing the boot program.

経路探索プログラムは、後述する光ディスク507に記録されている地図情報などを利
用して、出発地から目的地までの最適な経路を探索させる。この経路探索プログラムを実
行することによって探索された誘導経路は、ネットワークを介してユーザのナビゲーショ
ン装置101へ配信される。CPU501がこの経路探索プログラムを実行することで、
図4に示した経路誘導情報生成部306の機能を実現できる。
The route search program searches for an optimum route from the departure point to the destination using map information recorded on the optical disk 507 described later. The guidance route searched by executing this route search program is distributed to the user's navigation device 101 via the network. When the CPU 501 executes this route search program,
The function of the route guidance information generation unit 306 shown in FIG. 4 can be realized.

また、音声生成プログラムは、音声パターンに対応したトーンと音声の情報を生成させ
、たとえばCPU501を介して音声I/F508へ出力する。
Further, the sound generation program generates tone and sound information corresponding to the sound pattern and outputs the sound and sound information to the sound I / F 508 via the CPU 501, for example.

RAM503は、たとえばCPU501のワークエリアとして使用される。磁気ディス
クドライブ504は、CPU501の制御にしたがって磁気ディスク505に対するデー
タのリード/ライトを制御する。磁気ディスク505は、磁気ディスクドライブ504の
制御で書き込まれたデータを記録する。
The RAM 503 is used as a work area for the CPU 501, for example. The magnetic disk drive 504 controls reading / writing of data with respect to the magnetic disk 505 according to the control of the CPU 501. The magnetic disk 505 records data written under the control of the magnetic disk drive 504.

光ディスクドライブ506は、CPU501の制御にしたがって光ディスク507に対
するデータのリード/ライトを制御する。光ディスク507は、光ディスクドライブ50
6の制御にしたがって光ディスク507からデータの読み出される着脱自在な記録媒体で
ある。この光ディスク507としては、書き込み可能な記録媒体を利用することもできる
。また、着脱可能な記録媒体として、光ディスク507のほか、MO、メモリカードなど
を用いることもできる。
The optical disk drive 506 controls the reading / writing of the data with respect to the optical disk 507 according to control of CPU501. The optical disc 507 is the optical disc drive 50.
6 is a detachable recording medium from which data is read out from the optical disc 507 in accordance with control 6. As the optical disc 507, a writable recording medium can be used. In addition to the optical disk 507, an MO, a memory card, or the like can be used as a removable recording medium.

これら磁気ディスク505、光ディスク507に記録される情報の一例として、ユーザ
に供給するために分類構築されたデータがある。これによって、図3に示したデータベー
ス301が構成される。
As an example of information recorded on the magnetic disk 505 and the optical disk 507, there is data classified and constructed for supply to the user. Thus, the database 301 shown in FIG. 3 is configured.

その他、磁気ディスク505、光ディスク507に記録される情報の一例として、経路
探索・経路誘導などに用いる地図情報が挙げられる。地図情報は、建物、河川、地表面な
どの地物(フィーチャ)を表す背景データと、道路の形状を表す道路形状データとを有し
ており、各ユーザのナビゲーション装置101に配信された場合に、ディスプレイ409
上に2次元または3次元に描画される。
Other examples of information recorded on the magnetic disk 505 and the optical disk 507 include map information used for route search and route guidance. The map information includes background data representing features (features) such as buildings, rivers, and the ground surface, and road shape data representing the shape of the road, and is delivered to the navigation device 101 of each user. , Display 409
Rendered in two or three dimensions.

道路形状データは、さらに交通条件データを有する。交通条件データには、たとえば、
各ノードについて、信号や横断歩道などの有無、高速道路の出入口やジャンクションの有
無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道路、有料道路
、一般道路など)などの情報が含まれている。
The road shape data further includes traffic condition data. Examples of traffic condition data include:
For each node, whether there are traffic lights or pedestrian crossings, highway entrances / junctions, length (distance) for each link, road width, direction of travel, road type (highway, toll road, general road, etc.) Information is included.

なお、ここでは、地図情報を磁気ディスク505、光ディスク507などに記録するよ
うにしたが、これに限るものではない。地図情報は、たとえば、通信I/F514を通じ
て、ネットワークを介して地図情報を取得するようにしてもよい。こうして取得された地
図情報は、たとえばRAM503などに記憶される。
Although the map information is recorded on the magnetic disk 505, the optical disk 507, etc. here, the present invention is not limited to this. For example, the map information may be acquired via a network through the communication I / F 514. The map information acquired in this way is stored in the RAM 503, for example.

また、音声I/F508は、音声入力用のマイク509および音声出力用のスピーカ5
10に接続される。マイク509に受音された音声は、音声I/F508内でA/D変換
される。スピーカ510からは、音声I/F508からの音声信号に基づく音声が出力さ
れる。また、マイク509から入力された音声は、たとえば音声データとして磁気ディス
ク505あるいは光ディスク507に記録可能である。
The voice I / F 508 includes a microphone 509 for voice input and a speaker 5 for voice output.
10 is connected. The sound received by the microphone 509 is A / D converted in the sound I / F 508. From the speaker 510, sound based on the sound signal from the sound I / F 508 is output. The sound input from the microphone 509 can be recorded on the magnetic disk 505 or the optical disk 507 as sound data, for example.

入力デバイス511としては、文字、数値、各種指示などの入力のための複数のキーを
備えたリモコン、キーボード、マウス、タッチパネルなどがある。
Examples of the input device 511 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, a keyboard, a mouse, a touch panel, and the like.

また、映像I/F512は、ディスプレイ513と接続される。この映像I/F512
は、具体的には、たとえば、ディスプレイ513全体の制御を行うグラフィックコントロ
ーラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)な
どのバッファメモリと、グラフィックコントローラから出力される画像データに基づいて
、ディスプレイ513を表示制御する制御ICなどによって構成される。
The video I / F 512 is connected to the display 513. This video I / F512
Specifically, for example, a graphic controller that controls the entire display 513, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and an image output from the graphic controller A control IC that controls display of the display 513 based on the data is used.

ディスプレイ513には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字
や画像などの各種データが表示される。このディスプレイ513としては、たとえば、C
RT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。
The display 513 displays icons, cursors, menus, windows, or various data such as characters and images. As this display 513, for example, C
RT, TFT liquid crystal display, plasma display, etc. can be employed.

また、通信I/F514は、無線を介してネットワークに接続され、CPU501との
インターフェースとして機能する。通信I/F514は、図3に示した送受信部302の
機能を実現する。
In addition, the communication I / F 514 is connected to a network via wireless and functions as an interface with the CPU 501. The communication I / F 514 implements the function of the transmission / reception unit 302 shown in FIG.

(ナビゲーションシステムの処理)
次に、本発明の実施の形態にかかるナビゲーションシステムの処理について説明する。
以下では、目的物の画像を得る場合の処理と、道路の危険情報を得る場合の処理を説明す
る。
(Navigation system processing)
Next, processing of the navigation system according to the embodiment of the present invention will be described.
Hereinafter, a process for obtaining an image of a target object and a process for obtaining road danger information will be described.

(目的物の画像情報を得る場合の処理)
まず、本発明の実施の形態にかかるナビゲーションシステムによって、目的物の画像を
得る場合の処理について説明する。以下では、ユーザに提供する目的物の画像収集を行う
ための処理手順と、ユーザが目的物の画像の提供を受けるための処理手順について示す。
(Process when obtaining image information of the object)
First, a process for obtaining an object image by the navigation system according to the embodiment of the present invention will be described. Hereinafter, a processing procedure for collecting an image of an object to be provided to the user and a processing procedure for the user to receive an image of the object will be described.

まず、ユーザに提供する目的物の画像収集を行うための処理手順を説明する。図6は、
本発明の実施の形態にかかるナビゲーションシステムにおけるユーザに提供する目的物の
画像収集の処理手順を示すフローチャートである。
First, a processing procedure for collecting an image of an object to be provided to the user will be described. FIG.
It is a flowchart which shows the process sequence of the image collection of the target object provided to the user in the navigation system concerning embodiment of this invention.

図6のフローチャートにおいて、まず、位置情報を取得する(ステップS601)。具
体的には、ナビゲーション装置101の位置認識部205が、ユーザの現存位置の情報を
取得する。
In the flowchart of FIG. 6, first, position information is acquired (step S601). Specifically, the position recognition unit 205 of the navigation device 101 acquires information on the user's existing position.

次に、画像を取得する(ステップS602)。具体的には、ナビゲーション装置101
に備えられているカメラ201が画像を取得する。
Next, an image is acquired (step S602). Specifically, the navigation device 101
The camera 201 included in the camera acquires an image.

次に、取得した画像の被写体名を設定する(ステップS603)。たとえば、ここでは
、ステップS601で取得した画像の被写体名(表題)をナビゲーション装置101の入
力部203から入力する。
Next, the subject name of the acquired image is set (step S603). For example, here, the subject name (title) of the image acquired in step S601 is input from the input unit 203 of the navigation device 101.

次に、画像の方位情報を取得する(ステップS604)。ここでは、ナビゲーション装
置101の方位検出部206がカメラ201の方向を検出する。すなわち、ステップS6
02においてカメラ201で画像を取得することで、画像の方位情報を取得することがで
きる。
Next, the orientation information of the image is acquired (step S604). Here, the direction detection unit 206 of the navigation device 101 detects the direction of the camera 201. That is, step S6
By acquiring an image with the camera 201 in 02, it is possible to acquire image orientation information.

次に、サンプル画像データを生成する(ステップS605)。ここでは、ステップS6
01〜ステップS604の処理によって取得された、画像、当該画像の被写体名、当該画
像の位置情報およびその方位情報を関連づけて、サーバ102で処理するためのサンプル
画像データを生成する。
Next, sample image data is generated (step S605). Here, step S6
Sample image data to be processed by the server 102 is generated by associating the image, the subject name of the image, the position information of the image, and the azimuth information acquired by the processing from 01 to step S604.

サンプル画像データの送信を行う(ステップS606)。ここでは、ステップS605
で生成されたサンプル画像データをナビゲーション装置101からネットワーク100へ
送信する。
Sample image data is transmitted (step S606). Here, step S605 is performed.
The sample image data generated in (1) is transmitted from the navigation device 101 to the network 100.

サーバがサンプル画像データを受信する(ステップS607)。ここでは、サーバ10
2がネットワーク100を介してナビゲーション装置101からのサンプル画像データを
受信する。
The server receives sample image data (step S607). Here, the server 10
2 receives the sample image data from the navigation apparatus 101 via the network 100.

ユーザに供給するための供給用画像データを分類構築する(ステップS608)。この
処理は、サーバ102のデータ分類構築部303により実行される。たとえば、取得した
複数の画像を被写体ごとに分類し、被写体ごとの画像データを構築する。各画像には被写
体がどの地点でどちらの方向から撮影されたものであるかを示す位置および方位情報が付
与されているので、被写体ごとに分類することで、たとえば同じ被写体を複数の方向から
撮影した画像をひとまとまりのデータとすることができる。
The image data for supply to be supplied to the user is classified and constructed (step S608). This process is executed by the data classification construction unit 303 of the server 102. For example, a plurality of acquired images are classified for each subject, and image data for each subject is constructed. Each image is given position and orientation information that indicates where the subject was taken from which direction, so by classifying by subject, for example, the same subject can be taken from multiple directions The obtained image can be used as a set of data.

分類構築された供給用画像データを格納する(ステップS609)。ここでは、ステッ
プS608で分類構築された供給用画像データをデータベース301に格納する。
The classified image data for supply is stored (step S609). Here, the supply image data classified and constructed in step S608 is stored in the database 301.

以上のような工程を経ることにより、ユーザに供給する目的物の画像データの収集が完
了する。ここで得られる画像データは、ナビゲーションシステムを利用するユーザの協力
により収集されるものであるため、よりユーザのニーズにあった画像データを収集するこ
とが可能になる。
Through the above-described steps, the collection of the target image data to be supplied to the user is completed. Since the image data obtained here is collected with the cooperation of the user who uses the navigation system, it is possible to collect image data that more meets the needs of the user.

次に、ユーザが目的物の画像の提供を受けるための処理手順について説明する。図7は
、本発明の実施の形態にかかるナビゲーションシステムにおけるユーザが目的物の画像の
提供を受けるための処理手順を示すフローチャートである。
Next, a processing procedure for the user to receive the target image will be described. FIG. 7 is a flowchart showing a processing procedure for a user to receive an object image in the navigation system according to the embodiment of the present invention.

図7のフローチャートにおいて、まず、目的地点情報を設定する(ステップS701)
。ここでは、ナビゲーション装置101の入力部203から、ユーザが取得したい画像の
目的地点情報(位置、方位、被写体名など)の入力を行う。
In the flowchart of FIG. 7, first, destination point information is set (step S701).
. Here, the destination point information (position, direction, subject name, etc.) of the image that the user wants to acquire is input from the input unit 203 of the navigation device 101.

目的地点情報の送信を行う(ステップS702)。ここでは、ステップS701で設定
された目的地点情報をナビゲーション装置101がネットワーク100へ送信する。
The destination point information is transmitted (step S702). Here, the navigation apparatus 101 transmits the destination point information set in step S701 to the network 100.

目的地点情報に合致する供給用画像データを検索抽出する(ステップS703)。ここ
では、サーバ102のデータ検索抽出部304が、送信されてきた前記目的地点情報(位
置、方位、被写体名など)に合致する供給用画像データがデータベース301にあるか否
かを検索し、合致する供給用画像データがある場合にそのデータをデータベース301か
ら抽出する。
The supply image data that matches the destination point information is retrieved and extracted (step S703). Here, the data search / extraction unit 304 of the server 102 searches whether or not the supply image data that matches the transmitted destination point information (position, orientation, subject name, etc.) exists in the database 301, and matches. If there is supply image data to be extracted, the data is extracted from the database 301.

供給用画像データの配信を受ける(ステップS704)。ここでは、ステップS703
で抽出された供給用画像データをユーザのナビゲーション装置101で受信する。ここで
受信するデータには、前記目的地点情報(位置、方位、被写体名など)に合致する複数の
画像(たとえば、一つの被写体を複数の方向から撮影した画像)が含まれている。
The distribution of the supply image data is received (step S704). Here, step S703 is performed.
The user's navigation device 101 receives the supply image data extracted in step S1. The data received here includes a plurality of images (for example, images obtained by photographing one subject from a plurality of directions) that match the destination point information (position, direction, subject name, etc.).

画像を選択表示する(ステップS705)。ステップS704において取得した供給用
画像データには、一つの被写体を複数の方向から撮影した画像が含まれている。そこで、
ユーザはナビゲーション装置101の入力部203などを操作することで所望の方向から
撮影されている画像を選択することで、データ処理部208が選択された画像を表示部2
02に表示させる。なお、前記供給用画像データには、一つの被写体を複数の方向から撮
影した画像が含まれていることから、ユーザが当初は希望していなかったが、後に異なる
方向からの画像が欲しくなった場合、再度ステップS701からの処理を実行しなくても
、このステップS705の処理を実行するだけで済む。
An image is selected and displayed (step S705). The supply image data acquired in step S704 includes images obtained by photographing one subject from a plurality of directions. there,
The user operates the input unit 203 of the navigation device 101 to select an image taken from a desired direction, so that the data processing unit 208 displays the selected image.
02 is displayed. In addition, since the image data for supply includes an image obtained by photographing one subject from a plurality of directions, the user did not want it at first, but later wanted an image from a different direction. In this case, it is only necessary to execute the process of step S705 without executing the process from step S701 again.

なお、このステップS705において、ナビゲーション装置101における位置認識部
205および方位検出部206の動作によりユーザの位置および方位を検出できるので、
取得した供給用画像データに含まれる画像から検出された位置および方位と合致する画像
をデータ処理部208が抽出して、その画像を表示部202に表示させるようにしてもよ
い。
In step S705, the position and orientation of the user can be detected by the operations of the position recognition unit 205 and the orientation detection unit 206 in the navigation device 101.
The data processing unit 208 may extract an image that matches the position and orientation detected from the image included in the acquired supply image data, and display the image on the display unit 202.

以上のような工程を経ることにより、ユーザは所望する方向から撮影された目的物の画
像を取得することができる。
By going through the steps as described above, the user can acquire an image of the object photographed from a desired direction.

(道路の危険情報を得る場合の処理)
次に、本発明の実施の形態にかかるナビゲーションシステムによって、道路の危険情報
を得る場合の処理について説明する。以下では、ユーザに提供する道路の危険情報を行う
ための処理手順と、ユーザが道路の危険情報の提供を受けるための処理手順について示す

道路の危険情報の提示方法としては、工事現場や障害物の写真や、危険を示す図形などを
表示することであり、その位置についてはおおまかな場所として示す。詳細な位置がわか
らなくても、危険の有無に関する情報は有益であり、道路の混雑度の目安にもなる。
(Process for obtaining road hazard information)
Next, processing when road danger information is obtained by the navigation system according to the embodiment of the present invention will be described. Hereinafter, a processing procedure for performing road risk information provided to the user and a processing procedure for the user to receive road risk information will be described.
As a method of presenting road danger information, a photograph of a construction site or an obstacle, a figure indicating danger, or the like is displayed, and the position is shown as a rough place. Even if you do not know the detailed location, information about the presence or absence of danger is useful and can also be a measure of road congestion.

まず、ユーザに提供する道路の危険情報収集を行うための処理手順を説明する。
図8は、本発明の実施の形態にかかるナビゲーションシステムにおけるユーザに提供す
る道路の危険情報収集を行うための処理手順を示すフローチャートであり、図9は、本発
明の実施の形態にかかるナビゲーションシステムにおけるユーザが道路の危険情報の提供
を受けるための処理手順を示すフローチャートである。
First, a processing procedure for collecting road danger information provided to the user will be described.
FIG. 8 is a flowchart showing a processing procedure for collecting road risk information provided to the user in the navigation system according to the embodiment of the present invention, and FIG. 9 is a navigation system according to the embodiment of the present invention. It is a flowchart which shows the process sequence for the user in to receive provision of the danger information of a road.

図8のフローチャートにおいて、まず、位置情報を取得する(ステップS801)。具
体的には、ナビゲーション装置101の位置認識部205が、ユーザの現存位置の情を取
得する。
In the flowchart of FIG. 8, first, position information is acquired (step S801). Specifically, the position recognition unit 205 of the navigation device 101 acquires information on the user's existing position.

次に、画像を取得する(ステップS802)。具体的には、ナビゲーション装置101
に備えられているカメラ201が画像を取得する。
Next, an image is acquired (step S802). Specifically, the navigation device 101
The camera 201 included in the camera acquires an image.

次に、画像の方位情報を取得する(ステップS803)。ここでは、ナビゲーション装
置101の方位検出部206がカメラ201の方向を検出する。すなわち、ステップS8
02においてカメラ201で画像を取得することで、当該画像の方位情報を取得すること
ができる。
Next, the orientation information of the image is acquired (step S803). Here, the direction detection unit 206 of the navigation device 101 detects the direction of the camera 201. That is, step S8
By acquiring an image with the camera 201 in 02, the orientation information of the image can be acquired.

次に、サンプル画像データを生成する(ステップS804)。ここでは、ステップS8
01〜ステップS803の処理によって取得された、画像、当該画像情報の位置情報およ
びその方位情報を統合して、サンプル画像データを生成する。このサンプル画像データは
、サーバ102の処理に用いられる。
Next, sample image data is generated (step S804). Here, step S8
Sample image data is generated by integrating the image, the position information of the image information, and the orientation information acquired by the processing of 01 to step S803. This sample image data is used for processing of the server 102.

サンプル画像データの送信を行う(ステップS805)。ここでは、ステップS804
で生成されたサンプル画像データをナビゲーション装置101からネットワーク100へ
送信する。
The sample image data is transmitted (step S805). Here, step S804 is performed.
The sample image data generated in (1) is transmitted from the navigation device 101 to the network 100.

サーバがサンプル画像データを受信する(ステップS806)。ここでは、サーバ10
2がネットワーク100を介してナビゲーション装置101からのサンプル画像データを
受信する。
The server receives sample image data (step S806). Here, the server 10
2 receives the sample image data from the navigation apparatus 101 via the network 100.

ユーザに供給するための供給用画像データを分類構築する(ステップS807)。この
処理は、サーバ102のデータ分類構築部303により実行される。取得したサンプル画
像データに含まれる画像をその画像に付加された位置情報およびその方位情報を参照して
位置方位ごとに分類し、分類された画像を分析し当該画像に含まれる道路の危険情報を判
別可能な危険情報画像データを構築する。
The image data for supply to be supplied to the user is classified and constructed (step S807). This process is executed by the data classification construction unit 303 of the server 102. The image included in the acquired sample image data is classified for each position and direction by referring to the position information and the direction information added to the image, the classified image is analyzed, and road risk information included in the image is analyzed. Build risk information image data that can be identified.

分類構築された供給用画像データを格納する(ステップS808)。ここでは、ステッ
プS807で分類構築された供給用画像データをデータベース301に格納する。
The classified image data for supply is stored (step S808). Here, the supply image data classified and constructed in step S807 is stored in the database 301.

以上のような工程を経ることにより、ユーザに提供する道路の危険情報の収集が完了す
る。ここで得られる画像データは、ナビゲーションシステムを利用する各ユーザの協力に
より収集されるものであり、ユーザがよく利用する地域の危険情報ほど多く収集できるよ
うになる。したがって、よりユーザのニーズにあった危険情報を収集することが可能にな
る。
Through the above steps, collection of road danger information provided to the user is completed. The image data obtained here is collected with the cooperation of each user who uses the navigation system, and can be collected as much as the danger information of the area frequently used by the user. Therefore, it is possible to collect danger information that better meets the needs of the user.

なお、ここでは携帯可能なナビゲーション装置101により画像を収集する例を示した
が、たとえば、街頭カメラにより画像を収集してもよい。ただし、この場合は、当該街頭
カメラがその位置情報や撮影する画像の方位情報を取得できる機能を備えている必要があ
る。
In addition, although the example which collects an image with the portable navigation apparatus 101 was shown here, you may collect an image with a street camera, for example. However, in this case, it is necessary that the street camera has a function capable of acquiring the position information and the orientation information of the image to be taken.

次に、ユーザが道路の危険情報の提供を受けるための処理手順について説明する。図9
は、本発明の実施の形態にかかるナビゲーションシステムにおけるユーザが道路の危険情
報の提供を受けるための処理手順を示すフローチャートである。
Next, a processing procedure for the user to receive provision of road danger information will be described. FIG.
These are the flowcharts which show the process sequence for the user in the navigation system concerning embodiment of this invention to receive provision of road danger information.

図9のフローチャートにおいて、まず、ユーザの現在地点の位置情報および方位情報を
取得する(ステップS1001)。ここでは、ナビゲーション装置101における位置認
識部205および方位検出部206の動作によりユーザの位置情報および方位情報を取得
する。
In the flowchart of FIG. 9, first, position information and direction information of the current location of the user are acquired (step S1001). Here, the position information and the direction information of the user are acquired by the operations of the position recognition unit 205 and the direction detection unit 206 in the navigation device 101.

次に、ユーザの現在地点の位置情報および方位情報を送信する(ステップS1002)
。ここでは、ステップS1001で取得されたユーザの現在地点の位置情報および方位情
報をナビゲーション装置101がネットワーク100へ送信する。
Next, the location information and direction information of the current location of the user are transmitted (step S1002).
. Here, the navigation apparatus 101 transmits the position information and direction information of the current location of the user acquired in step S1001 to the network 100.

ユーザの現在地点の位置情報および方位情報に合致する危険情報画像データを検索抽出
する(ステップS1003)。ここでは、サーバ102のユーザ位置検出部305が、ナ
ビゲーション装置101から送られてきた位置情報および方位情報に基づき、ユーザの現
存位置を検出する。そして、ユーザ位置検出部305で検出されたユーザの現存位置およ
び方位に合致する危険情報画像データがデータベース301にあるか否かをデータ検索抽
出部304に検索させ、合致する危険情報画像データがある場合にデータ検索抽出部30
4にそのデータをデータベース301から抽出する。
The risk information image data that matches the position information and direction information of the current location of the user is retrieved and extracted (step S1003). Here, the user position detection unit 305 of the server 102 detects the user's existing position based on the position information and the direction information sent from the navigation device 101. Then, the data search / extraction unit 304 is searched for whether or not the risk information image data matching the user's existing position and orientation detected by the user position detection unit 305 exists in the database 301, and there is matching risk information image data. Data retrieval and extraction unit 30
4, the data is extracted from the database 301.

危険情報画像データの配信を受ける(ステップS1004)。ここでは、ステップS1
003で抽出された危険情報画像データをユーザのナビゲーション装置101で受信する
The distribution of the danger information image data is received (step S1004). Here, step S1
The danger information image data extracted in 003 is received by the user's navigation device 101.

危険情報画像を表示する(ステップS1005)。ステップS1004において取得し
た危険情報画像データは、ユーザが現存する位置方位における危険情報が視覚的に判別で
きる危険情報画像データであるため、これをデータ処理部208が表示部202に表示さ
ることにより、ユーザは工事中などの状況を視覚的に把握することで、道路の危険情報を
取得することができる。
A danger information image is displayed (step S1005). Since the danger information image data acquired in step S1004 is danger information image data in which the danger information in the position and direction in which the user currently exists can be visually discriminated, the data processing unit 208 displays this on the display unit 202. The user can acquire road danger information by visually grasping the situation such as construction.

以上のような工程を経ることにより、ユーザは現存する位置方位における危険情報が容
易に判別できる危険情報画像データを取得することができ、効率的で安全な通行ができる
ようになる。
Through the above-described steps, the user can acquire danger information image data from which danger information in the existing position and orientation can be easily determined, and can perform efficient and safe passage.

また、本発明の実施の形態にかかるナビゲーションシステムでは、サーバ102に一般
的なナビゲーションシステムが有している経路誘導機能が設けられているため、一般的な
ナビゲーションシステムと同様の経路誘導情報を取得することもできる。
Further, in the navigation system according to the embodiment of the present invention, the route guidance function that the general navigation system has is provided in the server 102, so that the same route guidance information as the general navigation system is acquired. You can also

(ユーザの状況を推定する場合の処理)
次に、本発明の実施の形態にかかるナビゲーションシステムによって、複数回の視線履
歴を利用して、ユーザの状況および意図を推定し、それに合わせて適切な情報を提供する
場合の処理について説明する。
(Process when estimating the user situation)
Next, a description will be given of processing in the case where the navigation system according to the embodiment of the present invention estimates a user's situation and intention using a plurality of line-of-sight histories and provides appropriate information accordingly.

図11は、ユーザの注視対象の変化を示す4通りの模式図であり、図12は、その注視対
象の変化からユーザの状況を推定するパターンを示す説明図である。
ユーザがどの位置でどの方位を向いていたかを表す視線情報(P1、P2、P3)を短時
間内で連続的に取得し、その履歴から、注視対象(A、B、C)の変化のパターン(イ、
ロ、ハ、ニ)を求め、それから現時点でのユーザの関心等の状況を推定することができる
FIG. 11 is four schematic diagrams showing changes in the user's gaze target, and FIG. 12 is an explanatory diagram showing patterns for estimating the user's situation from the change in the gaze target.
The line-of-sight information (P1, P2, P3) indicating which position the user is facing in which direction is continuously acquired within a short time, and the change pattern of the gaze target (A, B, C) is obtained from the history. (I,
(B), (c), (d) can be obtained, and the current situation of the user's interest or the like can be estimated.

パターン(イ)では、注視対象が2回続けて同一の建物(A)であったから、ユーザの
関心は建物(A)にあると推定できる。
注視対象が2回続けて同一でなかった場合には、次回の注視対象を勘案する。
すなわち、パターン(ロ)のように、3回目の注視対象が1回目の注視対象に戻った場合
は、ユーザの関心は建物(A)(B)の間で迷っていると推定できる。また、パターン(
ハ)のように、3回目の注視対象が2回目の注視対象と同一なら、パターン(イ)と同様
に、ユーザの関心は建物(B)にあると推定できる。また、パターン(ニ)のように、3
回目の注視対象が1回目および2回目の注視対象と異なった場合は、ユーザの関心は定ま
っていないと推定できる。
In the pattern (a), the gaze target is the same building (A) twice in succession, so it can be estimated that the user's interest is in the building (A).
If the gaze target is not the same twice, the next gaze target is taken into account.
That is, when the third gaze target returns to the first gaze target as in the pattern (b), it can be estimated that the user's interest is lost between the buildings (A) and (B). Also, the pattern (
If the third gaze target is the same as the second gaze target as in (c), it can be estimated that the user's interest is in the building (B) as in the pattern (A). Also, as in pattern (d), 3
If the first gaze target is different from the first and second gaze targets, it can be estimated that the user's interest is not fixed.

この推定結果を利用し、パターン(イ)の場合には、建物(A)に関する情報をユーザ
へ提供し、パターン(ロ)の場合には、建物(A)(B)に関する情報をユーザへ提供し
、パターン(ハ)の場合には、建物(B)に関する情報をユーザへ提供し、パターン(ニ
)の場合には、建物(A)(B)(C)などユーザの現存位置周辺に関する情報をユーザ
へ提供する。
Using this estimation result, in the case of pattern (A), information on the building (A) is provided to the user, and in the case of pattern (B), information on the building (A) (B) is provided to the user. In the case of the pattern (c), information on the building (B) is provided to the user. In the case of the pattern (d), information on the surroundings of the user's existing position such as the buildings (A), (B), and (C). Is provided to the user.

図13は、本発明の実施の形態にかかるナビゲーションシステムにおいて、ユーザ状況
を推定し適切な情報を提供するための処理手順を示す要部のフローチャートである。
まず、ユーザの位置情報を取得する(ステップS1301)。具体的には、ナビゲーショ
ン装置101の位置認識部205が、ユーザの現存位置の情報を取得する。
FIG. 13 is a main part flowchart showing a processing procedure for estimating a user situation and providing appropriate information in the navigation system according to the embodiment of the present invention.
First, user position information is acquired (step S1301). Specifically, the position recognition unit 205 of the navigation device 101 acquires information on the user's existing position.

引き続き、方位情報を取得する(ステップS1302)。ここでは、ナビゲーション装
置101の方位検出部206がカメラ201の方向を検出する。
すなわち、ユーザが備える可般型のカメラ201で画像情報を取得することで、位置認識
部205が取得したユーザの現存位置情報とあわせ、当該画像が取得された地点およびそ
の地点からの方位を把握することができる。
Subsequently, direction information is acquired (step S1302). Here, the direction detection unit 206 of the navigation device 101 detects the direction of the camera 201.
In other words, by acquiring image information with a general-purpose camera 201 provided by the user, the user's existing position information acquired by the position recognition unit 205 and the orientation from the point where the image is acquired are grasped. can do.

得られた位置方位情報データを、ネットワーク100を介してサーバ102へ送信する
(ステップ1303)。ここでは、前記実施例のようにサンプル画像データとして送信し
てもよいし、位置と方位のみのデータだけでもよい。また、その位置方位情報データは逐
次、連続的に送信することが好ましい。
The obtained position / orientation information data is transmitted to the server 102 via the network 100 (step 1303). Here, it may be transmitted as sample image data as in the above-described embodiment, or only data of position and orientation may be used. Moreover, it is preferable to transmit the position / orientation information data sequentially and continuously.

サーバ102では、ナビゲーション装置101から送信された位置方位情報データを受
信する(ステップS1304)。
The server 102 receives the position / orientation information data transmitted from the navigation device 101 (step S1304).

そして、ナビゲーション装置101から受信する位置方位情報の履歴からユーザの注視
状況を推定する。すなわち、連続2回のユーザの注視対象を比較し(ステップS1305
)、同一であれば(A、A)、ユーザはその注視対象(A)を見ている状況であると判断
して(パターン(イ))、その注視対象(A)に関する情報をユーザへ提供する(ステッ
プS1306)。
Then, the user's gaze state is estimated from the history of position and orientation information received from the navigation device 101. That is, the user's gaze target for two consecutive times is compared (step S1305).
If they are the same (A, A), the user judges that the user is looking at the gaze target (A) (pattern (A)) and provides the user with information about the gaze target (A) (Step S1306).

連続2回のユーザの注視対象が異なれば(A、B)、その次回のユーザの注視対象の入
力を待って比較し(ステップS1307)、それが前2回のうち前の方の注視対象(A)
と同一ならば(A、B、A)、ユーザはそれらの注視対象(A)(B)の間で見るものを
迷っている状況であると判断して(パターン(ロ))、その複数の注視対象(A)(B)
に関する情報をユーザへ提供する(ステップS1308)。
If the user's gaze target for two consecutive times is different (A, B), it waits for the next user's gaze target input to be compared (step S1307), which is the earlier gaze target of the previous two times ( A)
(A, B, A), it is determined that the user is wondering what to look at between the gaze targets (A) and (B) (pattern (b)), and the plurality of Gaze target (A) (B)
The information regarding is provided to the user (step S1308).

また、連続2回のユーザの注視対象が異なり(A、B)、その次回のユーザの注視対象
の入力を待って比較し(ステップS1307)、それが前2回のうち後の方の注視対象(
B)と同一ならば(A、B、B)、ユーザはその前2回のうち後の方の注視対象(B)を
見ている状況であると判断して(パターン(ハ))、その前2回のうち後の方の注視対象
(B)に関する情報をユーザへ提供する(ステップS1309)。
Also, the user's gaze target for two consecutive times is different (A, B), and comparison is made after waiting for the next user's gaze target input (step S1307). (
If it is the same as (B) (A, B, B), the user judges that it is the situation where he / she is looking at the target (B) in the latter two times (Pattern (C)), Information on the later gaze target (B) of the previous two times is provided to the user (step S1309).

また、連続2回のユーザの注視対象が異なり(A、B)、その次回のユーザの注視対象
の入力を待って比較し(ステップS1307)、それが前2回のユーザの注視対象(A)
(B)のいずれとも異なれば(A、B、C)、ユーザは注視対象を定めていない状況であ
ると判断し(パターン(ニ))、それらの注視対象(A)(B)(C)などユーザの現存
位置の周辺に関する情報をユーザへ提供する(ステップS1310)。
Further, the user's gaze target for two consecutive times is different (A, B), and comparison is made after waiting for the next user's gaze target input (step S1307), which is the previous two user's gaze target (A).
If it is different from any of (B) (A, B, C), it is determined that the user has not determined a gaze target (pattern (d)), and those gaze targets (A) (B) (C) For example, information about the periphery of the user's existing position is provided to the user (step S1310).

図14は、上記パターン(イ)および(ハ)の場合において、注視対象(A)に関する
情報をユーザへ提供する様態を例示する説明図である。
ナビゲーション装置101としての携帯電話等の画面には、注視対象(A)としての建物
の名称や説明文(D1)や写真(D2)や詳細説明へのリンク(D3)が表示される。
FIG. 14 is an explanatory view exemplifying a state in which information regarding the gaze target (A) is provided to the user in the case of the patterns (A) and (C).
On the screen of a mobile phone or the like as the navigation device 101, the name of the building as the gaze target (A), the description (D1), the photograph (D2), and the link (D3) to the detailed description are displayed.

写真(D2)が表示されることで、ユーザは眼前の風景と比較でき、ナビゲーションに
対する安心感も得られる。また、写真(D2)と現実の注視対象(A)とが異なれば検索
の修正にも寄与する。
By displaying the photograph (D2), the user can compare with the scenery in front of the eyes, and the sense of security for navigation can be obtained. Further, if the photograph (D2) and the actual gaze target (A) are different, it contributes to correction of the search.

また、詳細説明へのリンク(D3)等へ進むことで、ユーザは注視対象(A)に関する
詳細情報を得られる。そのような詳細情報には、例えば、注視対象(A)が建物なら、そ
こに社屋のある事業者の名称等の情報やその会社の連絡先やHPへのリンクなどが挙げら
れる。更に、注視対象(A)が建物の特定の階層に限定されれば、事業者も限定でき、道
案内としてのナビゲーションに有用である。
Further, the user can obtain detailed information regarding the gaze target (A) by proceeding to the link (D3) to the detailed description. Such detailed information includes, for example, information such as the name of a company that has a company building, a contact information of the company, a link to HP, and the like if the object to be watched (A) is a building. Furthermore, if the gaze target (A) is limited to a specific level of the building, the operator can also be limited, which is useful for navigation as route guidance.

図15は、上記パターン(ロ)の場合において、注視対象(A)(B)に関する情報を
ユーザへ提供する様態を例示する説明図である。
ナビゲーション装置101としての携帯電話等の画面には、注視対象(A)(B)として
の2つの建物の名称や説明文(D1)や写真(D2)や詳細説明へのリンク(D3)が表
示される。
FIG. 15 is an explanatory diagram exemplifying a state in which information regarding the gaze target (A) (B) is provided to the user in the case of the pattern (b).
On the screen of the mobile phone or the like as the navigation device 101, the names of two buildings as the gaze target (A) (B), the description (D1), the photograph (D2), and the link (D3) to the detailed description are displayed. Is done.

図16は、上記パターン(ニ)の場合において、注視対象(A)(B)(C)などユー
ザの現存位置の周辺に関する情報をユーザへ提供する様態を例示する説明図である。
ナビゲーション装置101としての携帯電話等の画面には、地図(D4)と共に、注視対
象(A)(B)としての3つの建物の名称や説明文(D1)や写真(D2)や詳細説明(
D5)へのリンク(D3)が表示される。
FIG. 16 is an explanatory view exemplifying a state in which information relating to the periphery of the user's existing position such as the gaze target (A), (B), or (C) is provided to the user in the case of the pattern (d).
On the screen of the mobile phone or the like as the navigation device 101, the map (D4) and the names, descriptions (D1), photographs (D2), and detailed descriptions of the three buildings as the gaze target (A) and (B) (
A link (D3) to D5) is displayed.

図示の例では、ユーザの視線情報(P)や、他のユーザの視線情報(Q)や、推奨スポ
ット(D6)も表示されている。推奨スポット(D6)の店舗情報や道順などを示しても
よい。
ユーザの視線情報(P)としては、時間的に直近のデータを用い、他のユーザの視線情報
(Q)としては、時間的に直近の1ユーザのデータや、多くのユーザが示した平均的なデ
ータでもよい。また、推奨スポット(D6)としては、人気の高い店舗や景勝地などが挙
げられる。
In the illustrated example, the user's line-of-sight information (P), the line-of-sight information (Q) of other users, and the recommended spot (D6) are also displayed. Store information, directions, and the like of the recommended spot (D6) may be indicated.
As the user's line-of-sight information (P), the latest data in time is used, and as the line-of-sight information (Q) of other users, the data of one user who is closest in time or the average number of users indicated May be correct data. The recommended spot (D6) includes popular shops and scenic spots.

(位置情報から方位情報を推定する場合の処理)
次に、本発明の実施の形態にかかるナビゲーションシステムによって、位置情報の履歴
を利用して、ユーザの方位情報を推定する場合の処理について説明する。
(Process when estimating direction information from position information)
Next, a description will be given of processing in the case of estimating user orientation information using a history of position information by the navigation system according to the embodiment of the present invention.

図17は、位置情報の履歴からユーザの方位情報を推定する様態を示す説明図である。
GPS等を用いてユーザの位置情報(R1)(R2)を短時間で連続して2回取得し、
初めの位置(R1)を支点とし、後の位置(R2)を終点とするベクトルの向きを、ユー
ザの方位と推定する。
ユーザの位置情報の取得は2回に限らず多数回として、それから得られるベクトルの向
きの平均をとるなど適宜演算処理してもよい。
FIG. 17 is an explanatory diagram showing a state in which user orientation information is estimated from a history of position information.
The user's location information (R1) (R2) is acquired twice in a short time using GPS or the like,
The direction of the vector having the first position (R1) as a fulcrum and the latter position (R2) as an end point is estimated as the user's direction.
The acquisition of the user's position information is not limited to two times, and may be performed appropriately, for example, by averaging the directions of vectors obtained from the number of times.

これによると、環境条件によって電子コンパス等を使えない場合や具備していない場合
や故障時にも、ユーザの位置と視線方向に基づいた写真マッピングやガイダンスを行うこ
とができる。
According to this, even when an electronic compass or the like cannot be used or is not provided depending on environmental conditions, or when a failure occurs, photo mapping and guidance based on the user's position and line-of-sight direction can be performed.

(方位情報が得られない場合の処理)
次に、本発明の実施の形態にかかるナビゲーションシステムによって、方位情報が得ら
れない場合のナビゲーション処理について説明する。
(Processing when direction information cannot be obtained)
Next, navigation processing when direction information cannot be obtained by the navigation system according to the embodiment of the present invention will be described.

図18は、方位情報が得られない場合でも利用できるナビゲーション画面を例示する説
明図である。
ユーザへのサービス形態によっては、情報提供時にはユーザの方位情報がわからなくて
もよい場合がある。例えば、ユーザの現存位置の周辺の推奨スポットをガイドするような
場合である。
FIG. 18 is an explanatory diagram illustrating a navigation screen that can be used even when direction information cannot be obtained.
Depending on the form of service to the user, it may not be necessary to know the direction information of the user when providing information. For example, a recommended spot around the user's existing position is guided.

図示の例では、推奨スポットとしてお勧め撮影スポット(D6)を提示している。地図
(D4)には、GPS等から得られるユーザの現存位置(R)と、その周辺のお勧め撮影
スポット(D6)が示され、欄外に、お勧め撮影スポット(D6)の詳細説明へのリンク
(D3)や、他のお勧め撮影スポット(D6)を検索するための条件入力メニューへのリ
ンク(D7)が示されている。
お勧め撮影スポット(D6)に、その位置だけでなく、お勧めの撮影方位を示したり、
そこで撮影した写真へのリンクを付設してもよい。これによると、ユーザは、どこでどち
らを向けばどのような光景が見えるかを容易に知ることができ、特に公園などの広い場所
で効率的にお勧め撮影スポット(D6)を見つけることができ、また、道案内にも有用で
ある。
In the illustrated example, a recommended photographing spot (D6) is presented as a recommended spot. The map (D4) shows the user's existing location (R) obtained from GPS and the like, and recommended shooting spots (D6) in the vicinity, and a detailed description of the recommended shooting spot (D6) is shown in the margin. A link (D7) and a link (D7) to a condition input menu for searching for other recommended shooting spots (D6) are shown.
The recommended shooting spot (D6) shows not only the position but also the recommended shooting direction,
Therefore, a link to the photograph taken may be attached. According to this, the user can easily know where and what kind of sight can be seen, and can find a recommended shooting spot (D6) efficiently in a large place such as a park, It is also useful for route guidance.

お勧め撮影スポット(D6)の選択基準には、例えば、撮影された日時の新しさや、多
数の人が撮影していること、夏の噴水や秋の紅葉などの季節、天候、時間帯、ユーザの現
存地から遊歩道だけをたどって行けること、高低差があまりないことなど諸々の条件が使
用できる。
The selection criteria for the recommended shooting spot (D6) include, for example, the newness of the shooting date, the shooting of many people, the season such as summer fountains and autumn leaves, weather, time zone, Various conditions can be used, such as being able to follow only the promenade from the user's existing location and not having much difference in elevation.

図19の例では、お勧め撮影スポット(D6)を個々に提示しないで、まとめて一括表
示(D8)している。その一括表示スポット(D8)に、お勧め撮影スポット(D6)を
個々に提示する詳細地図へのリンクを付設してもよい。
In the example of FIG. 19, the recommended shooting spots (D6) are not displayed individually but collectively displayed (D8). A link to a detailed map that presents the recommended shooting spots (D6) individually may be attached to the collective display spot (D8).

図20は、お勧め撮影スポット(D6)で撮影された写真(D2)をブログ風に表示す
る例の説明図である。
図示の例では、複数のお勧め撮影スポット(D6)で撮影された写真(D2)が、その
タイトル(D9)や説明文(D1)や詳細説明へのリンク(D3)と共に表示されている
。詳細説明へのリンク(D3)の先では、拡大した写真(D2)の他に、方位や撮影者名
などの撮影情報詳細説明へのリンク(D10)、撮影位置を示す地図(D4)が表示され
る。地図(D4)に、ユーザの現存地から撮影位置への道案内を付加してもよい。
FIG. 20 is an explanatory diagram of an example of displaying a photograph (D2) taken at the recommended shooting spot (D6) in a blog style.
In the illustrated example, a photograph (D2) taken at a plurality of recommended shooting spots (D6) is displayed together with its title (D9), description (D1), and a link (D3) to detailed explanation. At the end of the link (D3) to the detailed description, in addition to the enlarged photo (D2), a link (D10) to the detailed description of the shooting information such as direction and photographer name, and a map (D4) indicating the shooting position are displayed. Is done. A route guide from the user's existing location to the shooting position may be added to the map (D4).

以上説明したように、本発明によれば、ユーザが所望する方向からの目的物の画像情報
や、道路の危険情報など、個々のユーザが必要とする情報を画像で提供できるようになる

また、写真を蓄積したデータベースと、電子地図およびユーザの現存地との関係を有機
的に結びつけたナビゲーションが得られる。
As described above, according to the present invention, it is possible to provide information required by each user such as image information of a target object from a direction desired by the user and road danger information as an image.
In addition, navigation that organically links the relationship between the database storing photographs, the electronic map, and the user's existing location can be obtained.

なお、本実施の形態で説明したナビゲーション方法(図6および図7、図8および図1
0に示したような処理)は、あらかじめ用意されたプログラムをパーソナル・コンピュー
タやワークステーション等のコンピュータで実行することにより実現することができる。
このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DV
D等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒
体から読み出されることによって実行される。またこのプログラムは、インターネット等
のネットワークを介して配布することが可能な伝送媒体であってもよい。
The navigation method described in this embodiment (FIGS. 6 and 7, FIG. 8 and FIG. 1).
The processing shown in FIG. 0) can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
This program is hard disk, flexible disk, CD-ROM, MO, DV
The program is recorded on a computer-readable recording medium such as D, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

以上のように、本発明は、ナビゲーションシステムに有用であり、特に、よりユーザ個
々のニーズに合った情報を提供することができる。
As described above, the present invention is useful for a navigation system, and in particular, can provide information that meets the needs of individual users.

本発明の実施の形態にかかるナビゲーションシステムの概略構成を示す図である。It is a figure which shows schematic structure of the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムに用いるナビゲーション装置の機能的構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure of the navigation apparatus used for the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムに用いるサーバの機能的構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the server used for the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムに用いるナビゲーション装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the navigation apparatus used for the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムに用いるサーバのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the server used for the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムにおけるユーザに提供する目的物の画像収集の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image collection of the target object provided to the user in the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムにおけるユーザが目的物の画像の提供を受けるための処理手順を示すフローチャートである。It is a flowchart which shows the process sequence for the user in the navigation system concerning embodiment of this invention to receive provision of the image of a target object. 本発明の実施の形態にかかるナビゲーションシステムにおけるユーザに提供する道路の危険箇所情報収集を行うための処理手順を示すフローチャートである。It is a flowchart which shows the process sequence for performing the dangerous point information collection of the road provided to the user in the navigation system concerning embodiment of this invention. 本発明の実施の形態にかかるナビゲーションシステムにおけるユーザが道路の危険情報の提供を受けるための処理手順を示すフローチャートである。It is a flowchart which shows the process sequence for the user in the navigation system concerning embodiment of this invention to receive provision of road danger information. 本発明の実施の形態にかかるユーザの注視対象の変化を示す4通りの模式図である。It is four schematic diagrams which show the change of the user's gaze object concerning embodiment of this invention. 本発明の実施の形態にかかる注視対象の変化からユーザの状況を推定するパターンを示す説明図である。It is explanatory drawing which shows the pattern which estimates a user's condition from the change of the gaze object concerning embodiment of this invention. 本発明の実施の形態にかかるビゲーションシステムにおけるユーザ状況を推定し適切な情報を提供するための処理手順を示す要部のフローチャートである。It is a flowchart of the principal part which shows the process sequence for estimating the user condition in the navigation system concerning embodiment of this invention, and providing suitable information. 本発明の実施の形態にかかるパターン(イ)および(ハ)の場合における注視対象(A)に関する情報をユーザへ提供する様態を例示する説明図である。It is explanatory drawing which illustrates the aspect which provides the user regarding the gaze object (A) in the case of the pattern (I) and (C) concerning embodiment of this invention. 本発明の実施の形態にかかるパターン(ロ)の場合における注視対象(A)(B)に関する情報をユーザへ提供する様態を例示する説明図である。It is explanatory drawing which illustrates the aspect which provides the user regarding the gaze object (A) (B) in the case of the pattern (b) concerning embodiment of this invention. 本発明の実施の形態にかかるパターン(ニ)の場合における注視対象(A)(B)(C)などユーザの現存位置の周辺に関する情報をユーザへ提供する様態を例示する説明図である。It is explanatory drawing which illustrates the aspect which provides the user with the information regarding the periphery of a user's existing position, such as gaze object (A) (B) (C) in the case of the pattern (d) concerning embodiment of this invention. 本発明の実施の形態にかかる位置情報の履歴からユーザの方位情報を推定する様態を示す説明図である。It is explanatory drawing which shows the aspect which estimates a user's azimuth | direction information from the log | history of the positional information concerning embodiment of this invention. 本発明の実施の形態にかかる方位情報が得られない場合でも利用できるナビゲーション画面を例示する説明図である。It is explanatory drawing which illustrates the navigation screen which can be utilized even when the azimuth | direction information concerning embodiment of this invention is not obtained. 本発明の実施の形態にかかる方位情報が得られない場合でも利用できるナビゲーション画面の別実施例を示す説明図である。It is explanatory drawing which shows another Example of the navigation screen which can be utilized even when the azimuth | direction information concerning embodiment of this invention is not obtained. 本発明の実施の形態にかかるお勧め撮影スポットで撮影された写真をブログ風に表示する例の説明図である。It is explanatory drawing of the example which displays the photograph image | photographed at the recommended photography spot concerning embodiment of this invention like a blog.

符号の説明Explanation of symbols

100 ネットワーク
101 ナビゲーション装置
102 サーバ
201 カメラ
202 表示部
203 入力部
204 記憶部
205 位置認識部
206 方位検出部
207 画像データ生成部
208 データ処理部
209,302 送受信部
301 データベース
303 データ分類構築部
304 データ検索抽出部
305 ユーザ位置検出部
306 経路誘導情報生成部
DESCRIPTION OF SYMBOLS 100 Network 101 Navigation apparatus 102 Server 201 Camera 202 Display part 203 Input part 204 Storage part 205 Position recognition part 206 Direction detection part 207 Image data generation part 208 Data processing part 209,302 Transmission / reception part 301 Database 303 Data classification construction part 304 Data search Extraction unit 305 User position detection unit 306 Route guidance information generation unit

Claims (17)

ネットワークを介して接続されたナビゲーション装置とサーバとを含み構成されるナビゲーションシステムであって、
前記ナビゲーション装置は、
ユーザの現存地点周囲の各種情報を画像として取得するカメラと、
画像を表示する表示手段と、
各種情報の入力を行う入力手段と、
ユーザの現存位置の情報を認識する位置認識手段と、
前記カメラが向いている方向を検出する方位検出手段と、
前記カメラが取得した画像、前記入力手段から入力された取得画像の被写体名、前記位置認識手段により認識されたユーザの現存位置情報、および前記方位検出手段が検出した取得画像の方位情報を関連付けて前記サーバにおける処理で用いられるサンプル画像データを生成する画像データ生成手段と、
前記位置認識手段が認識した位置情報および前記方位検出手段が検出した方位情報を、常時前記ネットワークを介して前記サーバへ送信する送信手段と、を備え、
前記サーバは、
前記ナビゲーション装置から取得したサンプル画像データを被写体ごとに分類し、一つの被写体に対して複数の方向から撮影された画像を含む、ユーザに供給するための供給用画像データを構築するデータ分類構築手段と、
前記データ分類構築手段により分類構築された供給用画像データを格納するデータベースと、
前記ナビゲーション装置が取得を希望する目的地点情報に合致する供給用画像データが前記データベースにあるか否かを検索し、合致する供給用画像データがある場合に当該画像データを前記データベースから抽出するデータ検索抽出手段と、を備え
かつ、前記データ分類構築手段は、取得した前記サンプル画像データに含まれる画像を該画像に関連付けられた位置情報およびその方位情報を参照して位置方位ごとに分類し、分類された画像を分析し当該画像に含まれる道路の危険情報を判別可能な画像データを構築する
ことを特徴とするナビゲーションシステム。
A navigation system including a navigation device and a server connected via a network,
The navigation device
A camera that acquires various information around the user's existing location as an image,
Display means for displaying an image;
Input means for inputting various information;
Position recognition means for recognizing information of the user's existing position;
Orientation detection means for detecting the direction in which the camera is facing;
The image acquired by the camera, the subject name of the acquired image input from the input unit, the user's existing position information recognized by the position recognition unit, and the direction information of the acquired image detected by the direction detection unit are associated with each other. Image data generating means for generating sample image data used in the processing in the server;
Transmission means for constantly transmitting the position information recognized by the position recognition means and the direction information detected by the direction detection means to the server via the network;
The server
Data classification construction means for classifying sample image data acquired from the navigation device for each subject and constructing supply image data to be supplied to a user including images taken from a plurality of directions with respect to one subject. When,
A database for storing supply image data classified and constructed by the data classification construction means;
Data for searching whether or not supply image data matching the destination point information desired to be acquired by the navigation device exists in the database, and extracting the image data from the database when there is a matching supply image data A search extraction means ,
The data classification construction means classifies the image included in the acquired sample image data for each position and orientation with reference to the position information associated with the image and the orientation information, and analyzes the classified image. A navigation system characterized by constructing image data capable of discriminating road danger information included in the image .
前記サーバは、
前記ナビゲーション装置から送られてきた位置情報および方位情報に基づき、ユーザの現存位置を検出するユーザ位置検出手段を備え、
前記データ検索抽出手段が、前記ユーザ位置検出手段により検出されたユーザの現存位置に合致する画像データが前記データベースにあるか否かを検索し、合致する画像データがある場合に当該画像データを前記データベースから抽出することを特徴とする
請求項1に記載のナビゲーションシステム。
The server
User position detection means for detecting the user's existing position based on the position information and direction information sent from the navigation device,
The data search and extraction means searches whether or not there is image data that matches the existing position of the user detected by the user position detection means in the database, and if there is matching image data, the image data is Characterized by extracting from the database
The navigation system according to claim 1 .
前記ナビゲーション装置は、
前記供給用画像データを前記ネットワークを介して前記サーバから取得し、前記供給用画像データに含まれる画像のうち、前記入力手段から入力された情報と合致する画像を抽出して前記表示手段に表示させるデータ処理手段と、
を備えていることを特徴とする請求項1または2に記載のナビゲーションシステム。
The navigation device
The supply image data is acquired from the server via the network, and an image that matches information input from the input unit is extracted from the images included in the supply image data and displayed on the display unit Data processing means,
The navigation system according to claim 1, further comprising:
前記データ処理手段は、取得した供給用画像情報データのなかから、前記位置認識手段が認識した位置情報および前記方位検出手段が検出した方位情報と合致する位置情報および方位情報が関連付けられている画像を前記表示手段に表示させることを特徴とする
請求項3に記載のナビゲーションシステム。
The data processing means is an image in which position information and direction information matching the position information recognized by the position recognition means and the direction information detected by the direction detection means are associated from the acquired supply image information data. Is displayed on the display means.
The navigation system according to claim 3 .
前記サーバは、
前記ナビゲーション装置から送られてきたユーザの位置情報および方位情報の履歴に基づき、ユーザの状況を推定するユーザ状況推定手段を備え、
その推定結果を前記データ検索抽出手段の検索抽出条件に入力することを特徴とする
請求項1〜4のいずれか一つに記載のナビゲーションシステム。
The server
Based on the user position information and the direction information history sent from the navigation device, the user situation estimation means for estimating the user situation,
The estimation result is input to a search extraction condition of the data search extraction means.
The navigation system according to any one of claims 1 to 4 .
前記方位検出手段の不使用時に、
前記サーバは、
前記ナビゲーション装置から送られてきたユーザの位置情報の履歴に基づき、ユーザの方位情報を推定するユーザ方位推定手段を備え、
その推定結果を前記データ検索抽出手段の検索抽出条件に入力することを特徴とする
請求項1〜5のいずれか一つに記載のナビゲーションシステム。
When not using the direction detection means,
The server
Based on a history of user location information sent from the navigation device, comprising user orientation estimation means for estimating user orientation information,
The estimation result is input to a search extraction condition of the data search extraction means.
The navigation system according to any one of claims 1 to 5 .
前記サーバは、
前記ナビゲーション装置から送られてきたユーザの位置情報に基づき、ユーザの現存位置の周辺の推奨スポットを前記データベースから検索抽出する推奨スポット検索抽出手段を備え、
その検索抽出結果を前記データ検索抽出手段の検索抽出条件に入力することを特徴とする
請求項1〜6のいずれか一つに記載のナビゲーションシステム。
The server
Based on the user's position information sent from the navigation device, a recommended spot search extracting means for searching and extracting recommended spots around the user's existing position from the database,
The search extraction result is input to a search extraction condition of the data search extraction means.
The navigation system according to any one of claims 1 to 6 .
前記方位検出手段の不使用時には、
前記サーバは、
前記推奨スポット検索抽出手段で方位情報付きの推奨スポット情報を検索抽出することを特徴とする
請求項7に記載のナビゲーションシステム。
When the orientation detection means is not used,
The server
The recommended spot search extracting means searches and extracts recommended spot information with direction information.
The navigation system according to claim 7 .
ユーザの現存位置の情報を取得する位置情報取得工程と、
画像を取得する画像取得工程と、
取得した画像の方位情報を取得する方位情報取得工程と、
前記位置情報取得工程で取得された位置情報と、前記画像取得工程で取得された画像と、前記方位情報取得工程で取得された方位情報とを関連づけて、サンプル画像データを生成するサンプル画像データ生成工程と、
前記サンプル画像データ生成工程で生成されたサンプル画像データに含まれる画像を当該画像に関連付けられた位置情報およびその方位情報を参照して位置方位ごとに分類し、分類された画像を分析し当該画像に含まれる道路の危険情報を判別可能な画像データを構築する危険情報画像データ分類構築工程と、
ユーザの現在地点の位置情報および方位情報を取得するユーザ位置方位情報取得工程と、
前記危険情報画像データ分類構築工程で分類構築された危険情報画像データのなかから、前記ユーザ位置方位情報取得工程で取得されたユーザの現在地点の位置情報および方位情報に合致する危険情報画像データを検索抽出する危険情報画像データ検索抽出工程と、
前記危険情報画像データ検索抽出工程で検索抽出された危険情報画像データを表示する危険情報画像表示工程と、
を有することを特徴とするナビゲーション方法。
A location information acquisition step for acquiring information of the user's existing location;
An image acquisition process for acquiring images;
An orientation information acquisition step of acquiring orientation information of the acquired image;
Sample image data generation for generating sample image data by associating the position information acquired in the position information acquisition step, the image acquired in the image acquisition step, and the direction information acquired in the direction information acquisition step Process,
The image included in the sample image data generated in the sample image data generation step is classified for each position and direction with reference to the position information associated with the image and the direction information, and the classified image is analyzed and the image is analyzed. A risk information image data classification construction process for constructing image data capable of discriminating road risk information included in the road,
A user position and direction information acquisition step of acquiring position information and direction information of the current location of the user;
Among the danger information image data classified and constructed in the danger information image data classification construction process, risk information image data that matches the position information and orientation information of the current location of the user acquired in the user position and orientation information acquisition process is obtained. Danger information image data search extraction process to search and extract,
A risk information image display step for displaying the risk information image data searched and extracted in the risk information image data search and extraction step;
A navigation method characterized by comprising:
前記ユーザ位置方位情報取得工程を連続的に複数回行い、ユーザの位置情報および方位情報の履歴を得るユーザ位置方位履歴情報取得工程と、
前記ユーザ位置方位履歴情報取得工程で取得されたユーザの位置情報および方位情報の履歴からユーザの注視状況を推定するユーザ状況推定工程と、
を有することを特徴とする請求項9に記載のナビゲーション方法。
The user position and orientation information acquisition step is continuously performed a plurality of times, and the user position and orientation history information acquisition step for obtaining a history of the user's position information and orientation information; and
A user situation estimation step of estimating a user's gaze situation from a history of the user position information and orientation information acquired in the user position orientation history information acquisition step;
The navigation method according to claim 9 , further comprising:
前記ユーザ状況推定工程で、
前記ユーザ位置方位履歴情報取得工程で取得された連続2回のユーザの注視対象が同一であれば、ユーザはその注視対象を見ている状況であると判断し、
その注視対象に関する情報をユーザへ提供する注視対象情報提供工程
を有することを特徴とする請求項10に記載のナビゲーション方法。
In the user situation estimation step,
If the user's gaze target for two consecutive times acquired in the user position / azimuth history information acquisition step is the same, it is determined that the user is viewing the gaze target,
The navigation method according to claim 10 , further comprising a gaze target information providing step of providing information regarding the gaze target to the user.
前記注視対象情報提供工程で提供される注視対象に関する情報が、注視対象の写真を含む
ことを特徴とする請求項11に記載のナビゲーション方法。
The navigation method according to claim 11 , wherein the information regarding the gaze target provided in the gaze target information providing step includes a photograph of the gaze target.
前記方位情報取得工程を経ない場合に、
前記位置情報取得工程で取得された位置情報の履歴に基づき、ユーザの方位情報を推定するユーザ方位推定工程
を有することを特徴とする請求項9〜12のいずれか一つに記載のナビゲーション方法。
When not going through the direction information acquisition step,
The navigation method according to any one of claims 9 to 12 , further comprising: a user orientation estimation step of estimating user orientation information based on a history of location information acquired in the location information acquisition step.
前記ユーザ方位推定工程が、ユーザの位置情報を連続的に2回行い、その位置の変化を元に、ユーザの方位を推定する演算である
ことを特徴とする請求項13に記載のナビゲーション方法。
The navigation method according to claim 13 , wherein the user orientation estimation step is an operation of continuously performing user position information twice and estimating a user orientation based on a change in the location.
前記位置情報取得工程で取得された位置情報に基づき、ユーザの現存位置の周辺の推奨スポットを、前記供給用画像データまたは前記危険情報画像データを含むデータベースから検索抽出する推奨スポット検索抽出工程
を有することを特徴とする請求項9〜14のいずれか一つに記載のナビゲーション方法。
Based on the position information acquired in the position information acquisition step, a recommended spot search extraction step of searching and extracting recommended spots around the user's existing position from the database including the supply image data or the danger information image data The navigation method according to any one of claims 9 to 14 , wherein:
前記推奨スポット検索抽出工程で検索抽出される推奨スポットに関する情報が、推奨スポットの写真を含む
ことを特徴とする請求項15に記載のナビゲーション方法。
The navigation method according to claim 15 , wherein the information related to the recommended spot searched and extracted in the recommended spot search and extraction step includes a photograph of the recommended spot.
請求項9〜16のいずれか一つに記載のナビゲーション方法をコンピュータに実行させることを特徴とするナビゲーションプログラム。 A navigation program causing a computer to execute the navigation method according to any one of claims 9 to 16 .
JP2008061232A 2007-06-12 2008-03-11 Navigation system, navigation method, and navigation program Expired - Fee Related JP5093667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008061232A JP5093667B2 (en) 2007-06-12 2008-03-11 Navigation system, navigation method, and navigation program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007155782 2007-06-12
JP2007155782 2007-06-12
JP2008061232A JP5093667B2 (en) 2007-06-12 2008-03-11 Navigation system, navigation method, and navigation program

Publications (2)

Publication Number Publication Date
JP2009020091A JP2009020091A (en) 2009-01-29
JP5093667B2 true JP5093667B2 (en) 2012-12-12

Family

ID=40359844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008061232A Expired - Fee Related JP5093667B2 (en) 2007-06-12 2008-03-11 Navigation system, navigation method, and navigation program

Country Status (1)

Country Link
JP (1) JP5093667B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4757933B2 (en) * 2009-06-26 2011-08-24 京セラ株式会社 Portable electronic device and method for operating portable electronic device
JP5363971B2 (en) * 2009-12-28 2013-12-11 楽天株式会社 Landscape reproduction system
JP5584581B2 (en) * 2010-10-12 2014-09-03 株式会社 ミックウェア Information system, terminal device, server device, and Web page search method
US20140195300A1 (en) * 2011-08-15 2014-07-10 Nec Corporation Site of interest extraction device, site of interest extraction method, and computer-readable recording medium
JP6265524B2 (en) * 2013-06-20 2018-01-24 株式会社 ミックウェア POSITION INFORMATION USAGE SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2016103467A1 (en) * 2014-12-26 2016-06-30 三菱電機株式会社 Camera position estimation control device, image processing device, and augmented reality system
US10922838B2 (en) 2016-02-26 2021-02-16 Nec Corporation Image display system, terminal, method, and program for displaying image associated with position and orientation
JP6559921B1 (en) * 2019-03-06 2019-08-14 株式会社ネイン Audio information providing system, information processing terminal control method, information processing terminal control program, audio output device control method, and audio output device control program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261770A (en) * 1995-03-27 1996-10-11 Hitachi Ltd Two-way communication type car navigation device
JPH08335037A (en) * 1995-06-06 1996-12-17 Toshiba Corp On-vehicle guide device
JP3800257B2 (en) * 1996-08-02 2006-07-26 オムロン株式会社 Attention information measurement method and apparatus, and various systems using the same
JPH10232135A (en) * 1997-02-20 1998-09-02 Sony Corp Image-data collecting method, image-data providing method, map forming method, position-data providing method, navigation device and vehicle
JP2001285526A (en) * 2000-03-31 2001-10-12 Nec Corp Two-way communication system
JP2001330449A (en) * 2000-05-24 2001-11-30 Fujitsu Ten Ltd Automobile navigation system
JP2003296341A (en) * 2002-04-03 2003-10-17 Nissan Motor Co Ltd Database generation method, database generation program, data structure, database generation system, retrieval system and retrieval method
JP4048818B2 (en) * 2002-04-24 2008-02-20 株式会社エクォス・リサーチ Information center apparatus and moving body
JP2006135515A (en) * 2004-11-04 2006-05-25 Nec Corp System, device, and method for providing photographic information, and program
JP2006242837A (en) * 2005-03-04 2006-09-14 National Univ Corp Shizuoka Univ Information processing presentation device
JP2008039596A (en) * 2006-08-07 2008-02-21 Pioneer Electronic Corp System, method, program for providing information and memory medium

Also Published As

Publication number Publication date
JP2009020091A (en) 2009-01-29

Similar Documents

Publication Publication Date Title
JP5093667B2 (en) Navigation system, navigation method, and navigation program
EP2728313B1 (en) Method of displaying objects on a navigation map
US20190287398A1 (en) Dynamic natural guidance
CN109937343A (en) Appraisal framework for the prediction locus in automatic driving vehicle traffic forecast
US9291459B2 (en) Visualization of paths using GPS data
EP2726819B1 (en) Methods and systems for obtaining navigation instructions
US20160054137A1 (en) Navigation device with enhanced widgets and applications
KR100533033B1 (en) Position tracing system and method using digital video process technic
EP1887321A2 (en) Information providing apparatus, information providing method, and computer product
JP2005077214A (en) Route guidance system
JP4339178B2 (en) Parking space empty space guidance device and parking space empty space guidance method
JP2011048582A (en) Information collection apparatus
JP4578553B2 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JP4922637B2 (en) Route search device, route search method, route search program, and recording medium
JP4619442B2 (en) Image display device, display control method, display control program, and recording medium
JP2012032284A (en) Navigation system
WO2007088915A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JP2008157661A (en) Navigation system
JP5221120B2 (en) Facility information output device, program, facility information output method, and facility information display device
KR102149294B1 (en) Point of interest information gathering system and there of method using wearable
KR100687740B1 (en) Location finding apparatus and method
JP2007132724A (en) Navigation device and facility search method
JP4949205B2 (en) Information processing terminal, information processing method, processing program, and computer-readable recording medium
KR102336775B1 (en) Apparatus and method for generating thema route
KR20120107671A (en) Electronic device, method and system for providing contents relate to traffic

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees