JP2011094992A - Navigation device, navigation method and navigation program - Google Patents

Navigation device, navigation method and navigation program Download PDF

Info

Publication number
JP2011094992A
JP2011094992A JP2009246489A JP2009246489A JP2011094992A JP 2011094992 A JP2011094992 A JP 2011094992A JP 2009246489 A JP2009246489 A JP 2009246489A JP 2009246489 A JP2009246489 A JP 2009246489A JP 2011094992 A JP2011094992 A JP 2011094992A
Authority
JP
Japan
Prior art keywords
imaging
unit
navigation
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009246489A
Other languages
Japanese (ja)
Inventor
Yoshie Masuda
芳枝 益田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Holdings Inc
Original Assignee
JVCKenwood Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Holdings Inc filed Critical JVCKenwood Holdings Inc
Priority to JP2009246489A priority Critical patent/JP2011094992A/en
Publication of JP2011094992A publication Critical patent/JP2011094992A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To pinpoint the present location, even if reception of the radio waves from GPS satellites are not received, and to perform navigation on the basis of the pinpointed present location. <P>SOLUTION: A navigation device is constituted of: an imaged-object detecting section 12A to which images of different photographing magnifications are input from an imaging device 3, and which detects an imaged object from the images; a feature-component extracting section 12B for extracting a feature component of the imaged object; an imaged-object identifying section 12C, which refers to an image recognition database 14 and identifies the imaged object; an imaging-direction predicting section 12D for predicting a photographing direction by detecting an azimuth with an azimuth detector 5; an imaging distance calculating section 12E for calculating the distance from an imaging point up to the imaged object, based on the information on feature component aspect ratio and information on the different photographic magnifications; an imaging point identifying section 12F for retrieving a map information database 15, based on imaged-object identification information, imaging direction information, and imaging distance information, and identifying a current position of a user; and a navigation section 13A for performing route guidance, based on the identified imaging point. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラムに関する。   The present invention relates to a navigation device, a navigation method, and a navigation program.

出発地から目的地までの経路案内を行うナビゲーション装置において、携帯電話やPDA(Parsonal Digital Asistant)などの携帯端末にナビゲーション用ソフトウェアを組み込み、当該携帯端末のユーザを目的地まで経路案内する携帯型ナビゲーション装置が知られている。これらの携帯型ナビゲーション装置では、GPS(Grobal Positioning System:全地球無線測位システム)衛星からの電波を受信してユーザの現在地を検出する。しかしながら、このような携帯型ナビゲーション装置では、GPS衛星からの電波を受信できない環境、たとえば、トンネル内や地下鉄駅構内、建築物構内などのGPS衛星からの電波が受信できない場所などにおいては、ユーザの現在地を把握することができなくなる。   In a navigation device that provides route guidance from a departure place to a destination, portable navigation that incorporates navigation software in a portable terminal such as a mobile phone or a PDA (Personal Digital Assistant) and guides the user of the portable terminal to the destination. The device is known. These portable navigation devices detect radio waves from GPS (Global Positioning System) satellites to detect the current location of the user. However, in such a portable navigation device, in an environment where radio waves from GPS satellites cannot be received, for example, in places where radio waves from GPS satellites such as tunnels, subway stations, and buildings cannot be received, It becomes impossible to grasp the present location.

そこで、GPS衛星からの電波を受信できない環境であっても、加速度センサ等を使用して正確な移動距離や移動方向を検出し、正確な現在位置を検出できる携帯型ナビゲーション装置が知られている(たとえば、特許文献1参照)。また、GPS衛星からの電波を使用しないで目標物との距離を算出する技術としては、カメラの取得画像に基づいて自己の周囲の環境マップを生成する情報処理装置が知られている(たとえば、特許文献2参照)。   Therefore, even in an environment where radio waves from GPS satellites cannot be received, a portable navigation device is known that can detect an accurate moving distance and moving direction using an acceleration sensor or the like and detect an accurate current position. (For example, refer to Patent Document 1). In addition, as a technique for calculating the distance from a target without using radio waves from a GPS satellite, an information processing device that generates an environment map around itself based on an acquired image of a camera is known (for example, Patent Document 2).

特開2005−283386号公報JP-A-2005-283386 特開2008−304268号公報JP 2008-304268 A

特許文献1に開示される携帯型ナビゲーション装置では、基準となる位置情報をGPS衛星からの電波を受信して取得しているため、たとえば電源投入時にGPS衛星からの電波が受信できない状況にあると現在地を検出することができなくなる。また、当該携帯型ナビゲーション装置の傾きや向きが頻繁に変わると、正確なナビゲーションが困難になるため、ユーザは当該携帯型ナビゲーション装置を固定して使用することを強いられる。また、当該携帯型ナビゲーション装置の傾きや向きが頻繁に変わると、常に進行方向を算出しなければならず、多くの電力を消費させてしまう。   In the portable navigation device disclosed in Patent Document 1, the position information serving as a reference is obtained by receiving radio waves from GPS satellites. For example, when power is turned on, radio waves from GPS satellites cannot be received. The current location cannot be detected. In addition, if the inclination and orientation of the portable navigation device change frequently, accurate navigation becomes difficult, and the user is forced to use the portable navigation device fixedly. Moreover, if the inclination and direction of the portable navigation device change frequently, the traveling direction must be calculated at all times, which consumes a lot of power.

特許文献2に開示される情報処理装置では、ユーザと目標物との距離を算出するのみであり、移動しながらユーザと目標物との距離を算出すること、建物の大きさなどを測定することについては何も述べられていない。また、特許文献2に開示される情報処理装置では、ナビゲーションを行うことができない。   The information processing apparatus disclosed in Patent Document 2 only calculates the distance between the user and the target, calculates the distance between the user and the target while moving, and measures the size of the building Nothing is said about. Further, the information processing apparatus disclosed in Patent Document 2 cannot perform navigation.

更に、GPS受信機能を搭載した従来の携帯型ナビゲーション装置は、GPS衛星からの電波を受信する機能を常にONにしていると消費電力が大きくなる、使用するときのみGPS衛星からの電波を受信する機能をONにすると、ONにするたびにGPS衛星からの電波を捕捉することになるため、現在地の把握に時間がかかる、GPS衛星からの電波が受信不可能であるエリアから受信可能であるエリアに移動したときに、GPS衛星からの電波を捕捉するために、現在地の把握に時間がかかる、携帯型ナビゲーション装置をもつユーザは、道路以外にもショッピングモールや建物内も移動するため、ユーザの現在地を地図上にマッピングすることが困難である、といった課題が挙げられる。   Furthermore, a conventional portable navigation device equipped with a GPS reception function consumes a large amount of power if the function of receiving radio waves from GPS satellites is always ON, and receives radio waves from GPS satellites only when used. When the function is turned on, radio waves from GPS satellites are captured each time it is turned on, so it takes time to grasp the current location, and areas where radio waves from GPS satellites cannot be received can be received When a user has a portable navigation device that takes time to grasp the current location to capture radio waves from GPS satellites when moving to a shopping mall or building in addition to the road, the user's There is a problem that it is difficult to map the current location on a map.

そこで、本発明は、上述した課題に鑑み、GPS衛星からの電波を受信しなくても現在地を正確に特定すると共に、特定した現在地に基づいてナビゲーションを行うナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラムを提供することを目的とする。   Therefore, in view of the above-described problems, the present invention provides a navigation device, a navigation method, and a navigation program that accurately identify the current location without receiving radio waves from GPS satellites and perform navigation based on the identified current location. The purpose is to provide.

本発明の一側面であるナビゲーション装置は、撮影倍率の異なる複数の画像が入力される画像入力部と、画像入力部から入力された撮影倍率の異なる画像から撮像地点と画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御部と、を有するものである。   A navigation device according to one aspect of the present invention includes an image input unit to which a plurality of images having different shooting magnifications are input, and an imaging object that is reflected in an imaging point and an image from images having different shooting magnifications input from the image input unit. And a controller that performs navigation based on the specified imaging point while determining the imaging point based on the distance.

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置の構成に加えて、画像入力部によって画像が入力された時の方位を検出する方位検出部と、撮像物を特定するための特徴成分が登録されている画像認識データベースと、位置情報が少なくとも登録されている地図情報データベースと、を有し、上述の制御部は、画像入力部により入力された複数の画像の中から撮像物を検出する撮像物検出部と、撮像物検出部により検出された撮像物の特徴成分を抽出する特徴成分抽出部と、画像認識データベースを参照し、特徴成分抽出部で抽出された特徴成分から撮像物を特定する撮像物特定部と、方位検出部が検出した方位情報から撮影方向を予測する撮影方向予測部と、複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、撮像地点から撮像物までの距離を算出する撮像距離算出部と、撮像物特定部で特定された撮像物情報と、撮影方向予測部により予測された撮影方向情報と、撮像距離算出部によって算出された距離情報と、に基づいて地図情報データベースを検索し、当該検索結果として出力された位置を撮像地点として特定する撮像地点特定部と、撮像地点特定部によって特定された撮像地点に基づいて経路案内を行うナビゲーション部と、を有することが好ましい。   In addition to the configuration of the navigation device described above, the navigation device according to one aspect of the present invention includes an orientation detection unit that detects an orientation when an image is input by the image input unit, and an object to be identified. An image recognition database in which feature components are registered, and a map information database in which position information is registered, and the above-described control unit captures an imaged object from a plurality of images input by the image input unit An imaging object detection unit that detects the image, a feature component extraction unit that extracts a feature component of the imaging object detected by the imaging object detection unit, and an image from the feature component extracted by the feature component extraction unit with reference to the image recognition database An imaging object specifying unit for specifying an object, a shooting direction prediction unit for predicting a shooting direction from the direction information detected by the direction detection unit, and feature component size ratio information extracted from a plurality of images And an imaging distance calculation unit that calculates the distance from the imaging point to the imaging object based on different imaging magnification information, the imaging object information specified by the imaging object specifying unit, and the imaging direction information predicted by the imaging direction prediction unit The map information database is searched based on the distance information calculated by the imaging distance calculation unit, and the imaging point specifying unit that specifies the position output as the search result as the imaging point is specified by the imaging point specifying unit And a navigation unit that performs route guidance based on the captured imaging point.

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置いずれかの構成に加えて、撮像地点特定部によってユーザの現在地を検索するように指示する現在地検索指示部を有することが好ましい。   In addition to the configuration of any of the navigation devices described above, the navigation device according to one aspect of the present invention preferably includes a current location search instruction unit that instructs the imaging point specifying unit to search for the user's current location.

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置いずれかの構成に加えて、撮像地点特定部によってユーザの現在地が特定されてから所定時間毎にユーザの現在地を撮像地点特定部によって探索する現在地探索部を有することが好ましい。   In addition to the configuration of any of the navigation devices described above, the navigation device according to one aspect of the present invention is configured to capture the user's current location every predetermined time after the user's current location is identified by the imaging location identifying unit. It is preferable to have a current location search unit for searching by

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置いずれかの構成に加えて、撮像地点特定部により既に特定された現在地情報と、現在地探索部により所定時間経過後に特定された現在地情報とに基づいて、ユーザの平均移動距離を算出する平均移動距離算出部を有することが好ましい。   In addition to the configuration of any of the navigation devices described above, the navigation device according to one aspect of the present invention includes the current location information already specified by the imaging point specifying unit and the current location specified by the current location searching unit after a predetermined time has elapsed. It is preferable to have an average moving distance calculation unit that calculates the average moving distance of the user based on the information.

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置いずれかの構成に加えて、平均移動距離情報に基づいてユーザの現在地を特定するための検索範囲を決定する検索範囲決定部を有することが好ましい。   In addition to the configuration of any of the navigation devices described above, the navigation device according to one aspect of the present invention further includes a search range determination unit that determines a search range for specifying the current location of the user based on the average moving distance information. It is preferable to have.

また、本発明の一側面であるナビゲーション装置は、上述したナビゲーション装置いずれかの構成に加えて、ユーザからの入力により目的地および/または経由地を指定する指定部を備え、ナビゲーション部は、ユーザの現在地情報と指定部によって指定された目的地および/または経由地情報に基づいて経路を生成し、検索範囲決定部は、現在地探索部によって探索した時点からの経過時間情報と、平均移動距離算出部により算出されたユーザの平均移動距離情報と、ナビゲーション部によって生成された経路情報と、に基づいてユーザの現在地を検索するための検索範囲を決定することが好ましい。   In addition to the configuration of any of the navigation devices described above, a navigation device according to one aspect of the present invention includes a designation unit that designates a destination and / or waypoint by an input from a user. The route is generated based on the current location information and the destination and / or waypoint information specified by the specification unit, and the search range determination unit calculates the elapsed time information from the time point searched by the current location search unit and the average travel distance It is preferable to determine a search range for searching the current location of the user based on the average moving distance information of the user calculated by the unit and the route information generated by the navigation unit.

また、本発明の一側面であるナビゲーション方法は、画像入力部、制御部を有するナビゲーション装置が実行するナビゲーション方法であって、撮影倍率の異なる複数の画像が入力される画像入力ステップと、画像入力ステップから入力された撮影倍率の異なる画像から撮像地点と画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御ステップと、を有するものである。   A navigation method according to one aspect of the present invention is a navigation method executed by a navigation device having an image input unit and a control unit, and includes an image input step in which a plurality of images having different shooting magnifications are input, and an image input The distance between the imaging point and the imaged object captured in the image is obtained from images with different shooting magnifications input from the step, the imaging point is specified based on the distance, and the navigation is performed based on the specified imaging point. And a control step for performing.

また、本発明の一側面であるナビゲーション方法は、上述したナビゲーション方法において、ナビゲーション装置は、画像入力部によって画像が入力された時の方位を検出する方位検出部と、撮像物を特定するための特徴成分が登録されている画像認識データベースと、位置情報が少なくとも登録されている地図情報データベースと、を有し、制御部には、撮像物検出部、特徴成分抽出部、撮像物特定部、撮影方向予測部、撮像距離算出部、撮像地点特定部、ナビゲーション部が含まれると共に、制御ステップには、撮像物検出部が、画像入力ステップにより入力された複数の画像の中から撮像物を検出する撮像物検出ステップと、特徴成分抽出部が、撮像物検出ステップにより検出された撮像物の特徴成分を抽出する特徴成分抽出ステップと、撮像物特定部が、画像認識データベースを参照し、特徴成分抽出ステップで抽出された特徴成分から撮像物を特定する撮像物特定ステップと、撮影方向予測部が、方位検出部が検出した方位情報から撮影方向を予測する撮影方向予測ステップと、撮像距離算出部が、複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、撮像地点から撮像物までの距離を算出する撮像距離算出ステップと、撮像地点特定部が、撮像物特定ステップで特定された撮像物情報と、撮影方向予測ステップにより予測された撮影方向情報と、撮像距離算出ステップによって算出された距離情報と、に基づいて地図情報データベースを検索し、当該検索結果として出力された位置を撮像地点として特定する撮像地点特定ステップと、ナビゲーション部が、撮像地点特定ステップによって特定された撮像地点に基づいて経路案内を行うナビゲーションステップと、が含まれるものである。   The navigation method according to one aspect of the present invention is the navigation method described above, in which the navigation device includes an orientation detection unit that detects an orientation when an image is input by the image input unit, and an object to be identified. It has an image recognition database in which feature components are registered, and a map information database in which position information is at least registered, and the control unit includes an imaging object detection unit, a feature component extraction unit, an imaging object identification unit, and imaging A direction prediction unit, an imaging distance calculation unit, an imaging point specifying unit, and a navigation unit are included, and the imaging object detection unit detects an imaging object from a plurality of images input in the image input step in the control step. Image-capturing object detection step, and feature-component extraction unit extracts a characteristic component of the image-captured object detected by the image-capturing object detection step The imaging object specifying unit refers to the image recognition database, specifies the imaging object from the feature component extracted in the feature component extraction step, and the orientation information detected by the imaging direction prediction unit by the orientation detection unit. A shooting direction prediction step for predicting a shooting direction from the imaging direction, and an imaging distance calculation unit calculates a distance from the imaging point to the imaged object based on the feature component size ratio information extracted from the plurality of images and the different imaging magnification information. An imaging distance calculating step, an imaging point specifying unit, the imaging object information specified in the imaging object specifying step, the shooting direction information predicted in the shooting direction prediction step, and the distance information calculated in the imaging distance calculation step; An imaging point specifying step for searching the map information database based on the image and specifying the position output as the search result as an imaging point; Navigation unit, a navigation step of performing route guidance based on the imaging point identified by the imaging point specifying step, are intended to be included.

また、本発明の一側面であるナビゲーションプログラムは、コンピュータを、撮影倍率の異なる複数の画像が入力される撮像入力手段、画像入力部から入力された撮影倍率の異なる画像から撮像地点と画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御手段、として機能させるものである。   In addition, a navigation program according to one aspect of the present invention includes a computer that captures an imaging point and an image from an imaging input unit that receives a plurality of images with different shooting magnifications and an image with different shooting magnifications that is input from an image input unit. The distance between the captured object and the imaged object is obtained, and an imaging point is specified based on the distance, and the navigation unit is caused to function as navigation means based on the specified imaging point.

また、本発明の一側面であるナビゲーションプログラムは、上述したナビゲーションプログラムにおいて、上述したコンピュータは撮像物を特定するための特徴成分が登録されている画像認識データベースと、位置情報が少なくとも登録されている地図情報データベースと、を有するものであり、制御手段には、撮像入力手段により入力された複数の画像の中から撮像物を検出する撮像物検出手段、撮像物検出手段により検出された撮像物の特徴成分を抽出する特徴成分抽出手段、画像認識データベースを参照し、特徴成分抽出手段で抽出された特徴成分から撮像物を特定する撮像物特定手段、撮像入力手段によって画像が入力された時の方位を検出する方位検出手段、方位検出手段が検出した方位情報から撮影方向を予測する撮影方向予測手段、複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、撮像地点から撮像物までの距離を算出する撮像距離算出手段、撮像物特定手段で特定された撮像物情報と、撮影方向予測手段により予測された撮影方向情報と、撮像距離算出手段によって算出された距離情報と、に基づいて地図情報データベースを検索し、当該検索結果として出力された位置を撮像地点として特定する撮像地点特定手段、撮像地点特定手段によって特定された撮像地点に基づいて経路案内を行うナビゲーション手段、が含まれるものである。   In the navigation program according to one aspect of the present invention, in the above-described navigation program, the above-described computer has an image recognition database in which feature components for specifying an imaged object are registered, and at least position information is registered. A map information database, and the control means includes an imaging object detection means for detecting an imaging object from a plurality of images input by the imaging input means, and an imaging object detected by the imaging object detection means. Feature component extraction means for extracting feature components, image recognition database, image pickup object specifying means for specifying an image pickup object from the feature components extracted by the feature component extraction means, and orientation when an image is input by the image pickup input means Direction detection means for detecting the shooting direction, shooting direction prediction for predicting the shooting direction from the direction information detected by the direction detection means The imaging object information specified by the imaging object calculating means and the imaging object specifying means for calculating the distance from the imaging point to the imaging object based on the characteristic component size ratio information extracted from the plurality of images and the different imaging magnification information. The map information database is searched based on the shooting direction information predicted by the shooting direction prediction unit and the distance information calculated by the shooting distance calculation unit, and the position output as the search result is specified as the shooting point. An imaging point specifying unit that performs the route guidance based on the imaging point specified by the imaging point specifying unit.

本発明によれば、GPS衛星からの電波を受信しなくても現在地を正確に特定すると共に、特定した現在地に基づいてナビゲーションを行うナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラムを提供することができる。   According to the present invention, it is possible to provide a navigation device, a navigation method, and a navigation program that accurately specify the current location without receiving radio waves from GPS satellites and perform navigation based on the specified current location.

本発明の実施例に係るナビゲーション装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the navigation apparatus which concerns on the Example of this invention. 図1に示すCPUが記憶装置に格納されている各種プログラムをメモリに読み出して実現する各機能を説明するための図である。It is a figure for demonstrating each function which CPU shown in FIG. 1 reads and implement | achieves the various programs stored in the memory | storage device to memory. 図1に示すナビゲーション装置の撮像地点特定処理を示すフローチャートである。It is a flowchart which shows the imaging point specific process of the navigation apparatus shown in FIG. 図3に示す撮像地点特定処理処理の一例を説明するための図であり、(A)は、撮像物から特定のキーワードを抽出する処理を説明するための図であり、(B)は、ユーザの向いている方向を予測する処理を説明するための図であり、(C)は、1度目の撮影によって入力された画像と2度目の撮影によって入力された画像の情報からユーザから撮像物までの距離を算出する処理を説明するための図であり、(D)は、現在地を特定する処理を説明するための図である。FIG. 4 is a diagram for explaining an example of an imaging point specifying process shown in FIG. 3, (A) is a diagram for explaining a process of extracting a specific keyword from an imaged object, and (B) is a user FIG. 6C is a diagram for explaining a process of predicting the direction in which the camera is facing, and FIG. 8C illustrates from the information of the image input by the first shooting and the image input by the second shooting from the user to the captured object. It is a figure for demonstrating the process which calculates the distance of (D), (D) is a figure for demonstrating the process which pinpoints the present location. 図1に示すナビゲーション装置のナビゲーション処理を示すフローチャートである。It is a flowchart which shows the navigation process of the navigation apparatus shown in FIG. 図1に示すナビゲーション装置のナビゲーション処理を示すフローチャートである。It is a flowchart which shows the navigation process of the navigation apparatus shown in FIG. 図5および図6に示すナビゲーション処理の一例を説明するための図であり、(A)は、1回目の現在地探索処理を説明するための図であり、(B)は、2回目の現在地探索処理を説明するための図であり、(C)は、3回目の現在地探索処理を説明するための図である。FIGS. 7A and 7B are diagrams for explaining an example of the navigation process shown in FIGS. 5 and 6, and FIG. 7A is a diagram for explaining a first current location search process, and FIG. It is a figure for demonstrating a process, (C) is a figure for demonstrating the 3rd present location search process. 図5および図6に示すナビゲーション処理の一例を説明するための図であり、(A)は、4回目の現在地探索処理を説明するための図であり、(B)は、位置が一致しなかった場合に目的地までのルートを再探索する処理を説明するための図である。FIG. 7 is a diagram for explaining an example of the navigation processing shown in FIGS. 5 and 6, (A) is a diagram for explaining a fourth current location search process, and (B) is a position mismatch. It is a figure for demonstrating the process which re-searches the route | root to the destination in the case of being. 図1に示すナビゲーション装置の休止からの回復処理を示すフローチャートである。It is a flowchart which shows the recovery process from the rest of the navigation apparatus shown in FIG. 図9に示す回復処理の一例を示す図である。It is a figure which shows an example of the recovery process shown in FIG.

本発明の実施例について、以下、図1〜図10を参照しながら説明する。しかし、本発明は以下の実施例に限定されるものではない。   Embodiments of the present invention will be described below with reference to FIGS. However, the present invention is not limited to the following examples.

本発明の実施例に係るナビゲーション装置1は、GPS(Grobal Positioning System)衛星からの電波を受信せずにユーザの現在地を正確に特定すると共に、特定された現在地からユーザが指定した目的地や経由地までのナビゲーションを行うことができるものである。   The navigation apparatus 1 according to the embodiment of the present invention accurately specifies the user's current location without receiving radio waves from a GPS (Global Positioning System) satellite, and also specifies a destination or route specified by the user from the specified current location. It is possible to navigate to the ground.

図1は、本発明の実施例に係るナビゲーション装置1の全体構成を示すブロック図である。図1に示すように、このナビゲーション装置1は、CPU(Central Processing Unit)2、撮像装置3、グラフィックプロセッサ4、方位検出装置5、操作部6、表示部7、通信装置8、メモリ9、ビデオメモリ10、記憶装置11などを備える。なお、記憶装置11には、ナビゲーション装置1を動作させるための不図示の基本ソフトウェア(OSなど)のほか、現在地特定プログラム12、ナビゲーションプログラム13、画像認識データベース14、地図情報データベース15などが記憶されている。   FIG. 1 is a block diagram showing an overall configuration of a navigation device 1 according to an embodiment of the present invention. As shown in FIG. 1, this navigation device 1 includes a CPU (Central Processing Unit) 2, an imaging device 3, a graphic processor 4, an orientation detection device 5, an operation unit 6, a display unit 7, a communication device 8, a memory 9, and a video. A memory 10 and a storage device 11 are provided. The storage device 11 stores not only basic software (such as an OS) (not shown) for operating the navigation device 1, but also a current location specifying program 12, a navigation program 13, an image recognition database 14, a map information database 15, and the like. ing.

ここで、制御部、撮像物検出部、特徴成分抽出部、撮像物特定部、撮影方向予測部、撮像距離算出部、撮像地点特定部、ナビゲーション部、現在地探索部、平均移動距離算出部、検索範囲決定部それぞれの一部としてのCPU2は、記憶装置11またはメモリ9に格納されている各種プログラムに応じて、各種演算処理を実行するとともに、ナビゲーション装置1の各部を制御する中央処理装置である。   Here, a control unit, an imaging object detection unit, a feature component extraction unit, an imaging object identification unit, an imaging direction prediction unit, an imaging distance calculation unit, an imaging point identification unit, a navigation unit, a current location search unit, an average moving distance calculation unit, a search The CPU 2 as a part of each range determination unit is a central processing unit that executes various arithmetic processes in accordance with various programs stored in the storage device 11 or the memory 9 and controls each unit of the navigation device 1. .

画像入力部としての撮像装置3は、ユーザの現在地周辺の景色を撮影倍率の異なる複数の画像として撮影・入力することができる。撮像装置3は、たとえば、小型のビデオカメラ等で構成される。この撮像装置3における撮影処理および入力処理は、ユーザが後述する表示部7に表示される映像を見ながら、対象物が画面内に表示された時点で、操作部6を操作することにより静止画像をキャプチャリングすることにより行われる。なお、撮影により入力された画像は、メモリ9に一時的に記憶されると共に表示部7に表示され、ユーザが操作部6を操作することで記憶装置11に記憶させることもできる。   The imaging device 3 serving as an image input unit can capture and input scenery around the current location of the user as a plurality of images with different imaging magnifications. The imaging device 3 is composed of, for example, a small video camera. The photographing process and the input process in the imaging apparatus 3 are performed by operating the operation unit 6 when the object is displayed on the screen while watching the video displayed on the display unit 7 described later. This is done by capturing. Note that an image input by photographing is temporarily stored in the memory 9 and displayed on the display unit 7, and can be stored in the storage device 11 by the user operating the operation unit 6.

グラフィックプロセッサ4は、記憶装置11から読み出され、後述するビデオメモリ10に展開されたコマンドリストに応じて描画処理を実行し、得られた画像を映像信号に変換して表示部7に供給して表示させる描画処理装置である。   The graphic processor 4 executes drawing processing according to a command list read from the storage device 11 and developed in the video memory 10 described later, converts the obtained image into a video signal, and supplies the video signal to the display unit 7. A drawing processing apparatus to be displayed.

方位検出部としての方位検出装置5は、ナビゲーション装置1の向いている方位を検出することができる。方位検出装置5は、たとえば、電子コンパスなどで構成される。   The direction detection device 5 as the direction detection unit can detect the direction in which the navigation device 1 is facing. The direction detection device 5 is configured by, for example, an electronic compass.

現在地検索指示部および指示部としての操作部6は、ナビゲーション装置1をユーザが操作するときに用いるインターフェースである。操作部6は、たとえば、数字ボタン、操作キーボタン、決定ボタン、メニュー選択ボタン(いずれも不図示)などで構成される。また、ユーザが操作部6を操作することで、撮像装置3を介してユーザの現在地周辺の景色を撮影する、撮影倍率を設定する、現在地を特定するための処理を行う、ナビゲーション処理を開始させる、といったことができる。   The current location search instruction unit and the operation unit 6 as an instruction unit are interfaces used when the user operates the navigation device 1. The operation unit 6 includes, for example, numeric buttons, operation key buttons, a determination button, a menu selection button (all not shown), and the like. Further, when the user operates the operation unit 6, a scene around the current location of the user is photographed via the imaging device 3, a photographing magnification is set, a process for specifying the current location is performed, and a navigation process is started. , And so on.

表示部7は、たとえば、液晶ディスプレイ、有機ELディスプレイなどで構成され、ナビゲーション装置1に対してユーザが操作部6で指示した結果などを出力する。たとえば、表示部7は、撮像装置3でユーザ周辺の景色に関する映像を表示させ、画面内に表示される撮影ボタンアイコン(不図示)が押下されたときに入力される画像を静止画像として表示させる、現在地を含む地図画像を表示する、またはナビゲーションルートを画像として表示するなどができる。なお、表示部7はたとえば、タッチパネルで構成され、上述した操作部6の機能を果たすアイコンを表示させるように構成してもよい。   The display unit 7 is configured by, for example, a liquid crystal display, an organic EL display, and the like, and outputs a result of an instruction from the user via the operation unit 6 to the navigation device 1. For example, the display unit 7 displays an image related to the scenery around the user on the imaging device 3 and displays an image input when a shooting button icon (not shown) displayed on the screen is pressed as a still image. A map image including the current location can be displayed, or a navigation route can be displayed as an image. Note that the display unit 7 may be configured with, for example, a touch panel to display icons that perform the functions of the operation unit 6 described above.

通信装置8は、不図示のアンテナで電波を介して不図示の基地局との間で情報を授受するための装置であり、例えば、IMT−2000の携帯電話網やPHS(Personal Handy Phone System)などの通信システムを用いて情報を授受する装置である。   The communication device 8 is a device for exchanging information with a base station (not shown) via radio waves with an antenna (not shown). For example, an IMT-2000 mobile phone network or a PHS (Personal Handy Phone System). It is a device that exchanges information using a communication system such as.

メモリ9は、不図示のROM(Read Only Memory)および/またはRAM(Random Access Memory)などの半導体記憶装置によって構成され、CPU2が実行するプログラムなどを格納するとともに、CPU2が実行する対象となる後述するプログラムまたはデータを一時的に記憶する。   The memory 9 is composed of a semiconductor storage device such as a ROM (Read Only Memory) and / or a RAM (Random Access Memory) (not shown), stores a program executed by the CPU 2, and the like to be executed by the CPU 2. Program or data to be stored temporarily.

ビデオメモリ10は、グラフィックプロセッサ4の処理対象となるコマンドリストが一時的に格納される半導体記憶装置である。   The video memory 10 is a semiconductor storage device that temporarily stores a command list to be processed by the graphic processor 4.

記憶装置11は、ナビゲーション装置1を動作させるために必要なデータやプログラムが記憶されているものである。記憶装置11は、たとえばHDD(Hard Disk Drive)やフラッシュメモリなどの記憶媒体から構成される。   The storage device 11 stores data and programs necessary for operating the navigation device 1. The storage device 11 is composed of a storage medium such as an HDD (Hard Disk Drive) or a flash memory.

現在地特定プログラム12は、入力された撮影倍率の異なる複数の画像から撮像地点を特定することで、ナビゲーション装置1の現在位置を特定するプログラムである。また、現在地特定プログラム12は、撮像物検出モジュール、特徴成分抽出モジュール、撮像物特定モジュール、撮像方向予測モジュール、撮像距離算出モジュール、撮像地点特定モジュールを有している。また、ナビゲーションプログラム13は、ナビゲーションモジュール、現在地探索モジュール、平均移動距離算出モジュール、検索範囲決定モジュールを有している。   The current location specifying program 12 is a program for specifying the current position of the navigation device 1 by specifying an imaging point from a plurality of input images with different shooting magnifications. The current location specifying program 12 includes an image pickup object detection module, a feature component extraction module, an image pickup object specification module, an image pickup direction prediction module, an image pickup distance calculation module, and an image pickup point specification module. The navigation program 13 includes a navigation module, a current location search module, an average moving distance calculation module, and a search range determination module.

図2は、図1に示すCPU2が記憶装置11に格納されている各種プログラムをメモリ9に読み出すことによって実現される各機能を説明するための図である。図2に示すようにナビゲーション装置1は、撮像物検出部12A、特徴成分抽出部12B、撮像物特定部12C、撮像方向予測部12D、撮像距離算出部12E、撮像地点特定部12F、ナビゲーション部13A、現在地探索部13B、平均移動距離算出部13C、検索範囲決定部13Dといった機能を備えている。   FIG. 2 is a diagram for explaining each function realized by the CPU 2 shown in FIG. 1 reading various programs stored in the storage device 11 into the memory 9. As illustrated in FIG. 2, the navigation device 1 includes an imaging object detection unit 12A, a feature component extraction unit 12B, an imaging object identification unit 12C, an imaging direction prediction unit 12D, an imaging distance calculation unit 12E, an imaging point identification unit 12F, and a navigation unit 13A. The present location searching unit 13B, the average moving distance calculating unit 13C, and the search range determining unit 13D are provided.

撮影物検出部12Aは、CPU2がメモリ9に撮像物検出モジュールを読み出すことで実現される。撮像物検出モジュールは、撮像装置3で入力された撮影倍率の異なる2つの画像に含まれる3次元的な偏りによる歪みや、回転などを補正し、撮像物と推測される領域を検出して出力するモジュールである。具体的には、撮像物検出モジュールは、各画像内に含まれる文字、看板、建物、地形、構造物の形状など(たとえば、橋、標識の配置、道路形状含む、以下単に「構造物の形状」という)の画像特徴パターンや形状特徴パターンを検出する。たとえば、撮像物検出モジュールは、画像特徴パターンや形状特徴パターンを検出するために、文字線とその背景の濃度コントラストが高くなることや、文字の外接矩形が正方形に近いものが多いなどの普遍的な性質を利用して、濃度コントラストが高い領域や外接矩形が正方形に近い領域を検出する。なお、撮像物検出モジュールにおいて入力画像から文字や構造物の形状が検出できる方法であれば、上述の検出方法以外の検出方法でもよい。撮像物検出モジュールは、入力された画像から複数の領域を検出した場合には、それら複数の領域を出力する。   The photographed object detection unit 12 </ b> A is realized by the CPU 2 reading the imaged object detection module into the memory 9. The imaging object detection module corrects distortion, rotation, and the like due to three-dimensional bias included in two images with different imaging magnifications input by the imaging device 3, and detects and outputs an area estimated to be an imaging object. It is a module to do. Specifically, the imaging object detection module includes characters, signs, buildings, terrain, structure shapes, etc. included in each image (including bridges, signs, road shapes, etc. )) Image feature pattern and shape feature pattern. For example, in order to detect image feature patterns and shape feature patterns, the imaging object detection module is universal in that the density contrast between the character line and the background increases, and the circumscribed rectangle of the character is often close to a square. By utilizing this characteristic, a region with high density contrast and a region where the circumscribed rectangle is close to a square are detected. Note that any detection method other than the above-described detection methods may be used as long as it can detect the shape of characters and structures from the input image in the imaging object detection module. When the imaging object detection module detects a plurality of areas from the input image, the imaging object detection module outputs the plurality of areas.

特徴成分抽出部12Bは、CPU2がメモリ9に特徴成分抽出モジュールを読み出すことで実現される。特徴成分抽出モジュールは、撮像物検出モジュールで検出した領域の形状パターン、または画像に関する特徴パターンを抽出して出力する。なお、特徴成分抽出モジュールは、撮像物検出モジュールで検出した領域が複数あるときは、それらの領域ごとに画像特徴パターンや形状特徴パターンを抽出して出力する。   The feature component extraction unit 12B is realized by the CPU 2 reading the feature component extraction module into the memory 9. The feature component extraction module extracts and outputs the shape pattern of the region detected by the imaging object detection module or the feature pattern related to the image. When there are a plurality of areas detected by the imaging object detection module, the feature component extraction module extracts and outputs an image feature pattern and a shape feature pattern for each of the areas.

撮像物特定部12Cは、CPU2がメモリ9に撮像物特定モジュールを読み出すことで実現される。撮像物特定モジュールは、後述する画像認識データベース14に登録されている特徴パターンと、特徴成分抽出モジュールで抽出され、出力された特徴パターンとのパターンマッチングを行い、一致する特徴パターンから撮像物の特定を行い、特定された特徴パターンに対応する文字列(文字、看板、建物、地形、構造物の形状に対応する名称など)などを出力する。なお、撮像物特定モジュールは、特徴成分抽出モジュールから画像特徴パターンや形状特徴パターンが複数出力された場合には、それらのパターン毎に対応する文字列をそれぞれ出力する。   The imaged object specifying unit 12C is realized by the CPU 2 reading the imaged object specifying module into the memory 9. The captured object specifying module performs pattern matching between the feature pattern registered in the image recognition database 14 (to be described later) and the feature pattern extracted and output by the feature component extraction module, and specifies the captured object from the matching feature pattern. And a character string (character, signboard, building, terrain, name corresponding to the shape of the structure, etc.) corresponding to the specified feature pattern, etc. is output. In addition, when a plurality of image feature patterns and shape feature patterns are output from the feature component extraction module, the captured object specifying module outputs a character string corresponding to each pattern.

撮像方向予測部12Dは、CPU2がメモリ9に撮像方向予測モジュールを読み出すことで実現される。撮像方向予測モジュールは、方位検出装置5で検出された方位角からユーザの撮像方向を予測する。   The imaging direction prediction unit 12D is realized by the CPU 2 reading the imaging direction prediction module into the memory 9. The imaging direction prediction module predicts the imaging direction of the user from the azimuth angle detected by the azimuth detection device 5.

撮像距離算出部12Eは、CPU2がメモリ9に撮像距離算出モジュールを読み出すことで実現される。撮像距離算出モジュールは、撮像装置3で入力された撮影倍率の異なる2枚の画像に基づきユーザから撮像物(対象物)までの距離を算出する。   The imaging distance calculation unit 12E is realized by the CPU 2 reading the imaging distance calculation module into the memory 9. The imaging distance calculation module calculates the distance from the user to the imaging object (target object) based on the two images with different imaging magnifications input by the imaging device 3.

撮像地点特定部12Fは、CPU2がメモリ9に撮像地点特定モジュールを読み出すことで実現される。撮像地点特定モジュールは、撮像方向予測モジュールから出力される撮像方向情報と、撮像物特定モジュールから出力される文字列と、撮像距離算出モジュールから出力される距離情報とを取得し、地図情報データベース15を参照して撮像地点としての座標データを取得する。そして、撮像地点特定モジュールは、取得した座標データに基づいて表示部7にマップマッチングを行った地図データと共に表示部7に表示させる。なお、撮像地点特定モジュールは、ナビゲーション処理を行う場合には、当該座標データをユーザの現在地としてナビゲーションモジュールに出力する。   The imaging point specifying unit 12F is realized by the CPU 2 reading the imaging point specifying module into the memory 9. The imaging point identification module acquires the imaging direction information output from the imaging direction prediction module, the character string output from the imaging object identification module, and the distance information output from the imaging distance calculation module, and the map information database 15 To obtain coordinate data as an imaging point. Then, the imaging point specifying module causes the display unit 7 to display the map data together with the map data subjected to map matching on the display unit 7 based on the acquired coordinate data. Note that, when performing the navigation process, the imaging point specifying module outputs the coordinate data as the current location of the user to the navigation module.

ナビゲーション部13Aは、CPU2がメモリ9にナビゲーションモジュールを読み出すことで実現される。ナビゲーションモジュールは、撮像地点特定モジュールから出力されたユーザの現在地とされる座標データと、操作部6により入力された目的地に対応する座標データに基づいてナビゲーションルートを生成する。   The navigation unit 13 </ b> A is realized by the CPU 2 reading the navigation module into the memory 9. The navigation module generates a navigation route based on the coordinate data that is the current location of the user output from the imaging point specifying module and the coordinate data corresponding to the destination input by the operation unit 6.

現在地探索部13Bは、CPU2がメモリ9に現在地探索モジュールを読み出すことで実現される。現在地探索モジュールは、所定時間毎に現在地特定プログラム12に含まれる撮像地点特定モジュールをメモリ9に読み出して、現在地特定処理を行わせる。また、現在地特定プログラム12に含まれる撮像地点特定モジュールは、後述する検索範囲決定モジュールから検索範囲を指定されている場合には、地図情報データベース15の検索する範囲を指定して現在位置の特定を行う。なお、現在地探索モジュールは、ナビゲーション処理を開始する際に、撮像装置3から撮影倍率の異なる2枚の画像が新たに入力されていない場合には、これらの画像を入力させるために、撮像をするように促すメッセージを表示部7に表示させてもよい。   The current location search unit 13B is realized by the CPU 2 reading the current location search module into the memory 9. The current location search module reads the imaging point specifying module included in the current location specifying program 12 into the memory 9 every predetermined time, and performs the current location specifying process. In addition, the imaging location specifying module included in the current location specifying program 12 specifies the search range of the map information database 15 and specifies the current position when the search range is specified from the search range determination module described later. Do. Note that when the navigation processing is started, if two images having different shooting magnifications are not newly input from the imaging device 3, the current location search module captures images in order to input these images. A message prompting the user to display the message may be displayed on the display unit 7.

平均移動距離算出部13Cは、CPU2がメモリ9に平均移動距離算出モジュールを読み出すことで実現される。平均移動距離算出モジュールは、現在地特定処理により特定された複数の座標データに基づいてユーザの平均移動距離を算出して出力する。   The average moving distance calculation unit 13 </ b> C is realized by the CPU 2 reading the average moving distance calculation module into the memory 9. The average moving distance calculation module calculates and outputs the average moving distance of the user based on the plurality of coordinate data specified by the current location specifying process.

検索範囲決定部13Dは、CPU2がメモリ9に検索範囲決定モジュールを読み出すことで実現される。検索範囲決定モジュールは、平均移動距離算出モジュールから出力された平均移動距離情報と、ナビゲーションモジュールから出力されたナビゲーションルート情報に基づいて現在地を検索するための範囲を決定して、現在地検索モジュールへ出力する。   The search range determination unit 13D is realized by the CPU 2 reading the search range determination module into the memory 9. The search range determination module determines a range for searching the current location based on the average travel distance information output from the average travel distance calculation module and the navigation route information output from the navigation module, and outputs the range to the current location search module To do.

画像認識データベース14は、文字、看板、建物、地形、構造物の形状の画像パターンや形状パターンが登録されている。したがって、画像認識データベース14は、撮像物特定モジュールからの撮像物を特定するための検索クエリを受け取って、当該検索クエリに含まれる画像パターンや形状パターンと一致する文字、看板、建物、地形、構造物の形状の名称を検索して出力することができる。   In the image recognition database 14, image patterns and shape patterns of characters, signs, buildings, terrain, and structures are registered. Accordingly, the image recognition database 14 receives a search query for specifying an imaged object from the imaged object specifying module, and matches characters, signboards, buildings, terrain, and structures that match the image pattern and shape pattern included in the search query. The name of the shape of the object can be searched and output.

地図情報データベース15には、地図を表示するための情報およびPOI情報(Point Of Intarest:請求項の位置情報に相当)が記憶されている。地図を表示するための情報は、道路レイヤ、地図上のオブジェクトを表示するための背景レイヤ、市町村名など文字を表示するための文字レイヤ、POIの所定位置にPOIアイコンを表示するためのPOIアイコンレイヤなどから構成される。道路レイヤは、道路リンクデータ、ノードデータなどを有し、経路探索処理、マップマッチング処理に用いられる。背景レイヤは、所定の経度幅、緯度幅に区切られた1枚単位に分割され、各単位における道路、建物、公園、川、湖などの平面形状を表現する図形データを有している。POIアイコンレイヤは、背景レイヤと同一の単位に区切られた単位毎に存在するPOI情報を有している。POI情報には、POIの位置情報(経度/緯度情報や座標情報など)、POIアイコンデータ、POIが面する道路名、POIが存在する道路リンクデータ、ノードデータ、POIのカテゴリ名、POIの名称、POIの画像特徴データなどが含まれる。したがって、地図情報データベース15では、経路探索処理、マップマッチング処理のほか、POI情報の検索処理を行うことができる。そのため、地図情報データベース15では、上述した撮像地点特定モジュールからの現在地を特定するための検索クエリを受け取って、当該クエリに含まれる文字列と一致するPOI情報を検索し、当該POI情報に対応する位置情報を出力することができる。   The map information database 15 stores information for displaying a map and POI information (Point Of Interest: equivalent to the position information in the claims). Information for displaying a map includes a road layer, a background layer for displaying objects on the map, a character layer for displaying characters such as city names, and a POI icon for displaying a POI icon at a predetermined position of the POI. It consists of layers. The road layer has road link data, node data, and the like, and is used for route search processing and map matching processing. The background layer is divided into one unit divided into a predetermined longitude width and latitude width, and has graphic data representing a planar shape such as a road, a building, a park, a river, and a lake in each unit. The POI icon layer has POI information existing for each unit divided into the same units as the background layer. POI information includes POI position information (longitude / latitude information, coordinate information, etc.), POI icon data, road name facing POI, road link data where POI exists, node data, POI category name, POI name , POI image feature data, and the like. Therefore, the map information database 15 can perform POI information search processing in addition to route search processing and map matching processing. Therefore, the map information database 15 receives a search query for specifying the current location from the imaging point specifying module described above, searches for POI information that matches the character string included in the query, and corresponds to the POI information. Position information can be output.

続いて、実施例のナビゲーション装置1の現在地特定処理について説明する。図3は、図1に示すナビゲーション装置1の現在地特定処理を示すフローチャートである。   Then, the present location specific process of the navigation apparatus 1 of an Example is demonstrated. FIG. 3 is a flowchart showing the current location specifying process of the navigation device 1 shown in FIG.

START:CPU2は、ユーザが行う操作部6からの操作にしたがって生成された現在地特定処理要求により現在地特定処理を開始する。具体的には、CPU2は現在地特定プログラム12の各モジュールをメモリ8に読み出して、上述した各機能を実現する。   START: The CPU 2 starts the current location specifying process in response to the current location specifying processing request generated in accordance with the operation from the operation unit 6 performed by the user. Specifically, the CPU 2 reads each module of the current location specifying program 12 into the memory 8 and realizes each function described above.

ステップS1:ユーザが行う操作部6からの操作にしたがって、撮像装置3の撮影倍率をX倍としてキャプチャリングされた静止画像が撮像装置3を介してナビゲーション装置1に入力される。なお、CPU2は、たとえば、表示部7に「付近にある文字、看板、建物を撮影してください」といったメッセージを表示させ、ユーザに上述の撮像操作を促すようにしてもよい。   Step S1: In accordance with an operation performed by the user from the operation unit 6, a captured still image is input to the navigation device 1 via the imaging device 3 with the imaging magnification of the imaging device 3 set to X. For example, the CPU 2 may display a message such as “Please photograph nearby characters, signs, and buildings” on the display unit 7 to prompt the user to perform the above-described imaging operation.

ステップS2:CPU2は、ステップ1での撮影方向を取得すべく、方位検出装置5により方位を検出する。   Step S2: The CPU 2 detects the azimuth by the azimuth detecting device 5 in order to obtain the photographing direction in step 1.

ステップS3:ユーザが行う操作部6からの操作にしたがって、撮像装置3の撮影倍率を2X倍に変更してキャプチャリングされた静止画像が撮像装置3を介してナビゲーション装置1に入力される。なお、CPU2は、たとえば、表示部7に「先ほど撮影した対象物をもう一度撮影してください」といったメッセージを表示させ、ユーザに2回目の撮像操作を促すようにしてもよい。また、撮影倍率は、ステップS1における撮影時の2倍として設定されているが、その他の倍率(ステップS1における撮影時の0.5倍、3倍など)が設定されている、またはユーザが行う操作部6からの操作にしたがって撮影倍率を指定してもよい。   Step S3: A captured still image is input to the navigation device 1 via the imaging device 3 by changing the imaging magnification of the imaging device 3 to 2 × in accordance with an operation from the operation unit 6 performed by the user. For example, the CPU 2 may display a message such as “Please shoot again the object that was shot earlier” on the display unit 7 to prompt the user to perform a second imaging operation. In addition, the shooting magnification is set as twice that at the time of shooting in step S1, but other magnifications (0.5 times, 3 times, etc. at the time of shooting in step S1) are set, or the user performs it. The shooting magnification may be designated according to the operation from the operation unit 6.

ステップS4:CPU2は、ステップ3での撮影方向を取得すべく、方位検出装置5により方位を検出する。   Step S4: The CPU 2 detects the azimuth by the azimuth detecting device 5 in order to obtain the photographing direction in step 3.

ステップS5:CPU2は、ステップS1およびステップS3で入力された撮影倍率の異なる画像を解析し、画像特徴を抽出する。具体的には、CPU2は、上述した撮像物検出部12A、特徴成分抽出部12Bの各機能により画像特徴を抽出する。   Step S5: The CPU 2 analyzes the images with different photographing magnifications input in Step S1 and Step S3, and extracts image features. Specifically, the CPU 2 extracts image features by the functions of the above-described captured object detection unit 12A and feature component extraction unit 12B.

ステップS6:CPU2は、ステップS5で抽出された画像特徴を元に検索クエリを生成し、画像認識データベース14を参照して、一致する画像特徴をもつ文字、看板、建物があるか否かを検索する。具体的には、CPU2は、上述した撮像物特定部12Cの機能により一致する画像特徴を検索する。CPU2は、上述した撮像物特定部12Cの機能により一致する画像特徴が存在した場合(ステップS6でYES)にはステップS8の処理へ移行する。一方、CPU2は、操作部6の操作にしたがって、ステップS6の検索処理により一致するものがないと判定された場合(ステップS6でNO)には、ステップS7の処理へ移行する。   Step S6: The CPU 2 generates a search query based on the image feature extracted in step S5, and refers to the image recognition database 14 to search for a character, a signboard, or a building having a matching image feature. To do. Specifically, the CPU 2 searches for matching image features by the function of the above-described captured object specifying unit 12C. If there is a matching image feature (YES in step S6), the CPU 2 proceeds to the process in step S8. On the other hand, if the CPU 2 determines that there is no match in the search process of step S6 according to the operation of the operation unit 6 (NO in step S6), the CPU 2 proceeds to the process of step S7.

ステップS7:CPU2は、再度現在地特定処理要求がないか否かを判定する。具体的には、表示部7に「一致するものがありませんでした。現在地の特定を再度行いますか?」と言ったメッセージを表示させる。CPU2は、操作部6からの操作を通じてユーザから現在地特定処理要求がない場合(ステップS7でYES)には、現在地特定処理を終了する(END)。一方、CPU2は、再度現在地特定処理要求が再度あった場合(ステップS7でNO)には、ステップS1に処理を戻す。   Step S7: The CPU 2 determines again whether or not there is a current location specifying process request. Specifically, a message saying “No match was found. Do you want to identify the current location again?” Is displayed on the display unit 7. If there is no current location specifying process request from the user through the operation from the operation unit 6 (YES in step S7), the CPU 2 ends the current location specifying process (END). On the other hand, when the current location specifying process request is made again (NO in step S7), the CPU 2 returns the process to step S1.

ステップS8:CPU2は、ステップS6の検索処理により一致したと判定された撮像物候補の名称をリスト化して表示部7に表示させる。CPU2は、操作部6の操作にしたがって、撮像物を特定する。なお、CPU2は、たとえば、表示部7に撮像物候補リストを表示させると共に、「撮影した対象物を選択してください」といったメッセージを表示させてもよい。CPU2は、ユーザが操作部6を操作することにより撮像物が特定されると、ステップS9の処理へ移行する。   Step S8: The CPU 2 lists the names of the picked-up object candidates determined to be matched by the search process of step S6 and displays them on the display unit 7. The CPU 2 specifies the imaged object in accordance with the operation of the operation unit 6. The CPU 2 may display a message candidate list on the display unit 7 and display a message such as “Please select a photographed object”, for example. CPU2 will transfer to the process of step S9, if a to-be-photographed object is specified by a user operating the operation part 6. FIG.

ステップS9:CPU2は、ステップS1の画像に含まれる特徴のある建物の画像サイズに対する寸法比を算出する。具体的には、CPU2は、上述した撮像距離算出部12Eの機能により寸法比を算出する。   Step S9: The CPU 2 calculates a dimensional ratio with respect to the image size of the characteristic building included in the image of Step S1. Specifically, the CPU 2 calculates the dimensional ratio by the function of the imaging distance calculation unit 12E described above.

ステップS10:CPU2は、ステップS3の画像に含まれる特徴のある建物の画像サイズに対する寸法比を算出する。具体的には、CPU2は、上述した撮像距離算出部12Eの機能により寸法比を算出する。   Step S10: The CPU 2 calculates a dimensional ratio with respect to the image size of the characteristic building included in the image of Step S3. Specifically, the CPU 2 calculates the dimensional ratio by the function of the imaging distance calculation unit 12E described above.

ステップS11:CPU2は、ステップS9とステップS10で算出された寸法比の変化量を算出する。具体的には、CPU2は、上述した撮像距離算出部12Eの機能により寸法比の変化量を算出する。   Step S11: The CPU 2 calculates the amount of change in the dimensional ratio calculated in steps S9 and S10. Specifically, the CPU 2 calculates the change amount of the dimensional ratio by the function of the imaging distance calculation unit 12E described above.

ステップS12:CPU2は、ステップS11で求めた変化量と、撮影画像の倍率比より、撮像物である建物とユーザとの距離を算出する。具体的には、CPU2は、上述した撮像距離算出部12Eの機能により撮像距離を算出する。   Step S12: The CPU 2 calculates the distance between the building that is the imaged object and the user from the amount of change obtained in step S11 and the magnification ratio of the captured image. Specifically, the CPU 2 calculates the imaging distance by the function of the imaging distance calculation unit 12E described above.

ステップS13:CPU2は、ステップS2およびステップS4で検出した方位角からユーザが向いていると推測される方向を決定する。具体的には、CPU2は、上述した撮像方向予測部12Dの機能により撮像方向を予測する。   Step S13: The CPU 2 determines a direction in which the user is assumed to be facing from the azimuth angle detected in steps S2 and S4. Specifically, the CPU 2 predicts the imaging direction by the function of the imaging direction prediction unit 12D described above.

ステップS14:CPU2は、ステップS8で特定された撮像物情報と、ステップS12で算出した撮像距離情報と、ステップS13で決定したユーザの方向と、を検索キーとして地図情報データベース15を参照してユーザの現在位置に相当する地点を算出する。具体的には、CPU2は、上述した撮像地点特定部12Fの機能により位置を算出する。   Step S14: The CPU 2 refers to the map information database 15 using the imaged object information specified in step S8, the imaging distance information calculated in step S12, and the user direction determined in step S13 as a search key. The point corresponding to the current position of is calculated. Specifically, the CPU 2 calculates the position by the function of the imaging point specifying unit 12F described above.

ステップS15:CPU2は、ステップS14で算出された位置をユーザの現在地として確定して処理を終了する(END)。   Step S15: The CPU 2 determines the position calculated in step S14 as the current location of the user and ends the process (END).

図4は、図3に示す現在地特定処理処理の一例を説明するための図であり、(A)は、撮像物から特定のキーワードを抽出する処理を説明するための図であり、(B)は、ユーザの向いている方向を予測する処理を説明するための図であり、(C)は、1度目の撮影によって入力された画像と2度目の撮影によって入力された画像の情報からユーザから撮像物までの距離を算出する処理を説明するための図であり、(D)は、現在地を特定する処理を説明するための図である。   FIG. 4 is a diagram for explaining an example of the current location specifying process shown in FIG. 3, and FIG. 4A is a diagram for explaining a process of extracting a specific keyword from the imaged object, and FIG. FIG. 10 is a diagram for explaining a process of predicting a direction in which the user is facing, and FIG. 8C is a diagram illustrating an image input from the first shooting and an image input from the second shooting from the user. It is a figure for demonstrating the process which calculates the distance to a to-be-photographed object, (D) is a figure for demonstrating the process which pinpoints the present location.

たとえば、ユーザがナビゲーション装置1の操作部6を操作して、図4(A)に示す地図上のある地点から自分の周辺の同一箇所を撮影倍率が異なるようにして2回撮影する。すると、1回目の撮影によって入力された画像が現在地特定プログラム12の撮像物特定モジュールにより解析され、「本橋駅」、「RJ」、「本橋王京駅」というキーワードが抽出される。これらのキーワード情報から図中の黒星印の地点付近を撮影していることが予想される。そして、図4(B)に示すように、1回目の撮影時の方位角は、現在地特定プログラム12の撮像方向予測モジュールにより当該撮像物に向かって205度であることが検出される。この検出された方位角から、撮影された場所が撮像物に向かって205度の方向であることが予想される。そして、図4(C)に示すように、2回目の撮影によって入力された画像に写る建物や看板などの撮像物とユーザとの距離が、現在地特定プログラム12の撮像距離算出モジュールにより算出される。そして、図4(D)に示すように、抽出された文字データ、方位角、撮像物までの距離に基づいて、現在地特定プログラム12の撮像地点特定モジュールによりユーザの現在地が特定される。   For example, the user operates the operation unit 6 of the navigation device 1 to photograph twice the same portion around the user from a certain point on the map shown in FIG. Then, the image input by the first shooting is analyzed by the imaging object specifying module of the current location specifying program 12 and the keywords “Honbashi Station”, “RJ”, and “Honbashi Okyo Station” are extracted. From these keyword information, it is expected that the area around the black star in the figure is photographed. Then, as shown in FIG. 4B, the azimuth angle at the time of the first shooting is detected to be 205 degrees toward the imaged object by the imaging direction prediction module of the current location specifying program 12. From this detected azimuth angle, it is expected that the location where the image was taken is in the direction of 205 degrees toward the imaged object. Then, as shown in FIG. 4C, the distance between the imaging object such as a building or a signboard and the user shown in the image input by the second shooting is calculated by the imaging distance calculation module of the current location specifying program 12. . Then, as shown in FIG. 4D, the current location of the user is specified by the imaging point specifying module of the current location specifying program 12 based on the extracted character data, the azimuth angle, and the distance to the imaged object.

このようにナビゲーション装置1の現在地特定処理方法では、ユーザが撮影した画像から現在地周辺情報を取得し、取得した情報に基づいて、現在地を特定するようにしている。したがって、ナビゲーション装置1は、GPS衛星からの電波を受信しなくとも正確にユーザの現在地を特定することができる。また、このナビゲーション装置1は、GPS衛星からの電波を常に受信する必要がないため、GPS衛星からの電波を受信して現在位置を把握する方法と比較して消費電力を抑えることができる。また、このナビゲーション装置1は、GPS衛星からの電波を受信しないで現在地を把握しているため、GPS衛星からの電波を受信できるか否かにより現在地が把握できなくなることもない。   As described above, in the current location specifying processing method of the navigation device 1, the current location peripheral information is acquired from the image captured by the user, and the current location is specified based on the acquired information. Therefore, the navigation device 1 can accurately identify the current location of the user without receiving radio waves from GPS satellites. In addition, since the navigation device 1 does not always need to receive radio waves from GPS satellites, power consumption can be reduced as compared with a method of receiving radio waves from GPS satellites and grasping the current position. In addition, since the navigation device 1 grasps the current location without receiving radio waves from GPS satellites, the current location can never be grasped depending on whether or not radio waves from GPS satellites can be received.

続いて、実施例のナビゲーション装置1のナビゲーション処理について説明する。図5および図6は、図1に示すナビゲーション装置1のナビゲーション処理を示すフローチャートである。なお、以下の説明中における平均移動距離kは、平均移動距離算出モジュールにより算出されるものであり、ナビゲーション処理を開始した地点からの平均移動距離であり、初期値は0が設定されている。   Next, the navigation process of the navigation device 1 according to the embodiment will be described. 5 and 6 are flowcharts showing the navigation process of the navigation device 1 shown in FIG. The average movement distance k in the following description is calculated by the average movement distance calculation module, is an average movement distance from the point where the navigation process is started, and 0 is set as the initial value.

START:CPU2は、ユーザが行う操作部6からの操作にしたがって生成されたナビゲーション処理要求によりナビゲーション処理を開始する。具体的には、CPU2は、ナビゲーションプログラム13の各モジュールをメモリ8に読み出して、上述した各機能を実現する。   START: The CPU 2 starts navigation processing in response to a navigation processing request generated in accordance with an operation from the operation unit 6 performed by the user. Specifically, the CPU 2 reads each module of the navigation program 13 into the memory 8 and realizes each function described above.

ステップS20:CPU2は、図3に示した現在地探索処理を行って、現在地を特定する。具体的には、CPU2は、上述した現在地探索部13Bの機能により現在地探索処理を行う。   Step S20: The CPU 2 specifies the current location by performing the current location search process shown in FIG. Specifically, the CPU 2 performs current location search processing by the function of the current location search unit 13B described above.

ステップS21:CPU2は、ステップS20で特定された現在地から目的地までのルート探索を行い、当該目的地までのルート案内を開始する。具体的にはCPU2は、上述したナビゲーション部13Aの機能によりルート探索を行う。なお、目的地や経由地については、たとえば、表示部7に「目的地、経由地を指定してください」といったメッセージを表示させてユーザからの入力を促してもよい。また、検索ルートが複数ある場合には検索ルートをリスト化して表示部6に表示し、ユーザからの選択によりナビゲーションルートを確定させるようにしてもよい。   Step S21: The CPU 2 searches for a route from the current location specified in step S20 to the destination, and starts route guidance to the destination. Specifically, the CPU 2 searches for a route by the function of the navigation unit 13A described above. For the destination and waypoint, for example, a message such as “Please specify the destination and waypoint” may be displayed on the display unit 7 to prompt the user to input. Further, when there are a plurality of search routes, the search routes may be listed and displayed on the display unit 6, and the navigation route may be determined by selection from the user.

ステップS22:CPU2は、目的地に到着するまで所定の時間ごと(たとえば、t分ごと)に図3に示した現在地探索処理を実行する。具体的には、CPU2は、上述した現在地探索部13Bの機能により現在地探索処理を実行する。   Step S22: The CPU 2 executes the current location search process shown in FIG. 3 every predetermined time (for example, every t minutes) until it reaches the destination. Specifically, the CPU 2 executes current location search processing by the function of the current location search unit 13B described above.

ステップS23:CPU2は、平均移動距離kが0以外であるか否かを判定する。CPU2は、移動距離kが0以外である場合には、ステップS24の処理へ移行し、0である場合には、ステップS22の処理へ戻る。   Step S23: The CPU 2 determines whether or not the average moving distance k is other than zero. When the moving distance k is other than 0, the CPU 2 proceeds to the process of step S24, and when it is 0, the CPU 2 returns to the process of step S22.

ステップS24:CPU2は、平均移動距離kに基づいて予想移動距離mを算出する。具体的には、平均移動距離kの値に、前回現在地探索処理を実行した時点からの経過時間を乗算することにより、予想移動距離mを算出する。   Step S24: The CPU 2 calculates the expected moving distance m based on the average moving distance k. Specifically, the expected moving distance m is calculated by multiplying the value of the average moving distance k by the elapsed time from the time when the current location search process was executed last time.

ステップS25:CPU2は、予想移動距離mおよびナビゲーションルートにより予想現在地Pを算出する。   Step S25: The CPU 2 calculates the predicted current location P from the predicted moving distance m and the navigation route.

ステップS26:CPU2は、方位検出装置5により方位角θを検出する。   Step S <b> 26: The CPU 2 detects the azimuth angle θ by the azimuth detection device 5.

ステップS27:ユーザが行う操作部6からの操作にしたがって、撮像装置3の撮影倍率をX倍としてキャプチャリングされた静止画像P1が撮像装置3を介してナビゲーション装置1に入力される。なお、CPU2は、たとえば、表示部7に「進行方向付近にある文字、看板、建物を撮影してください」といったメッセージを表示させ、ユーザに撮像操作を促すようにしてもよい。   Step S27: In accordance with an operation from the operation unit 6 performed by the user, the captured still image P1 with the shooting magnification of the imaging device 3 set to X is input to the navigation device 1 via the imaging device 3. For example, the CPU 2 may display a message such as “Please photograph characters, signs, and buildings in the vicinity of the traveling direction” on the display unit 7 to prompt the user to perform an imaging operation.

ステップS28:ユーザが行う操作部6からの操作にしたがって、撮像装置3の撮影倍率を2X倍に変更してキャプチャリングされた静止画像P2が撮像装置3を介してナビゲーション装置1に入力される。なお、CPU2は、たとえば、表示部7に「先ほど撮影した対象物をもう一度撮影してください」といったメッセージを表示させ、ユーザに2回目の撮像操作を促すようにしてもよい。また、撮影倍率は、ステップS1の2倍として設定されているが、その他の倍率(0.5倍、3倍など)が設定されている、またはユーザが行う操作部6からの操作にしたがって撮影倍率を指定してもよい。   Step S28: A still image P2 captured by changing the shooting magnification of the imaging device 3 to 2X in accordance with an operation from the operation unit 6 performed by the user is input to the navigation device 1 via the imaging device 3. For example, the CPU 2 may display a message such as “Please shoot again the object that was shot earlier” on the display unit 7 to prompt the user to perform a second imaging operation. In addition, the shooting magnification is set as twice that of step S1, but other shooting magnifications (0.5 times, 3 times, etc.) are set, or shooting is performed according to an operation from the operation unit 6 performed by the user. You may specify the magnification.

ステップS29:CPU2は、予想現在地Pにおける進行方向と、ステップS26において検出した方位角θが一致するか否かを判定する。一致する場合(ステップS29でYES)にはナビゲーションルート上にいる可能性が高いと判定してステップS30へ処理を移行し、一致しない場合(ステップS29でNO)にはナビゲーションルート上にいない可能性が高いと判定してステップS31へ処理を移行する。   Step S29: The CPU 2 determines whether or not the traveling direction at the predicted current location P matches the azimuth angle θ detected in step S26. If they match (YES in step S29), it is determined that there is a high possibility of being on the navigation route, and the process proceeds to step S30. If they do not match (NO in step S29), the route may not be on the navigation route. Is determined to be high, and the process proceeds to step S31.

ステップS30:CPU2は、予測現在地P周辺(たとえば、予測現在地Pを中心として半径αkm以内の領域)のPOI情報を検索対象にすると共に、ステップS28およびステップS29で入力された画像P1、P2を解析し、画像特徴を抽出して撮像物を特定する。具体的には、CPU2は、検索範囲決定部13D、撮像物検出部12A、特徴成分抽出部12B、撮像物特定部12Cの各機能により各画像を解析し、画像特徴を抽出して撮像物を特定する。   Step S30: The CPU 2 searches the POI information around the predicted current position P (for example, the area within the radius α km with the predicted current position P as the center) and analyzes the images P1 and P2 input in step S28 and step S29. Then, an image feature is extracted to specify an imaged object. Specifically, the CPU 2 analyzes each image by each function of the search range determination unit 13D, the imaging object detection unit 12A, the feature component extraction unit 12B, and the imaging object identification unit 12C, extracts an image feature, and selects an imaging object. Identify.

ステップS31:CPU2は、予測現在地P周辺(たとえば予測現在地Pを中心として半径βkm以内の領域)のPOI情報を検索対象にすると共に、ステップS28およびステップS29で入力された画像P1、P2を解析し、画像特徴を抽出して撮像物を特定する。なお、ステップS30におけるαとステップS31におけるβとの関係は、α<βの関係となるように設定する。   Step S31: The CPU 2 searches the POI information around the predicted current position P (for example, the area within the radius β km around the predicted current position P) and analyzes the images P1 and P2 input in step S28 and step S29. Then, an image feature is extracted to specify an imaged object. Note that the relationship between α in step S30 and β in step S31 is set to satisfy α <β.

ステップS32:CPU2は、ステップS30またはステップS31で特定された撮像物とユーザの距離を、撮影画像P1、P2の撮影倍率比および当該撮像物の寸法比に基づいて当該撮像物とユーザとの距離を算出する。   Step S32: The CPU 2 determines the distance between the imaged object specified in step S30 or step S31 and the user based on the imaging magnification ratio of the captured images P1 and P2 and the size ratio of the imaged object. Is calculated.

ステップS33:CPU2は、ステップS26で検出した方位角θから予測されるユーザの向いている方向と、ステップS30またはステップS31で特定された撮像物情報と、ステップS32で算出した撮像距離情報と、を検索キーとして地図情報データベース15を参照して位置を算出する。なお、ステップS26で検出した方位角θから予測されるユーザの向いている方向は、東西南北などの大体の方角を予測するようにする。   Step S33: The CPU 2 predicts the direction of the user predicted from the azimuth angle θ detected in step S26, the imaged object information specified in step S30 or step S31, the imaging distance information calculated in step S32, The position is calculated with reference to the map information database 15 using as a search key. In addition, the direction which the user faces predicted from the azimuth angle θ detected in step S26 is predicted to be an approximate direction such as east, west, south, and north.

ステップS34:CPU2は、ステップS33で算出された位置をユーザの現在地として確定する。   Step S34: The CPU 2 determines the position calculated in step S33 as the current location of the user.

ステップS35:CPU2は、経路案内を開始してからt分間の平均移動距離kを算出する。具体的には、CPU2は、上述した平均移動距離算出部13Cの機能により平均移動距離kを算出する。   Step S35: The CPU 2 calculates an average moving distance k for t minutes after starting the route guidance. Specifically, the CPU 2 calculates the average movement distance k by the function of the average movement distance calculation unit 13C described above.

ステップS36:CPU2は、現在地検索処理を行ってナビゲーションルート上(経路上)にいるか否かを判定する。CPU2は、ナビゲーションルート上にいると判定された場合(ステップS36でYES)には、ステップS37の処理へ移行する。一方、CPU2は、ナビゲーションルート上にいないと判定された場合(ステップS36でNO)には、再ルート探索を行う(ステップS38)。   Step S36: The CPU 2 performs a current location search process to determine whether or not the vehicle is on the navigation route (on the route). If it is determined that the CPU 2 is on the navigation route (YES in step S36), the process proceeds to step S37. On the other hand, when it is determined that the CPU 2 is not on the navigation route (NO in step S36), the CPU 2 performs a reroute search (step S38).

ステップS37:CPU2は、目的地に到着したか否かを判定する。CPU2は、目的地にいると判定された場合(ステップS37でYES)には、ナビゲーション処理を終了する(END)。一方、CPU2は、目的地に到達していないと判定された場合(ステップS37でNO)には、ステップS22の処理へ移行する。   Step S37: The CPU 2 determines whether or not the destination has been reached. If it is determined that the user is at the destination (YES in step S37), the CPU 2 ends the navigation process (END). On the other hand, when it is determined that the destination has not been reached (NO in step S37), the CPU 2 proceeds to the process of step S22.

図7は、図5および図6に示すナビゲーション処理の一例を説明するための図であり、(A)は、1回目の現在地探索処理を説明するための図であり、(B)は、2回目の現在地探索処理を説明するための図であり、(C)は、3回目の現在地探索処理を説明するための図である。図8は、図5および図6に示すナビゲーション処理の一例を説明するための図であり、(A)は、4回目の現在地探索処理を説明するための図であり、(B)は、位置が一致しなかった場合に目的地までのルートを再探索する処理を説明するための図である。   FIG. 7 is a diagram for explaining an example of the navigation processing shown in FIGS. 5 and 6, (A) is a diagram for explaining the first current location search processing, and (B) is 2 It is a figure for demonstrating the present location search process of the time, (C) is a figure for demonstrating the present location search process of the 3rd time. FIG. 8 is a diagram for explaining an example of the navigation processing shown in FIG. 5 and FIG. 6, (A) is a diagram for explaining the fourth current location search processing, and (B) is a position diagram. It is a figure for demonstrating the process which re-searches the route | root to the destination when does not correspond.

図7(A)に示すようにスタート地点にいるユーザは、ゴール地点への経路案内をさせるためにナビゲーション装置1にナビゲーション処理を開始させる。すると、ナビゲーション装置1は、現在地探索処理を行ってユーザの現在地を特定すると共に、特定した現在地から目的地であるゴール地点までの経路案内を開始する。そして、図7(B)に示すように、ナビゲーション装置1は、スタートしてからt分後に2回目の現在地探索処理を行う。ナビゲーション装置1は、現在地探索処理については1回目の現在地探索処理と同じ処理を行うが、スタートからt分かけて進んだ平均移動距離kを記憶する。続いて、図7(C)に示すように、ナビゲーション装置1は、スタートしてから2t分後に3回目の現在地探索処理を行う。3回目の現在地探索処理では、2回目の現在地探索処理時に記憶した平均移動距離k1およびユーザの向いている方向を考慮して経路案内上の予測地点を特定する。ナビゲーション装置1は、特定された予測現在地点での進行方向と、現在検出される方位角を比較して、同一または略同一の方向であったため、予測地点から所定の範囲に限定して現在地探索処理を行う。なお、ナビゲーション装置1は、3回目の現在地探索処理においても、t分から2t分までに進んだ平均移動距離k2を記憶する。更に、図8(A)に示すように、ナビゲーション装置1は、スタートしてから3t分後に4回目の現在地探索処理を行う。4回目の現在地探索処理では、平均移動距離k1、k2を用いて、3回目の現在地探索処理と同様の処理を行う。ただし、4回目の現在地探索処理では、特定された予測地点での進行方向と、現在検出される方位角を比較して、同一または略同一の方向ではなかったため、予測地点から3回目の現在地探索範囲より広くなる所定の範囲に限定して現在地探索処理を行う。その結果、図8(B)に示すように、ルートを外れている位置にユーザがいることが特定されたため、目的地までのルートを再探索する処理を行ってナビゲーションを継続する。   As shown in FIG. 7A, the user at the start point causes the navigation apparatus 1 to start the navigation process in order to guide the route to the goal point. Then, the navigation device 1 performs the current location search process to identify the current location of the user and starts route guidance from the identified current location to the goal point that is the destination. Then, as shown in FIG. 7B, the navigation device 1 performs a second current location search process t minutes after the start. The navigation device 1 performs the same process as the first current position search process for the current position search process, but stores the average moving distance k that has traveled for t minutes from the start. Subsequently, as shown in FIG. 7C, the navigation device 1 performs a third current location search process 2t minutes after the start. In the third current location search process, the predicted point on the route guidance is specified in consideration of the average moving distance k1 stored in the second current location search process and the direction in which the user is facing. The navigation device 1 compares the traveling direction at the specified predicted current position with the azimuth angle detected at present, and since it is the same or substantially the same direction, the current position search is limited to a predetermined range from the predicted position. Process. The navigation device 1 also stores the average travel distance k2 that has traveled from t minutes to 2t minutes even in the third current location search process. Further, as shown in FIG. 8A, the navigation device 1 performs a fourth current location search process 3t minutes after the start. In the fourth current location search process, the same processing as the third current location search process is performed using the average moving distances k1 and k2. However, in the fourth current location search process, the traveling direction at the identified predicted point and the azimuth angle detected at present are not the same or substantially the same direction, so the third current location search from the predicted point The current location search process is performed only within a predetermined range that is wider than the range. As a result, as shown in FIG. 8B, since it is specified that the user is at a position off the route, the navigation is continued by performing a process of re-searching the route to the destination.

このようにナビゲーション装置1のナビゲーション方法では、現在地探索処理を繰り返すことでGPS衛星からの電波を受信しなくとも撮像地点であるユーザの現在地を正確に特定すると共に、特定された現在地に基づいてユーザに対して経路案内を行うことができる。また、2回目以降の現在地探索処理においては、ユーザの平均移動距離k1、k2が算出されるため、現在地探索処理の対象となる検索範囲が限定され、計算量が低減することで消費電力を抑えることが可能となる。   As described above, in the navigation method of the navigation device 1, the current location search process is repeated to accurately identify the current location of the user who is the imaging point without receiving radio waves from the GPS satellites, and the user is determined based on the identified current location. Route guidance can be performed on In the second and subsequent current location search processing, the average movement distances k1 and k2 of the user are calculated. Therefore, the search range that is the target of the current location search processing is limited, and the amount of calculation is reduced, thereby reducing power consumption. It becomes possible.

続いて、実施例のナビゲーション装置1の休止からの回復処理について説明する。図9は、図1に示すナビゲーション装置1の休止からの回復処理を示すフローチャートである。なお、ここでいう休止とはナビゲーション装置1の電源がOFFになった場合や、ユーザの操作によりナビゲーション処理を一時的に中断した場合を想定している。   Next, the recovery process from the pause of the navigation device 1 according to the embodiment will be described. FIG. 9 is a flowchart showing a recovery process from the pause of the navigation apparatus 1 shown in FIG. Note that the term “pause” here refers to a case where the power of the navigation device 1 is turned off or a case where the navigation process is temporarily interrupted by a user operation.

START:CPU2は、ナビゲーション装置1がナビゲーション処理中に一度休止し、再開されたときに回復処理を開始する。なお、以下の処理では、既に平均移動距離kが初期値である0以外の値となっている状況が前提となっている。   START: The CPU 2 pauses once during the navigation process of the navigation device 1 and starts the recovery process when it is resumed. In the following processing, it is assumed that the average moving distance k is already a value other than 0, which is an initial value.

ステップS40:CPU2は、ナビゲーション装置1の休止時間zを算出する。なお、休止時間zは、前回の現在地探索処理時の時刻を予め記憶しておき、現在時刻と比較することで算出することができる。   Step S40: The CPU 2 calculates the pause time z of the navigation device 1. The pause time z can be calculated by storing the time at the previous current location search process in advance and comparing it with the current time.

ステップS41:CPU2は、平均移動距離kと休止時間zとを用いて予想移動距離mを算出する。具体的には、平均移動距離kに休止時間zを乗算した値を予想移動距離mとする。   Step S41: The CPU 2 calculates the expected moving distance m using the average moving distance k and the pause time z. Specifically, a value obtained by multiplying the average moving distance k by the pause time z is set as the expected moving distance m.

ステップS42:CPU2は、予想移動距離mより検索領域Yを決定する。具体的には、前回特定された地点から予想移動距離mだけ移動した地点を中心として所定範囲内(たとえば半径50mなど)の領域を検索領域Yとする。   Step S42: The CPU 2 determines the search area Y from the expected moving distance m. Specifically, an area within a predetermined range (for example, a radius of 50 m) is defined as a search area Y centered on a point that has moved by an estimated movement distance m from the previously specified point.

ステップS43:CPU2は、検索領域Yの中から現在地特定処理を行う。具体的には地図情報データベース15を参照して検索する際に、検索領域Yに含まれるPOI情報を検索対象として現在地特定処理を行う。   Step S43: The CPU 2 performs a current location specifying process from the search area Y. Specifically, when searching with reference to the map information database 15, the current location specifying process is performed using the POI information included in the search area Y as a search target.

ステップS44:CPU2は、経路案内を開始してからt分間の平均移動距離kを算出する。   Step S44: The CPU 2 calculates an average moving distance k for t minutes after starting the route guidance.

ステップS45:CPU2は、現在地特定処理を行って、現在ナビゲーションルート上(経路上)にいるか否かを判定する。   Step S45: The CPU 2 performs a current location specifying process to determine whether or not the vehicle is currently on the navigation route (on the route).

ステップS46:CPU2は、ナビゲーションルート上にいると判定された場合(ステップS45でYES)には、ステップS48の処理へ移行し、ナビゲーション処理を再開して回復処理を終了する(END)。なお、CPU2は、ナビゲーションルート上にもいないと判定された場合(ステップS45でNO)には、再度ルート探索処理を行う(ステップS47)。   Step S46: If it is determined that the user is on the navigation route (YES in step S45), the CPU 2 proceeds to the process of step S48, restarts the navigation process, and ends the recovery process (END). If it is determined that the route is not on the navigation route (NO in step S45), the CPU 2 performs route search processing again (step S47).

図10は、図9に示す回復処理の一例を示す図である。図10に示すように、少なくとも2回の現在地探索処理がなされている状況でナビゲーション装置1の電源がOFFにされ、再び電源がONにされて再開した場合には、休止時間zを3t分に加算した時間に、2回目の現在地検索処理時に算出された平均移動距離kを乗算して予測現在地を算出し、算出された予測現在地点を中心とした所定範囲に限定して現在地探索を行っている。   FIG. 10 is a diagram illustrating an example of the recovery process illustrated in FIG. 9. As shown in FIG. 10, when the navigation apparatus 1 is turned off and restarted after being turned on again in a situation where the current location search process is performed at least twice, the pause time z is set to 3t minutes. The predicted current location is calculated by multiplying the added time by the average moving distance k calculated at the time of the second current location search process, and the current location search is limited to a predetermined range centered on the calculated predicted current location. Yes.

このようなナビゲーション装置1の回復処理は、経路案内中に電源がOFFにされるなどにより休止されても、GPS衛星からの電波を受信して現在地を特定する処理と比較して時間がかからず、消費電力を抑えることが可能となる。また、現在地検索処理の検索範囲について休止時間を考慮して限定することで、現在地探索処理の計算量を軽減することが可能となる。   Such a recovery process of the navigation device 1 takes more time than a process of receiving radio waves from GPS satellites and specifying the current location even if the power is turned off during route guidance. Therefore, power consumption can be suppressed. In addition, by limiting the search range of the current location search process in consideration of the downtime, it is possible to reduce the calculation amount of the current location search process.

以上説明した実施例では、ユーザが撮影した撮影倍率の異なる複数の画像に含まれる情報から現在地を特定している。したがって、GPS衛星からの電波を受信しなくても現在地を特定すると共に、特定した現在地に基づいてナビゲーションを行うことができる。   In the embodiment described above, the current location is specified from information included in a plurality of images with different shooting magnifications taken by the user. Therefore, it is possible to identify the current location and perform navigation based on the identified current location without receiving radio waves from GPS satellites.

(他の実施の形態)
本発明は、上述の実施例に限定されることなく、発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。たとえば、ユーザの現在地周辺の画像について、操作部6の操作にしたがってキャプチャリングして、その都度画像の撮影・入力をさせていたが、撮影モードになった場合に自動的に撮影倍率の異なる画像を複数回撮影し、撮影した複数の画像をナビゲーション装置1に入力させるように制御してもよい。
(Other embodiments)
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. For example, an image around the current location of the user is captured in accordance with the operation of the operation unit 6 and an image is captured and input each time. May be controlled so that the navigation apparatus 1 inputs a plurality of captured images.

また、上述の実施例では撮影倍率の異なる2枚の画像をナビゲーション装置1に入力していたが、その他にも撮影倍率の異なる3枚や4枚の画像をナビゲーション装置1に入力して、これらの画像に含まれる撮像物を特定し、画像サイズに対する当該撮像物の寸法比を求め、撮影倍率比等からユーザ(撮像場所)から撮像物の位置までの距離を求め、現在地特定処理を行うようにしてもよい。   In the above-described embodiment, two images having different shooting magnifications are input to the navigation device 1. In addition, three or four images having different shooting magnifications are input to the navigation device 1. The captured object included in the image is identified, the dimensional ratio of the captured object to the image size is determined, the distance from the user (imaging location) to the position of the captured object is determined from the shooting magnification ratio, etc., and the current location specifying process is performed It may be.

そして、上述の方法により撮影倍率の異なる3枚や4枚の画像から複数の異なる画像特徴が得られた場合には、これら複数の画像特徴の組み合わせすべてを満たす撮像物候補、またはこれらの画像特徴から得られる文字列の一致度合いが所定の基準を満たしている(たとえば、これら画像特徴の過半数または半数が同一の文字列を出力することになる場合には基準を満たしていると判定し、それ以下の場合には基準を満たしていないと判定する)撮像物候補のみを表示部7に表示させるようにしてもよい。   When a plurality of different image features are obtained from three or four images having different shooting magnifications by the above-described method, a candidate for an image that satisfies all combinations of the plurality of image features, or these image features The degree of matching of the character strings obtained from the above satisfies a predetermined criterion (for example, when a majority or half of these image features are to output the same character string, it is determined that the criterion is satisfied, and In the following cases, it may be determined that only the imaged object candidate is displayed on the display unit 7.

また、上述の実施例では画像認識データベース14および地図情報データベース15は、ナビゲーション装置1に内蔵されていたが、その他にもネットワーク経由で接続可能なサーバ(不図示)に画像認識データベース14および地図情報データベース15を内蔵させて、ナビゲーション装置1から当該サーバへ撮影した画像を送信するようにしてもよい。その場合、撮影された画像を受信したサーバは、上述した現在地特定処理、ナビゲーション処理、回復処理を行った結果をナビゲーション装置1へ送信するように構成する。このようなナビゲーション装置1は、画像認識データベース14および地図情報データベース15を自ら保持しなくとも撮像地点としての現在地を特定し、特定された現在地に基づいてナビゲーション処理を行うことができる。   In the above-described embodiment, the image recognition database 14 and the map information database 15 are built in the navigation device 1, but the image recognition database 14 and the map information are also connected to a server (not shown) that can be connected via a network. The database 15 may be built in and the captured image may be transmitted from the navigation device 1 to the server. In this case, the server that has received the captured image is configured to transmit the results of the above-described current location specifying process, navigation process, and recovery process to the navigation apparatus 1. Such a navigation apparatus 1 can identify the current location as an imaging point without performing the image recognition database 14 and the map information database 15 by itself, and can perform navigation processing based on the identified current location.

また、上述した画像認識データベース14のみをナビゲーション装置1に内蔵させ、認識結果となる文字列と撮像物からの距離情報と方位角情報とから構成される検索クエリを、地図情報データベース15を内蔵したサーバへ送信するようにしてもよい。その場合、ナビゲーション装置1は、現在地特定処理結果を当該サーバから返信してもらうように構成する。このようなナビゲーション装置1は、地図情報データベース15を自ら保持しなくとも撮像地点としての現在地を特定し、特定された現在地に基づいてナビゲーション処理を行うことができる。   Further, only the image recognition database 14 described above is built in the navigation device 1, and a search query including a character string that is a recognition result, distance information from the imaged object, and azimuth angle information is built in the map information database 15. You may make it transmit to a server. In that case, the navigation device 1 is configured so that the current location specifying process result is returned from the server. Such a navigation device 1 can identify the current location as an imaging point without performing the map information database 15 itself, and can perform navigation processing based on the identified current location.

また、上述した地図情報データベース15のみをナビゲーション装置1に内蔵させ、画像認識データベース14を内蔵したサーバへ撮影した画像を送信するようにしてもよい。その場合、撮影された画像を受信したサーバ側では、当該画像から特定された撮像物および当該撮像物までの距離を算出した結果をナビゲーション装置1に返信するように構成する。このようなナビゲーション装置1は、画像認識データベース14を自ら保持しなくとも撮像地点としての現在地を特定し、特定された現在地に基づいてナビゲーション処理を行うことができる。   Alternatively, only the map information database 15 described above may be incorporated in the navigation device 1 and the captured image may be transmitted to a server incorporating the image recognition database 14. In this case, the server that receives the captured image is configured to return to the navigation device 1 the result of calculating the captured object specified from the image and the distance to the captured object. Such a navigation apparatus 1 can identify the current location as an imaging point without performing the image recognition database 14 itself, and can perform navigation processing based on the identified current location.

また、上述した各プログラム(現在地特定プログラム12、ナビゲーションプログラム13)を予めコンピュータで読み取り可能な記録媒体に記録しておき、別のコンピュータに上述のプログラムをインストールすることで、実施例のナビゲーション装置1の各機能を実現する手段として機能させるようにしてもよい。   In addition, the above-described programs (current location specifying program 12, navigation program 13) are recorded in advance on a computer-readable recording medium, and the above-described program is installed in another computer, whereby the navigation device 1 of the embodiment is used. You may make it function as a means to implement | achieve each function of these.

1・・・ナビゲーション装置、2・・・CPU(制御部、撮像物検出部、特徴成分抽出部、撮像物特定部、撮影方向予測部、撮像距離算出部、撮像地点特定部、ナビゲーション部、現在地探索部、平均移動距離算出部、検索範囲決定部それぞれの一部)、3・・・撮像装置(画像入力部)、4・・・グラフィックプロセッサ、5・・・方位検出装置(方位検出部)、6・・・操作部(現在地検索指示部、指定部)、7・・・表示部、8・・・通信装置、9・・・メモリ、10・・・ビデオメモリ、11・・・記憶装置、12・・・現在地特定プログラム(制御部、撮像物検出部、特徴成分抽出部、撮像物特定部、撮影方向予測部、撮像距離算出部、撮像地点特定部それぞれの一部)、13・・・ナビゲーションプログラム(制御部、ナビゲーション部、現在地探索部、平均移動距離算出部、検索範囲決定部それぞれの一部)、14・・・画像認識データベース、15・・・地図情報データベース DESCRIPTION OF SYMBOLS 1 ... Navigation apparatus, 2 ... CPU (a control part, an imaging object detection part, a characteristic component extraction part, an imaging object specific | specification part, an imaging | photography direction estimation part, an imaging distance calculation part, an imaging point specific | specification part, a navigation part, a present location Search unit, average moving distance calculation unit, part of search range determination unit), 3 ... imaging device (image input unit), 4 ... graphic processor, 5 ... direction detection device (direction detection unit) , 6... Operation unit (current location search instruction unit, designation unit), 7 display unit, 8 communication device, 9 memory, 10 video memory, 11 storage device , 12... Current location specifying program (control unit, imaging object detection unit, feature component extraction unit, imaging object specification unit, imaging direction prediction unit, imaging distance calculation unit, part of imaging point specification unit),.・ Navigation program (control unit, navigation ® emission unit, current position search unit, the average moving distance calculating unit, the search range determining section each part), 14 ... image recognition database, 15 ... map information database

Claims (11)

撮影倍率の異なる複数の画像が入力される画像入力部と、
上記画像入力部から入力された撮影倍率の異なる画像から撮像地点と上記画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御部と、を有することを特徴とするナビゲーション装置。
An image input unit for inputting a plurality of images with different shooting magnifications;
The distance between the imaging point and the imaged object shown in the image is obtained from images with different shooting magnifications input from the image input unit, the imaging point is specified based on the distance, and the specified imaging point And a control unit that performs navigation based on the navigation device.
請求項1に記載のナビゲーション装置であって、
前記画像入力部によって上記画像が入力された時の方位を検出する方位検出部と、
前記撮像物を特定するための特徴成分が登録されている画像認識データベースと、
位置情報が少なくとも登録されている地図情報データベースと、を有し、
前記制御部は、
前記画像入力部により入力された前記複数の画像の中から前記撮像物を検出する撮像物検出部と、
上記撮像物検出部により検出された上記前記撮像物の特徴成分を抽出する特徴成分抽出部と、
上記画像認識データベースを参照し、上記特徴成分抽出部で抽出された上記特徴成分から上記撮像物を特定する撮像物特定部と、
前記方位検出部が検出した方位情報から前記撮影方向を予測する撮影方向予測部と、
前記複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、前記撮影時における前記撮像地点から前記撮像物までの距離を算出する撮像距離算出部と、
上記撮像物特定部で特定された撮像物情報と、上記撮影方向予測部により予測された上記撮影方向情報と、上記撮像距離算出部によって算出された上記距離情報と、に基づいて上記地図情報データベースを検索し、当該検索結果として出力された位置を前記撮像地点として特定する撮像地点特定部と、
上記撮像地点特定部によって特定された撮像地点に基づいて経路案内を行うナビゲーション部と、
を有することを特徴とするナビゲーション装置。
The navigation device according to claim 1,
An azimuth detector that detects an azimuth when the image is input by the image input unit;
An image recognition database in which characteristic components for specifying the imaged object are registered;
A map information database in which position information is registered, and
The controller is
An imaging object detection unit for detecting the imaging object from the plurality of images input by the image input unit;
A feature component extracting unit that extracts a feature component of the imaged object detected by the imaged object detecting unit;
An imaging object specifying unit that specifies the imaging object from the feature component extracted by the feature component extraction unit with reference to the image recognition database;
A shooting direction prediction unit that predicts the shooting direction from the direction information detected by the direction detection unit;
An imaging distance calculation unit that calculates a distance from the imaging point to the imaged object at the time of shooting based on feature component size ratio information extracted from the plurality of images and different shooting magnification information;
The map information database based on the imaged object information specified by the imaged object specifying unit, the shooting direction information predicted by the shooting direction predicting unit, and the distance information calculated by the imaging distance calculating unit. An imaging point specifying unit that specifies the position output as the search result as the imaging point,
A navigation unit that provides route guidance based on the imaging point identified by the imaging point identification unit;
A navigation device comprising:
請求項2に記載のナビゲーション装置であって、
前記撮像地点特定部によって前記ユーザの現在地を検索するように指示する現在地検索指示部を有することを特徴とするナビゲーション装置。
The navigation device according to claim 2,
A navigation apparatus comprising: a current location search instructing unit that instructs the imaging point specifying unit to search the current location of the user.
請求項2または3に記載のナビゲーション装置であって、
前記撮像地点特定部により前記ユーザの現在地が特定されてから所定時間毎に前記ユーザの現在地を前記撮像地点特定部によって探索する現在地探索部を有することを特徴とするナビゲーション装置。
The navigation device according to claim 2 or 3,
A navigation apparatus, comprising: a current location searching unit that searches the current location of the user by the imaging location specifying unit every predetermined time after the current location of the user is specified by the imaging location specifying unit.
請求項4に記載のナビゲーション装置であって、
前記撮像地点特定部により既に特定された現在地情報と、前記現在地探索部により前記所定時間経過後に特定された現在地情報とに基づいて、前記ユーザの平均移動距離を算出する平均移動距離算出部を有することを特徴とするナビゲーション装置。
The navigation device according to claim 4,
An average moving distance calculating unit that calculates the average moving distance of the user based on the current position information already specified by the imaging point specifying unit and the current position information specified after the predetermined time has elapsed by the current position searching unit; A navigation device characterized by that.
請求項5に記載のナビゲーション装置であって、
前記平均移動距離情報に基づいて前記ユーザの現在地を特定するための検索範囲を決定する検索範囲決定部を有することを特徴とするナビゲーション装置。
The navigation device according to claim 5,
A navigation apparatus comprising: a search range determining unit that determines a search range for specifying the current location of the user based on the average moving distance information.
請求項6に記載のナビゲーション装置であって、
前記ユーザからの入力により目的地および/または経由地を指定する指定部を備え、
前記ナビゲーション部は、前記ユーザの現在地情報と上記指定部によって指定された目的地および/または経由地情報に基づいて経路を生成し、
前記検索範囲決定部は、前記現在地探索部によって探索した時点からの経過時間情報と、前記平均移動距離算出部により算出された前記ユーザの平均移動距離情報と、前記ナビゲーション部によって生成された上記経路情報と、に基づいて前記ユーザの現在地を検索するための検索範囲を決定することを特徴とするナビゲーション装置。
The navigation device according to claim 6,
A designation unit for designating a destination and / or waypoint by input from the user;
The navigation unit generates a route based on the current location information of the user and the destination and / or waypoint information specified by the specifying unit,
The search range determination unit includes elapsed time information from the time point searched by the current location search unit, the average travel distance information of the user calculated by the average travel distance calculation unit, and the route generated by the navigation unit And a search range for searching the current location of the user based on the information.
画像入力部、制御部を有するナビゲーション装置が実行するナビゲーション方法であって、
画像入力部に撮影倍率の異なる複数の画像が入力される画像入力ステップと、
制御部が、上記画像入力ステップから入力された撮影倍率の異なる画像から撮像地点と上記画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御ステップと、
を有することを特徴とするナビゲーション方法。
A navigation method executed by a navigation device having an image input unit and a control unit,
An image input step in which a plurality of images having different shooting magnifications are input to the image input unit;
The control unit obtains the distance between the imaging point and the imaged object shown in the image from the images with different shooting magnifications input from the image input step, and specifies the imaging point based on the distance. A control step for performing navigation based on the captured imaging point;
A navigation method characterized by comprising:
請求項8に記載のナビゲーション方法であって、
前記ナビゲーション装置は、
前記画像入力部によって上記画像が入力された時の方位を検出する方位検出部と、
前記撮像物を特定するための特徴成分が登録されている画像認識データベースと、
位置情報が少なくとも登録されている地図情報データベースと、を有し、
前記制御部には、撮像物検出部、特徴成分抽出部、撮像物特定部、撮影方向予測部、撮像距離算出部、撮像地点特定部、ナビゲーション部が含まれると共に、
前記制御ステップには、
上記撮像物検出部が、前記画像入力ステップにより入力された前記複数の画像の中から前記撮像物を検出する撮像物検出ステップと、
上記特徴成分抽出部が、上記撮像物検出ステップにより検出された上記前記撮像物の特徴成分を抽出する特徴成分抽出ステップと、
上記撮像物特定部が、上記画像認識データベースを参照し、上記特徴成分抽出ステップで抽出された上記特徴成分から上記撮像物を特定する撮像物特定ステップと、
上記撮影方向予測部が、上記方位検出部が検出した方位情報から前記撮影方向を予測する撮影方向予測ステップと、
上記撮像距離算出部が、前記複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、前記撮影時における前記撮像地点から前記撮像物までの距離を算出する撮像距離算出ステップと、
上記撮像地点特定部が、上記撮像物特定ステップで特定された撮像物情報と、上記撮影方向予測ステップにより予測された上記撮影方向情報と、上記撮像距離算出ステップによって算出された上記距離情報と、に基づいて上記地図情報データベースを検索し、当該検索結果として出力された位置を撮像地点として特定する撮像地点特定ステップと、
上記ナビゲーション部が、上記撮像地点特定ステップによって特定された撮像地点に基づいて経路案内を行うナビゲーションステップと、
が含まれることを特徴とするナビゲーション方法。
The navigation method according to claim 8, wherein
The navigation device
An azimuth detector that detects an azimuth when the image is input by the image input unit;
An image recognition database in which characteristic components for specifying the imaged object are registered;
A map information database in which position information is registered, and
The control unit includes an imaging object detection unit, a feature component extraction unit, an imaging object identification unit, an imaging direction prediction unit, an imaging distance calculation unit, an imaging point identification unit, a navigation unit,
The control step includes
The imaging object detection unit detects the imaging object from the plurality of images input in the image input step; and
A feature component extraction step in which the feature component extraction unit extracts a feature component of the imaged object detected in the imaged object detection step;
The captured object specifying unit refers to the image recognition database and specifies the captured object from the feature component extracted in the feature component extraction step;
A shooting direction prediction step in which the shooting direction prediction unit predicts the shooting direction from the direction information detected by the direction detection unit;
An imaging distance calculation step in which the imaging distance calculation unit calculates a distance from the imaging point to the imaging object at the time of imaging based on feature component size ratio information extracted from the plurality of images and different imaging magnification information. When,
The imaging point specifying unit, the imaging object information specified in the imaging object specification step, the shooting direction information predicted in the shooting direction prediction step, the distance information calculated in the imaging distance calculation step, An image capturing point specifying step for searching the map information database based on the image and specifying the position output as the search result as an image capturing point;
A navigation step in which the navigation unit performs route guidance based on the imaging point identified by the imaging point identification step;
The navigation method characterized by including.
コンピュータを、
撮影倍率の異なる複数の画像が入力される撮像入力手段、
上記画像入力部から入力された撮影倍率の異なる画像から撮像地点と上記画像に写っている撮像物との間の距離を求め、当該距離に基づいて撮像地点を特定すると共に、特定された撮像地点に基づいてナビゲーションを行う制御手段、
として機能させるためのナビゲーションプログラム。
Computer
Imaging input means for inputting a plurality of images having different shooting magnifications;
The distance between the imaging point and the imaged object shown in the image is obtained from images with different shooting magnifications input from the image input unit, the imaging point is specified based on the distance, and the specified imaging point Control means for performing navigation based on
Navigation program to function as.
請求項10記載のナビゲーションプログラムであって、
前記コンピュータは、
前記撮像物を特定するための特徴成分が登録されている画像認識データベースと、
位置情報が少なくとも登録されている地図情報データベースと、を有し、
前記制御手段には、
前記撮像入力手段により入力された前記複数の画像の中から前記撮像物を検出する撮像物検出手段、
上記撮像物検出手段により検出された上記前記撮像物の特徴成分を抽出する特徴成分抽出手段、
上記画像認識データベースを参照し、上記特徴成分抽出手段で抽出された上記特徴成分から上記撮像物を特定する撮像物特定手段、
前記撮像入力手段によって上記画像が入力された時の方位を検出する方位検出手段、
前記方位検出手段が検出した方位情報から前記撮影方向を予測する撮影方向予測手段、
前記複数の画像から抽出された特徴成分寸法比情報および異なる撮影倍率情報に基づいて、前記撮影時における前記撮像地点から前記撮像物までの距離を算出する撮像距離算出手段、
上記撮像物特定手段で特定された撮像物情報と、上記撮影方向予測手段により予測された上記撮影方向情報と、上記撮像距離算出手段によって算出された上記距離情報と、に基づいて上記地図情報データベースを検索し、当該検索結果として出力された位置を撮像地点として特定する撮像地点特定手段、
上記撮像地点特定手段によって特定された撮像地点に基づいて経路案内を行うナビゲーション手段、
が含まれることを特徴とするナビゲーションプログラム。
A navigation program according to claim 10, wherein
The computer
An image recognition database in which characteristic components for specifying the imaged object are registered;
A map information database in which position information is registered, and
The control means includes
An imaging object detection means for detecting the imaging object from the plurality of images input by the imaging input means;
Feature component extraction means for extracting feature components of the imaged object detected by the imaged object detection means;
An imaging object specifying means for specifying the imaging object from the feature components extracted by the feature component extraction means with reference to the image recognition database;
Azimuth detecting means for detecting the azimuth when the image is input by the imaging input means;
Shooting direction prediction means for predicting the shooting direction from the direction information detected by the direction detection means;
An imaging distance calculation means for calculating a distance from the imaging point to the imaged object at the time of imaging based on feature component size ratio information extracted from the plurality of images and different imaging magnification information;
The map information database based on the imaged object information specified by the imaged object specifying unit, the shooting direction information predicted by the shooting direction predicting unit, and the distance information calculated by the imaging distance calculating unit. Imaging point specifying means for searching for and specifying the position output as the search result as an imaging point,
Navigation means for performing route guidance based on the imaging point specified by the imaging point specifying unit;
A navigation program characterized by including:
JP2009246489A 2009-10-27 2009-10-27 Navigation device, navigation method and navigation program Pending JP2011094992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009246489A JP2011094992A (en) 2009-10-27 2009-10-27 Navigation device, navigation method and navigation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009246489A JP2011094992A (en) 2009-10-27 2009-10-27 Navigation device, navigation method and navigation program

Publications (1)

Publication Number Publication Date
JP2011094992A true JP2011094992A (en) 2011-05-12

Family

ID=44112086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009246489A Pending JP2011094992A (en) 2009-10-27 2009-10-27 Navigation device, navigation method and navigation program

Country Status (1)

Country Link
JP (1) JP2011094992A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145176A (en) * 2012-01-13 2013-07-25 Toshiba Corp Road guide system
WO2013115204A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Information processing system, information processing method, information processing device, and control method and control program therefor, and communication terminal, and control method and control program therefor
WO2014171050A1 (en) * 2013-04-15 2014-10-23 パナソニック株式会社 Master device, slave device, and navigation system
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor
JP2016169991A (en) * 2015-03-12 2016-09-23 株式会社ゼンリンデータコム Route guidance device, route guidance method, and route guidance program
JP2018132528A (en) * 2013-06-17 2018-08-23 ソニー株式会社 Image processor, image processing method, and program
JP2020177572A (en) * 2019-04-22 2020-10-29 日鉄ソリューションズ株式会社 Information processing system, information processing device, information processing method, program, and recording medium
JP2020177574A (en) * 2019-04-22 2020-10-29 日鉄ソリューションズ株式会社 Information processing system, information processing device, information processing method, program, and recording medium
JP2020537119A (en) * 2017-09-22 2020-12-17 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Improved location recognition of mobile devices based on images and radio words
WO2023135727A1 (en) * 2022-01-14 2023-07-20 日本電気株式会社 Information provision device, terminal device, information provision method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229760A (en) * 1993-02-02 1994-08-19 Mazda Motor Corp Running path recognizing system
JPH09152348A (en) * 1995-12-01 1997-06-10 Pioneer Electron Corp Car navigation device
JP2003111128A (en) * 2001-09-28 2003-04-11 J-Phone East Co Ltd Method of specifying present location, method of providing information on present location, method of guiding moving route, position information management system, and information communication terminal
JP2005265573A (en) * 2004-03-18 2005-09-29 Xanavi Informatics Corp Vehicle mounted navigation device, navigation system
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
WO2009004749A1 (en) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation Navigation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229760A (en) * 1993-02-02 1994-08-19 Mazda Motor Corp Running path recognizing system
JPH09152348A (en) * 1995-12-01 1997-06-10 Pioneer Electron Corp Car navigation device
JP2003111128A (en) * 2001-09-28 2003-04-11 J-Phone East Co Ltd Method of specifying present location, method of providing information on present location, method of guiding moving route, position information management system, and information communication terminal
JP2005265573A (en) * 2004-03-18 2005-09-29 Xanavi Informatics Corp Vehicle mounted navigation device, navigation system
JP2007108043A (en) * 2005-10-14 2007-04-26 Xanavi Informatics Corp Location positioning device, location positioning method
WO2009004749A1 (en) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation Navigation system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145176A (en) * 2012-01-13 2013-07-25 Toshiba Corp Road guide system
WO2013115204A1 (en) * 2012-01-30 2013-08-08 日本電気株式会社 Information processing system, information processing method, information processing device, and control method and control program therefor, and communication terminal, and control method and control program therefor
JPWO2013115204A1 (en) * 2012-01-30 2015-05-11 日本電気株式会社 Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
WO2014171050A1 (en) * 2013-04-15 2014-10-23 パナソニック株式会社 Master device, slave device, and navigation system
JP2018132528A (en) * 2013-06-17 2018-08-23 ソニー株式会社 Image processor, image processing method, and program
US10677596B2 (en) 2013-06-17 2020-06-09 Sony Corporation Image processing device, image processing method, and program
JP2015129696A (en) * 2014-01-08 2015-07-16 Kddi株式会社 Route guidance system, method, program, and data structure therefor
JP2016169991A (en) * 2015-03-12 2016-09-23 株式会社ゼンリンデータコム Route guidance device, route guidance method, and route guidance program
JP2020537119A (en) * 2017-09-22 2020-12-17 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Improved location recognition of mobile devices based on images and radio words
JP6991317B2 (en) 2017-09-22 2022-01-12 ソフトバンク・ロボティクス・ヨーロッパ Improved location recognition of mobile devices based on images and radio words
JP2020177572A (en) * 2019-04-22 2020-10-29 日鉄ソリューションズ株式会社 Information processing system, information processing device, information processing method, program, and recording medium
JP2020177574A (en) * 2019-04-22 2020-10-29 日鉄ソリューションズ株式会社 Information processing system, information processing device, information processing method, program, and recording medium
WO2023135727A1 (en) * 2022-01-14 2023-07-20 日本電気株式会社 Information provision device, terminal device, information provision method, and program

Similar Documents

Publication Publication Date Title
JP2011094992A (en) Navigation device, navigation method and navigation program
JP5897791B2 (en) User terminal device, position providing method thereof, and route guidance method thereof
CN102484769B (en) Mobile device
US8374779B2 (en) Navigation device and image management method
KR101436223B1 (en) Image identification using trajectory-based location determination
US11060880B2 (en) Route planning method and apparatus, computer storage medium, terminal
KR20110126180A (en) Human assisted techniques for providing local maps and location-specific annotated data
JP5148950B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, COMPUTER PROGRAM, AND RECORDING MEDIUM
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
CN113532444B (en) Navigation path processing method and device, electronic equipment and storage medium
JPWO2004081496A1 (en) Navigation device, navigation system, navigation method and program
CN107193820B (en) Position information acquisition method, device and equipment
JP2006125871A (en) Navigation apparatus
JP6653507B2 (en) Information terminal, position estimation method, and position estimation program
JP2006112981A (en) Information processing apparatus
JP2006047147A (en) Information providing system
JP2005140636A (en) Navigation system, method and program
JP2010276364A (en) Navigation information creation device, navigation system, navigation information creation method, and navigation method
JP2007139748A (en) Complementary device and method for navigation map
JP2008111693A (en) Mobile apparatus and target information retrieval method
KR100687740B1 (en) Location finding apparatus and method
JP5466752B2 (en) Map display device, map display method, and computer program
JP4641511B2 (en) Route search device and mobile terminal device
JP2008190941A (en) Navigation device and destination setting method
JP2019184439A (en) Route guidance program, route guidance method and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105