JP2008185506A - Apparatus and method for navigation, and automobile - Google Patents

Apparatus and method for navigation, and automobile Download PDF

Info

Publication number
JP2008185506A
JP2008185506A JP2007020563A JP2007020563A JP2008185506A JP 2008185506 A JP2008185506 A JP 2008185506A JP 2007020563 A JP2007020563 A JP 2007020563A JP 2007020563 A JP2007020563 A JP 2007020563A JP 2008185506 A JP2008185506 A JP 2008185506A
Authority
JP
Japan
Prior art keywords
dimensional
information
calculating
image
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007020563A
Other languages
Japanese (ja)
Inventor
Toshihiko Shimizu
敏彦 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MOBILE MAPPING KK
Original Assignee
MOBILE MAPPING KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MOBILE MAPPING KK filed Critical MOBILE MAPPING KK
Priority to JP2007020563A priority Critical patent/JP2008185506A/en
Publication of JP2008185506A publication Critical patent/JP2008185506A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve highly accurate navigation in routes of difficult GPS positioning when a noncontact inertial navigation device is used. <P>SOLUTION: A three-dimensional coordinate DB 22 for storing optical flow information of previously photographed visual scenes correspondingly to three-dimensional coordinate data in an XYZ coordinate system corresponding to a road network and a map, speech, and OF information DB 23 are used. In the processing of computing information on a current position; a distance traveled; and a traveling direction through the use of a navigation sensor 6 having a noncontact inertial navigation device, optical flow information of images acquired by a camera 7 is matched with optical flow information of the map, speech, and OF information DB 23. In the case that they do not match, three-dimensional position information is corrected. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ナビゲーション装置、ナビゲーション方法、および、自動車に関する。 The present invention relates to a navigation device, a navigation method, and an automobile.

近年、自動車のナビゲーション装置の普及は著しいものであり、モニタに映し出されるコンピュータグラフィックス(CG)の描写能力や案内時に提供される各種情報の充実振りを各社で競うかたちとなっている。このように、多機能・高性能型の追求では、ナビゲーション装置の価格高騰は避けられないものとなっている。 In recent years, navigation devices for automobiles have been widely used, and companies have competed in drawing ability of computer graphics (CG) displayed on a monitor and various information provided during guidance. In this way, in the pursuit of multi-function and high-performance type, the price of navigation devices is inevitable.

その一方で、2005年あたりから、欧州を中心にパーソナルナビゲーションデバイス(以下、PNDという)の需要が急速に高まっている。世界のカーナビ市場が急成長する原動力ともいわれ、その理由のひとつとして、通常のナビゲーション装置に比べて低価格な設定を挙げることができる。 On the other hand, since around 2005, demand for personal navigation devices (hereinafter referred to as PND) has been rapidly increasing mainly in Europe. It is also said that the global car navigation market is a driving force for rapid growth, and one of the reasons is that it is cheaper than ordinary navigation devices.

現在のPNDは、グローバルポジショニングシステム(以下、GPSという)で現在位置を確認してナビゲーションを行うものであり、通常のナビゲーション装置のように車速パルスは不要となる。もちろん、トンネル内やビルの陰のようにGPSが利用できない区間では、使用できないという問題も持ち合わせている。 The current PND performs navigation by confirming the current position with a global positioning system (hereinafter referred to as GPS), and no vehicle speed pulse is required unlike a normal navigation device. Of course, there is a problem that it cannot be used in sections where GPS is not available, such as in tunnels or behind buildings.

このように、PNDはGPSに依存した簡易型ナビゲーション装置ではあるが、非接触慣性航法装置(加速度センサとジャイロセンサとの組み合わせ)を用いれば、トンネル内でも移動距離や移動方向を入手できるので上記の問題を解決することができる。 Thus, although the PND is a simple navigation device that relies on GPS, if a non-contact inertial navigation device (a combination of an acceleration sensor and a gyro sensor) is used, the moving distance and moving direction can be obtained even in a tunnel. Can solve the problem.

GPSと非接触慣性航法装置とを組み合わせたとしても、相対位置を取得する非接触慣性航法装置はGPSの補完的な役割を担うに過ぎないことから、GPSからつぎの絶対位置を取得するまでの区間で計測誤差を解消する必要がある。この解消を怠ると、計測誤差が累積して真位置とのずれは拡がるばかりとなり、ナビゲーションとして求められる許容範囲を逸脱する虞がある。そこで、近年、相対位置検出における方位あるいは加速度に対して補正を行うことで、累積誤差の影響を可及的に抑制する提案がなされている(特許文献1)。 Even if GPS and a non-contact inertial navigation device are combined, the non-contact inertial navigation device that acquires the relative position only plays a complementary role of GPS, so it is necessary to acquire the next absolute position from the GPS. It is necessary to eliminate the measurement error in the section. If this solution is neglected, the measurement error will accumulate and the deviation from the true position will only widen, possibly deviating from the allowable range required for navigation. Therefore, in recent years, a proposal has been made to suppress the influence of the accumulated error as much as possible by correcting the azimuth or acceleration in the relative position detection (Patent Document 1).

近年、自動車に取り付けたカメラを用いて、撮影時間に時間差のある画像を比較し、その差から物体の移動状態を検出するオプティカルフロー手段を備えた画像処理装置の提案がある(特許文献1)。また、走行領域表面およびその近傍の情景の画像のあらなじめ記憶しているオプティカルフローと現在のオプティカルフローとの比較する移動体現在位置検出方法が提案されている(特許文献2)。 In recent years, there has been a proposal of an image processing apparatus provided with an optical flow means for comparing images having a time difference in photographing time using a camera attached to an automobile and detecting a moving state of an object from the difference (Patent Document 1). . In addition, there has been proposed a moving body current position detection method for comparing an optical flow stored in advance and images of scenes in the vicinity of the surface of a traveling region and a current optical flow (Patent Document 2).

特開平10−222665号公報JP-A-10-222665 特開2000−171250号公報JP 2000-171250 A

しかしながら、上述した従来例においては、同一地点での過去と現在のオプティカルフロー比較に頼っているだけの構成なので、GPS測位が困難な走行区間においては、適切な補正タイミングを得ることが困難であった。 However, in the above-described conventional example, since the configuration relies only on the past and current optical flow comparison at the same point, it is difficult to obtain an appropriate correction timing in a traveling section where GPS positioning is difficult. It was.

本発明の目的は、非接触慣性航法装置を用いた際に、GPS測位が困難な経路上での精度の高いナビゲーションを実現することが可能なナビゲーション装置、ナビゲーション方法、および、自動車を提供することにある。 An object of the present invention is to provide a navigation device, a navigation method, and an automobile capable of realizing highly accurate navigation on a route where GPS positioning is difficult when a non-contact inertial navigation device is used. It is in.

上述した課題を解決し、上記目的を達成するため、本発明の請求項1に係るナビゲーション装置は、移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得するナビゲーション装置であって、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報を記憶する記憶手段と、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記記憶手段に記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する算出手段と、前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、を備えたことを特徴とするものである。 In order to solve the above-described problems and achieve the above object, a navigation device according to claim 1 of the present invention includes a camera for photographing the front of a moving body, a satellite positioning device, and non-contact inertia for detecting azimuth and acceleration. A navigation device that is connected to a navigation device and obtains the current position of a moving object, and stores optical flow information of a pre-captured scene in correspondence with three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network Storage means, optical flow information based on image information photographed by the camera, and the storage means in a process of calculating information on the current position, moving distance, and traveling direction using the non-contact inertial navigation device Executes matching with optical flow information stored in and moves based on the matching result Calculating means for calculating separation, two-dimensional matching means for calculating two-dimensional position information on XY coordinates by two-dimensional map matching based on information calculated by the calculating means, and the two-dimensional map matching means Z calculation means for calculating a Z coordinate position on an XYZ coordinate based on the two-dimensional position information calculated in step 3 and the three-dimensional coordinate data stored in the storage means; A detecting means for detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculating means, and a three-dimensional position information by correcting a moving distance based on the gradient difference detected by the detecting means. And a three-dimensional map matching means for calculating.

また、請求項2の発明に係るナビゲーション装置は、移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得するナビゲーション装置であって、道路ネットワークに対応するXYZ座標系の3次元座標データを記憶する記憶手段と、前記カメラにより撮影される画像情報内には、移動体の進行方向に交差するように並ぶ少なくとも2本の仮想バーが設けられ、かつ、当該2本の仮想バー間について経路上の距離があらかじめ算出されているとともに、所定の画像処理により検出可能なオブジェクトのパターンがすくなくとも1つ設けられており、移動体の前進もしくは後退の際に、前記カメラにより撮影された画像情報について前記所定の画像処理にしたがって前記オブジェクトのパターンマッチングを行うとともに、当該パターンマッチングでマッチしたオブジェクトのパターンを追跡する画像処理手段と、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、移動体の移動時、前記画像処理手段により前記オブジェクトがマッチングした際に、前記画像処理手段により当該オブジェクトのパターンを追跡して、前記少なくとも2本の仮想バーを跨ぐ時間を算出して移動距離を算出する算出手段と、前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、を備えたことを特徴とするものである。 Further, the navigation device according to the invention of claim 2 is connected to a camera for photographing the front of the moving body, a satellite positioning device, and a non-contact inertial navigation device for detecting azimuth and acceleration, and acquires the current position of the moving body. And a storage means for storing three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network, and image information photographed by the camera are arranged so as to intersect with the traveling direction of the moving body. At least two virtual bars are provided, the distance between the two virtual bars is calculated in advance, and at least one object pattern that can be detected by predetermined image processing is provided. When the moving body moves forward or backward, the predetermined image processing is performed on the image information captured by the camera. Accordingly, information on the current position, the moving distance, and the traveling direction using the image processing means for performing the pattern matching of the object and tracking the pattern of the object matched by the pattern matching and the non-contact inertial navigation device. When the moving object moves, when the object is matched by the image processing means, the image processing means tracks the pattern of the object, and the time over the at least two virtual bars is calculated. Calculating means for calculating a moving distance; two-dimensional matching means for calculating two-dimensional position information on an XY coordinate by performing two-dimensional map matching based on information calculated by the calculating means; The two-dimensional position information calculated by the three-dimensional map matching means and the storage means are recorded. Z calculation means for calculating the Z coordinate position on the XYZ coordinates based on the three-dimensional coordinate data, and based on the Z coordinate position calculated by the Z calculation means for the movement of the moving body. Detecting means for detecting a gradient difference in the Z-axis direction, and three-dimensional map matching means for calculating three-dimensional position information by correcting a moving distance based on the gradient difference detected by the detecting means. It is a feature.

また、請求項3の発明は、請求項1または2において、さらに、前記3次元マップマッチング手段で算出された3次元位置情報に基づいてルート案内を示す画像情報を生成する画像生成手段と、前記移動体にカメラが設定されており、当該カメラで撮影された画像情報を入力する入力手段と、前記画像生成手段で生成された画像情報と前記入力手段で入力された画像情報とを重畳する重畳手段と、前記重畳手段で重畳された画像を前記ディスプレイに表示する表示手段と、を備えたことを特徴とするものである。 The invention of claim 3 is the image generation means for generating image information indicating route guidance based on the three-dimensional position information calculated by the three-dimensional map matching means in claim 1 or 2, and A camera is set on the moving body, and an input unit that inputs image information captured by the camera, an image information generated by the image generation unit, and an image information input by the input unit are superimposed And display means for displaying the image superimposed by the superimposing means on the display.

また、請求項4の発明は、請求項3において、さらに、2次元地図データを記憶する地図記憶手段と、前記地図記憶手段に記憶される2次元地図データを参照して前記3次元マップマッチング手段で算出された3次元位置情報に基づいて前記移動体の現在位置情報を含む2次元地図を生成する地図生成手段と、前記地図生成手段で生成された2次元地図を前記ディスプレイに表示する地図表示手段とを有することを特徴とするものである。 According to a fourth aspect of the present invention, in the third aspect, the map storage means for storing the two-dimensional map data, and the three-dimensional map matching means with reference to the two-dimensional map data stored in the map storage means. A map generation unit that generates a two-dimensional map including the current position information of the moving body based on the three-dimensional position information calculated in step S, and a map display that displays the two-dimensional map generated by the map generation unit on the display Means.

また、請求項5の発明に係るナビゲーション方法は、移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得する装置のナビゲーション方法であって、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報がメモリに記憶されており、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記メモリに記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する第1ステップと、前記第1ステップにより算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する第2ステップと、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報をメモリに記憶しておき、前記第2ステップで算出された2次元位置情報と前記メモリに記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出する第3ステップと、前記移動体の移動上、前記第3ステップで算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する第4ステップと、前記第4ステップで検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する第5ステップと、を含んだことを特徴とするものである。 Further, the navigation method according to the invention of claim 5 is connected to a camera for photographing the front of the moving body, a satellite positioning device, and a non-contact inertial navigation device for detecting azimuth and acceleration, and acquires the current position of the moving body. 3D coordinate data of an XYZ coordinate system corresponding to a road network in a process for calculating information relating to a current position, a moving distance, and a traveling direction using the non-contact inertial navigation device The optical flow information of a scene photographed in advance is stored in the memory in correspondence with the optical flow information based on the image information photographed by the camera and the optical flow information stored in the memory. Performing a first step of calculating a movement distance based on the matching result; The second step of calculating the two-dimensional position information on the XY coordinates by performing the two-dimensional map matching based on the information calculated in one step, and the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network. Then, optical flow information of a scene photographed in advance is stored in a memory, and XY based on the two-dimensional position information calculated in the second step and the three-dimensional coordinate data stored in the memory. A third step of calculating a Z coordinate position on the -Z coordinate; and a fourth step of detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated in the third step on the movement of the moving body; And a fifth step of calculating the three-dimensional position information by correcting the movement distance based on the gradient difference detected in the fourth step.

また、請求項6の発明に係るナビゲーション方法は、移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得する装置のナビゲーション方法であって、前記カメラにより撮影される画像情報内には、移動体の進行方向に交差するように並ぶ少なくとも2本の仮想バーが設けられ、かつ、当該2本の仮想バー間について経路上の距離があらかじめ算出されているとともに、所定の画像処理により検出可能なオブジェクトのパターンがすくなくとも1つ設けられており、移動体の前進もしくは後退の際に、前記カメラにより撮影された画像情報について前記所定の画像処理にしたがって前記オブジェクトのパターンマッチングを行うとともに、当該パターンマッチングでマッチしたオブジェクトのパターンを追跡する第1ステップと、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、移動体の移動時、前記第1ステップにより前記オブジェクトがマッチングした際に、前記第1ステップにより当該オブジェクトのパターンを追跡して、前記少なくとも2本の仮想バーを跨ぐ時間を算出して移動距離を算出する第2ステップと、前記第2ステップにより算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する第3ステップと、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報がメモリに記憶されており、前記第3ステップで算出された2次元位置情報と前記メモリに記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出する第4ステップと、前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する第5ステップと、前記第5ステップで検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する第6ステップと、を含んだことを特徴とするものである。 Further, the navigation method according to the invention of claim 6 is connected to a camera for photographing the front of the moving body, a satellite positioning device, and a non-contact inertial navigation device for detecting azimuth and acceleration, and acquires the current position of the moving body. The image information captured by the camera includes at least two virtual bars arranged so as to intersect the traveling direction of the moving object, and the two virtual bars. The distance on the route is calculated in advance, and at least one object pattern that can be detected by predetermined image processing is provided. The object was photographed by the camera when the moving body moved forward or backward. The image information is subjected to pattern matching according to the predetermined image processing, and the pattern In the first step of tracking the pattern of the object matched by the matching and the process of calculating the information on the current position, the moving distance, and the traveling direction using the non-contact inertial navigation device, A second step in which when the object is matched in the first step, a pattern of the object is tracked in the first step, a time spanning the at least two virtual bars is calculated, and a moving distance is calculated; Based on the information calculated in the second step, two-dimensional map matching is performed to calculate the two-dimensional position information on the XY coordinates, and the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network Correspondingly, optical flow information of a scene photographed in advance is stored in the memory, and A fourth step of calculating the Z coordinate position on the XYZ coordinate based on the two-dimensional position information calculated in the step and the three-dimensional coordinate data stored in the memory; A fifth step of detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculating means, and a three-dimensional position by correcting the movement distance based on the gradient difference detected in the fifth step And a sixth step of calculating information.

また、請求項7の発明に係る自動車は、自動車であって、前後左右方向のいずれか1つまたはその組み合わせ分の撮影を行うカメラと、ディスプレイと、衛星測位装置、および、方位および加速度を検出する非接触慣性航法装置を用いて、少なくとも現在位置および進行情報を検出する位置検出ユニットと、ディスプレイを有しており、当該ディスプレイに画像を表示するナビゲーション装置と、を備え、前記ナビゲーション装置は、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報を記憶する記憶手段と、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記記憶手段に記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する算出手段と、前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、前記3次元マップマッチング手段で算出された3次元位置情報に基づいてルート案内を示す画像情報を生成する画像生成手段と、前記画像生成手段で生成された画像情報と前記入力手段で入力された画像情報とを重畳する重畳手段と、前記重畳手段で重畳された画像を前記ディスプレイに表示する表示手段と、を備えたことを特徴とするものである。 According to a seventh aspect of the present invention, there is provided an automobile according to the present invention, which is an automobile, and that detects a camera, a display, a satellite positioning device, and an azimuth and acceleration for photographing one or both of the front, rear, left and right directions. A position detection unit that detects at least the current position and progress information using a non-contact inertial navigation device, and a navigation device that has a display and displays an image on the display. A storage means for storing optical flow information of a scene photographed in advance in association with three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network, and the non-contact inertial navigation device, the current position, the moving distance In the process of calculating information related to the direction of travel, the image information captured by the camera is Based on the information calculated by the calculation means, and the calculation means for executing the matching between the optical flow information based on the optical flow information and the optical flow information stored in the storage means and calculating the movement distance based on the matching result. Two-dimensional matching means for calculating two-dimensional position information on XY coordinates by performing three-dimensional map matching, two-dimensional position information calculated by the two-dimensional map matching means, and three-dimensional coordinate data stored in the storage means Z calculation means for calculating the Z coordinate position on the XYZ coordinate based on the above, and the gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculation means on the movement of the moving body And a three-dimensional map matching unit that calculates the three-dimensional position information by correcting the movement distance based on the gradient difference detected by the detection unit. Image generating means for generating image information indicating route guidance based on the three-dimensional position information calculated by the three-dimensional map matching means, image information generated by the image generating means, and input by the input means It is characterized by comprising superimposing means for superimposing image information and display means for displaying an image superimposed by the superimposing means on the display.

本発明は、非接触慣性航法装置を用いた際に、GPS測位が困難な経路上での精度の高いナビゲーションを実現することが可能である。 According to the present invention, when a non-contact inertial navigation device is used, it is possible to realize highly accurate navigation on a route where GPS positioning is difficult.

以下、添付図面を参照して、本発明に係る一実施の形態について詳細に説明する。 Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

まず、全体の構成について説明する。図1は本発明の一実施形態による自動車の内部構成例を示すブロック図である。本実施形態の自動車1は、たとえば図1に示したように、以下に説明するが、本実施形態の3次元マップマッチングにより3次元位置情報の取得等を行うナビゲーション装置2、無線通信により各種の情報を授受するためのアンテナ3、音声を出力するスピーカ4、画像を表示するディスプレイ5、自車の現在位置を検出するGPS機器61、進行情報となる方位、移動量をそれぞれ検出する2次元振動ジャイロ62および加速度センサ63を具備しているナビゲーションセンサ6(非接触慣性航法装置を指す)、自車の前方景色(情景)を撮影して画像を入力するCCD等のカメラ7、自車の傾斜を検知する傾斜センサ8等により構成されている。自動車1の制御系、電気系、エンジン部位等の構成は、本発明の趣旨からその説明を省略する。なお、ナビゲーションセンサ6は、自車の現在位置と進行情報を検出できるものであればその他の構成であってもよい。 First, the overall configuration will be described. FIG. 1 is a block diagram showing an example of the internal configuration of an automobile according to an embodiment of the present invention. As shown in FIG. 1, for example, the automobile 1 of the present embodiment will be described below. The navigation apparatus 2 that acquires three-dimensional position information by three-dimensional map matching according to the present embodiment, and various types of wireless communication. An antenna 3 for transmitting and receiving information, a speaker 4 for outputting sound, a display 5 for displaying an image, a GPS device 61 for detecting the current position of the own vehicle, a direction as travel information, and a two-dimensional vibration for detecting a movement amount. A navigation sensor 6 (referring to a non-contact inertial navigation device) having a gyro 62 and an acceleration sensor 63, a camera 7 such as a CCD that captures a front scene (scene) of the host vehicle and inputs an image, and a tilt of the host vehicle It is comprised by the inclination sensor 8 etc. which detect this. Description of the configuration of the control system, electric system, engine part, and the like of the automobile 1 is omitted for the purpose of the present invention. The navigation sensor 6 may have other configurations as long as it can detect the current position of the host vehicle and the progress information.

ナビゲーション装置2は、以下に詳述するが、GPSからの測位が困難な場所(区間)でのナビゲーションセンサ6の誤差解消および3次元マップマッチングを実現するものであり、たとえば、ロケーションコンピュータ21、領域の一部もしくは全部の3次元座標データ(3次元折線形状データ)を蓄積する3次元座標データベース(3次元座標DB)22、領域の一部もしくは全部の2次元地図データ、右左折等のポイントに応じて生成されるべき音声情報(音声データおよび生成ポイントの組み合わせ)、そして、以前に座標ポイントに応じて撮影された前方画像から取得されたオプティカルフロー情報を蓄積する地図・音声・OF情報データベース(地図・音声・OF情報DB)23、通信処理装置24、操作パネル25、音声処理装置26、画像処理装置27等により構成されている。ここで、3次元座標DB22および地図・音声・OF情報DB24は、記憶手段に相当する。 As will be described in detail below, the navigation device 2 realizes error cancellation of the navigation sensor 6 and three-dimensional map matching in a location (section) where positioning from GPS is difficult. 3D coordinate database (3D coordinate DB) 22 for accumulating a part or all of 3D coordinate data (3D broken line shape data), a part or all of 2D map data of a region, a point such as a right or left turn A map / voice / OF information database (accumulation of voice information (combination of voice data and generation point) to be generated in response) and optical flow information acquired from a front image previously captured according to coordinate points ( Map / voice / OF information DB) 23, communication processing device 24, operation panel 25, voice processing Location 26 is constituted by the image processing apparatus 27 or the like. Here, the three-dimensional coordinate DB 22 and the map / voice / OF information DB 24 correspond to storage means.

ロケーションコンピュータ21は、CPU、ROMおよびRAMによる制御ユニット、本実施形態のセンサ誤差解消(オプティカルフロー使用)および3次元マップマッチング処理等を実現するためのロケーション処理プログラム211等を具備している。このロケーションコンピュータ21は、ナビゲーションセンサ6に接続され、GPS機器61から現在位置情報、2次元振動ジャイロ62から方位、そして、加速度センサ63から移動量をそれぞれ入力してX−Y座標系の2次元マップマッチングを実行し、さらに、3次元座標DB22から3次元座標データを読み出してX−YZ座標系でのZ座標位置情報を算出する。 The location computer 21 includes a control unit using a CPU, ROM and RAM, a location processing program 211 for realizing sensor error elimination (using an optical flow), three-dimensional map matching processing, and the like of this embodiment. This location computer 21 is connected to the navigation sensor 6 and inputs the current position information from the GPS device 61, the azimuth from the two-dimensional vibration gyro 62, and the movement amount from the acceleration sensor 63, respectively, and is two-dimensional in the XY coordinate system. Map matching is executed, and three-dimensional coordinate data is read from the three-dimensional coordinate DB 22 to calculate Z coordinate position information in the XYZ coordinate system.

このロケーションコンピュータ21は、Z座標位置情報に基づいて移動距離の補正を行ってから3次元位置情報を求めて画像処理装置27に供給するものである。とくに、GPSからの測位が困難なトンネル内、ビルの陰等の区間については、3次元座標DB22に記憶する座標に対してあらかじめGPS不能区間を示す道路属性をもたせておき、画像処理装置27よりオプティカルフロー情報の合致もしくは不一致を確認した際は、正確な移動距離を求める補正を実行するものである。 The location computer 21 corrects the movement distance based on the Z coordinate position information and then obtains the three-dimensional position information and supplies it to the image processing device 27. In particular, with respect to sections such as tunnels and shadows of buildings where positioning from GPS is difficult, a road attribute indicating a GPS disabled section is given in advance to the coordinates stored in the three-dimensional coordinate DB 22, and the image processing device 27 When the optical flow information matches or does not match, correction for obtaining an accurate movement distance is executed.

通信処理装置24は、アンテナ3に接続され、無線通信によってアンテナ3を介して各種の情報(渋滞情報、2次元地図データ、3次元座標データ、音声情報等)を取得する。通信処理装置24は、アンテナ3を介して受信される2次元地図データや音声情報を地図・音声・OF情報DB23に出力する。これにより、地図・音声・OF情報DB23の更新処理が実行される。また、通信処理装置24は、アンテナ3を介して受信される3次元座標データを3次元座標DB22に出力する。これにより、3次元座標DB22の更新処理が実行される。 The communication processing device 24 is connected to the antenna 3 and acquires various types of information (congestion information, 2D map data, 3D coordinate data, audio information, etc.) via the antenna 3 by wireless communication. The communication processing device 24 outputs the two-dimensional map data and voice information received via the antenna 3 to the map / voice / OF information DB 23. Thereby, the update process of the map / voice / OF information DB 23 is executed. In addition, the communication processing device 24 outputs the three-dimensional coordinate data received via the antenna 3 to the three-dimensional coordinate DB 22. Thereby, the update process of the three-dimensional coordinate DB 22 is executed.

操作パネル25においては、ここではナビゲーション装置自体に設けられている例が示されているが、本発明はこれに限定されるものではなく、ナビゲーション装置外に設けてナビゲーション装置に対して操作信号を送る構成としてもよい。操作パネル25は、出発地、目的地の入力により経路要求をしたり、候補として挙げられる経路の選択をしたり、本実施形態のカメラ撮影画像によるナビゲーション表示と2次元地図によるナビゲーション表示間の切り替えを指示するための操作ボタン等を備えている。 In the operation panel 25, an example provided in the navigation device itself is shown here, but the present invention is not limited to this, and an operation signal is provided to the navigation device by providing it outside the navigation device. It is good also as a structure to send. The operation panel 25 requests a route by inputting a starting point and a destination, selects a route that can be cited as a candidate, and switches between navigation display using a camera-captured image and navigation display using a two-dimensional map according to the present embodiment. An operation button for instructing is provided.

音声処理装置26は、ロケーションコンピュータ21、地図・音声・OF情報DB23等に接続され、地図・音声・OF情報DB23を参照してロケーションコンピュータ2から供給される3次元位置情報に基づいて真の現在位置に応じた音声データを後段に接続されるスピーカ4に供給する。スピーカ4は、音声処理装置26から音声データを入力して音声を再生する。 The voice processing device 26 is connected to the location computer 21, the map / voice / OF information DB 23, and the like, and the true current is based on the 3D position information supplied from the location computer 2 with reference to the map / voice / OF information DB 23. Audio data corresponding to the position is supplied to the speaker 4 connected to the subsequent stage. The speaker 4 inputs audio data from the audio processing device 26 and reproduces audio.

画像処理装置27は、ロケーションコンピュータ21、地図・音声・OF情報DB23等に接続され、ロケーションコンピュータ21から供給される3次元位置情報に基づいて真の現在位置に応じた経路案内画像を生成し、その画像をカメラ7から供給される風景の画像に重畳して後段に接続されるディスプレイ5に供給する。この画像処理装置27は、傾斜センサ8にも接続され、その傾斜センサ8から供給される傾斜角度に応じて経路案内画像の角度をカメラ座標系に整合させる。ディスプレイ5は、画像処理装置27に接続され、そこから出力される画像情報に基づく画像を表示する。 The image processing device 27 is connected to the location computer 21, the map / sound / OF information DB 23, etc., and generates a route guidance image corresponding to the true current position based on the three-dimensional position information supplied from the location computer 21, The image is superimposed on the landscape image supplied from the camera 7 and supplied to the display 5 connected to the subsequent stage. This image processing device 27 is also connected to the tilt sensor 8 and matches the angle of the route guidance image with the camera coordinate system in accordance with the tilt angle supplied from the tilt sensor 8. The display 5 is connected to the image processing device 27 and displays an image based on the image information output therefrom.

つぎに、主要なデータベースについて詳述する。図2は本実施形態による3次元座標DB22および地図・音声・OF情報DBの一例を示す図である。3次元座標DB22は、たとえば図2に示したように、ヘッダ部を先頭にして座標ポイント毎にX,Y,Z座標データを対応付けて記憶している。一例として、座標ポイントP0(X0,Y0,Z0)、・・・、Pn-1(Xn-1,Yn-1,Zn-1)のように順に記憶されている。3次元座標データの計測手法にもよるが、座標ポイントは、たとえば1m間隔でもよいが、それ以上もしくはそれ以下の間隔でもよいことは言うまでもない。この3次元座標DB22は、各座標ポイントに対してあらかじめ撮影済みの画像から抽出したオプティカルフロー情報(OFデータn(nは整数))をもたせている。 Next, major databases will be described in detail. FIG. 2 is a diagram showing an example of the three-dimensional coordinate DB 22 and the map / voice / OF information DB according to the present embodiment. As shown in FIG. 2, for example, the three-dimensional coordinate DB 22 stores X, Y, Z coordinate data in association with each coordinate point with the header portion at the head. As an example, coordinate points P0 (X0, Y0, Z0),..., Pn-1 (Xn-1, Yn-1, Zn-1) are sequentially stored. Although it depends on the measurement method of the three-dimensional coordinate data, the coordinate points may be 1 m intervals, for example, but needless to say, the intervals may be more or less. The three-dimensional coordinate DB 22 has optical flow information (OF data n (n is an integer)) extracted from an image captured in advance for each coordinate point.

つづいて、動作について説明する。図3は本実施形態によるナビゲーション処理の一例を説明するフローチャートである。以下に説明する動作は、主として、ナビゲーション装置2のロケーションコンピュータ21および画像処理装置23において、各制御ユニットおよびプログラムにより実現されるものである。 Next, the operation will be described. FIG. 3 is a flowchart for explaining an example of the navigation processing according to this embodiment. The operations described below are mainly realized by each control unit and program in the location computer 21 and the image processing device 23 of the navigation device 2.

ナビゲーション装置2の電源が投入されると、初期設定が実行され(ステップS101)、ナビゲーションセンサ6および傾斜センサ8からそれぞれにおいて検知される情報の入力が開始される(ステップS102)。つづいて、ドライバもしくは同乗者から経路設定(出発地、目的地等)等の入力が受け付けられ、メモリに記憶される(ステップS103)。ここで、メモリは図示せぬがナビゲーション装置2全体を制御する制御ユニットの記憶装置でもよく、あるいは、ロケーションコンピュータ21や画像処理装置27のメモリでもよい。 When the power of the navigation device 2 is turned on, initial setting is executed (step S101), and input of information detected by the navigation sensor 6 and the tilt sensor 8 is started (step S102). Subsequently, input such as route setting (departure point, destination, etc.) from the driver or the passenger is received and stored in the memory (step S103). Here, although not shown, the memory may be a storage device of a control unit that controls the entire navigation device 2, or may be a memory of the location computer 21 or the image processing device 27.

以上の準備が整い、自動車2が走行を開始すると、ロケーションコンピュータ21において、図7および図8に示す3次元マップマッチング処理が開始される(ステップS104)。この3次元マップマッチング処理により3次元位置情報が決定すると、画像処理装置27において、その3次元位置情報に基づいて経路案内画像(矢印で示すものであって右左折の案内、色等で示すものであって識別可能な坂道の案内、数字等で示すものであって車線数が多いときの走行ラインの案内等)が生成される(ステップS105)。 When the above preparation is completed and the automobile 2 starts running, the three-dimensional map matching process shown in FIGS. 7 and 8 is started in the location computer 21 (step S104). When the three-dimensional map matching process determines the three-dimensional position information, the image processing device 27 uses the three-dimensional position information to determine a route guidance image (indicated by arrows and indicated by right / left turn guidance, color, etc.) In other words, a guide for a hill that can be identified, a guide for a traveling line when the number of lanes is large, and the like is generated (step S105).

この経路案内画像には、傾斜センサ8から供給される自車の傾斜角度に応じてカメラ座標系としての補正が施される(ステップS106)。そして、カメラ7から撮影画像が読み込まれて(ステップS107)、その撮影画像に傾斜補正された経路案内画像が重畳される(ステップS108)。このようにして得られた重畳画像データに基づく画像はディスプレイ5に出力されて表示される(ステップS109)。 The route guidance image is corrected as a camera coordinate system according to the inclination angle of the host vehicle supplied from the inclination sensor 8 (step S106). Then, a captured image is read from the camera 7 (step S107), and a route guidance image whose inclination is corrected is superimposed on the captured image (step S108). An image based on the superimposed image data obtained in this manner is output and displayed on the display 5 (step S109).

さらに、音声処理装置26においては、ロケーションコンピュータ21から供給された3次元位置情報に基づいて地図・音声・OF情報DB23から音声情報が抽出され、その音声情報のうち音声データに基づいて音声ガイダンスが生成される。この音声ガイダンスはスピーカ4から音声として出力される(ステップS110)。 Furthermore, in the voice processing device 26, voice information is extracted from the map / voice / OF information DB 23 based on the three-dimensional position information supplied from the location computer 21, and voice guidance is provided based on voice data among the voice information. Generated. This voice guidance is output as voice from the speaker 4 (step S110).

つづいて、本実施形態によるGPS測位不能なときの移動時における累積誤差解消および3次元マップマッチングについて詳述する。図4は本実施形態における3次元マップマッチングの原理を座標系で説明する図、図5は本実施形態においてGPS測位不能なときの移動時における累積誤差解消および3次元マップマッチング処理の一例を説明するフローチャート、そして、図6はオプティカルフローに基づく処理を説明する図である。累積誤差解消および3次元マップマッチング処理は、ロケーションコンピュータ21により実行されるものである。図4(a)は、3次元座標系における2次元マップマッチングと3次元マップマッチングとの関係を示すものであり、同図(b)は、走行時、勾配差の発生において、3次元マップマッチングにより移動量の誤差を防止する原理を説明するものである。 Next, the accumulated error cancellation and the three-dimensional map matching at the time of movement when GPS positioning is impossible according to the present embodiment will be described in detail. FIG. 4 is a diagram for explaining the principle of 3D map matching in this embodiment in the coordinate system, and FIG. 5 is a diagram for explaining an example of cumulative error elimination and 3D map matching processing during movement when GPS positioning is impossible in this embodiment. FIG. 6 is a diagram for explaining processing based on the optical flow. Cumulative error elimination and 3D map matching processing are executed by the location computer 21. FIG. 4A shows the relationship between two-dimensional map matching and three-dimensional map matching in a three-dimensional coordinate system. FIG. 4B shows three-dimensional map matching when a gradient difference is generated during traveling. This explains the principle of preventing the movement error.

図4(a)において、2次元座標上の位置A′,P′,B′,C′には、3次元座標系の位置A,P,B,Cがそれぞれ対応しているものとする。XY平面に写像した2次元位置情報による線分A′,B′,C′上にある点P′の位置情報が得られた場合、3次元位置情報の線分A,B上の点Pの位置に自車があると推定できる。線分ABは、たとえば1m間隔に取得した位置情報を端点とする。このように、2次元マップマッチングにより自車の位置P′がわかれば、必然的に高さデータZすなわちZ軸座標位置データを算出することが可能となる。これにより、ナビゲーションセンサ6を備えるだけでX,Y,Zの3次元ナビゲーションセンサをソフトウェアにより実現することが可能となる。 In FIG. 4A, it is assumed that the positions A ′, P ′, B ′, and C ′ on the two-dimensional coordinates correspond to the positions A, P, B, and C in the three-dimensional coordinate system, respectively. When the position information of the point P ′ on the line segment A ′, B ′, C ′ is obtained by the two-dimensional position information mapped on the XY plane, the point P on the line segment A, B of the three-dimensional position information is obtained. It can be estimated that the vehicle is at the position. The line segment AB has, for example, position information acquired at 1 m intervals as end points. Thus, if the position P ′ of the own vehicle is known by two-dimensional map matching, the height data Z, that is, the Z-axis coordinate position data can inevitably be calculated. Thereby, it is possible to realize a three-dimensional navigation sensor of X, Y, and Z by software only by providing the navigation sensor 6.

図4(b)において、2次元座標上の位置F′,G′,H′,I′,J′には、3次元座標系の位置F,G,H,I,Jがそれぞれ対応しているものとする。3次元に拡張して勾配の変化を利用して、距離計測の補正を行うと、既存の方法よりも制度が向上する。たとえば、線分FG間において道路の勾配差(角度θ1)が確認されると、本実施形態の3次元マップマッチングにより移動距離の補正が可能となる。ところが、補正が施されないと線分間の補正前移動距離で示されるように、誤差d1が発生する。同様に、線分GH間においても道路の勾配差(角度θ2)が確認され、本実施形態の3次元マップマッチングによる移動距離の補正が施されないと、誤差は蓄積して誤差d2が発生する。本実施形態の3次元マップマッチングが施されると、図示の如く、各線分において誤差の発生が抑制された各線分の補正後移動距離が得られる。その結果、誤差の蓄積を防止することが可能となる。 In FIG. 4B, the positions F ′, G ′, H ′, I ′, and J ′ on the two-dimensional coordinates correspond to the positions F, G, H, I, and J in the three-dimensional coordinate system, respectively. It shall be. When the distance measurement is corrected by expanding the gradient to three dimensions and using the change in gradient, the system is improved over the existing method. For example, when a road gradient difference (angle θ1) is confirmed between the line segments FG, the travel distance can be corrected by the three-dimensional map matching of the present embodiment. However, if the correction is not performed, an error d1 occurs as indicated by the pre-correction moving distance of the line segment. Similarly, the road gradient difference (angle θ2) is confirmed between the line segments GH, and if the movement distance is not corrected by the three-dimensional map matching of this embodiment, the error accumulates and an error d2 occurs. When the three-dimensional map matching of the present embodiment is performed, as shown in the figure, the corrected travel distance of each line segment in which the occurrence of errors is suppressed in each line segment is obtained. As a result, error accumulation can be prevented.

以下、具体的な処理について図5を参照して説明する。その前提でまず、ナビゲーションセンサ6から計測情報が入力されるとともに、3次元座標DB22から現座標ポイントのOFデータnが入力される(ステップS201)。このとき、カメラ7で撮影された画像のOFデータが取得される(ステップS202)。ここで、図6(A)の画像IMG1は、ある座標ポイントでのオブジェクト61Aを含んでおり、ステップS202においてこのオブジェクト61Aに関するOFデータが取得された例を以下に説明する。なお、オプティカルフロー処理については、本発明の骨子ではないことから、説明を省略する。 Hereinafter, specific processing will be described with reference to FIG. First, measurement information is input from the navigation sensor 6 and the OF data n of the current coordinate point is input from the three-dimensional coordinate DB 22 (step S201). At this time, OF data of an image photographed by the camera 7 is acquired (step S202). Here, the image IMG1 in FIG. 6A includes an object 61A at a certain coordinate point, and an example in which OF data related to the object 61A is acquired in step S202 will be described below. Since the optical flow process is not the gist of the present invention, description thereof is omitted.

この後、まずナビゲーションセンサ6からの計測情報にしたがって現在位置、移動距離、および、進行方向の算出が行われる(ステップS203)。そして、これらの情報に基づいて2次元マップマッチング処理が実行され、その結果、2次元座標位置が算出される(ステップS204)。ここで、一例として、図4(a)に示したように、2次元座標位置(X−Y座標系)をP′とする。そして、3次元座標DB22から3次元座標データ(X−Y−Z座標系)が読み出されて参照され(ステップS205)、2次元座標位置P′の位置における高さZすなわちZ座標位置が算出される。このようにして、Z位置座標データが取得され、ロケーションコンピュータ21内のメモリに記憶される(ステップS206)。 Thereafter, first, the current position, moving distance, and traveling direction are calculated according to the measurement information from the navigation sensor 6 (step S203). Based on these pieces of information, a two-dimensional map matching process is executed, and as a result, a two-dimensional coordinate position is calculated (step S204). Here, as an example, as shown in FIG. 4A, a two-dimensional coordinate position (XY coordinate system) is P ′. Then, the three-dimensional coordinate data (XYZ coordinate system) is read from the three-dimensional coordinate DB 22 and referred to (step S205), and the height Z at the position of the two-dimensional coordinate position P ′, that is, the Z coordinate position is calculated. Is done. In this way, the Z position coordinate data is acquired and stored in the memory in the location computer 21 (step S206).

つづいてZ座標位置間の線分から勾配差が判断される(ステップS207)。勾配差があるという判断結果が得られた場合には(ステップS207のYESルート)、その勾配差に基づいて移動距離が補正される(ステップS208)。たとえば、図4(b)の場合、線分FG間では、角度θ1となってそれに基づいて補正処理が実行される。一方、線分GH間では、角度θ2となってそれに基づいて補正処理が実行される。これにより、それぞれの誤差d1、d2は解消される。 Subsequently, the gradient difference is determined from the line segment between the Z coordinate positions (step S207). When a determination result that there is a gradient difference is obtained (YES route in step S207), the movement distance is corrected based on the gradient difference (step S208). For example, in the case of FIG. 4B, the angle θ1 is set between the line segments FG, and the correction process is executed based on the angle θ1. On the other hand, between the line segments GH, the angle θ2 is set, and correction processing is executed based on the angle θ2. Thereby, the respective errors d1 and d2 are eliminated.

勾配差に基づく補正が施されると、移動距離の補正からX−Y座標におけるX座標位置およびY座標位置が確定し、これらX−Y座標位置データにZ座標位置データが組み合わされて3次元位置情報が確定する。このようにして3次元位置情報が算出され、その位置のOFデータが地図・音声・OF情報DB23から読み出される(ステップS209)。 When correction based on the gradient difference is performed, the X coordinate position and the Y coordinate position in the XY coordinates are determined from the correction of the movement distance, and the Z coordinate position data is combined with these XY coordinate position data to obtain a three-dimensional shape The location information is confirmed. In this way, the three-dimensional position information is calculated, and the OF data at the position is read from the map / voice / OF information DB 23 (step S209).

そして、ステップS202で取得したOFデータとステップS209で読み出されたOFデータとのOFマッチング処理が実行され(ステップS210)。その結果、一致が確認された場合、すなわち、図6(A)で説明したODデータとの一致が確認された場合には(ステップS211のYESルート)、ステップS209で算出された3次元位置情報がロケーションコンピュータ21のメモリに記憶され、処理は図3に戻る(ステップS213)。 Then, an OF matching process is performed between the OF data acquired in step S202 and the OF data read in step S209 (step S210). As a result, when the match is confirmed, that is, when the match with the OD data described in FIG. 6A is confirmed (YES route in step S211), the three-dimensional position information calculated in step S209. Is stored in the memory of the location computer 21, and the process returns to FIG. 3 (step S213).

一方、不一致が確認された場合、すなわち、図6(B)で示すオブジェクト67Bに関するODデータとの間で不一致が確認された場合には(ステップS211のNOルート)、3次元位置情報の補正が実行され(ステップS212)、その補正後の3次元位置情報がロケーションコンピュータ21のメモリに記憶され、処理は図3に戻る(ステップS213)。 On the other hand, when a mismatch is confirmed, that is, when a mismatch is confirmed with the OD data related to the object 67B shown in FIG. 6B (NO route in step S211), the three-dimensional position information is corrected. This is executed (step S212), the corrected three-dimensional position information is stored in the memory of the location computer 21, and the process returns to FIG. 3 (step S213).

ここで、補正処理について説明する。補正処理の一例として、ステップS209で算出された3次元位置情報を基点として進行方向に対する前後方向に向かってOFデータを読み出して、ステップS202で取得したOFデータと比較して一致した座標ポイントの3次元位置情報を補正後の情報とするようにしてもよい。また、この補正処理に道路形状の特徴を盛り込むようにしてもよい。この場合は、道路形状による加速度の急激な変化ポイント(座標ポイント)をあらかじめ予測しておき、並行して加速度センサ63に基づく移動距離から3次元位置情報を求めてOFマッチング処理の範囲を絞り込めるようにしてもよい。このとき、3次元座標DB22の座標ポイントに対して変化ポイントを示す属性をもたせておけばよい。 Here, the correction process will be described. As an example of the correction process, the OF data is read in the front-rear direction with respect to the traveling direction using the three-dimensional position information calculated in step S209 as a base point, and 3 coordinate points that coincide with the OF data acquired in step S202 are matched. The dimension position information may be used as corrected information. Further, a road shape feature may be included in the correction process. In this case, a sudden change point (coordinate point) of acceleration due to the road shape is predicted in advance, and the range of the OF matching process can be narrowed down by obtaining three-dimensional position information from the movement distance based on the acceleration sensor 63 in parallel. You may do it. At this time, an attribute indicating a change point may be given to the coordinate point of the three-dimensional coordinate DB 22.

このようにして、従来、移動距離の補正は交差点ノードでの右左折を利用しており、直進移動距離が伸びると誤差が蓄積していたが、以上の結果、その蓄積を抑制することができる。 As described above, conventionally, the correction of the movement distance uses the right / left turn at the intersection node, and errors accumulate when the straight movement distance increases. As a result, the accumulation can be suppressed. .

以上説明したように、本実施形態によれば、道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報を記憶しておき、非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、カメラにより撮影された画像情報に基づくオプティカルフロー情報とDBに記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出し、この算出された移動距離に基づく現在位置を2次元マップマッチングしてX−Y座標上の2次元位置情報を算出して、この2次元位置情報と上述した記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出し、移動体の移動上、その算出されたZ座標位置に基づいてZ軸方向の勾配差を検出して、この検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出するようにしたので、非接触慣性航法装置を用いた際に、オプティカルフローの技術を用いてもGPS測位が困難な経路上での精度の高いナビゲーションを実現することが可能である。さらに、勾配差のある道路で自動車の直進移動距離が伸びても、地図上に反映される自動車の現在位置に誤差が蓄積することはなく、誤差の発生を抑制することが可能である。 As described above, according to the present embodiment, optical flow information of a scene photographed in advance is stored in correspondence with the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network, and non-contact inertia is stored. In the process of calculating information related to the current position, moving distance, and direction of travel using the navigation device, the optical flow information based on the image information photographed by the camera is matched with the optical flow information stored in the DB. Execute, calculate the movement distance based on the matching result, calculate the two-dimensional position information on the XY coordinates by two-dimensional map matching the current position based on the calculated movement distance, Based on the position information and the stored three-dimensional coordinate data, the Z coordinate position on the XYZ coordinate is calculated, and the moving object moves Since the gradient difference in the Z-axis direction is detected based on the calculated Z coordinate position and the movement distance is corrected based on the detected gradient difference, the three-dimensional position information is calculated. When a contact inertial navigation device is used, it is possible to realize highly accurate navigation on a route where GPS positioning is difficult even using optical flow technology. Furthermore, even if the straight travel distance of the automobile is increased on a road having a gradient difference, the error is not accumulated at the current position of the automobile reflected on the map, and the occurrence of the error can be suppressed.

また、以上のように誤差の発生を抑制したので、ナビゲーション装置および自動車においては、案内精度の高いナビゲーションを実現することが可能である。 In addition, since the occurrence of errors is suppressed as described above, navigation with high guidance accuracy can be realized in the navigation apparatus and the automobile.

さて、上述した実施形態では、オプティカルフロー技術を適用してナビゲーションを実現したが、本発明はこれに限定されず、以下に説明する他の実施形態のように、オプティカルフロー技術を適用しなくてもカメラが撮影した画像だけで車速を導き出してナビゲーションを実現するようにしてもよい。なお、以下の説明では、主要な構成および処理のみ説明する。 In the embodiment described above, the navigation is realized by applying the optical flow technique. However, the present invention is not limited to this, and the optical flow technique is not applied as in the other embodiments described below. Alternatively, navigation may be realized by deriving the vehicle speed from only the image taken by the camera. In the following description, only the main configuration and processing will be described.

まず、全体構成として、他の実施形態では、オプティカルフロー技術を採用しないことから、図1に示す地図・音声・OF情報DB23のOF情報が不要となる。その他の構成については、図1の通りのため、説明を省略する。以上の全体構成における処理について説明する。図7は本発明の他の実施形態による画面遷移の一例を説明する図であり、図8は画像処理の一例を説明するフローチャートである。 First, since the optical flow technology is not adopted in the other embodiments as an overall configuration, the OF information of the map / voice / OF information DB 23 shown in FIG. 1 is not necessary. Since other configurations are as shown in FIG. The process in the above whole structure is demonstrated. FIG. 7 is a diagram for explaining an example of screen transition according to another embodiment of the present invention, and FIG. 8 is a flowchart for explaining an example of image processing.

図7には、GPSから位置情報を取得できない経路の一例として、トンネル内の撮影画像が示されている。この他の実施形態においては、たとえば図7(a),(b)に示したように、撮影画像IMG11内に第1および第2仮想バーLN1,LN2を一定の幅をもたせて設けられている。この第1および第2仮想バーLN1,LN2は、実際のディスプレイには見えず、画像処理の仮想空間内で必要とされる基準である。すなわち、仮想空間内において、第1および第2仮想バーLN1,LN2は、オブジェクトの当り判定処理に寄与するものである。なお、当り判定処理自体は、一般的な処理のため、説明を省略する。 FIG. 7 shows a captured image in the tunnel as an example of a route from which position information cannot be acquired from GPS. In this other embodiment, for example, as shown in FIGS. 7A and 7B, the first and second virtual bars LN1 and LN2 are provided with a certain width in the captured image IMG11. . The first and second virtual bars LN1 and LN2 do not appear on an actual display, and are a reference required in a virtual space for image processing. That is, in the virtual space, the first and second virtual bars LN1, LN2 contribute to the object hit determination process. Since the hit determination process itself is a general process, description thereof is omitted.

撮影画像IMG11内での第1および第2仮想バーLN1,LN2の幅には、あらかじめ計測済みの実際の距離が対応付けられている。この距離は、たとえば、5m、10m、20m、30mなどであり、カメラの設置や仮想バーの平面的な幅との関係を調整することにより利用者が任意に設定できるものである。また、前提として、トンネル内の側面には、規則的もしくは不規則にライトが設置されているものとする。OBJは、ある位置に設定されるライトを示している。ここでは、証明を例に挙げているが、その他に、木のようにある程度画像処理でパターン等を認識しやすいものであればなんでもよい。パターンは、形状等のデータとしており、精度を高めるために色相、彩度、輝度等の色に関する情報をもつようにしてもよい。 The actual distances that have been measured in advance are associated with the widths of the first and second virtual bars LN1, LN2 in the captured image IMG11. This distance is, for example, 5 m, 10 m, 20 m, 30 m, etc., and can be arbitrarily set by the user by adjusting the relationship with the installation of the camera and the planar width of the virtual bar. Also, as a premise, it is assumed that lights are regularly or irregularly installed on the side surface inside the tunnel. OBJ indicates a light set at a certain position. Here, the proof is given as an example, but any other material such as a tree that can easily recognize a pattern or the like by image processing to some extent may be used. The pattern is data such as a shape, and may have information about colors such as hue, saturation, and luminance in order to improve accuracy.

この他の実施形態では、画像認識すべき対象オブジェクトをライトのパターンとする。このパターンは、あらかじめ画像処理装置27に登録されている。図7の例において、移動中の自動車は前方を進行方向としてカメラ撮影を実行する(ステップS801)。そして、対象オブジェクトであるライトOBJが画像認識されると(ステップS802のYESルート)、そのパターンの追跡が開始される(ステップS803)。もちろん、画像認識でライトOBJが確認できないときは(ステップS802のNOルート)、処理はステップS801に戻る。 In another embodiment, the target object to be image-recognized is a light pattern. This pattern is registered in the image processing device 27 in advance. In the example of FIG. 7, the moving automobile performs camera shooting with the forward direction as the traveling direction (step S801). Then, when the image of the light OBJ that is the target object is recognized (YES route in step S802), tracking of the pattern is started (step S803). Of course, when the light OBJ cannot be confirmed by image recognition (NO route of step S802), the process returns to step S801.

パターン追跡が開始された後、第1仮想バーLN1とライトOBJとの当り判定が検出されると(ステップS804のYESルート)、図7(a)のように、ライトOBJが第1仮想バーLN1を跨いだことが確認される。これにより、時間計測が開始される(ステップS805)。 After the pattern tracking is started, when a hit determination between the first virtual bar LN1 and the light OBJ is detected (YES route in step S804), the light OBJ is changed to the first virtual bar LN1 as shown in FIG. Is confirmed. Thereby, time measurement is started (step S805).

そして、第1仮想バーLN1に続いて続く第2仮想バーLN2とライトOBJとの当り判定処理が実行される(ステップS806)。その後、第2仮想バーLN2とライトOBJとの当り判定が検出されると(ステップS806のYESルート)、図7(b)のように、ライトOBJが第2仮想バーLN2を跨いだことが確認される。これにより、計測時間が確定し、第1および第2仮想バーLN1,LN2間の実際の距離に対する計測時間に基づいて移動速度が算出される(ステップS807)。 Then, a hit determination process between the second virtual bar LN2 and the light OBJ following the first virtual bar LN1 is executed (step S806). Thereafter, when a hit determination between the second virtual bar LN2 and the light OBJ is detected (YES route in step S806), it is confirmed that the light OBJ straddles the second virtual bar LN2 as shown in FIG. 7B. Is done. Thereby, the measurement time is determined, and the moving speed is calculated based on the measurement time with respect to the actual distance between the first and second virtual bars LN1, LN2 (step S807).

そして、この移動速度にしたがって自動車の正確な移動距離が算出され(ステップS808)、現在位置が算出される(ステップS809)。以上の説明では、図3のステップS104に含まれる進行方向等の他の要素は省略しているが、他の要素も含んでいるものとする。 Then, an accurate moving distance of the vehicle is calculated according to the moving speed (step S808), and the current position is calculated (step S809). In the above description, other elements such as the traveling direction included in step S104 of FIG. 3 are omitted, but other elements are also included.

この他の実施形態では、前述の実施形態のようにすべての説明は省略するが、以降、ステップS809で求められた現在位置に基づいて2次元マッチング、さらには3次元マッチングを行って、ナビゲーションを実現することができる。 In this other embodiment, all descriptions are omitted as in the above-described embodiment, but thereafter, two-dimensional matching and further three-dimensional matching are performed based on the current position obtained in step S809, and navigation is performed. Can be realized.

以上説明したように、他の実施形態によれば、自動車の前進もしくは後退の際に、カメラにより撮影された画像情報についてオブジェクトのパターンマッチングを行うとともに、パターンマッチングでマッチしたオブジェクトのパターンを追跡するようにして、非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、移動体の移動時、オブジェクトがマッチングした際に、オブジェクトのパターンを追跡して、少なくとも2本の仮想バーを跨ぐ時間を算出して移動距離を算出するようにしたので、非接触慣性航法装置を用いた際に、GPS測位が困難な経路上での精度の高いナビゲーションを実現することが可能である。さらに、前述の実施形態と同様に、勾配差のある道路で自動車の直進移動距離が伸びても、地図上に反映される自動車の現在位置に誤差が蓄積することはなく、誤差の発生を抑制することが可能である。 As described above, according to another embodiment, when a vehicle moves forward or backward, object pattern matching is performed on image information captured by a camera, and an object pattern matched by pattern matching is tracked. Thus, in the process of calculating information on the current position, moving distance, and traveling direction using a non-contact inertial navigation device, the object pattern is tracked when the object is matched when the moving object moves. In addition, since the travel distance is calculated by calculating the time spanning at least two virtual bars, when using a non-contact inertial navigation device, highly accurate navigation on a route where GPS positioning is difficult is performed. It is possible to realize. In addition, as in the previous embodiment, even if the straight travel distance of a car on a road with a gradient difference is increased, no error is accumulated at the current position of the car reflected on the map, and the occurrence of the error is suppressed. Is possible.

この他の実施形態においては、GPSから位置情報を取得できないトンネルやビルの陰などにおいて確認しやすい街灯、トンネル設置のライト、道路沿いに植え込んである木などがパターンとして適用しやすい。 In another embodiment, streetlights that can be easily confirmed in the shadows of tunnels and buildings in which position information cannot be obtained from GPS, tunnel-installed lights, trees planted along roads, and the like can be easily applied as patterns.

このように、上述した2つの実施形態から、PNDとして安価なナビゲーションシステムを提供することができることはもちろん、本発明のロケーションコンピュータを適用すれば、ナビゲーションシステム全体で高精度の3次元ナビゲーションセンサを実現することが可能である。 Thus, from the two embodiments described above, an inexpensive navigation system can be provided as a PND, and if the location computer of the present invention is applied, a highly accurate three-dimensional navigation sensor can be realized in the entire navigation system. Is possible.

そして、3次元CG技術を駆使して実際の風景を再現しないため、膨大な地図データを自動車に取り込む必要はなくなる。 And since the actual landscape is not reproduced using the 3D CG technology, it is not necessary to capture a huge amount of map data into the car.

また、自動車の現在位置を精度高く地図上にマップマッチングさせるようにしたので、地図鳥瞰画像とカメラで撮影される画像との間で整合されるカメラ座標系においては、自動車の傾斜補正を正確な現在位置に基づいて反映させることが可能である。 In addition, since the current position of the car is map-matched on the map with high accuracy, in the camera coordinate system that is matched between the map bird's-eye view image and the image taken by the camera, the car tilt correction is accurately performed. It is possible to reflect based on the current position.

さらに、自動車の現在位置を正確にマップマッチングさせていることから、カメラで撮影される画像に案内画像を重畳させるときにも案内画像をディスプレイに表示される撮影画像中に正確な位置で表示させることが可能である。 Furthermore, since the current position of the vehicle is accurately map-matched, the guide image is displayed at the correct position in the captured image displayed on the display even when the guide image is superimposed on the image captured by the camera. It is possible.

そして、3次元折線形状データを使用することから、案内画像の生成もより細かく設定することができるので、右左折の経路においても緩やかな曲線で案内の矢印等を描写することが可能である。 Since the three-dimensional broken line shape data is used, the generation of the guidance image can be set more finely, so that it is possible to depict the guidance arrows and the like with a gentle curve even in the right / left turn route.

また、3次元折線形状データを使用して、自動車の現在位置を正確にマップマッチングさせていることから、夜間、雨、霧等で見通しの悪い景観や前方の視界を大型車両が遮って交差点が確認できないときの走行時でも、前方に近づく右左折案内等の情報を正確にディスプレイ上で表示することが可能である。 In addition, since the vehicle's current position is accurately map-matched using three-dimensional polygonal line shape data, large vehicles block the view and the front view that are poorly visible due to nighttime, rain, fog, etc. Even when traveling when it cannot be confirmed, it is possible to accurately display information such as right and left turn guidance approaching forward on the display.

さらに、ディスプレイに実際の景観を表示させ、そこに適宜案内を重ねて表示するようにしたので、ドライバが見ている景観と同じ映像でのナビゲーションを実現することが可能である。これにより、一般のナビゲーション装置に不慣れな利用者であっても矢印等の案内確認さえできればよく、誰でも簡単かつ即座に使いこなせるというメリットがある。また、右左折レーンや側道までもわかりやすく案内することが可能である。 Furthermore, since the actual landscape is displayed on the display and the guidance is appropriately superimposed on the display, it is possible to realize navigation in the same image as the landscape viewed by the driver. As a result, even a user who is unfamiliar with a general navigation device only needs to be able to confirm guidance such as an arrow, and there is an advantage that anyone can use it easily and immediately. It is also possible to provide easy-to-understand guidance to right and left turn lanes and side roads.

そして、2次元表示する地図においては、必要最小限の情報が収録されていればよく、本実施形態の3次元マップマッチングに対して特別な地図データを用意する必要はないので、この場合にも安価なカーナビゲーションシステムを提供することが可能である。 The map to be displayed in two dimensions only needs to contain the minimum necessary information, and it is not necessary to prepare special map data for the three-dimensional map matching of this embodiment. An inexpensive car navigation system can be provided.

本発明は、船舶等の業種においても産業上有用であるとともに、位置情報を取得することが可能な携帯電話、携帯情報端末、歩数計、携帯ゲーム機等の電化製品市場においても有用である。 The present invention is industrially useful in industries such as ships, and is also useful in the market for electrical appliances such as mobile phones, portable information terminals, pedometers, and portable game machines capable of acquiring position information.

本発明の一実施形態による自動車の内部構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of the motor vehicle by one Embodiment of this invention. 本実施形態による3次元座標DBおよび地図・音声・OF情報DBの一例を示す図である。It is a figure which shows an example of 3D coordinate DB by this embodiment, and map, audio | voice, OF information DB. 本実施形態によるナビゲーション処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the navigation process by this embodiment. 本実施形態における3次元マップマッチングの原理を座標系で説明する図である。It is a figure explaining the principle of the three-dimensional map matching in this embodiment in a coordinate system. 本実施形態においてGPS測位不能なときの移動時における累積誤差解消および3次元マップマッチング処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the accumulation error cancellation at the time of the movement when GPS positioning is impossible in this embodiment, and a three-dimensional map matching process. オプティカルフローに基づく処理を説明する図である。It is a figure explaining the process based on an optical flow. 他の実施形態による画面遷移の一例を説明する図である。It is a figure explaining an example of the screen transition by other embodiment. 他の実施形態による画像処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the image processing by other embodiment.

符号の説明Explanation of symbols

1 自動車
2 ナビゲーション装置
3 アンテナ
4 スピーカ
5 ディスプレイ
6 ナビゲーションセンサ
7 カメラ
8 傾斜センサ
21 ロケーションコンピュータ
22 3次元座標DB
23 地図・音声・OF情報DB
24 通信処理装置
25 操作パネル
26 音声処理装置
27 画像処理装置
51 経路案内画像
53 経路案内画像
54 経路画像
55 現在位置マーク
61 GPS機器
62 2次元振動ジャイロ
63 加速度センサ
211 ロケーション処理プログラム
271 画像処理プログラム
DESCRIPTION OF SYMBOLS 1 Car 2 Navigation apparatus 3 Antenna 4 Speaker 5 Display 6 Navigation sensor 7 Camera 8 Tilt sensor 21 Location computer 22 3D coordinate DB
23 Map / Voice / OF Information DB
24 communication processing device 25 operation panel 26 audio processing device 27 image processing device 51 route guidance image 53 route guidance image 54 route image 55 current position mark 61 GPS device 62 two-dimensional vibration gyro 63 acceleration sensor 211 location processing program 271 image processing program

Claims (7)

移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得するナビゲーション装置であって、
道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報を記憶する記憶手段と、
前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記記憶手段に記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する算出手段と、
前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、
前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、
前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、
前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、
を備えたことを特徴とするナビゲーション装置。
A navigation device that is connected to a camera that captures the front of a moving object, a satellite positioning device, and a non-contact inertial navigation device that detects azimuth and acceleration, and acquires a current position of the moving object,
Storage means for storing optical flow information of a scene photographed in advance in association with three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network;
Optical flow information based on image information photographed by the camera and stored in the storage means in the process of calculating information on the current position, moving distance, and traveling direction using the non-contact inertial navigation device A calculation unit that performs matching with the optical flow information and calculates a movement distance based on the matching result;
Two-dimensional matching means for calculating two-dimensional position information on XY coordinates by two-dimensional map matching based on the information calculated by the calculating means;
Z calculation means for calculating a Z coordinate position on an XYZ coordinate based on the two-dimensional position information calculated by the two-dimensional map matching means and the three-dimensional coordinate data stored in the storage means;
Detecting means for detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculating means on the movement of the moving body;
Three-dimensional map matching means for correcting the movement distance based on the gradient difference detected by the detection means and calculating three-dimensional position information;
A navigation device characterized by comprising:
移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得するナビゲーション装置であって、
道路ネットワークに対応するXYZ座標系の3次元座標データを記憶する記憶手段と、
前記カメラにより撮影される画像情報内には、移動体の進行方向に交差するように並ぶ少なくとも2本の仮想バーが設けられ、かつ、当該2本の仮想バー間について経路上の距離があらかじめ算出されているとともに、所定の画像処理により検出可能なオブジェクトのパターンがすくなくとも1つ設けられており、移動体の前進もしくは後退の際に、前記カメラにより撮影された画像情報について前記所定の画像処理にしたがって前記オブジェクトのパターンマッチングを行うとともに、当該パターンマッチングでマッチしたオブジェクトのパターンを追跡する画像処理手段と、
前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、移動体の移動時、前記画像処理手段により前記オブジェクトがマッチングした際に、前記画像処理手段により当該オブジェクトのパターンを追跡して、前記少なくとも2本の仮想バーを跨ぐ時間を算出して移動距離を算出する算出手段と、
前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、
前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、
前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、
前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、
を備えたことを特徴とするナビゲーション装置。
A navigation device that is connected to a camera that captures the front of a moving object, a satellite positioning device, and a non-contact inertial navigation device that detects azimuth and acceleration, and acquires a current position of the moving object,
Storage means for storing three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network;
In the image information photographed by the camera, at least two virtual bars arranged so as to intersect the traveling direction of the moving body are provided, and the distance on the path between the two virtual bars is calculated in advance. In addition, at least one object pattern that can be detected by predetermined image processing is provided, and the predetermined image processing is performed on image information captured by the camera when the moving body moves forward or backward. Therefore, while performing pattern matching of the object, image processing means for tracking the pattern of the object matched by the pattern matching,
In the process of calculating the information on the current position, the moving distance, and the traveling direction using the non-contact inertial navigation device, the image processing is performed when the object is matched by the image processing means when the moving body moves. Means for tracking the pattern of the object by means, calculating a time spanning the at least two virtual bars, and calculating a moving distance;
Two-dimensional matching means for calculating two-dimensional position information on XY coordinates by two-dimensional map matching based on the information calculated by the calculating means;
Z calculation means for calculating a Z coordinate position on an XYZ coordinate based on the two-dimensional position information calculated by the two-dimensional map matching means and the three-dimensional coordinate data stored in the storage means;
Detecting means for detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculating means on the movement of the moving body;
Three-dimensional map matching means for correcting the movement distance based on the gradient difference detected by the detection means and calculating three-dimensional position information;
A navigation device characterized by comprising:
さらに、前記3次元マップマッチング手段で算出された3次元位置情報に基づいてルート案内を示す画像情報を生成する画像生成手段と、前記移動体にカメラが設定されており、当該カメラで撮影された画像情報を入力する入力手段と、前記画像生成手段で生成された画像情報と前記入力手段で入力された画像情報とを重畳する重畳手段と、前記重畳手段で重畳された画像を前記ディスプレイに表示する表示手段と、を備えたことを特徴とする請求項1または2に記載のナビゲーション装置。 Furthermore, an image generating unit that generates image information indicating route guidance based on the three-dimensional position information calculated by the three-dimensional map matching unit, and a camera is set on the moving body, and the image is captured by the camera. Input means for inputting image information, superimposing means for superimposing image information generated by the image generating means and image information input by the input means, and displaying an image superimposed by the superimposing means on the display The navigation device according to claim 1, further comprising a display unit configured to display the display unit. さらに、2次元地図データを記憶する地図記憶手段と、前記地図記憶手段に記憶される2次元地図データを参照して前記3次元マップマッチング手段で算出された3次元位置情報に基づいて前記移動体の現在位置情報を含む2次元地図を生成する地図生成手段と、前記地図生成手段で生成された2次元地図を前記ディスプレイに表示する地図表示手段とを有することを特徴とする請求項3に記載のナビゲーション装置。 Further, a map storage means for storing 2D map data, and the mobile body based on the 3D position information calculated by the 3D map matching means with reference to the 2D map data stored in the map storage means 4. A map generating means for generating a two-dimensional map including current position information of the map, and a map display means for displaying the two-dimensional map generated by the map generating means on the display. Navigation device. 移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得する装置のナビゲーション方法であって、
道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報がメモリに記憶されており、前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記メモリに記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する第1ステップと、
前記第1ステップにより算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する第2ステップと、
道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報をメモリに記憶しておき、前記第2ステップで算出された2次元位置情報と前記メモリに記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出する第3ステップと、
前記移動体の移動上、前記第3ステップで算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する第4ステップと、
前記第4ステップで検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する第5ステップと、
を含んだことを特徴とするナビゲーション方法。
A navigation method for a device that captures the current position of a mobile object connected to a camera that captures the front of the mobile object, a satellite positioning device, and a non-contact inertial navigation device that detects azimuth and acceleration,
The optical flow information of the scene photographed in advance is stored in the memory in correspondence with the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network, and the current position and movement are recorded using the non-contact inertial navigation device. In the process of calculating the information regarding the distance and the traveling direction, matching is performed between the optical flow information based on the image information captured by the camera and the optical flow information stored in the memory, and based on the matching result A first step of calculating a movement distance by:
A second step of calculating two-dimensional position information on XY coordinates by performing two-dimensional map matching based on the information calculated in the first step;
In correspondence with the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network, optical flow information of a scene photographed in advance is stored in a memory, and the two-dimensional position information calculated in the second step and the A third step of calculating a Z coordinate position on the XYZ coordinate based on the three-dimensional coordinate data stored in the memory;
A fourth step of detecting a gradient difference in the Z-axis direction based on the Z-coordinate position calculated in the third step, on the movement of the moving body;
A fifth step of calculating the three-dimensional position information by correcting the movement distance based on the gradient difference detected in the fourth step;
The navigation method characterized by including.
移動体の前方を撮影するカメラ、衛星測位装置、ならびに、方位および加速度を検出する非接触慣性航法装置に接続され、移動体の現在位置を取得する装置のナビゲーション方法であって、
前記カメラにより撮影される画像情報内には、移動体の進行方向に交差するように並ぶ少なくとも2本の仮想バーが設けられ、かつ、当該2本の仮想バー間について経路上の距離があらかじめ算出されているとともに、所定の画像処理により検出可能なオブジェクトのパターンがすくなくとも1つ設けられており、移動体の前進もしくは後退の際に、前記カメラにより撮影された画像情報について前記所定の画像処理にしたがって前記オブジェクトのパターンマッチングを行うとともに、当該パターンマッチングでマッチしたオブジェクトのパターンを追跡する第1ステップと、
前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、移動体の移動時、前記第1ステップにより前記オブジェクトがマッチングした際に、前記第1ステップにより当該オブジェクトのパターンを追跡して、前記少なくとも2本の仮想バーを跨ぐ時間を算出して移動距離を算出する第2ステップと、
前記第2ステップにより算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する第3ステップと、
道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報がメモリに記憶されており、前記第3ステップで算出された2次元位置情報と前記メモリに記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出する第4ステップと、
前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する第5ステップと、
前記第5ステップで検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する第6ステップと、
を含んだことを特徴とするナビゲーション方法。
A navigation method for a device that captures the current position of a mobile object connected to a camera that captures the front of the mobile object, a satellite positioning device, and a non-contact inertial navigation device that detects azimuth and acceleration,
In the image information photographed by the camera, at least two virtual bars arranged so as to intersect the traveling direction of the moving body are provided, and the distance on the path between the two virtual bars is calculated in advance. In addition, at least one object pattern that can be detected by predetermined image processing is provided, and the predetermined image processing is performed on image information captured by the camera when the moving body moves forward or backward. Accordingly, the first step of performing pattern matching of the object and tracking the pattern of the object matched by the pattern matching;
In the process of calculating the information on the current position, the moving distance, and the traveling direction using the non-contact inertial navigation device, when the moving object is moved, the first step is performed when the object is matched by the first step. A second step of tracking a pattern of the object by the step, calculating a time spanning the at least two virtual bars, and calculating a moving distance;
A third step of calculating two-dimensional position information on XY coordinates by performing two-dimensional map matching based on the information calculated in the second step;
The optical flow information of the scene photographed in advance is stored in the memory in correspondence with the three-dimensional coordinate data of the XYZ coordinate system corresponding to the road network, and the two-dimensional position information calculated in the third step and the A fourth step of calculating a Z coordinate position on the XYZ coordinate based on the three-dimensional coordinate data stored in the memory;
A fifth step of detecting a gradient difference in the Z-axis direction based on the Z-coordinate position calculated by the Z-calculating means on the movement of the moving body;
A sixth step of calculating the three-dimensional position information by correcting the movement distance based on the gradient difference detected in the fifth step;
The navigation method characterized by including.
自動車であって、
前後左右方向のいずれか1つまたはその組み合わせ分の撮影を行うカメラと、
ディスプレイと、
衛星測位装置、および、方位および加速度を検出する非接触慣性航法装置を用いて、少なくとも現在位置および進行情報を検出する位置検出ユニットと、
ディスプレイを有しており、当該ディスプレイに画像を表示するナビゲーション装置と、
を備え、
前記ナビゲーション装置は、
道路ネットワークに対応するXYZ座標系の3次元座標データに対応させて、事前に撮影された情景のオプティカルフロー情報を記憶する記憶手段と、
前記非接触慣性航法装置を用いて、現在位置、移動距離、および、進行方向に関する情報を算出する処理において、前記カメラにより撮影された画像情報に基づくオプティカルフロー情報と前記記憶手段に記憶されているオプティカルフロー情報とのマッチングを実行し、当該マッチング結果に基づいて移動距離を算出する算出手段と、
前記算出手段により算出された情報に基づいて2次元マップマッチングしてX−Y座標上の2次元位置情報を算出する2次元マッチング手段と、
前記2次元マップマッチング手段で算出された2次元位置情報と前記記憶手段に記憶される3次元座標データとに基づいてX−Y−Z座標上のZ座標位置を算出するZ算出手段と、
前記移動体の移動上、前記Z算出手段で算出されたZ座標位置に基づいてZ軸方向の勾配差を検出する検出手段と、
前記検出手段で検出された勾配差に基づいて移動距離を補正して3次元位置情報を算出する3次元マップマッチング手段と、
前記3次元マップマッチング手段で算出された3次元位置情報に基づいてルート案内を示す画像情報を生成する画像生成手段と、
前記画像生成手段で生成された画像情報と前記入力手段で入力された画像情報とを重畳する重畳手段と、
前記重畳手段で重畳された画像を前記ディスプレイに表示する表示手段と、
を備えたことを特徴とする自動車。
Car,
A camera that shoots for one or a combination of the front, rear, left and right directions, or a combination thereof;
Display,
A position detection unit that detects at least the current position and progress information using a satellite positioning device and a non-contact inertial navigation device that detects azimuth and acceleration;
A navigation device having a display and displaying an image on the display;
With
The navigation device
Storage means for storing optical flow information of a scene photographed in advance in association with three-dimensional coordinate data of an XYZ coordinate system corresponding to a road network;
Optical flow information based on image information photographed by the camera and stored in the storage means in the process of calculating information on the current position, moving distance, and traveling direction using the non-contact inertial navigation device A calculation unit that performs matching with the optical flow information and calculates a movement distance based on the matching result;
Two-dimensional matching means for calculating two-dimensional position information on XY coordinates by two-dimensional map matching based on the information calculated by the calculating means;
Z calculation means for calculating a Z coordinate position on an XYZ coordinate based on the two-dimensional position information calculated by the two-dimensional map matching means and the three-dimensional coordinate data stored in the storage means;
Detecting means for detecting a gradient difference in the Z-axis direction based on the Z coordinate position calculated by the Z calculating means on the movement of the moving body;
Three-dimensional map matching means for correcting the movement distance based on the gradient difference detected by the detection means and calculating three-dimensional position information;
Image generating means for generating image information indicating route guidance based on the three-dimensional position information calculated by the three-dimensional map matching means;
Superimposing means for superimposing the image information generated by the image generating means and the image information input by the input means;
Display means for displaying the image superimposed by the superimposing means on the display;
An automobile characterized by comprising:
JP2007020563A 2007-01-31 2007-01-31 Apparatus and method for navigation, and automobile Pending JP2008185506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007020563A JP2008185506A (en) 2007-01-31 2007-01-31 Apparatus and method for navigation, and automobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007020563A JP2008185506A (en) 2007-01-31 2007-01-31 Apparatus and method for navigation, and automobile

Publications (1)

Publication Number Publication Date
JP2008185506A true JP2008185506A (en) 2008-08-14

Family

ID=39728653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007020563A Pending JP2008185506A (en) 2007-01-31 2007-01-31 Apparatus and method for navigation, and automobile

Country Status (1)

Country Link
JP (1) JP2008185506A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106500727A (en) * 2016-10-21 2017-03-15 北京自动化控制设备研究所 A kind of inertial navigation system error correcting method based on route matching
CN108917744A (en) * 2018-05-11 2018-11-30 中国地质大学(武汉) A kind of accurate 3-D positioning method based on GPS and street view database
JP2019168428A (en) * 2018-03-26 2019-10-03 康二 蓮井 Device, method, and program for measuring moving distance
KR20200002219A (en) * 2018-06-29 2020-01-08 현대엠엔소프트 주식회사 Indoor navigation apparatus and method
EP3660453A1 (en) * 2018-11-30 2020-06-03 Sandvik Mining and Construction Oy Positioning of mobile object in underground worksite

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106500727A (en) * 2016-10-21 2017-03-15 北京自动化控制设备研究所 A kind of inertial navigation system error correcting method based on route matching
JP2019168428A (en) * 2018-03-26 2019-10-03 康二 蓮井 Device, method, and program for measuring moving distance
CN108917744A (en) * 2018-05-11 2018-11-30 中国地质大学(武汉) A kind of accurate 3-D positioning method based on GPS and street view database
KR20200002219A (en) * 2018-06-29 2020-01-08 현대엠엔소프트 주식회사 Indoor navigation apparatus and method
KR102622585B1 (en) 2018-06-29 2024-01-08 현대오토에버 주식회사 Indoor navigation apparatus and method
EP3660453A1 (en) * 2018-11-30 2020-06-03 Sandvik Mining and Construction Oy Positioning of mobile object in underground worksite
WO2020109473A1 (en) * 2018-11-30 2020-06-04 Sandvik Mining And Construction Oy Positioning of mobile object in underground worksite
US11874115B2 (en) 2018-11-30 2024-01-16 Sandvik Mining And Construction Oy Positioning of mobile object in underground worksite

Similar Documents

Publication Publication Date Title
US10878256B2 (en) Travel assistance device and computer program
US11511627B2 (en) Display device and computer program
CN107836017B (en) Semaphore identification device and semaphore recognition methods
JP4600357B2 (en) Positioning device
JP6775188B2 (en) Head-up display device and display control method
JP5472142B2 (en) Map data generation device and driving support device
US11525694B2 (en) Superimposed-image display device and computer program
KR20180088149A (en) Method and apparatus for guiding vehicle route
JP2019095213A (en) Superimposed image display device and computer program
CN104520675A (en) Camera parameter computation device, navigation system, and camera parameter computation method
JP2022016908A (en) Overhead image generation device, overhead image generation system and automatic parking device
JP6342104B1 (en) Vehicle position estimation device
US9791287B2 (en) Drive assist system, method, and program
JP2006284281A (en) Own vehicle information recognition device and method
JP2008032596A (en) Three-dimensional map-matching processor, processing method, and processing program, and navigation apparatus, method, and program, and automobile
JP2008185506A (en) Apparatus and method for navigation, and automobile
JP7418196B2 (en) Travel trajectory estimation method and travel trajectory estimation device
JP2010151658A (en) Apparatus and method for measuring position of mobile object
JP2008145364A (en) Route guiding device
JPH10274537A (en) Guide display device for vehicle
JP6549932B2 (en) Stereo image processing device
CN112528719A (en) Estimation device, estimation method, and storage medium
JP2004104478A (en) Device and method for assisting parking
JP2012220259A (en) In-vehicle apparatus and vehicle azimuth correction method thereof
JP2008185507A (en) Apparatus and method for navigation, and automobile