JP2010151658A - Apparatus and method for measuring position of mobile object - Google Patents

Apparatus and method for measuring position of mobile object Download PDF

Info

Publication number
JP2010151658A
JP2010151658A JP2008330922A JP2008330922A JP2010151658A JP 2010151658 A JP2010151658 A JP 2010151658A JP 2008330922 A JP2008330922 A JP 2008330922A JP 2008330922 A JP2008330922 A JP 2008330922A JP 2010151658 A JP2010151658 A JP 2010151658A
Authority
JP
Japan
Prior art keywords
feature
landscape
moving body
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008330922A
Other languages
Japanese (ja)
Inventor
Zhencheng Hu
振程 胡
Keiichi Uchimura
圭一 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2008330922A priority Critical patent/JP2010151658A/en
Publication of JP2010151658A publication Critical patent/JP2010151658A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly measure a position of a mobile object 8 by a simple structure, and display a correct and real two-dimensional map image or three-dimensional scenic image based on the measurement results. <P>SOLUTION: An apparatus for measuring the position of a mobile object includes a real image feature extraction unit 21 for extracting a characteristic part from a real image taken by an imaging part 4 mounted on the mobile object 8, a scenic feature specifying part 23 for detecting the position and an azimuth angle of the mobile object 8 to extract or specify scenic information or the characteristic part from the scenic information, and a feature matching part 24 for matching the characteristic part of the real image with the characteristic part specified by the scenic feature specifying part 23. The position of the mobile object 8 is accurately measured by the feature matching. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、移動体の移動方向を撮像して得られる実画像と、GPS(Global Positioning System)衛星等から取得した位置情報と、当該位置情報に関連付けて記憶された景観情報から、移動体の位置を測定する移動体位置測定装置及びその測定方法に関する。   The present invention uses a real image obtained by imaging the moving direction of a moving object, position information acquired from a GPS (Global Positioning System) satellite and the like, and landscape information stored in association with the position information. The present invention relates to a moving body position measuring device and a measuring method thereof.

近年、車両等に搭載されるナビゲーションシステムが普及している。このナビゲーションシステムは、GPS衛星等から位置情報を取得し、この位置情報に基づいてCD-ROMやDVDに記憶された地図データを読み出して、現在の車両位置を表示装置に表示する。これにより、現在の車両の位置を地図上における位置として一目で認識することができる利便性を備えている。   In recent years, navigation systems mounted on vehicles and the like have become widespread. This navigation system acquires position information from a GPS satellite or the like, reads map data stored in a CD-ROM or DVD based on this position information, and displays the current vehicle position on a display device. This provides convenience that allows the current vehicle position to be recognized at a glance as the position on the map.

しかし、一般的にGPS衛星から取得した位置情報には10m以上の誤差が含まれている。そのために、GPS衛星からの位置情報をそのまま地図データに対応付けると、車両が道路上を走行していない画像が表示される。これを補正するためにマップマッチング処理が行われている。マップマッチング処理は、GPS衛星から得られた位置情報と、移動体に搭載した走行センサやジャイロセンサから得られる走行距離や角速度変化等から生成された移動情報に基づいて、移動体が位置する可能性の最も高い道路を地図データから選択し、この選択された道路の中央に移動体を強制的に移動させて補正している。これにより、移動体が道路から外れないように表示する。更に移動体の位置を現実の位置に合致させるために、移動体の移動方向の路面を撮像し、撮像した路面に描かれる白線を認識して、この白線情報により移動体の位置精度を向上させる方法も提案されている(例えば特許文献1を参照)。   However, generally, the positional information acquired from the GPS satellite includes an error of 10 m or more. Therefore, when the position information from the GPS satellite is directly associated with the map data, an image in which the vehicle is not traveling on the road is displayed. In order to correct this, a map matching process is performed. The map matching process is based on position information obtained from GPS satellites and movement information generated from travel distances and angular velocity changes obtained from travel sensors and gyro sensors mounted on mobile bodies. The road having the highest characteristic is selected from the map data, and the moving body is forcibly moved to the center of the selected road for correction. Thereby, it displays so that a mobile body may not remove from a road. Further, in order to match the position of the moving body to the actual position, the road surface in the moving direction of the moving body is imaged, the white line drawn on the captured road surface is recognized, and the position accuracy of the moving body is improved by this white line information. A method has also been proposed (see, for example, Patent Document 1).

更に、3次元CG画像を表示するナビゲーションシステムが開発されている。GPS等からの移動体の位置情報に基づいて、DVD等に記憶された地図データ上の現在の位置及び方位角を特定し、この地図データに関連付けて記憶された3次元CG画像を読み出して表示する。この種のナビゲーションシステムによれば、移動体の移動に伴って刻々と変化する景観をCG画像として表示することができる。建物や標識等のランドマークを3次元画像とともに表示すれば、雨の日や夜間など、或いは前方に大型車が走行して視界が遮られるなどの場合でも、走行位置を素早く確認することができる利便性を有している。
特開2007−220013号公報
Furthermore, a navigation system that displays a three-dimensional CG image has been developed. Based on the position information of the moving body from the GPS or the like, the current position and azimuth on the map data stored on the DVD or the like are specified, and the three-dimensional CG image stored in association with the map data is read and displayed. To do. According to this type of navigation system, it is possible to display a landscape that changes every moment as the moving body moves as a CG image. If landmarks such as buildings and signs are displayed together with 3D images, the running position can be confirmed quickly even on rainy days or at night, or when a large vehicle runs ahead and the view is blocked. Has convenience.
JP 2007-220013 A

しかしながら、マップマッチング処理により得られた移動体の現在位置は、走行道路の中央となる。従って、CD-ROMやDVD等の記録媒体から読み出す道路地図や景観画像は、この道路の中央の位置で走行方向が指定された画像となる。図9は、このようなマップマッチング処理により得られた位置から地図情報を表示している例を表している。   However, the current position of the moving body obtained by the map matching process is the center of the traveling road. Therefore, a road map or a landscape image read from a recording medium such as a CD-ROM or DVD is an image in which the traveling direction is designated at the center position of the road. FIG. 9 shows an example in which map information is displayed from a position obtained by such map matching processing.

図9(a)は、マップマッチングにより補正された車両の位置に基づいて、道路地図上に車両を表示したモニタ画像の表示例を表す。実際の車両53は、道路の左車線51を走行しているが、表示上では道路の中央分離線52上を走行しているように表示される。図9(b)は、マップマッチングにより補正された車両の位置と方位角に基づいて、記憶媒体から取得した3次元CG画像をモニタに表示している例である。実際の車両53は、左側の3つの車線のいずれかを走行しているが、モニタに表示される3次元CG画像では、道路の中央分離線52上を走行している画面が表示される。特に、道路の中央部が対向車の右折車線である場合などは、反対車線を走ることになり、危険性が高くなる。従って、このままの表示では実際のナビゲーションシステムに適用することができない。また、路面に描かれた白線を認識して、白線からの移動体の位置を補正する場合でも、走行可能車線が複数ある道路の場合は、どの車線を走行しているかを判別することは困難である。   FIG. 9A shows a display example of a monitor image in which a vehicle is displayed on a road map based on the position of the vehicle corrected by map matching. The actual vehicle 53 is traveling in the left lane 51 of the road, but is displayed on the display as if traveling on the center separation line 52 of the road. FIG. 9B is an example in which a three-dimensional CG image acquired from a storage medium is displayed on a monitor based on the vehicle position and azimuth angle corrected by map matching. The actual vehicle 53 is traveling in one of the left three lanes, but in the three-dimensional CG image displayed on the monitor, a screen traveling on the center separation line 52 of the road is displayed. In particular, when the center of the road is a right turn lane of an oncoming vehicle, it will run in the opposite lane, increasing the risk. Therefore, the display as it is cannot be applied to an actual navigation system. Also, even when recognizing the white line drawn on the road surface and correcting the position of the moving body from the white line, it is difficult to determine which lane the vehicle is traveling on when there are multiple lanes that can be driven It is.

そこで、本発明の目的は、移動体の現実の位置を高精度で測定可能とすることにより、現実の走行状態に合致した地図画像や景観画像を表示することができるようにすることである。   Therefore, an object of the present invention is to enable display of a map image and a landscape image that match an actual running state by enabling measurement of the actual position of the moving object with high accuracy.

本発明においては上記課題を解決するために以下の手段を講じた。   In the present invention, the following means have been taken in order to solve the above problems.

発明においては、移動体に搭載され、前記移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を取得する撮像部と、前記実画像から特徴部を抽出する実画像特徴抽出部と、前記移動体の位置と方位角を検出する位置情報検出部と、地図上の道路に関連付けられた景観情報を記憶する地図情報記憶部と、前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、前記実画像の特徴部と、前記景観特徴特定部により特定された特徴部とをマッチング処理する特徴マッチング処理部と、前記マッチング処理の結果により前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、を備える移動体位置測定装置とした。   In the invention, an imaging unit that is mounted on a moving body and captures a lane drawn on a road surface in a direction in which the moving body travels and a landscape in the direction to acquire a real image, and a feature portion is extracted from the real image A real image feature extraction unit, a position information detection unit that detects the position and azimuth of the moving body, a map information storage unit that stores landscape information associated with a road on the map, and the detected position The landscape information is acquired from the map information storage unit using an azimuth, and a landscape feature specifying unit that specifies a feature part included in the acquired landscape information, a feature unit of the real image, and the landscape feature specification A mobile body position measurement comprising: a feature matching processing unit that performs a matching process on the characteristic part specified by the unit; and a mobile body position estimation unit that estimates a position of the mobile body that captured the real image based on a result of the matching process. apparatus It was.

また、前記景観情報は、道路に沿って所定の間隔で設けられた地点における複数の位置から走路方向を望んで撮像された景観画像又は当該景観画像から抽出された特徴部から構成され、前記景観特徴特定部は、前記移動体が前記道路の特定の地点に近接したときに前記地図情報記憶部から前記景観情報を取得して、前記景観情報に含まれる特徴部を特定するようにした。   The landscape information is composed of a landscape image captured from a plurality of positions at predetermined intervals along the road in hopes of a runway direction or a feature extracted from the landscape image. The feature specifying unit acquires the landscape information from the map information storage unit when the moving object approaches a specific point on the road, and specifies the feature unit included in the landscape information.

また、前記道路に沿って所定の間隔で設けられた地点は、地図上の交差点とした。   Further, the points provided at predetermined intervals along the road are intersections on the map.

また、前記景観情報は、移動体の位置及び方位角に関連して景観を表示可能な3次元景観画像から構成され、前記景観特徴特定部は、前記移動体の位置及び方位角に基づいて前記地図情報記憶部から前記3次元景観画像を取得し、前記3次元景観画像から特徴部を抽出して当該特徴部を特定するようにした。   The landscape information is composed of a three-dimensional landscape image capable of displaying a landscape in relation to the position and azimuth of the moving object, and the landscape feature specifying unit is based on the position and azimuth of the moving object. The 3D landscape image is acquired from the map information storage unit, and the feature portion is extracted from the 3D landscape image to identify the feature portion.

また、前記地図情報記憶部は、道路の車線数及び車線幅を含む道路情報を更に記憶し、前記景観特徴特定部は、前記地図情報記憶部から前記道路情報を取得して前記移動体が存在可能な車線を特定し、前記車線ごとの移動体の位置及び方位角に基づいて前記景観情報に含まれる特徴部を前記車線ごとに特定し、前記特徴マッチング処理部は、前記実画像の特徴部と、前記景観情報から特定された特徴部とを、前記移動体が存在可能な車線ごとにマッチング処理するようにした。   The map information storage unit further stores road information including the number of lanes and the lane width of the road, and the landscape feature specifying unit acquires the road information from the map information storage unit and the moving body is present. A possible lane is identified, a feature included in the landscape information is identified for each lane based on a position and an azimuth of a moving body for each lane, and the feature matching processing unit is a feature of the real image And the characteristic part specified from the landscape information is subjected to a matching process for each lane in which the moving body can exist.

また、前記撮像された実画像から路面に描かれた白線を認識する白線認識部を更に備え、前記白線認識部は、前記実画像から路面に描かれた白線を認識し、前記移動体と前記白線との間のオフセット距離を検出して前記移動体の位置を補正するようにした。   The image processing apparatus further includes a white line recognition unit that recognizes a white line drawn on a road surface from the captured real image, the white line recognition unit recognizes a white line drawn on the road surface from the real image, and The position of the moving body is corrected by detecting the offset distance from the white line.

また、本発明に置いては、移動体前方を撮像して実画像を取得し、前記実画像の特徴部を抽出する実画像特徴抽出ステップと、前記移動体の位置と方位角を検出する位置検出ステップと、前記移動体の位置及び方位角に基づいて地図情報を取得し、移動体の存在可能位置を推定する存在可能位置推定ステップと、前記移動体の位置及び方位角から前記移動体の位置及び方位角に関連付けられた景観情報を取得し、前記景観情報に含まれる特徴部を特定する景観特徴特定ステップと、前記実画像の特徴部と前記景観情報の特徴部とのマッチング処理を行う特徴マッチング処理ステップと、前記特徴マッチング処理結果により、移動体の位置を推定する移動体位置推定ステップと、を備える移動体位置測定方法とした。   Further, in the present invention, a real image feature extraction step for capturing a real image by capturing the front of the mobile object and extracting a feature portion of the real image, and a position for detecting the position and azimuth of the mobile object A detection step; a map information is acquired based on a position and an azimuth angle of the mobile body; a possible position estimation step for estimating a possible position of the mobile body; and The landscape information associated with the position and the azimuth is acquired, and a landscape feature specifying step for specifying a feature included in the landscape information is performed, and a matching process is performed between the feature of the real image and the feature of the landscape information. The moving body position measuring method includes a feature matching processing step and a moving body position estimating step for estimating the position of the moving body based on the result of the feature matching processing.

また、前記実画像特徴抽出ステップは、前記撮像された実画像から路面に描かれた白線を認識する白線認識ステップと、前記認識された白線から移動体と白線との間のオフセット距離を推定するオフセット距離推定ステップと、前記オフセット距離に基づいて、移動体の位置を補正する移動体位置補正ステップと、を備えるようにした。   The real image feature extraction step estimates a white line recognition step for recognizing a white line drawn on the road surface from the captured real image, and an offset distance between the moving object and the white line from the recognized white line. An offset distance estimating step and a moving body position correcting step for correcting the position of the moving body based on the offset distance are provided.

また、前記景観特徴特定ステップは、前記移動体が存在可能な車線における移動体の位置及び方位角に基づいて前記景観情報に含まれる特徴部を前記車線ごとに特定し、前記特徴マッチング処理ステップは、前記実画像の特徴部と、前記車線ごとに特定された景観情報に含まれる特徴部とを、前記車線ごとに特徴マッチング処理を行うようにした。   Further, the landscape feature specifying step specifies, for each lane, a feature part included in the landscape information based on a position and an azimuth angle of the mobile object in a lane in which the mobile object can exist, and the feature matching processing step includes The feature matching process is performed for each lane between the feature portion of the real image and the feature portion included in the landscape information specified for each lane.

本発明においては、移動体に搭載され、移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を取得する撮像部と、実画像から特徴部を抽出する実画像特徴抽出部と、移動体の位置と方位角を検出する位置情報検出部と、地図上の道路に関連付けられた景観情報を記憶する地図情報記憶部と、検出された位置と方位角を用いて地図情報記憶部から景観情報を取得し、取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、実画像の特徴部と、景観特徴特定部により特定された特徴部と、をマッチング処理する特徴マッチング処理部と、マッチング処理の結果により実画像を撮像した移動体の位置を推定する移動体位置推定部と、を備えるようにした。これにより、移動体の現在位置の測定精度を向上させることができるので、2次元地図画像や3次元景観画像を表示する場合でも不自然な画像とはならず、更に、車両協調や安全系のアプリケーションにも幅広く応用することができる。   In the present invention, an imaging unit that is mounted on a mobile body and captures a lane drawn on the road surface in the direction in which the mobile body travels and a landscape in that direction, and acquires a real image, and a feature portion is extracted from the real image. A real image feature extraction unit, a position information detection unit that detects the position and azimuth of the moving body, a map information storage unit that stores landscape information associated with roads on the map, and the detected position and azimuth A landscape feature specifying unit for acquiring landscape information from the map information storage unit and specifying a feature included in the acquired landscape information, a feature of a real image, and a feature specified by a landscape feature specifying unit And a feature matching processing unit that performs matching processing, and a moving body position estimation unit that estimates the position of the moving body that captured a real image based on the result of the matching processing. As a result, it is possible to improve the measurement accuracy of the current position of the moving body, so even when displaying a two-dimensional map image or a three-dimensional landscape image, the image is not unnatural. It can be widely applied to applications.

以下、本発明について、図面を用いて詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings.

(実施形態1に係る移動体位置測定装置)
図1は、本発明の実施形態1に係る移動体位置測定装置10の構成を表す機能ブロック図である。移動体位置測定装置10は、装置全体の制御を行う制御部1と、移動体の位置及び方位角を検出する位置情報検出部3と、位置情報検出部3により検出された位置及び方位角に基づいて位置情報を処理し、道路地図画像又は景観画像の表示画像データを生成する位置情報処理部2と、移動体の移動方向を撮像する撮像部4と、撮像された実画像の画像データを記憶する実画像記憶部5と、地図情報及び景観情報を記憶する地図情報記憶部7と、道路地図画像又は景観画像を表示する表示部6から構成されている。
(Moving object position measuring apparatus according to Embodiment 1)
FIG. 1 is a functional block diagram showing the configuration of a mobile object position measuring apparatus 10 according to Embodiment 1 of the present invention. The moving body position measuring apparatus 10 includes a control unit 1 that controls the entire apparatus, a position information detection unit 3 that detects the position and azimuth angle of the moving body, and a position and azimuth angle detected by the position information detection unit 3. A position information processing unit 2 that processes position information on the basis of the position information and generates display image data of a road map image or a landscape image; an image pickup unit 4 that picks up the moving direction of the moving body; and image data of the captured real image. It comprises a real image storage unit 5 for storing, a map information storage unit 7 for storing map information and landscape information, and a display unit 6 for displaying road map images or landscape images.

以下、各構成要素について、説明する。制御部1は、CPU11、ROM12及びRAM13から構成されている。ROM12は、移動体位置測定装置10の基本動作を制御するメインプログラムや、位置情報を処理するための各種アプリケーションプログラムを記憶している。CPU11は、ROM12からRAM13に各プログラムを読み出して、RAM13をその作業領域として演算を実行し、移動体位置測定装置10の動作を制御する。CPU11は、位置情報処理部2の各構成部に対応するアプリケーションプログラムを実行することにより、各構成部を実現する。つまり、位置情報処理部2の各構成部は、基本的にはソフトウエアから構成されている。   Hereinafter, each component will be described. The control unit 1 includes a CPU 11, a ROM 12 and a RAM 13. The ROM 12 stores a main program for controlling the basic operation of the moving body position measuring apparatus 10 and various application programs for processing position information. The CPU 11 reads out each program from the ROM 12 to the RAM 13, executes a calculation using the RAM 13 as its work area, and controls the operation of the moving body position measuring apparatus 10. The CPU 11 realizes each component by executing an application program corresponding to each component of the position information processing unit 2. That is, each component of the position information processing unit 2 is basically composed of software.

位置情報検出部3は、GPSユニット15、ジャイロセンサ16及び走行センサ17から構成されている。GPSユニット15は、複数のGPS衛星から送られてくる搬送波を受信して、搬送波の到達時間差等から現在緯度及び経度からなる位置を検出する。ジャイロセンサ16は、移動体の角速度変化から移動体の方位角を検出する。走行センサ17は移動体の走行距離や走行速度を検出する。GPS衛星から送られてくる搬送波は1秒に1回なので、ジャイロセンサ16や走行センサ17により移動体の位置を補完する。また、トンネルや都市部のビルによりGPS衛生からの搬送波が受信し難い場合でも、移動体の位置を推定することができる。なお、ジャイロセンサ16とともに磁気センサを設置して、地磁気から移動体の方位角を特定することができる。また、基地局から送信される電波を受信して、GPSユニット15により検出された移動体の位置を補正することができる。位置情報検出部3により検出された位置及び方位角の位置情報が位置情報処理部2に送信される。   The position information detection unit 3 includes a GPS unit 15, a gyro sensor 16, and a travel sensor 17. The GPS unit 15 receives a carrier wave transmitted from a plurality of GPS satellites, and detects a position including the current latitude and longitude from the difference in arrival time of the carrier waves. The gyro sensor 16 detects the azimuth angle of the moving body from the change in the angular velocity of the moving body. The travel sensor 17 detects the travel distance and travel speed of the moving body. Since the carrier wave sent from the GPS satellite is once per second, the position of the moving body is complemented by the gyro sensor 16 and the traveling sensor 17. Even when it is difficult to receive a carrier wave from GPS hygiene due to a tunnel or a building in an urban area, the position of the moving body can be estimated. In addition, a magnetic sensor can be installed together with the gyro sensor 16, and the azimuth angle of a moving body can be specified from geomagnetism. In addition, the position of the moving body detected by the GPS unit 15 can be corrected by receiving radio waves transmitted from the base station. The position information detected by the position information detection unit 3 and the position information of the azimuth are transmitted to the position information processing unit 2.

撮像部4は、移動体の移動方向の景観や路面を撮像する。撮像部4は、CCD撮像素子やCMOS撮像素子により構成することができる。実画像記憶部5は、撮像部4により撮像された実画像の画像データを一時的に記憶する。表示部6は、位置情報処理部2により生成された地図画像や景観画像を表示する。表示部6は液晶表示装置やELディスプレイにより構成することができる。   The imaging unit 4 images a landscape and a road surface in the moving direction of the moving body. The imaging unit 4 can be configured by a CCD imaging device or a CMOS imaging device. The real image storage unit 5 temporarily stores image data of a real image captured by the imaging unit 4. The display unit 6 displays a map image and a landscape image generated by the position information processing unit 2. The display unit 6 can be configured by a liquid crystal display device or an EL display.

地図情報記憶部7は、地図情報と、地図情報に関連付けて記憶される景観情報を記憶し、CD-ROMやDVD等の大容量記憶装置から構成される。景観情報とは、3次元景観画像や2次元地図画像の画像データ、或いは移動体の走行路から見た景観の特徴部からなる特徴部データなどである。また、地図情報記憶部7は、地図情報に関連付けられた道路情報を記憶しておくことができる。道路情報とは、国道、県道、一般道などの区別、車線数や車線幅の情報等からなる道路の属性である。   The map information storage unit 7 stores map information and landscape information stored in association with the map information, and includes a large-capacity storage device such as a CD-ROM or a DVD. The landscape information is, for example, image data of a 3D landscape image or a 2D map image, or feature portion data including a landscape feature portion viewed from a traveling path of a moving body. The map information storage unit 7 can store road information associated with the map information. The road information is an attribute of a road that includes information such as a distinction between a national road, a prefectural road, a general road, the number of lanes, and a lane width.

位置情報処理部2は、位置情報検出部3により検出された位置情報と、撮像部4により撮像された実画像と、地図情報記憶部7に記憶された景観情報に基づいて、移動体の位置を高精度で測定する。位置情報処理部2は、少なくとも、撮像部4により撮像された実画像から特徴部を抽出する実画像特徴抽出部21と、位置情報検出部3により検出された位置情報に基づいて、地図情報記憶部7から景観情報を取得してこの景観情報に含まれる特徴部を特定する景観特徴特定部23と、実画像の特徴部と景観情報に含まれる特徴部とのマッチング処理を行う特徴マッチング処理部24と、このマッチング処理結果により移動体の位置を推定する移動体位置推定部25と、上記推定された移動体の位置に基づいて、道路地図画像又は3次元景観画像を生成する画像処理部26と、を備えている。   The position information processing unit 2 determines the position of the moving object based on the position information detected by the position information detection unit 3, the actual image captured by the imaging unit 4, and the landscape information stored in the map information storage unit 7. Is measured with high accuracy. The position information processing unit 2 stores map information based on at least the actual image feature extraction unit 21 that extracts a feature from the actual image captured by the imaging unit 4 and the position information detected by the position information detection unit 3. A landscape feature specifying unit 23 that acquires landscape information from the unit 7 and specifies a feature part included in the landscape information, and a feature matching processing unit that performs a matching process between the feature part of the real image and the feature part included in the landscape information 24, a moving object position estimating unit 25 that estimates the position of the moving object based on the result of the matching process, and an image processing unit 26 that generates a road map image or a three-dimensional landscape image based on the estimated position of the moving object. And.

位置情報処理部2は、更に、撮像部4により撮像された実画像から移動体の白線に対するオフセット距離を検出する白線認識部27と、地図情報記憶部から移動体が位置する道路の道路情報を取得し、車線数や車線幅を特定する地図情報取得部22と、位置情報検出部3により検出された位置情報に基づいて、移動体の位置を地図上の道路にマッチングさせるマップマッチング処理部28を備えることができる。   The position information processing unit 2 further includes a white line recognition unit 27 that detects an offset distance with respect to the white line of the moving body from the actual image captured by the imaging unit 4, and road information of the road on which the moving body is located from the map information storage unit. The map information acquisition unit 22 that acquires and identifies the number of lanes and the lane width, and the map matching processing unit 28 that matches the position of the moving object to the road on the map based on the position information detected by the position information detection unit 3. Can be provided.

以下、位置情報処理部2の各構成部の機能について具体的に説明する。実画像特徴抽出部21は、撮像部4により撮像された実画像データから、実画像の特徴部を抽出する。実画像の特徴部とは、例えば、実画像に含まれる線分の長さやその座標、また、線分と線分が交差する交点の座標を構成要素とする。撮像した実画像に建物や樹木が含まれている場合に、実画像を構成する画素の明度差や彩度差から、ビルの輪郭や窓枠により形成される線分やこの線分の交点を抽出することができる。線分の長さや交点と交点の間隔は、実画像を撮像した撮像位置によって変化する。つまり、この実画像から抽出した特徴部には道路上の撮像位置の位置情報が含まれる。なお、特徴部として実画像に含まれる線分や交点に限定されず、例えば、実画像に含まれる特徴的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。実画像には自然の景観が含まれるので、直線よりも円弧を抽出したほうがより的確に特徴部を表現できる場合があるからである。   Hereinafter, the function of each component of the position information processing unit 2 will be specifically described. The real image feature extraction unit 21 extracts the feature portion of the real image from the real image data captured by the imaging unit 4. The characteristic part of the real image includes, for example, the length of the line segment included in the real image, its coordinates, and the coordinates of the intersection where the line segment intersects the line segment. When buildings and trees are included in the captured real image, the line segment formed by the outline of the building and the window frame and the intersection of these line segments are calculated from the brightness difference and saturation difference of the pixels that make up the actual image. Can be extracted. The length of the line segment and the interval between the intersections vary depending on the imaging position where the actual image is captured. That is, the feature portion extracted from the actual image includes position information of the imaging position on the road. Note that the feature part is not limited to the line segment or the intersection point included in the real image. For example, the characteristic arc length, the arc radius, or the arc center coordinates included in the real image can be used as the feature part. . This is because a natural scene is included in a real image, and thus it may be possible to more accurately express a feature part by extracting an arc than a straight line.

地図情報取得部22は、位置情報検出部3により検出された位置情報に基づいて、移動体の現在位置の周辺部の地図情報や道路の属性情報、景観情報を取得する。これらの情報は移動体の方位角や速度に応じて次々に繰り返して取得される。   Based on the position information detected by the position information detection unit 3, the map information acquisition unit 22 acquires map information, road attribute information, and landscape information around the current position of the mobile object. These pieces of information are repeatedly acquired one after another according to the azimuth angle and speed of the moving body.

景観特徴特定部23は、地図情報記憶部7から読み出した3次元CG画像等を含む景観情報から、景観画像の特徴部を特定する。例えば、景観情報としての3次元景観画像から、この画像に含まれる特徴的な線分の長さやその座標、また、線分と線分が交差する交点の座標を特徴部とする。また、線分や交点に限らず、3次元景観画像に含まれる特徴的な円弧の長さや円弧の半径、あるいは円弧の中心座標を特徴部とすることができる。後に説明するように、景観画像の特徴部と実画像の特徴部との間の特徴マッチング処理を行うので、景観画像から特徴部を抽出する条件等は、実画像から特徴を抽出する条件と同じに設定しておく。なお、3次元景観画像を構成する画像構成要素の位置や景観画像の視点の位置は正確に定められている。   The landscape feature specifying unit 23 specifies the feature portion of the landscape image from the landscape information including the three-dimensional CG image read from the map information storage unit 7. For example, from the three-dimensional landscape image as the landscape information, the length of the characteristic line segment included in this image and its coordinates, and the coordinates of the intersection where the line segment and the line segment intersect are used as the feature part. In addition to line segments and intersections, characteristic arc lengths, arc radii, or center coordinates of arcs included in the three-dimensional landscape image can be used as feature portions. As will be described later, since the feature matching process between the feature part of the landscape image and the feature part of the real image is performed, the conditions for extracting the feature part from the landscape image are the same as the conditions for extracting the feature from the real image. Set to. In addition, the position of the image component which comprises a three-dimensional landscape image, and the position of the viewpoint of a landscape image are defined correctly.

また、地図情報記憶部7は、3次元景観画像に代えて、または3次元景観画像とともに、道路に沿って所定の間隔で設けられた地点において、複数の位置から走路方向を望んで撮像された景観画像を、当該道路の地点に関連付けて記憶しておくことができる。このようにすれば、3次元景観画像を生成する必要がないので、より短時間で特徴マッチング処理を行うことができる。また、地図情報記憶部7は、景観情報として、上記所定の間隔で設けられた地点の景観画像から予め抽出された特徴部の特徴データのみを記憶しておくことができる。景観の特徴部のデータ量は3次元景観画像のデータ量よりもはるかに少なくすることができるので、地図情報記憶部7の記憶容量を大幅に減少させることができる。また、景観画像から特徴部を抽出する処理工程を省くことができるので、より短時間で特徴マッチング処理を行うことができる。その結果、実画像の撮像時点から測定された位置情報に基づいて地図画像や景観画像を表示するまでの遅延時間を短縮することができる。   In addition, the map information storage unit 7 was picked up from a plurality of positions with a desired road direction at points provided at predetermined intervals along the road instead of or together with the 3D landscape image. A landscape image can be stored in association with a point on the road. In this way, since it is not necessary to generate a three-dimensional landscape image, the feature matching process can be performed in a shorter time. Moreover, the map information storage part 7 can memorize | store only the feature data of the feature part previously extracted from the landscape image of the point provided at the said predetermined | prescribed space | interval as landscape information. Since the data amount of the feature part of the landscape can be much smaller than the data amount of the three-dimensional landscape image, the storage capacity of the map information storage unit 7 can be greatly reduced. Moreover, since the process step of extracting the feature portion from the landscape image can be omitted, the feature matching process can be performed in a shorter time. As a result, it is possible to shorten the delay time until the map image or the landscape image is displayed based on the position information measured from the actual image capturing time.

特徴マッチング処理部24は、実画像から抽出された実画像特徴部と、地図情報記憶部7から取得された景観情報に含まれる景観画像の特徴部との特徴マッチング処理を行う。特徴マッチング処理は、実画像の特徴部と景観画像の特徴部とを比較し、その差分を演算する。具体的には、車両が存在することが可能な複数の位置を想定し、夫々の位置から望む景観の景観画像から特徴部を抽出する。更に、景観画像の特徴部と実画像の特徴部とを比較して差分を演算する。なお、移動体存在可能位置は、後に説明するマップマッチング処理により補正された移動体の位置に基づいて、地図情報取得部22により取得された道路の属性情報の内の、車線数や車線幅から設定することができる。或いは、車線数や車線幅を用いないで、マップマッチング処理により補正された移動体の位置に近接し、互いに離間する位置を移動体存在可能位置として設定することができる。   The feature matching processing unit 24 performs feature matching processing between the actual image feature extracted from the actual image and the landscape image feature included in the landscape information acquired from the map information storage unit 7. In the feature matching process, the feature part of the real image is compared with the feature part of the landscape image, and the difference is calculated. Specifically, assuming a plurality of positions where the vehicle can exist, feature portions are extracted from a landscape image of a landscape desired from each position. Furthermore, the feature part of a landscape image and the feature part of a real image are compared, and a difference is calculated. The position where the moving object can exist is calculated from the number of lanes and the lane width in the road attribute information acquired by the map information acquiring unit 22 based on the position of the moving object corrected by the map matching process described later. Can be set. Alternatively, without using the number of lanes or the lane width, it is possible to set a position that is close to the position of the moving body corrected by the map matching process and that is separated from each other as the position where the moving body can exist.

図4(a)を用いて特徴マッチング処理を具体的に説明する。後に説明するマップマッチング処理により、移動体8の位置が道路の中央の位置Poに補正される。地図情報取得部22は、地図情報記憶部7から上記位置Poの車線数や車線幅の道路情報を取得する。図4(a)は、このようにして取得された道路地図の移動体8が走行可能な路面を上から見た状態を表している。道路上の白線31と白線32の間が車線L1、白線32と白線33の間が車線L2、白線33と白線34の間の車線L3である。つまり、移動体8の存在可能な車線を車線L1の位置P1、車線L2の位置P2、車線L3の位置P3とする。特徴マッチング処理部24は、地図情報記憶部7から、位置P1、位置P2及び位置P3から移動体8の移動方向を見た3次元景観画像を取得する。そして、各3次元景観画像から特徴部を抽出し、実画像の特徴部と、各位置において3次元景観画像から抽出された特徴部との特徴マッチング処理を行い、位置P1における差分d1、位置P2における差分d2、位置P3における差分d3を算出する。移動体位置推定部25は、この特徴マッチング処理結果に基づいて、差分が最も小さくなる位置を移動体の現在の位置として推定する。また、この差分を用いて、移動体の位置を更に高精度に推定することもできる。   The feature matching process will be specifically described with reference to FIG. By the map matching process described later, the position of the moving body 8 is corrected to the position Po at the center of the road. The map information acquisition unit 22 acquires road information on the number of lanes and the lane width at the position Po from the map information storage unit 7. FIG. 4A shows a state in which the road surface on which the moving body 8 of the road map acquired in this way can travel is viewed from above. A lane L1 is between the white line 31 and the white line 32 on the road, a lane L2 is between the white line 32 and the white line 33, and a lane L3 is between the white line 33 and the white line 34. That is, the lane where the moving body 8 can exist is defined as a position P1 in the lane L1, a position P2 in the lane L2, and a position P3 in the lane L3. The feature matching processing unit 24 acquires, from the map information storage unit 7, a three-dimensional landscape image in which the moving direction of the moving body 8 is viewed from the position P1, the position P2, and the position P3. And a feature part is extracted from each three-dimensional landscape image, the feature matching process of the feature part of a real image and the feature part extracted from the three-dimensional landscape image in each position is performed, and the difference d1 in the position P1, the position P2 And the difference d3 at the position P3 are calculated. The moving body position estimation unit 25 estimates the position where the difference is the smallest as the current position of the moving body based on the feature matching processing result. In addition, the position of the moving body can be estimated with higher accuracy using this difference.

なお、地図情報記憶部7が景観情報として特徴部を記憶している場合には、3次元景観画像から特徴部を抽出することに代えて、この記憶された特徴部と実画像の特徴部との間で特徴マッチング処理を行うことができる。この場合は、都度3次元景観画像から特徴部を抽出する必要がない。そのために、処理速度が速く、表示部6に表示させる際の遅延を低減させることができる。   In addition, when the map information storage part 7 has memorize | stored the characteristic part as landscape information, instead of extracting a characteristic part from a three-dimensional landscape image, the memorize | stored characteristic part and the characteristic part of a real image The feature matching process can be performed between. In this case, it is not necessary to extract the feature from the 3D landscape image each time. For this reason, the processing speed is high, and the delay in displaying on the display unit 6 can be reduced.

移動体位置推定部25は、特徴マッチング処理の処理結果を評価して実画像を撮像した時点の移動体の位置を推定する。具体的には、図4(a)を用いて説明したように、特徴マッチング処理により得られた差分が最も小さい移動体存在可能位置を現在の移動体の位置として推定する。また、各移動体存在可能位置の差分の傾向から、さらに高精度に移動体の位置を推定することができる。例えば、移動体存在可能位置を3地点以上として特徴マッチング処理を行えば、移動体の位置を2次元的に特定することができる。また、次に説明する白線認識部27により検出したオフセット距離を用いて移動体の位置をより正確に推定することができる。   The moving body position estimation unit 25 estimates the position of the moving body at the time when the actual image is captured by evaluating the processing result of the feature matching process. Specifically, as described with reference to FIG. 4A, the position where the mobile object can be present with the smallest difference obtained by the feature matching process is estimated as the current position of the mobile object. Further, the position of the moving body can be estimated with higher accuracy from the tendency of the difference between the positions where each moving body can exist. For example, if the feature matching process is performed with three or more positions where the mobile object can exist, the position of the mobile object can be specified two-dimensionally. In addition, the position of the moving body can be estimated more accurately using the offset distance detected by the white line recognition unit 27 described next.

白線認識部27は、撮像部4により撮像された実画像の白線を認識する。図5(a)を使用して説明する。図5(a)は実画像のエッジ処理により検出された白線を表している。実画像データの差分処理により白線のエッジを検出する。次にHough変換(以下、ハフ変換という)及び逆変換を行うことにより、左白線H1のエッジ線分e1、e2と右白線H2のエッジ線分e3、e4を検出する。これにより、撮像部の視点である位置Pxの左白線の中心部からのオフセット距離Dofを求めることができる。従って、白線認識部27によりオフセット距離を求め、このオフセット距離Dofを考慮して特徴マップマッチング処理行うことができる。これにより、移動体の位置をより高精度に推定することができる。   The white line recognizing unit 27 recognizes a white line of the actual image captured by the image capturing unit 4. This will be described with reference to FIG. FIG. 5A represents a white line detected by edge processing of an actual image. The edge of the white line is detected by the difference processing of the real image data. Next, Hough transform (hereinafter referred to as Hough transform) and inverse transform are performed to detect the edge line segments e1 and e2 of the left white line H1 and the edge line segments e3 and e4 of the right white line H2. As a result, the offset distance Dof from the center of the left white line at the position Px that is the viewpoint of the imaging unit can be obtained. Therefore, the offset distance is obtained by the white line recognition unit 27, and the feature map matching process can be performed in consideration of the offset distance Dof. Thereby, the position of the moving body can be estimated with higher accuracy.

マップマッチング処理部28は、GPS衛星からの緯度及び経度をジャイロセンサや走行センサにより補完された位置情報に基づいて地図上の道路の候補を抽出し、走行中の道路の最も確率の高い道路に移動体を強制的に移動させる処理を行う。これにより、地図上で移動体が道路外を走行するような不自然性をなくすことができる。   The map matching processing unit 28 extracts the road candidates on the map based on the position information supplemented by the gyro sensor and the traveling sensor based on the latitude and longitude from the GPS satellite, and selects the road with the highest probability of the traveling road. A process for forcibly moving the moving object is performed. Thereby, it is possible to eliminate the unnaturalness that the moving body travels outside the road on the map.

画像処理部26は、表示部6に表示する画像を生成するための画像処理を行う。移動体の現在の推定位置に基づいて、地図情報記憶部7から地図情報や3次元景観画像を読み出した地図画像や3次元景観画像を表示部6に表示させる。   The image processing unit 26 performs image processing for generating an image to be displayed on the display unit 6. Based on the current estimated position of the mobile object, the map image and the three-dimensional landscape image obtained by reading the map information and the three-dimensional landscape image from the map information storage unit 7 are displayed on the display unit 6.

(実施形態2の移動体位置測定方法)
図2は、本発明の実施形態2に係る移動体位置測定方法を表すフローチャート図である。図3は、オフセット距離の検出方法を表すフローチャート図である。図4は、マップマッチング処理後の移動体の存在可能位置と3次元景観画像を表す模式図であり、図5は、白線認識処理により検出されたオフセット距離Dofを説明するための模式図であり、図6は、移動体の位置を推定後の移動体の位置及び3次元景観画像を表す模式図である。
(Moving object position measuring method of Embodiment 2)
FIG. 2 is a flowchart showing a moving body position measuring method according to Embodiment 2 of the present invention. FIG. 3 is a flowchart showing the offset distance detection method. FIG. 4 is a schematic diagram showing a possible position of a moving object and a three-dimensional landscape image after map matching processing, and FIG. 5 is a schematic diagram for explaining an offset distance Dof detected by white line recognition processing. FIG. 6 is a schematic diagram showing the position of the moving body and the three-dimensional landscape image after estimating the position of the moving body.

以下、移動体8を自動車等の車両として説明する。移動体位置測定装置10が移動体8の位置測定を開始すると、撮像部4は移動体8の移動方向の路面及び景観を撮像する。実画像記憶部5は、撮像部4により撮像された実画像の画像データを取得して記憶する。実画像特徴抽出部21は、実画像記憶部5に記憶された実画像の画像データを取得して、実画像の特徴部を抽出する(ステップS1)。実画像の特徴部を種々の方法により抽出することができるが、例えば、実画像に含まれる線分や、線分と線分が交差する交点の分布などから特徴部を抽出する。   Hereinafter, the moving body 8 will be described as a vehicle such as an automobile. When the moving body position measuring device 10 starts measuring the position of the moving body 8, the imaging unit 4 images the road surface and the landscape in the moving direction of the moving body 8. The real image storage unit 5 acquires and stores image data of a real image captured by the imaging unit 4. The real image feature extraction unit 21 acquires the image data of the real image stored in the real image storage unit 5 and extracts the feature part of the real image (step S1). The feature portion of the real image can be extracted by various methods. For example, the feature portion is extracted from a line segment included in the real image or a distribution of intersections where the line segment and the line segment intersect.

位置情報検出部3は移動体8の位置及び方位角を検出し、位置情報を出力する(ステップS2)。GPSユニット15は、GPS衛星から搬送波を受信してその位相差等から移動体8の緯度及び経度からなる位置情報を生成する。ジャイロセンサ16は移動体8の角速度の変化を検出して、移動体の方位角からなる方位角情報を生成する。なお、GPS衛星から方位角を受信し、ジャイロセンサにより補正するようにしてもよい。また、地磁気センサにより方位角を検出してもよい。   The position information detector 3 detects the position and azimuth angle of the moving body 8 and outputs position information (step S2). The GPS unit 15 receives a carrier wave from a GPS satellite and generates position information including the latitude and longitude of the moving body 8 from the phase difference and the like. The gyro sensor 16 detects a change in the angular velocity of the moving body 8 and generates azimuth angle information including the azimuth angle of the moving body. The azimuth angle may be received from a GPS satellite and corrected by a gyro sensor. Further, the azimuth angle may be detected by a geomagnetic sensor.

地図情報取得部22は、地図情報記憶部7から位置情報検出部3により検出された位置情報に基づいて、移動体8の現在位置及び現在方位角に関連付けられた地図情報を取得する。マップマッチング処理部28は、地図情報取得部22により取得された地図情報に基づいてマップマッチング処理を行って、移動体の位置を地図上の道路の中央部に補正する。地図情報取得部22は、マップマッチング処理により補正された道路上の位置及び方位角に基づいて地図情報を取得し、この地図情報から現在位置の道路の車線数、車線幅を取得する。この取得した現在位置における車線数が、移動体存在可能位置として推定する(ステップS3)。   The map information acquisition unit 22 acquires map information associated with the current position and the current azimuth of the moving body 8 based on the position information detected by the position information detection unit 3 from the map information storage unit 7. The map matching processing unit 28 performs map matching processing based on the map information acquired by the map information acquiring unit 22 and corrects the position of the moving body to the center of the road on the map. The map information acquisition unit 22 acquires map information based on the position on the road and the azimuth angle corrected by the map matching process, and acquires the number of lanes and the lane width of the road at the current position from the map information. The number of lanes at the acquired current position is estimated as a position where the moving object can exist (step S3).

図4(a)を用いてステップS3の状態を説明する。図4(a)は、移動体8が存在可能な位置を表している。マップマッチング処理により移動体8は位置P0に補正される。従って、移動体8の移動方向に直交する方向に横切る車線L1〜L3の位置P1、P2、P3が、移動体存在可能位置となる。図4(b)はマップマッチング処理後に3次元景観画像を表示した状態を表す。マップマッチング処理後の移動体8は道路中央の位置Poに補正されているので、中央分離帯の上である。移動体8の位置Poと移動方向の方位角に基づいて地図情報記憶部7から3次元景観画像を取得するので、3次元景観画像の視点は中央分離帯となる。既に説明したように、マップマッチング処理から3次元景観画像を表示するのは、適切ではない。   The state of step S3 will be described with reference to FIG. FIG. 4A shows a position where the moving body 8 can exist. The moving body 8 is corrected to the position P0 by the map matching process. Accordingly, the positions P1, P2, and P3 of the lanes L1 to L3 that cross in the direction orthogonal to the moving direction of the moving body 8 are the positions where the moving body can exist. FIG. 4B shows a state in which a three-dimensional landscape image is displayed after the map matching process. Since the moving body 8 after the map matching process is corrected to the position Po at the center of the road, it is above the central separation zone. Since the three-dimensional landscape image is acquired from the map information storage unit 7 based on the position Po of the moving body 8 and the azimuth angle in the movement direction, the viewpoint of the three-dimensional landscape image is a central separation zone. As already explained, it is not appropriate to display a 3D landscape image from the map matching process.

白線認識部27は、撮像部14により撮像した実画像の画像データから、車線内における移動体のオフセット距離を検出する。オフセット距離とは、路面上に描かれた左側の白線中央部から移動体位置までの距離である。このオフセット距離を検出することにより、移動体の存在可能位置の推定精度を更に向上させることができる。   The white line recognition unit 27 detects the offset distance of the moving body in the lane from the image data of the actual image captured by the imaging unit 14. The offset distance is a distance from the center of the left white line drawn on the road surface to the moving body position. By detecting this offset distance, it is possible to further improve the estimation accuracy of the position where the moving object can exist.

図3は、オフセット距離を求める方法の一例を表すフローチャート図である。図5(a)は白線認識部27により検出された白線を表し、図5(b)は検出されたオフセット距離Dofにより補正された移動体存在可能位置を表している。白線認識部27は、実画像の画像データから路面上に描かれた白線のエッジを検出する(ステップS10)。エッジの検出は、実画像を構成する画素の輝度差分処理により行う。次に、検出された白線のエッジから実空間上のエッジ画像を生成する(ステップS11)。次に、ハフ空間におけるハフ変換及び逆変換を行ってエッジ線分を推定する(ステップS12)。次に、推定された2本のエッジ線分H1、H2から、夫々のエッジ線分の中央線分C1及びC2を求める(ステップS13)。次に、移動体8の現在位置Pxと中央線分C1との間のオフセット距離Dofを求める(ステップS14)。移動体位置推定部25は、上記オフセット距離Dofを用いて補正した移動体存在可能位置を設定する。即ち、車線L1の位置P’1、車線L2の位置P’2、及び、車線L’3の位置P’3を設定する。   FIG. 3 is a flowchart illustrating an example of a method for obtaining the offset distance. FIG. 5A shows a white line detected by the white line recognition unit 27, and FIG. 5B shows a movable body existable position corrected by the detected offset distance Dof. The white line recognition unit 27 detects the edge of the white line drawn on the road surface from the image data of the actual image (step S10). Edge detection is performed by luminance difference processing of pixels constituting an actual image. Next, an edge image in real space is generated from the detected edge of the white line (step S11). Next, an edge line segment is estimated by performing Hough transform and inverse transform in the Hough space (step S12). Next, center line segments C1 and C2 of the respective edge line segments are obtained from the estimated two edge line segments H1 and H2 (step S13). Next, an offset distance Dof between the current position Px of the moving body 8 and the center line segment C1 is obtained (step S14). The moving body position estimation unit 25 sets the position where the moving body can be corrected using the offset distance Dof. That is, the position P′1 of the lane L1, the position P′2 of the lane L2, and the position P′3 of the lane L′ 3 are set.

図2に戻って、地図情報取得部22は、設定された移動体存在可能位置P’1、P’2、P’3ごとに、位置P’1、P’2、P’3と移動体の方位角を用いて、地図情報記憶部7から景観情報としての3次元景観画像を取得する。特徴マッチング処理部24は、設定された位置P’1、P’2、P’3から見る3次元景観画像の夫々から特徴部を抽出する(ステップS4)。これらの特徴部は、景観を見る視点が異なるので互いに異なっている。   Returning to FIG. 2, the map information acquisition unit 22 determines positions P ′ 1, P ′ 2, P ′ 3 and the moving object for each set movable object existence possible position P ′ 1, P ′ 2, P ′ 3. A three-dimensional landscape image as landscape information is acquired from the map information storage unit 7 using the azimuth angle. The feature matching processing unit 24 extracts a feature portion from each of the three-dimensional landscape images viewed from the set positions P′1, P′2, and P′3 (step S4). These features are different from each other because the viewpoints for viewing the landscape are different.

次に、実画像の特徴部と、位置P’1、P’2、P’3の夫々の位置に対応する3次元景観画像の特徴部とをマッチング処理する。移動体位置推定部25は、3地点のマッチング処理結果から、移動体の現在位置Pxを推定する(ステップS5)。移動体存在可能位置が3地点であることから、3つのマッチング処理結果を得ることができる。これにより、現在移動体8が走行している車線のほかに、移動体8の移動方向の位置も推定することができる。その結果、移動体8の位置を高精度に推定することができる。   Next, a matching process is performed between the feature portion of the real image and the feature portion of the three-dimensional landscape image corresponding to each of the positions P′1, P′2, and P′3. The moving body position estimation unit 25 estimates the current position Px of the moving body from the matching processing results at the three points (step S5). Since there are three positions where the mobile object can exist, three matching processing results can be obtained. Thereby, in addition to the lane in which the moving body 8 is currently traveling, the position of the moving body 8 in the moving direction can also be estimated. As a result, the position of the moving body 8 can be estimated with high accuracy.

図6は、推定された移動体位置に基づいて、地図画像又は3次元景観画像を表示した例を示している(ステップS6)。図6(a)は、位置が推定された移動体8を2次元道路上に表示した状態を表し、図6(b)は、推定された移動体の位置から移動方向を見たときの3次元景観画像の例を示している。図6(a)に示すように、現在位置している車線上に移動体8を表示することができる。また、白線認識部27を用いてオフセット距離を推定すれば、移動体8の車線内における位置も高精度に表示することができる。更に、図6(b)に示すように、推定された移動体8の位置と方位角から3次元景観画像を生成すれば、移動体8の走行車線上から見た景観を表示することができる。その結果、違和感のない自然な画像を表示することができ、走行の安全性を高めることができる。   FIG. 6 shows an example in which a map image or a three-dimensional landscape image is displayed based on the estimated moving body position (step S6). FIG. 6A shows a state in which the moving body 8 whose position is estimated is displayed on a two-dimensional road, and FIG. 6B shows a state in which the moving direction is viewed from the estimated position of the moving body. An example of a three-dimensional landscape image is shown. As shown in FIG. 6A, the moving body 8 can be displayed on the lane where the vehicle is currently located. Further, if the offset distance is estimated using the white line recognition unit 27, the position of the moving body 8 in the lane can also be displayed with high accuracy. Furthermore, as shown in FIG. 6B, if a three-dimensional landscape image is generated from the estimated position and azimuth of the moving body 8, the landscape viewed from the traveling lane of the moving body 8 can be displayed. . As a result, a natural image without a sense of incongruity can be displayed, and driving safety can be improved.

なお、景観情報として、予め特徴部を抽出した特徴部データを地図情報記憶部7に記憶しておき、移動体8の位置及び方位角に基づいてこの特徴部データを取得して、特徴マッチング処理を行うことができる。このようにすれば、3次元景観画像データを記憶する必要がないので、データ量を削減することができる。更に、特徴マッチング処理の際に、移動体存在可能位置ごとに、3次元景観画像から特徴部を抽出する必要がないので、移動体の現在位置を推定する推定処理速度を短縮し、表示部6に表示する地図情報と移動体の現実の位置との間のずれを縮小することができる。   It should be noted that feature data obtained by extracting a feature portion in advance as landscape information is stored in the map information storage portion 7, and this feature portion data is acquired based on the position and azimuth angle of the moving body 8, and feature matching processing is performed. It can be performed. In this way, since it is not necessary to store the 3D landscape image data, the amount of data can be reduced. Furthermore, since it is not necessary to extract a feature from the three-dimensional landscape image for each position where the moving object can exist during the feature matching process, the estimation processing speed for estimating the current position of the moving object is shortened, and the display unit 6 The shift between the map information displayed on the screen and the actual position of the moving object can be reduced.

(実施形態3の移動体位置測定装置)
図7は、本発明の実施形態3に係る移動体位置測定装置10及び測定方法を説明するための地図の模式図である。本実施形態においては、地図情報記憶部7は、道路の交差点ごとに景観情報または景観情報から抽出された特徴部を記憶する。
(Moving object position measuring apparatus of Embodiment 3)
FIG. 7 is a schematic diagram of a map for explaining the moving body position measuring apparatus 10 and the measuring method according to the third embodiment of the present invention. In this embodiment, the map information storage part 7 memorize | stores the characteristic part extracted from landscape information or landscape information for every intersection of a road.

図7には、交差点K1とその先の交差点K2が示されている。地図情報記憶部7は各交差点に関する景観情報としての景観画像を記憶している。景観画像は、交差点K1に関しては、4つの位置Q11、Q12、Q13、Q14からX1方向とY1方向を望む景観である。交差点K2に関しても同様に、4つの位置Q21、Q22、Q23、Q24からX2方向とY2方向を望む景観である。なお、座標(X1、Y1)及び座標(X2、Y2)は、移動体8が左側から右側に走行するときの移動方向をX1、X2としている。   FIG. 7 shows an intersection K1 and an intersection K2 ahead. The map information storage unit 7 stores a landscape image as landscape information regarding each intersection. The landscape image is a landscape in which the X1 direction and the Y1 direction are desired from the four positions Q11, Q12, Q13, and Q14 with respect to the intersection K1. Similarly, regarding the intersection K2, it is a landscape in which the X2 direction and the Y2 direction are desired from the four positions Q21, Q22, Q23, and Q24. In addition, the coordinate (X1, Y1) and the coordinate (X2, Y2) are set to X1, X2 as the moving direction when the moving body 8 travels from the left side to the right side.

具体的には、交差点K1の位置Q11から+X1方向と−Y1方向を望む景観を撮像した景観画像Wx11とWy11を作成する。位置Q12から+X1方向と+Y1方向を望む景観を撮像した景観画像Wx12とWy12を作成する。同様に、位置Q13から−X1方向と−Y1方向を望む景観から景観画像Wx13とWy13を、位置Q14から−X1方向と+Y1方向を望む景観から景観画像Wx14とWy14を作成する。これら作成された8枚の景観画像Wx11、Wy11、Wx12、Wy12、Wx13、Wy13、Wx14、Wy14を交差点K1に関連付けて地図情報記憶部7に記憶しておく。交差点K2についても同様に、位置Q21から+X2方向と−Y2方向を望む景観と、位置Q22から+X2方向と+Y2方向を望む景観と、位置Q23から−X2方向と−Y2方向を望む景観と、位置Q24の−X2方向と+Y2方向を望む景観とを撮像した景観画像を交差点K2に関連付けて地図情報記憶部7に記憶しておく。その他の交差点についても同様である。   Specifically, landscape images Wx11 and Wy11 obtained by capturing a landscape in which the + X1 direction and the -Y1 direction are desired from the position Q11 of the intersection K1 are created. Landscape images Wx12 and Wy12 obtained by capturing a landscape in which the + X1 direction and the + Y1 direction are desired from the position Q12 are created. Similarly, landscape images Wx13 and Wy13 are created from a landscape in which the -X1 direction and -Y1 direction are desired from the position Q13, and landscape images Wx14 and Wy14 are created from a landscape in which the -X1 direction and + Y1 direction are desired from the position Q14. The eight created landscape images Wx11, Wy11, Wx12, Wy12, Wx13, Wy13, Wx14, and Wy14 are stored in the map information storage unit 7 in association with the intersection K1. Similarly, at the intersection K2, a landscape that desires the + X2 direction and the -Y2 direction from the position Q21, a landscape that desires the + X2 direction and the + Y2 direction from the position Q22, and a landscape that desires the -X2 direction and the -Y2 direction from the position Q23, A landscape image obtained by capturing the landscape in which the −X2 direction of Q24 and the + Y2 direction are desired is stored in the map information storage unit 7 in association with the intersection K2. The same applies to other intersections.

移動体8の地図情報取得部22は、位置情報検出部3により検出した位置情報に基づいて、地図情報記憶部7から、移動体8が走行する近傍の地図情報を取得する。移動体8の制御部1が、位置情報検出部3により検出された位置及び方位角に基づいて移動体8が交差点K2に近づいたことを検出すると、撮像部4は移動体8の移動方向を撮像して実画像を実画像記憶部5に記憶する。実画像特徴抽出部21は、撮像した実画像から特徴部を抽出する。マップマッチング処理により移動体8の位置を地図の道路中央部に補正する。更に、白線認識部27が路面に描かれた白線を認識し、オフセット距離Dofを推定する。移動体位置推定部25は、これら補正された位置情報から移動体存在可能位置を設定する。図7において、移動体8は片側2車線の道路を走行している。従って、設定される移動体存在可能位置は、2つの車線のオフセット距離Dofにより補正された2つの位置となる。   Based on the position information detected by the position information detection unit 3, the map information acquisition unit 22 of the mobile body 8 acquires, from the map information storage unit 7, map information in the vicinity where the mobile body 8 travels. When the control unit 1 of the moving body 8 detects that the moving body 8 has approached the intersection K2 based on the position and azimuth detected by the position information detection unit 3, the imaging unit 4 determines the moving direction of the moving body 8. The real image is captured and stored in the real image storage unit 5. The real image feature extraction unit 21 extracts a feature portion from the captured real image. The position of the moving body 8 is corrected to the center of the road on the map by map matching processing. Further, the white line recognition unit 27 recognizes the white line drawn on the road surface and estimates the offset distance Dof. The moving body position estimation unit 25 sets a position where the moving body can exist from these corrected position information. In FIG. 7, the moving body 8 is traveling on a two-lane road on one side. Therefore, the movable body existence possible positions to be set are two positions corrected by the offset distance Dof of the two lanes.

一方、特徴マッチング処理部24は、位置情報検出部3により検出された移動体8の位置と方位角から、景観画像Wx11とWx12を選択的に取得する。特徴マッチング処理部24は、景観画像Wx11と景観画像Wx12の画像データから夫々の特徴部を抽出する。特徴部は既に説明したように、例えば景観画像に含まれる線分や交点から構成することができる。特徴マッチング処理部24は、移動体位置推定部25により推定された移動体8の移動体存在可能位置の夫々について、実画像の特徴部と景観画像から抽出された特徴部とを特徴マッチング処理を行い、特徴マッチング処理結果を出力する。移動体位置推定部25は特徴マッチング処理結果から、景観画像の特徴部が実画像の特徴部と最も近似した移動体存在可能位置を現在の移動体の位置として推定する。画像処理部26は、この推定結果に基づいて、地図画像に移動体位置を表示して表示部6に地図情報を表示する。なお、上記処理において、景観画像Wx11とWx12から抽出される特徴部を使用して、位置Q11と位置Q12の間の位置座標を変数とする特徴部を算出しておく。移動体8の移動体存在可能位置に対応した特徴部を用いて実画像の特徴部と特徴マッチング処理を行う必要があるからである。   On the other hand, the feature matching processing unit 24 selectively acquires the landscape images Wx11 and Wx12 from the position and azimuth angle of the moving body 8 detected by the position information detection unit 3. The feature matching processing unit 24 extracts each feature from the image data of the landscape image Wx11 and the landscape image Wx12. As already described, the feature part can be configured from, for example, a line segment or an intersection included in the landscape image. The feature matching processing unit 24 performs a feature matching process on the feature part of the real image and the feature part extracted from the landscape image for each of the movable object existence possible positions of the movable object 8 estimated by the movable object position estimation unit 25. And output the result of the feature matching process. The moving body position estimation unit 25 estimates, from the feature matching processing result, the position where the feature of the landscape image is closest to the feature of the real image as the current position of the moving body. Based on this estimation result, the image processing unit 26 displays the moving body position on the map image and displays the map information on the display unit 6. In the above process, using the feature portions extracted from the landscape images Wx11 and Wx12, a feature portion having the position coordinates between the positions Q11 and Q12 as a variable is calculated. This is because it is necessary to perform feature matching processing with the feature portion of the real image using the feature portion corresponding to the position where the moving body 8 can exist.

このように、地図情報記憶部7に交差点から見た景観を景観画像として記憶するので、3次元景観画像を記憶する場合と比較して、記憶データ量を大幅に削減することができる。このため、地図情報を作成するコストを大幅に低減することができる。移動体のナビゲーションシステムにおいて運転者が最も必要とする情報の一つが交差点における車線情報や自移動体の位置情報である。本実施形態によれば、簡素な構成でこれらの情報を提示することができる。   Thus, since the landscape seen from the intersection is stored in the map information storage unit 7 as a landscape image, the amount of stored data can be greatly reduced compared to the case of storing a three-dimensional landscape image. For this reason, the cost which produces map information can be reduced significantly. One of the most necessary information for the driver in the navigation system of the moving body is the lane information at the intersection and the position information of the own moving body. According to the present embodiment, these pieces of information can be presented with a simple configuration.

なお、上記実施形態3において、地図情報記憶部7は、景観情報として交差点の特定の位置から撮像した景観画像とし、この景観画像から特徴部を抽出するようにしたが、これに代えて、各交差点の特定の位置から撮像した景観画像から特徴部を抽出し、景観情報としてこの特徴部データを記憶しておいてもよい。このように構成すれば、地図情報記憶部7に記憶するデータ量を更に削減することができる。また、移動体存在可能位置ごとに景観画像から特徴部を抽出又は算出する処理を行う必要がないので、移動体の位置を短時間で推定することができる。   In addition, in the said Embodiment 3, the map information storage part 7 was taken as the landscape image imaged from the specific position of the intersection as landscape information, and extracted the characteristic part from this landscape image. A feature portion may be extracted from a landscape image captured from a specific position of an intersection, and the feature portion data may be stored as landscape information. If comprised in this way, the data amount memorize | stored in the map information storage part 7 can further be reduced. Moreover, since it is not necessary to perform the process which extracts or calculates a feature part from a landscape image for every moving body presence possible position, the position of a moving body can be estimated in a short time.

また、地図情報記憶部7に記憶する景観情報として、道路に沿って所定の間隔で設定した地点の景観情報を記憶するようにしてもよい。都市では交差点が多数存在するが、都市以外の地域では交差点の数が少ない。そこで、道路の所定間隔ごとに地図情報として景観情報を記憶しておく。このようにすれば、交差点の少ない地域でも、道路上の移動体位置を高精度で推定することができる。   Moreover, you may make it memorize | store the landscape information of the point set at predetermined intervals along the road as the landscape information memorize | stored in the map information storage part 7. FIG. There are many intersections in cities, but there are few intersections in areas other than cities. Then, landscape information is memorize | stored as map information for every predetermined space | interval of a road. In this way, the position of the moving body on the road can be estimated with high accuracy even in an area with few intersections.

また、上記実施形態3において、景観を撮像する地点を交差点K1の角部の4つの位置Q11、Q12、Q13、Q14としたが、これに限定されない。4つの位置Q11、Q12、Q13、Q14として、道路の車線内であってもよいし、車線に跨った地点であってもよい。また、道路の中央に中央分離帯が立設し、例えば位置Q12からX1方向を撮像した場合に、中央分離帯により移動体8が走行する走行側の景観が隠される場合には、走行車線に2つの地点を設定して、走行側の景観を2つの地点から撮像すればよい。この場合は、撮像する地点は8箇所となる。要は、実画像の特徴部と景観画像から抽出した特徴部の特徴マッチング処理において、実画像を撮像した地点を推定できる程度に離間していればよい。また、交差点において撮像する景観画像は8枚に限定されず、三叉路の場合は6枚の景観画像で足りるし、五叉路の場合は10枚の景観画像が必要となる。   Moreover, in the said Embodiment 3, although the point which images a landscape was made into four positions Q11, Q12, Q13, and Q14 of the corner | angular part of the intersection K1, it is not limited to this. The four positions Q11, Q12, Q13, and Q14 may be in a road lane or may be a point straddling the lane. In addition, when a median strip is erected at the center of the road and, for example, the X1 direction is imaged from the position Q12, if the landscape on the traveling side where the moving body 8 travels is hidden by the median strip, What is necessary is just to set two points and to image the driving | running | working side scenery from two points. In this case, there are 8 points to be imaged. In short, in the feature matching processing between the feature portion of the real image and the feature portion extracted from the landscape image, it is only necessary that the location where the real image is captured can be estimated. Further, the number of landscape images captured at the intersection is not limited to eight. Six landscape images are sufficient for a three-way intersection, and ten landscape images are required for a five-way intersection.

(実施形態4の移動体位置測定装置)
図8は、本発明の実施形態4に係る移動体位置測定装置10及びその位置測定方法を説明するための道路の模式図である。移動体8は片側2車線の道路上を走行している。通常、位置情報検出部3のGPSユニット15は、1秒間隔でGPS衛星から送られてくる搬送波を受信して移動体の現在位置を検出する。GPS衛星からの搬送波に同期させて位置検出を行い、表示部6に3次元景観画像を表示させると、非連続的な3次元景観画像が表示されることになる。そこで、GPS衛生から受信するタイミングを補完した連続的な3次元画像を表示できるようにすることが望ましい。しかも、その場合に、移動体8の位置を高精度に推定できれば、走行の安全性を高めることができる。
(Moving object position measuring apparatus of Embodiment 4)
FIG. 8 is a schematic view of a road for explaining the moving body position measuring apparatus 10 and its position measuring method according to Embodiment 4 of the present invention. The moving body 8 is traveling on a two-lane road on one side. Usually, the GPS unit 15 of the position information detection unit 3 receives a carrier wave sent from a GPS satellite at intervals of 1 second to detect the current position of the moving body. When position detection is performed in synchronization with a carrier wave from a GPS satellite and a 3D landscape image is displayed on the display unit 6, a discontinuous 3D landscape image is displayed. Therefore, it is desirable to be able to display a continuous three-dimensional image that complements the timing received from GPS hygiene. In addition, in that case, if the position of the moving body 8 can be estimated with high accuracy, the traveling safety can be improved.

図8において、GPS衛星から搬送波を受信するタイミングを時刻T1、T2、T3とする。時刻t1〜t4は、時刻T1から時刻T2の間、及び、次の時刻T2から時刻T3の期間を補完して3次元景観画像を生成するタイミングである。まず、位置情報検出部3のGPSユニット15はGPS衛星から搬送波を受信して移動体8の位置(T1)を検出する。位置情報検出部3のジャイロセンサ16は移動体8の方位角(T1)を検出する。以降は、図2のフローチャート図に示す手順により、時刻T1における移動体8の補正された位置を推定し、この推定位置に基づいて、表示部6に3次元景観画像を表示する。   In FIG. 8, timings for receiving a carrier wave from a GPS satellite are time T1, T2, and T3. Times t1 to t4 are timings for generating a three-dimensional landscape image by complementing the period from time T1 to time T2 and from the next time T2 to time T3. First, the GPS unit 15 of the position information detection unit 3 receives a carrier wave from a GPS satellite and detects the position (T1) of the moving body 8. The gyro sensor 16 of the position information detection unit 3 detects the azimuth angle (T1) of the moving body 8. Thereafter, the corrected position of the moving body 8 at time T1 is estimated by the procedure shown in the flowchart of FIG. 2, and a three-dimensional landscape image is displayed on the display unit 6 based on the estimated position.

次に、位置情報検出部3は、ジャイロセンサ16及び走行センサ17により検出した時刻t1の時点の移動体8の位置(t1)及び方位角(t1)を、期間T1〜t1の間の方位角の変化及び走行距離から算出する。地図情報取得部22は、この位置(t1)及び方位角(t1)に基づいて、時刻t1における移動体の位置P(t1)を推定する。移動体位置推定部25は、地図情報記憶部7から位置(t1)における車線情報を取得し、移動体存在可能位置を設定する。この場合は、移動体8が走行する左車線と中央ライン側の右車線となる。また、白線認識部27により、路面上に描かれた白線からオフセット距離Dofを検出して、このオフセット距離Dofにより補正された移動体存在可能位置を設定する。特徴マッチング処理部24は、夫々の移動体存在可能位置に応じた地点の3次元景観画像を地図情報記憶部7から取得して、夫々の3次元景観画像の特徴部を抽出する。特徴マッチング処理部24は、実画像の特徴部と、それぞれの移動体存在可能位置に対応する特徴部とのマッチング処理を行う。移動体位置推定部25は、マッチング処理結果から、現在の移動体位置(t1)を推定する。画像処理部26はこの移動体位置(t1)に基づいて地図情報記憶部7から3次元景観画像を取得する。画像処理部26は、この3次元景観画像を表示部6に表示させる。   Next, the position information detection unit 3 uses the position (t1) and the azimuth angle (t1) of the moving body 8 at the time t1 detected by the gyro sensor 16 and the traveling sensor 17 as the azimuth angle during the period T1 to t1. It is calculated from the change in distance and travel distance. The map information acquisition unit 22 estimates the position P (t1) of the moving object at time t1 based on the position (t1) and the azimuth angle (t1). The moving body position estimation unit 25 acquires lane information at the position (t1) from the map information storage unit 7 and sets a position where the moving body can exist. In this case, there are a left lane on which the moving body 8 travels and a right lane on the center line side. Further, the white line recognition unit 27 detects the offset distance Dof from the white line drawn on the road surface, and sets the position where the mobile object can be corrected corrected by the offset distance Dof. The feature matching processing unit 24 acquires from the map information storage unit 7 a three-dimensional landscape image of a point corresponding to each possible position of the moving body, and extracts a feature portion of each three-dimensional landscape image. The feature matching processing unit 24 performs matching processing between the feature part of the real image and the feature part corresponding to each possible position of the moving object. The moving body position estimation unit 25 estimates the current moving body position (t1) from the matching processing result. The image processing unit 26 acquires a three-dimensional landscape image from the map information storage unit 7 based on the moving body position (t1). The image processing unit 26 displays the three-dimensional landscape image on the display unit 6.

次に、時刻t2について、時刻t1を基準として、上記と同様の処理を行う。その結果、時刻t2の時点における実画像の特徴部と、地図情報から取得した3次元景観画像の特徴部との特徴マッチング処理を行い、新たに3次元景観画像を表示する。以降、時刻t4までこれを繰り返す。更に時刻T2においては、時刻T1と同様にGPS衛星からの搬送波を受信して移動体の位置を検出し、同様の処理を実行して3次元景観画像を表示する。   Next, processing similar to the above is performed for time t2 with reference to time t1. As a result, a feature matching process is performed between the feature portion of the real image at time t2 and the feature portion of the three-dimensional landscape image acquired from the map information, and a new three-dimensional landscape image is displayed. Thereafter, this is repeated until time t4. Further, at time T2, similarly to time T1, a carrier wave from a GPS satellite is received to detect the position of the moving body, and the same processing is executed to display a three-dimensional landscape image.

時刻T1とT2の時間分割を適当に増加させることにより、連続的な3次元景観画像を表示することができる。この場合、夫々の時刻tn(nは1以上の整数)において、実画像の特徴部と景観情報から抽出された特徴部との間で特徴マッチング処理を行うので、常に移動体の位置が補正されている。そのために、正確でリアルな3次元景観画像を表示することが可能となる。   A continuous three-dimensional landscape image can be displayed by appropriately increasing the time division between the times T1 and T2. In this case, at each time tn (n is an integer equal to or greater than 1), the feature matching process is performed between the feature portion of the real image and the feature portion extracted from the landscape information, so the position of the moving object is always corrected. ing. Therefore, it is possible to display an accurate and realistic three-dimensional landscape image.

なお、3次元景観画像から特徴部を抽出することに代えて、道路に沿って所定の間隔で設けられた地点における複数の位置から走行方向を望んで撮像した景観画像又はこの景観画像から抽出した特徴部を地図情報記憶部7に記憶しておき、この景観画像又はこの景観画像から抽出された特徴部に基づいて、特徴マッチング処理を実行することができることは、既に説明したとおりである。   Instead of extracting the feature from the three-dimensional landscape image, it was extracted from a landscape image taken in hope of the traveling direction from a plurality of positions at predetermined intervals along the road or from this landscape image. As described above, the feature matching process can be executed based on the landscape image or the feature extracted from the landscape image by storing the feature in the map information storage unit 7.

本発明の実施形態に係る移動体位置測定装置の構成を表す機能ブロック図である。It is a functional block diagram showing the structure of the mobile body position measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定方法を表すフローチャート図である。It is a flowchart figure showing the mobile body position measuring method which concerns on embodiment of this invention. 本発明の実施形態に係るオフセット距離の検出方法を表すフローチャート図である。It is a flowchart figure showing the detection method of the offset distance which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置の特徴マッチング処理を説明するための図である。It is a figure for demonstrating the feature matching process of the moving body position measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置のオフセット距離の検出による補正を説明するための図である。It is a figure for demonstrating the correction | amendment by the detection of the offset distance of the moving body position measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置の移動体位置推定後の表示例を示す図である。It is a figure which shows the example of a display after the mobile body position estimation of the mobile body position measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置及び測定方法を説明するための図である。It is a figure for demonstrating the mobile body position measuring apparatus and measuring method which concern on embodiment of this invention. 本発明の実施形態に係る移動体位置測定装置及び測定方法を説明するための図である。It is a figure for demonstrating the mobile body position measuring apparatus and measuring method which concern on embodiment of this invention. 従来公知のナビゲーションシステムによる表示画像例を表す図である。It is a figure showing the example of a display image by a conventionally well-known navigation system.

符号の説明Explanation of symbols

1 制御部
2 位置情報処理部
3 位置情報検出部
4 撮像部
5 実画像記憶部
6 表示部
7 地図情報記憶部
8 移動体
10 移動体位置測定装置
DESCRIPTION OF SYMBOLS 1 Control part 2 Position information processing part 3 Position information detection part 4 Imaging part 5 Real image storage part 6 Display part 7 Map information storage part 8 Mobile body 10 Mobile body position measuring apparatus

Claims (9)

移動体に搭載され、前記移動体が走行する方向の路面に描かれた車線とその方向の景観を撮像して実画像を取得する撮像部と、
前記実画像から特徴部を抽出する実画像特徴抽出部と、
前記移動体の位置と方位角を検出する位置情報検出部と、
地図上の道路に関連付けられた景観情報を記憶する地図情報記憶部と、
前記検出された位置と方位角を用いて前記地図情報記憶部から前記景観情報を取得し、前記取得された景観情報に含まれる特徴部を特定する景観特徴特定部と、
前記実画像の特徴部と、前記景観特徴特定部により特定された特徴部とをマッチング処理する特徴マッチング処理部と、
前記マッチング処理の結果により前記実画像を撮像した移動体の位置を推定する移動体位置推定部と、を備える移動体位置測定装置。
An imaging unit that is mounted on a moving body and captures a lane drawn on a road surface in a direction in which the moving body travels and a landscape in that direction, and acquires a real image;
A real image feature extraction unit for extracting a feature from the real image;
A position information detection unit for detecting the position and azimuth of the moving body;
A map information storage unit for storing landscape information associated with roads on the map;
A landscape feature specifying unit that acquires the landscape information from the map information storage unit using the detected position and azimuth, and that identifies a feature included in the acquired landscape information;
A feature matching processing unit that performs matching processing between the feature of the real image and the feature specified by the landscape feature specifying unit;
A moving body position measurement apparatus comprising: a moving body position estimation unit that estimates a position of a moving body that has captured the real image based on a result of the matching process.
前記景観情報は、道路に沿って所定の間隔で設けられた地点における複数の位置から走路方向を望んで撮像された景観画像又は当該景観画像から抽出された特徴部から構成され、
前記景観特徴特定部は、前記移動体が前記道路の特定の地点に近接したときに前記地図情報記憶部から前記景観情報を取得して、前記景観情報に含まれる特徴部を特定することを特徴とする請求項1に記載の移動体位置測定装置。
The landscape information is composed of a landscape image picked up from a plurality of positions at predetermined points along the road in hopes of a runway direction or a feature extracted from the landscape image,
The landscape feature specifying unit acquires the landscape information from the map information storage unit when the moving object approaches a specific point on the road, and specifies a feature part included in the landscape information. The moving body position measuring device according to claim 1.
前記道路に沿って所定の間隔で設けられた地点は、地図上の交差点であることを特徴とする請求項2に記載の移動体位置測定装置。   The mobile body position measuring apparatus according to claim 2, wherein the points provided at predetermined intervals along the road are intersections on a map. 前記景観情報は、移動体の位置及び方位角に関連して景観を表示可能な3次元景観画像から構成され、
前記景観特徴特定部は、前記移動体の位置及び方位角に基づいて前記地図情報記憶部から前記3次元景観画像を取得し、前記3次元景観画像から特徴部を抽出して当該特徴部を特定することを特徴とする請求項1に記載の移動体位置測定装置。
The landscape information is composed of a three-dimensional landscape image that can display a landscape in relation to the position and azimuth of the moving object,
The landscape feature specifying unit acquires the three-dimensional landscape image from the map information storage unit based on the position and azimuth of the moving body, and extracts the feature portion from the three-dimensional landscape image to specify the feature unit The moving body position measuring apparatus according to claim 1, wherein:
前記地図情報記憶部は、道路の車線数及び車線幅を含む道路情報を更に記憶し、
前記景観特徴特定部は、前記地図情報記憶部から前記道路情報を取得して前記移動体が存在可能な車線を特定し、前記車線ごとの移動体の位置及び方位角に基づいて前記景観情報に含まれる特徴部を前記車線ごとに特定し、
前記特徴マッチング処理部は、前記実画像の特徴部と、前記景観情報から特定された特徴部とを、前記移動体が存在可能な車線ごとにマッチング処理することを特徴とする請求項1〜4のいずれか1項に記載の移動体位置測定装置。
The map information storage unit further stores road information including the number of lanes and the lane width of the road,
The landscape feature specifying unit acquires the road information from the map information storage unit, specifies a lane in which the moving body can exist, and uses the landscape information based on the position and azimuth of the moving body for each lane. Identify the included features for each lane,
The said feature matching process part performs the matching process for the characteristic part of the said real image, and the characteristic part specified from the said landscape information for every lane in which the said mobile body can exist. The moving body position measuring apparatus according to any one of the above.
前記撮像された実画像から路面に描かれた白線を認識する白線認識部を更に備え、
前記白線認識部は、前記実画像から路面に描かれた白線を認識し、前記移動体と前記白線との間のオフセット距離を検出して前記移動体の位置を補正することを特徴とする請求項1〜5のいずれか1項に記載の移動体位置測定装置。
A white line recognition unit for recognizing a white line drawn on the road surface from the captured real image;
The white line recognition unit recognizes a white line drawn on a road surface from the actual image, detects an offset distance between the moving body and the white line, and corrects the position of the moving body. Item 6. The moving body position measuring apparatus according to any one of Items 1 to 5.
移動体前方を撮像して実画像を取得し、前記実画像の特徴部を抽出する実画像特徴抽出ステップと、
前記移動体の位置と方位角を検出する位置検出ステップと、
前記移動体の位置及び方位角に基づいて地図情報を取得し、移動体の存在可能位置を推定する存在可能位置推定ステップと、
前記移動体の位置及び方位角から前記移動体の位置及び方位角に関連付けられた景観情報を取得し、前記景観情報に含まれる特徴部を特定する景観特徴特定ステップと、
前記実画像の特徴部と前記景観情報の特徴部とのマッチング処理を行う特徴マッチング処理ステップと、
前記特徴マッチング処理結果により、移動体の位置を推定する移動体位置推定ステップと、を備える移動体位置測定方法。
A real image feature extraction step of capturing a real image by capturing the front of the moving body and extracting a feature of the real image;
A position detecting step for detecting a position and an azimuth angle of the moving body;
Obtaining map information based on the position and azimuth of the moving body, and a possible position estimating step for estimating a possible position of the moving body;
A landscape feature specifying step for acquiring landscape information associated with the position and azimuth of the mobile body from the position and azimuth of the mobile body, and specifying a feature part included in the landscape information;
A feature matching processing step for performing matching processing between the feature of the real image and the feature of the landscape information;
A moving body position measuring method comprising: a moving body position estimating step for estimating a position of the moving body based on the result of the feature matching process.
前記実画像特徴抽出ステップは、
前記撮像された実画像から路面に描かれた白線を認識する白線認識ステップと、
前記認識された白線から移動体と白線との間のオフセット距離を推定するオフセット距離推定ステップと、
前記オフセット距離に基づいて、移動体の位置を補正する移動体位置補正ステップと、を備える請求項7に記載の移動体位置測定方法。
The actual image feature extraction step includes:
A white line recognition step for recognizing a white line drawn on the road surface from the captured real image;
An offset distance estimation step for estimating an offset distance between the moving object and the white line from the recognized white line;
The moving body position measuring method according to claim 7, further comprising: a moving body position correcting step for correcting the position of the moving body based on the offset distance.
前記景観特徴特定ステップは、前記移動体が存在可能な車線における移動体の位置及び方位角に基づいて前記景観情報に含まれる特徴部を前記車線ごとに特定し、
前記特徴マッチング処理ステップは、前記実画像の特徴部と、前記車線ごとに特定された景観情報に含まれる特徴部とを、前記車線ごとに特徴マッチング処理を行うことを特徴とする請求項7又は8に記載の移動体位置測定方法。
The landscape feature specifying step specifies, for each lane, a feature included in the landscape information based on a position and an azimuth angle of the mobile body in a lane where the mobile body can exist,
The feature matching processing step performs feature matching processing for each lane on the feature portion of the real image and the feature portion included in the landscape information specified for each lane. 8. The moving body position measuring method according to 8.
JP2008330922A 2008-12-25 2008-12-25 Apparatus and method for measuring position of mobile object Pending JP2010151658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008330922A JP2010151658A (en) 2008-12-25 2008-12-25 Apparatus and method for measuring position of mobile object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008330922A JP2010151658A (en) 2008-12-25 2008-12-25 Apparatus and method for measuring position of mobile object

Publications (1)

Publication Number Publication Date
JP2010151658A true JP2010151658A (en) 2010-07-08

Family

ID=42570920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008330922A Pending JP2010151658A (en) 2008-12-25 2008-12-25 Apparatus and method for measuring position of mobile object

Country Status (1)

Country Link
JP (1) JP2010151658A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
JP2012242261A (en) * 2011-05-20 2012-12-10 Mazda Motor Corp Moving body position detecting device
JP2012242263A (en) * 2011-05-20 2012-12-10 Mazda Motor Corp Mobile body position detection device
JP2013032953A (en) * 2011-08-01 2013-02-14 Aisin Aw Co Ltd Position determination device and navigation device, position determination method, and program
JP2013134230A (en) * 2011-12-27 2013-07-08 Fujitsu Ltd Investigation device, investigation program and investigation method
JP2015194373A (en) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system
JP2015206649A (en) * 2014-04-18 2015-11-19 アイサンテクノロジー株式会社 Road map data and navigation device
JP2021018661A (en) * 2019-07-22 2021-02-15 本田技研工業株式会社 Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097714A (en) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd Car navigation apparatus
JP2003240593A (en) * 2002-02-20 2003-08-27 National Institute Of Advanced Industrial & Technology Method for estimating present location and bearing of carrier
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JP2008165326A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097714A (en) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd Car navigation apparatus
JP2003240593A (en) * 2002-02-20 2003-08-27 National Institute Of Advanced Industrial & Technology Method for estimating present location and bearing of carrier
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
WO2006035755A1 (en) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JP2008165326A (en) * 2006-12-27 2008-07-17 Aisin Aw Co Ltd Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
JP2012242261A (en) * 2011-05-20 2012-12-10 Mazda Motor Corp Moving body position detecting device
JP2012242263A (en) * 2011-05-20 2012-12-10 Mazda Motor Corp Mobile body position detection device
JP2013032953A (en) * 2011-08-01 2013-02-14 Aisin Aw Co Ltd Position determination device and navigation device, position determination method, and program
JP2013134230A (en) * 2011-12-27 2013-07-08 Fujitsu Ltd Investigation device, investigation program and investigation method
US9646213B2 (en) 2011-12-27 2017-05-09 Fujitsu Limited Survey apparatus, computer-readable storage medium and survey method
JP2015194373A (en) * 2014-03-31 2015-11-05 株式会社デンソーアイティーラボラトリ Vehicle location detection device, vehicle location detection method, vehicle location detection computer program and vehicle location detection system
JP2015206649A (en) * 2014-04-18 2015-11-19 アイサンテクノロジー株式会社 Road map data and navigation device
JP2021018661A (en) * 2019-07-22 2021-02-15 本田技研工業株式会社 Traffic lane data generation device, position identification device, traffic lane data generation method, and position identification method
JP7149234B2 (en) 2019-07-22 2022-10-06 本田技研工業株式会社 Lane data generation device, position specifying device, lane data generation method, and position specifying method

Similar Documents

Publication Publication Date Title
US11629962B2 (en) Methods and systems for generating and using localization reference data
CN108362295B (en) Vehicle path guiding apparatus and method
US11085775B2 (en) Methods and systems for generating and using localisation reference data
EP3137850B1 (en) Method and system for determining a position relative to a digital map
JP2010151658A (en) Apparatus and method for measuring position of mobile object
US20100268452A1 (en) Navigation device, navigation method, and navigation program
US20100315215A1 (en) Blind spot display apparatus
JP2012185011A (en) Mobile position measuring apparatus
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2010152139A (en) Map information creation device, map information creation method, instrument for measuring position of moving body, and method of measuring position of moving body
US20160153802A1 (en) Drive assist system, method, and program
Yu et al. Monocular visual localization using road structural features
KR100550430B1 (en) Apparatus and method for guiding route of vehicle using three-dimensional information
US20230314154A1 (en) Navigation Using Computer System
JP2007101214A (en) Own vehicle position display device, its method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

A977 Report on retrieval

Effective date: 20130524

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022