JP2011215052A - Own-vehicle position detection system using scenic image recognition - Google Patents
Own-vehicle position detection system using scenic image recognition Download PDFInfo
- Publication number
- JP2011215052A JP2011215052A JP2010084624A JP2010084624A JP2011215052A JP 2011215052 A JP2011215052 A JP 2011215052A JP 2010084624 A JP2010084624 A JP 2010084624A JP 2010084624 A JP2010084624 A JP 2010084624A JP 2011215052 A JP2011215052 A JP 2011215052A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference data
- matching
- vehicle
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、車両から撮影した風景画像を用いて走行中の車両の現在位置を求める自車位置検出システムに関する。 The present invention relates to a vehicle position detection system that obtains the current position of a running vehicle using a landscape image taken from the vehicle.
従来から、カーナビゲーションの技術分野では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPSとを組合せる方法が採用されている。さらに、高精度に現在位置を算出するために、測位衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系)における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と、記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とを用いて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号および各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。しかし、この特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、高い演算能力が装置に要求され、コストアップの要因となる。
Conventionally, in the technical field of car navigation, as a method of calculating the current position of a vehicle, a method of using information acquired from a sensor such as a gyroscope or a geomagnetic sensor (autonomous navigation), a method of using a signal from a GPS satellite, Or the method of combining autonomous navigation and GPS is adopted. Furthermore, in order to calculate the current position with high accuracy, the provisional current position is obtained using a signal from a positioning satellite, and the provisional current position is used as a reference using the captured image in front of the vehicle. The coordinate of the feature point of the road marking (automotive coordinate system feature point) in the coordinate system (car coordinate system) is calculated, and the calculated coordinate point of the car coordinate system and the coordinate of the feature point of the stored road sign (
また、同じカーナビゲーションの技術分野において、建物や風景などの撮影画像を検索キーとして画像データベース上から類似度の大きい画像を検索し、検索された1以上の画像をそれに対応する地点特定情報と共に表示してユーザに提示し、この表示をみたユーザにより選択された画像に対応付けられた位置情報を目的地に設定するナビゲーション装置が知られている(例えば、特許文献2参照)。このナビゲーション装置を使用すると、ある地点で撮影した撮影画像を入力して検索を実行すれば、その入力画像にマッチする画像とそれに対応する地点特定情報とが検索にヒットしてユーザに提示され、ユーザの選択によりその地点が目的地に設定される。これにより、目的地に設定したい地点の位置や施設名などの情報が全く分らなくても、その地点の撮影画像を利用して目的地の設定を行うことが可能となる。しかしながら、このような風景撮影画像を用いた位置の特定では、検索キーとして入力画像にマッチする画像をナビゲーション装置が提示した後、ユーザが確認する必要があるので、マーナビゲーションで利用されている自車位置検出には適用することはできない。 Also, in the same car navigation technology field, images with a high similarity are searched from an image database using a photographed image of a building or landscape as a search key, and one or more searched images are displayed together with corresponding point specifying information. There is known a navigation device that presents to a user and sets position information associated with an image selected by the user viewing this display as a destination (see, for example, Patent Document 2). When this navigation device is used, if a captured image taken at a certain point is input and a search is executed, an image that matches the input image and the corresponding point specifying information are hit in the search and presented to the user, The point is set as the destination by the user's selection. This makes it possible to set the destination using the captured image of the point even if the information such as the position of the point to be set as the destination and the name of the facility is not known at all. However, in specifying the position using such a landscape photographed image, the navigation device presents an image that matches the input image as a search key, and the user needs to confirm it. It cannot be applied to vehicle position detection.
上述した実情から、風景画像認識技術を用いながらも、人の判断を要求することなく、効率的な自車位置検出が可能な自車位置検出システムの実現が望まれる。 From the above situation, it is desired to realize a vehicle position detection system that can efficiently detect the vehicle position without requiring human judgment while using the landscape image recognition technology.
本発明に係る風景画像認識を用いた自車位置検出システムの特徴構成は、車両からの風景を撮影した撮影画像から画像特徴点を抽出することによって生成された画像特徴点データに対して当該画像特徴点データに対応する撮影画像の撮影位置を関係付けた参照データ群を格納している参照データデータベースと、車載カメラによる風景の実撮影画像を入力して当該実撮影画像から画像特徴点を抽出することによって生成されたマッチング用データを出力する撮影画像処理部と、前記実撮影画像の撮影位置を取得する撮影位置取得部と、
前記マッチング用データを構成する前記画像特徴点の前記撮影画像における分布状態を算定する分布状態算定部と、前記分布状態と前記撮影位置とに基づいて前記マッチング用データのマッチング相手候補として前記参照データデータベースから抽出する参照データを決定する抽出参照データ決定部と、前記抽出参照データ決定部によって決定された参照データと前記マッチング用データとのマッチングを行うマッチング実行部と、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する自車位置決定部を備える点にある。
The feature configuration of the vehicle position detection system using landscape image recognition according to the present invention is based on image feature point data generated by extracting image feature points from a captured image obtained by photographing a landscape from a vehicle. A reference data database that stores a reference data group that associates the shooting position of a shot image corresponding to feature point data, and an actual shot image of a landscape by an in-vehicle camera, and image feature points are extracted from the actual shot image A captured image processing unit that outputs the matching data generated by performing a shooting position acquisition unit that acquires a shooting position of the actual captured image;
A distribution state calculation unit for calculating a distribution state of the image feature points constituting the matching data in the photographed image; and the reference data as a matching partner candidate of the matching data based on the distribution state and the photographing position An extracted reference data determining unit that determines reference data to be extracted from the database, a matching execution unit that performs matching between the reference data determined by the extracted reference data determining unit and the matching data, and the reference data that has been successfully matched The vehicle is provided with a vehicle position determining unit that determines the vehicle position based on the shooting position associated with the vehicle.
道路を走行する車両から順次撮影される風景画像(撮影画像)における画像特徴点は、特に風景画像中のオブジェクトの輪郭点などは、車両の進行にともなって、画像領域内を所定の方向に移動して、消失する。そのような画像特徴点が車両走行に伴って風景画像の遠方領域に属する点から近接領域に属する点に移動する場合、その画像特徴点は画像中心領域から周辺の領域に移動して、最終的にはその画像特徴点が示している位置を車両が通り過ぎると画像領域が消失する。従って、この画像特徴点の移動、つまり撮影画像における画像特徴点の分布状態から、特定の画像特徴点が存在し続ける撮影画像の撮影位置をある程度推測することができる。このことは、撮影画像に基づいて作成されている参照データにおいても同じことである。このことを利用するならば、ある推定された自車位置において、マッチング用相手候補として抽出される参照データの抽出範囲を、実撮影画像から生成されたマッチング用データにおける画像特徴点の分布状態から効果的に選択することができる。このことから、本発明の特徴構成である抽出参照データ決定部が、前記マッチング用データを構成する前記画像特徴点の前記撮影画像における分布状態に基づいて前記マッチング用データのマッチング相手候補として前記参照データデータベースから抽出する参照データを決定することで、無駄の少ない効果的な参照データ抽出が可能となる。これにより、風景画像認識技術を用いながらも、人の判断を要求することなく、効率的な自車位置検出が可能な自車位置検出システムが実現する。 Image feature points in landscape images (captured images) taken sequentially from vehicles traveling on the road, especially contour points of objects in the landscape image, move in a predetermined direction within the image area as the vehicle travels. And disappear. When such an image feature point moves from a point belonging to the distant region of the landscape image to a point belonging to the close region as the vehicle travels, the image feature point moves from the image central region to the peripheral region, and finally When the vehicle passes the position indicated by the image feature point, the image area disappears. Therefore, from the movement of the image feature point, that is, the distribution state of the image feature point in the photographed image, the photographing position of the photographed image where the specific image feature point continues to exist can be estimated to some extent. The same applies to the reference data created based on the photographed image. If this is used, the extraction range of the reference data extracted as the matching partner candidate at a certain estimated vehicle position is determined from the distribution state of the image feature points in the matching data generated from the actual captured image. It can be selected effectively. From this, the extraction reference data determination unit, which is a feature configuration of the present invention, the reference as a matching partner candidate of the matching data based on a distribution state of the image feature points constituting the matching data in the captured image By determining the reference data to be extracted from the data database, it is possible to effectively extract reference data with less waste. As a result, a vehicle position detection system capable of efficiently detecting the vehicle position without requiring a human judgment while using the landscape image recognition technology is realized.
自車位置検出システムで取り扱われる撮影画像が車両の進行方向を向いた撮影方位で撮影されたものとすると、遠近法の原理で、画像特徴点はまずは撮影画像の中央領域に存在し、その後しばらくは中央領域に存在していても、その後画像特徴点が示している位置を車両が通り過ぎる付近で急速に撮影画像の周辺の領域に移動して消失する。このことから、実撮影画像の周辺領域で得られた画像特徴点は、車両の走行に伴って直ぐに消失するが、その手前での撮影画像には中央領域側で位置している可能性が高い。このことを有効利用するため、本発明の好適な実施形態の1つでは、前記抽出参照データ決定部は、前記分布状態が、撮影画像の周辺領域への偏在状態である場合、前記実撮影画像の撮影位置を基準として車両走行方向で車載カメラの撮影方向と反対方向に偏るように複数の前記マッチング用データを前記マッチング相手候補として決定する。つまり、車載カメラがフロントカメラとして走行方向前方の風景を撮影するように構成されている場合には、実撮影画像の撮影位置を基準として車両走行方向で後方側に偏るように複数の前記マッチング用データを前記マッチング相手候補として決定する。また、車載カメラがリアカメラとして走行方向後方の風景を撮影するように構成されている場合には、実撮影画像の撮影位置を基準として車両走行方向で前方側に偏るように複数の前記マッチング用データを前記マッチング相手候補として決定する。
撮影位置を基準として、車両走行方向で後方側での撮影画像列から生成した参照データであるマッチング用データ列に画像特徴点が存在している可能性が高いので、車両走行方向で後方に偏るように複数の前記マッチング用データを前記マッチング相手候補として選ぶと、推定された自車位置に誤差があったとしても当該画像特徴点を検知する可能性が高くなり、マッチングの成功確率が向上する。
Assuming that the shot image handled by the vehicle position detection system was shot in the shooting direction facing the traveling direction of the vehicle, the image feature point first exists in the central area of the shot image, and then for a while Even if it exists in the central area, it rapidly moves to the area around the captured image and disappears in the vicinity where the vehicle passes the position indicated by the image feature point. From this, the image feature points obtained in the peripheral area of the actual captured image disappear immediately as the vehicle travels, but it is highly possible that the captured image in front of it is located on the central area side. . In order to make effective use of this, in one of the preferred embodiments of the present invention, the extraction reference data determination unit determines that the actual captured image is in a case where the distribution state is unevenly distributed in a peripheral region of the captured image. A plurality of pieces of matching data are determined as the matching partner candidates so as to be biased in the vehicle traveling direction in the direction opposite to the photographing direction of the in-vehicle camera with reference to the photographing position. In other words, when the in-vehicle camera is configured as a front camera so as to capture a landscape in front of the traveling direction, a plurality of the above-mentioned matching items are set so as to be biased backward in the vehicle traveling direction with reference to the capturing position of the actual captured image. Data is determined as the matching partner candidate. Further, when the in-vehicle camera is configured as a rear camera so as to capture a landscape behind the traveling direction, a plurality of the above-mentioned matching items are set so as to be biased forward in the vehicle traveling direction with reference to the photographing position of the actual captured image. Data is determined as the matching partner candidate.
The image feature point is likely to exist in the matching data sequence that is the reference data generated from the captured image sequence on the rear side in the vehicle traveling direction with respect to the photographing position. As described above, when a plurality of the matching data are selected as the matching partner candidates, even if there is an error in the estimated vehicle position, the possibility of detecting the image feature point is increased, and the matching success probability is improved. .
同様に、走行車両から順に撮影された撮影画像の中央領域に画像特徴点に長く存在する可能性が高いことからを有効利用するために、本発明の好適な実施形態の1つでは、前記抽出参照データ決定部は、前記分布状態が、撮影画像の中央領域への集中状態である場合、前記実撮影画像の撮影位置を基準として車両走行方向でカメラの撮影方向に偏るように複数の前記マッチング用データを前記マッチング相手候補として決定する。この特徴構成によっても、推定された自車位置に誤差があったとしても当該画像特徴点を検知する可能性が高くなり、マッチングの成功確率が向上する。 Similarly, in order to effectively use the fact that there is a high possibility that the image feature point is long in the central region of the captured images sequentially captured from the traveling vehicle, in one of the preferred embodiments of the present invention, the extraction is performed. When the distribution state is a state where the captured image is concentrated in a central area, the reference data determination unit is configured to perform a plurality of the matching so as to be biased toward the shooting direction of the camera in the vehicle traveling direction based on the shooting position of the actual captured image. Data is determined as the matching partner candidate. Even with this feature configuration, even if there is an error in the estimated vehicle position, the possibility of detecting the image feature point is increased, and the probability of successful matching is improved.
さらに、本発明の好適な実施形態の1つでは、自車両の推定位置である推定自車位置を取得する推定自車位置取得部を更に備え、前記撮影位置取得部は、前記推定自車位置を用いて前記撮影位置を取得するように構成されている。従来から採用されている、例えば、GPSによる位置算定や推測航法によって推定される推定自車位置もある程度の信頼性は確保されているので、この推定自車位置を用いて撮影位置を取得することで適切な参照データを抽出することができ、マッチング処理の効率も向上する。 Furthermore, in a preferred embodiment of the present invention, the vehicle further includes an estimated own vehicle position acquisition unit that acquires an estimated own vehicle position that is an estimated position of the own vehicle, and the imaging position acquisition unit includes the estimated own vehicle position. Is used to acquire the photographing position. For example, the estimated vehicle position estimated by GPS position calculation or dead reckoning navigation, which has been used in the past, is secured to a certain degree of reliability. Thus, appropriate reference data can be extracted, and the efficiency of the matching process is improved.
以下、図面を用いて本発明を詳しく説明する。図1は、ここでは、車両走行方向前方を撮影するように配置された車載カメラからの風景画像を、本発明による画像処理システムによって作成される参照データを用いたマッチング処理を通じて画像認識することで、その風景画像が撮影される位置、つまり自車位置を決定する、位置測位技術の基本概念を模式的に示している。 Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 shows an image recognition of a landscape image from an in-vehicle camera arranged so as to photograph the front in the vehicle traveling direction through a matching process using reference data created by the image processing system according to the present invention. 3 schematically shows the basic concept of position positioning technology for determining the position where the landscape image is taken, that is, the position of the vehicle.
まず、参照データデータベース92(以下単に参照データDBと略称する)の構築手順を説明する。図1に示すように、走行途中における車両からの風景を撮影した撮影画像とその撮影時の撮影位置や撮影方位を含む撮影属性情報が入力される(#01)。入力された撮影画像に対して画像特徴点を検出するための特徴点検出処理、例えばエッジ検出処理が実行される(#02)。ここでは、1つの画素ないしは複数の画素に対応させたエッジ点が輪郭のような一本の線分を構成している部分をエッジと呼び、複数のエッジが交差している交点をコーナと呼ぶことにするが、画像特徴点の一例がこのエッジとコーナである。エッジ検出処理によって得られるエッジ検出画像から、コーナを含むエッジが画像特徴点として抽出される(#03)。 First, the construction procedure of the reference data database 92 (hereinafter simply referred to as “reference data DB”) will be described. As shown in FIG. 1, a shooting image obtained by shooting a landscape from a vehicle in the middle of traveling and shooting attribute information including a shooting position and shooting direction at the time of shooting are input (# 01). A feature point detection process for detecting an image feature point, for example, an edge detection process is performed on the input photographed image (# 02). Here, an edge point corresponding to one pixel or a plurality of pixels constitutes a line segment such as an outline is called an edge, and an intersection point where a plurality of edges intersect is called a corner. However, an example of the image feature point is the edge and the corner. An edge including a corner is extracted as an image feature point from the edge detection image obtained by the edge detection process (# 03).
風景画像認識のために用いられることを考慮すると、抽出された全ての画像特徴点は、同じ重要度をもっているとは限らない。例えば、その対応する撮影画像における座標位置によって各画像特徴点の重要度が異なる場合がある。このため、風景画像認識にふさわしくない画像特徴点の重要性を低くすることや、風景画像認識にとって重要となる画像特徴点の重要性を高くするといったルールを適用させながら、各画像特徴点の重要度を決定することが好ましい(#04)。各画像特徴点の重要度が決定されると、その重要度に応じた各画像特徴点への重み係数の割り当てを規定している重み係数マトリックスが生成される(#05)。 In consideration of being used for landscape image recognition, not all extracted image feature points have the same importance. For example, the importance of each image feature point may differ depending on the coordinate position in the corresponding captured image. Therefore, while applying rules such as reducing the importance of image feature points that are not suitable for landscape image recognition and increasing the importance of image feature points that are important for landscape image recognition, the importance of each image feature point It is preferable to determine the degree (# 04). When the importance of each image feature point is determined, a weighting coefficient matrix that defines the assignment of the weighting coefficient to each image feature point according to the importance is generated (# 05).
続いて、重み係数マトリックスを用いながら、画像特徴点を整理して撮影画像毎の画像特徴点データが生成される(#07)。この画像特徴点データの生成過程において、所定しきい値レベル以下の重み係数をもつ画像特徴点を破棄したり、所定しきい値レベル以上の重み係数をもつ画像特徴点とその周辺の画像特徴点以外を破棄したりする取捨選択処理が行われる。ここで生成された画像特徴点データは、風景画像認識の目的でパターンマッチングが採用されるときには、そのパターンとして用いられるので、風景画像のパターンマッチングにおいて効果的な画像特徴点だけを備えることがマッチングの高速性と正確さにとって重要である。生成された画像特徴点データはこの画像特徴点データに対応する撮影画像の撮影位置や撮影方位をと関係付けることで、撮影位置や撮影方位を検索キーとして可能なデータベース用データとなる(#08)。つまり、この画像特徴点データは、風景画像認識のために利用される参照データ、つまりマッチング相手として抽出されるべき参照データDB92に格納される(#09)。
Subsequently, using the weighting coefficient matrix, the image feature points are organized to generate image feature point data for each captured image (# 07). In this image feature point data generation process, image feature points having a weighting factor equal to or lower than a predetermined threshold level are discarded, or image feature points having a weighting factor equal to or higher than a predetermined threshold level and surrounding image feature points Sorting process to discard other than is performed. Since the image feature point data generated here is used as a pattern when pattern matching is adopted for the purpose of landscape image recognition, it is necessary to provide only image feature points effective in pattern matching of landscape images. Important for speed and accuracy. The generated image feature point data is associated with the shooting position and shooting direction of the shot image corresponding to the image feature point data, and becomes database data that can use the shooting position and shooting direction as a search key (# 08). ). That is, the image feature point data is stored in the reference data used for landscape image recognition, that is, the
次に、上述したような手順で構築された参照データDBを用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、GPS測定ユニットなどを用いて推定された推定自車位置、及びその推定自車位置を撮影位置として車載カメラで撮影された実撮影画像とその撮影方位が入力される(#11)。まず、入力された撮影画像から、上記ステップ#02〜#07の処理手順を経て画像特徴点データであるマッチング用データが生成される(#12)。さらに、入力された撮影位置と撮影方位を検索条件として、該当する撮影位置の参照データ及びその撮影位置基準として所定数の参照データがマッチング相手候補として抽出される参照データ抽出処理が行われる。 Next, a procedure for determining the position of the vehicle (vehicle position) during actual vehicle travel will be described using the reference data DB constructed by the above-described procedure. As shown in FIG. 1, an estimated vehicle position estimated using a GPS measurement unit or the like, and an actual captured image captured by an in-vehicle camera with the estimated vehicle position as a shooting position and a shooting direction thereof are input ( # 11). First, matching data, which is image feature point data, is generated from the input photographed image through the processing procedures of steps # 02 to # 07 (# 12). Furthermore, using the input shooting position and shooting direction as search conditions, reference data extraction processing is performed in which reference data of the corresponding shooting position and a predetermined number of reference data as the shooting position reference are extracted as matching partner candidates.
この参照データ抽出処理では、まずマッチング用データ(画像特徴点データ)を構成する前記画像特徴点の前記撮影画像における分布状態が算出される(#13)。参照データの抽出は、通常は、入力された撮影位置に最も近い撮影位置に関係付けられている参照データの位置を基準位置として、それより、前後に所定数の参照データが抽出される。しかしながら本発明では、先に算出されたマッチング用データ画像の特徴点の分布状態に応じてその基準位置を前後方向にオフセットする。例えば、その分布状態が撮影画像の周辺領域に偏在した状態である(画像特徴点が周辺領域に集中している)場合、その基準位置を車両走行方向で後方にオフセットする。つまり、このオフセットにより抽出される参照データ列は、通常より後方側の参照データ列となる。また、その分布状態が撮影画像の中央領域への集中状態である場合、その基準位置を車両走行方向で前方にオフセットする。つまり、このオフセットにより抽出される参照データ列は、通常より前方側の参照データ列となる。その理由はあとで、詳しく説明されるが、この自車位置検出システムではマッチング用データを前述した分布状態によってはマッチング用データのマッチング相手候補として参照データデータベース92から抽出する参照データ列が調整される(#14)。
In this reference data extraction process, first, the distribution state in the captured image of the image feature points constituting the matching data (image feature point data) is calculated (# 13). In the extraction of the reference data, normally, a reference data position related to the shooting position closest to the input shooting position is used as a reference position, and a predetermined number of reference data is extracted before and after the reference position. However, in the present invention, the reference position is offset in the front-rear direction according to the distribution state of the feature points of the matching data image calculated previously. For example, when the distribution state is unevenly distributed in the peripheral region of the captured image (image feature points are concentrated in the peripheral region), the reference position is offset backward in the vehicle traveling direction. That is, the reference data string extracted by this offset is a reference data string on the rear side than usual. Further, when the distribution state is a concentration state in the central area of the captured image, the reference position is offset forward in the vehicle traveling direction. In other words, the reference data string extracted by this offset is a reference data string on the front side than usual. The reason for this will be described in detail later, but in this vehicle position detection system, the reference data string extracted from the
抽出されたマッチング候補参照データ列から1つずつ参照データをパターンとして設定し、今生成されたマッチング用データとの間のパターンマッチング処理が風景画像認識として実行される(#15)。マッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#16)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#17)。 Reference data is set as a pattern one by one from the extracted matching candidate reference data string, and pattern matching processing with the currently generated matching data is executed as landscape image recognition (# 15). If the matching is successful, the shooting position associated with the reference data that is the target is read (# 16), and this shooting position is determined as the official vehicle position that replaces the estimated vehicle position (#). 17).
次に、上述した自車位置検出システムで用いられる参照データを、車両から風景を撮影した撮影画像から作り出す、画像処理システムの一例を説明する。図2は、そのような画像処理システムの機能を模式的に示した機能ブロック図である。
この画像処理システムは、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56、参照データデータベース化部57、などの機能部を備えているおり、それらの各機能はハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
Next, an example of an image processing system that creates reference data used in the above-described vehicle position detection system from a photographed image obtained by photographing a landscape from a vehicle will be described. FIG. 2 is a functional block diagram schematically showing the functions of such an image processing system.
This image processing system includes a
データ入力部51には、参照データ作成目的で走行している車両に搭載されたカメラによる風景を撮影した撮影画像と、その撮影時の撮影位置及び撮影方位を含む撮影属性情報と、さらに撮影状況情報が入力される。つまり、このデータ入力部51は、撮影画像取得部、撮影位置取得部、撮影状況情報取得部などとして機能する。画像処理システムが走行車両に搭載されている形態においては、この入力部51にはリアルタイムで撮影画像と撮影属性情報と撮影状況情報が入力されることになるが、この画像処理システムがデータ処理センタなどに設置されている形態においては、撮影画像と撮影属性情報と撮影状況情報が一時的に記録メディアに記録され、これらのデータ入力はバッチ処理的に行われる。撮影画像や撮影属性情報の生成方法は周知であるのでその説明は省略する。
The
撮影状況情報は、撮影画像に特定被写体が含まれている可能性を表す情報であり、この実施の形態の撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データである。走行レーンデータは、撮影画像に対する画像処理を通じて得られる白線やガイドレールや安全地帯の認識結果から得られた、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、レーダなどの障害物を検知する車載センサによって認識される車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所の種別、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといったエリア属性を示すデータである。 The shooting situation information is information indicating the possibility that a specific subject is included in the shot image, and the contents included in the shooting situation information of this embodiment include travel lane data, moving object data, and area attribute data. It is. The traveling lane data is data indicating the traveling lane region of the own vehicle and the region outside the road in the photographed image obtained from the recognition result of the white line, the guide rail, and the safety zone obtained through image processing on the photographed image. The moving object data is data indicating an existing area in a captured image of a moving object present around the vehicle that is recognized by an in-vehicle sensor that detects an obstacle such as a radar. Area attribute data is data indicating area attributes such as mountain area, suburban area, urban area, high-rise city area, etc. is there.
特徴点抽出部52は、適当な演算子を使用して撮影画像から画像特徴点としてエッジ点を抽出する。特徴点重要度決定部53は、特徴点抽出部52によって抽出された画像特徴点の重要度を、撮影状況情報に含まれている各データの内容に基づいて決定する。例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対してより高い重要度を付与する。また、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して低い重要度を付与する。さらに、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に対して高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。
The feature point extraction unit 52 extracts edge points as image feature points from the captured image using an appropriate operator. The feature point
重み付け部55は、特徴点重要度決定部53によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されているので、高い重要度が設定された画像特徴点に大きい重み係数が割り当てられるが、低い重み係数をもつ画像特徴点は実際の画像認識において使用されない可能性が高いこと、あるいは参照データから削除されることを考慮して、画像特徴点の取捨選択の判定のために利用できるように算定される。
The
調整係数設定部54は、重み付け部55によって割り当てられた重み係数を対応する撮影画像領域における分布状態の観点から変更するための調整係数を算定する。つまり、特徴点抽出部52によって抽出された画像特徴点に対して撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部55によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部54は用いられる。演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数が設定され、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数が設定されるる。
The adjustment
画像特徴点データ生成部56は、重み付け部55によって割り当てられた重み係数、及び場合によっては付与されている調整係数に基づいて各画像特徴点を整理して記撮影画像毎の画像特徴点データを生成する。その際、所定しきい値以下の重み係数をもつ画像特徴点を削除することでマッチング処理が効率よく行われるように画像特徴点を絞り込むことができる。また、この重み係数をそのまま参照データにおいても各画像特徴点に関係付けられるように画像特徴点データに付属させておき、その重み係数付き参照データを用いたマッチング処理時における重み付け類似度演算のために用いられるようにしてもよい。
The image feature point
ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を図3に示された模式的説明図を用いて説明する。撮影画像(図3(a)から画像特徴点を抽出することで特徴点画像(図3(b))が生成される。この特徴点画像の各画像特徴点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図3(c)では特徴点画像に対応する重要度レイヤの形で各画像特徴点に対応する重要度が示されている。この重要度レイヤを用いて、各画像特徴点に重み係数が割り当てられる。図3(d)では、大きな重み係数をもつほど大きい点となるように画像特徴点を描いた特徴点画像の形で重み係数を割り当てたれた画像特徴点が示されている。ここで、所定しきい値以下の重み係数を割り当てられた画像特徴点が除去されるような画像特徴点の整理が行われると、例えば、図3(d)で大きな点となっている画像特徴点だけが選別されると、特徴点画像の下方領域に位置している画像特徴点は排除され、残った画像特徴点の分布に大きな偏在が生じる。この偏在を回避するため、特徴点画像における画像特徴点の散布度を算出し、結果的に選別される画像特徴点の密度が低くなる領域の画像特徴点の重み係数を増加させるような調整係数が設定される。そのように設定される調整係数を模式的に理解できるように、図3(e)では調整係数群を特徴点画像に対応するようにマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形で示されている。画像特徴点データ生成部56は、このような重み係数と調整係数に基づいて最終的に設定された重み係数を用いて各画像特徴点を整理して、図3(f)で示されたような画像特徴点データを撮影画像毎に生成する。
Here, a process of spreading image feature points as widely as possible over the entire photographed image area using the above-described adjustment coefficient will be described with reference to a schematic explanatory diagram shown in FIG. A feature point image (FIG. 3B) is generated by extracting image feature points from the photographed image (FIG. 3A), and importance is given to each image feature point of the feature point image. 3C, the importance corresponding to each image feature point is shown in the form of the importance layer corresponding to the feature point image so that the degree to which the degree is given can be schematically understood. 3D, a weighting factor is assigned to each image feature point, and in FIG.3 (d), the weighting factor is in the form of a feature point image in which image feature points are drawn such that the larger the weighting factor, the larger the point. Here, when image feature points are arranged such that image feature points assigned weighting factors equal to or less than a predetermined threshold are removed, for example, FIG. Only image feature points that are large in 3 (d) are selected. Then, the image feature points located in the lower region of the feature point image are excluded, and the distribution of the remaining image feature points is greatly uneven. The adjustment coefficient is set so as to increase the weighting coefficient of the image feature points in the region where the density of the image feature points to be selected is reduced as a result. As can be understood, in FIG. 3 (e), the adjustment coefficient group is shown in the form of an adjustment coefficient layer arranged in a matrix (here, in units of a plurality of pixel areas) so as to correspond to the feature point image. The image feature point
参照データデータベース化部57は、画像特徴点データ生成部56によって生成された画像特徴点データを、この画像特徴点データに対応する撮影画像の撮影属性情報に含まれている少なくとも撮影位置と関係付けて、風景画像認識のために利用される参照データとしてデータベース化する。データベース化された参照データは参照データDB92に格納されていく。
The reference data
以上の説明では、画像特徴点毎に重要度が決定され、その結果画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。その際には、例えば、撮影画像領域が複数の画像区画に分割され、特徴点重要度決定部53が、同一画像区画に属する記画像特徴点を画像特徴点群としてグループ化して統一的に取り扱い、当該画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部55も同様に画像特徴点群単位で重み係数を設定するとよい。また、ここで取り扱われている画像区画を、撮影画像を構成する1画素単位で取り扱ってもよいが、複数画素単位で画像区画を取り扱ってもよい。従って、本発明では、画像区画は1つ又は複数の画素から構成されることになる。
In the above description, the degree of importance is determined for each image feature point, and as a result, a weighting factor is set for each image feature point. However, these processes can be performed in units of groups. is there. In that case, for example, the photographed image area is divided into a plurality of image sections, and the feature point importance
次に、上述した自車位置検出システムの基本概念、及び上述した画像処理システムで作成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正する車載用カーナビゲーションシステムを説明する。図4には、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とカーナビ用道路地図データを収納した道路地図DB91(以下単に道路地図DBと略称する)とを有するデータベース9を備えている。
Next, an in-vehicle car that corrects the vehicle position by landscape image recognition (image feature point pattern matching) using the basic concept of the vehicle position detection system described above and the
ナビ制御モジュール3は、経路設定部31、経路探索部32、経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。
The
自車位置検出モジュール4は、従来のGPSによる位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上とする補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。つまり、自車位置検出モジュール4が推定自車位置を取得する推定自車位置取得部として機能しており、この推定自車位置が実撮影画像の撮影位置として用いられる。
The own vehicle
撮影画像処理部5は、実質的には図2で示された画像処理システムを構成していた大部分の機能部を備えている。この撮影画像処理部5は、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56を備え、車載カメラ14によって撮影された車両からの前方風景撮影画像がデータ入力部51に入力されると、上述したような手順を経て画像特徴点データが画像特徴点データ生成部56から出力される。なお、特徴点重要度決定部53で利用される撮影情況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを作成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで走行レーンデータが作成される。また、撮影状況情報生成部7は、上記移動物体データを作成するために障害物検出用のセンサ群18と接続されている。このセンサ群18からのセンサ情報に基づいて移動物体データが作成される。さらに、撮影状況情報生成部7は、上記を作成するために、自車位置決定部45及びデータベース9と接続している。自車位置決定部45からの自車位置座標と検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データが作成される。
The photographed
風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置に基づいて参照データDB92から後で詳しく説明する抽出アルゴリズムに基づいて所定数の参照データからなる参照データ列を抽出する。さらに、抽出された参照データ列からパターンとして順次参照データをセットし、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、マッチングパターンである参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。
The landscape matching unit 6 extracts a reference data string made up of a predetermined number of reference data from the
このカーナビゲーションシステムは、また、周辺装置として、タッチパネル11やスイッチなどの入力デバイス11とそれらの入力デバイス11を通じての操作入力を適切な操作信号に変化して内部に転送する操作入力評価部21aを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を流す音声生成モジュール23、制動や加速や操舵などといった車両の種々の挙動を車載LANを通じて送られてくる挙動データに基づいて検知する車両挙動検知モジュール24を備えている。
This car navigation system also includes an
つぎに、風景マッチング部6で行われる、参照データDB92から参照データ列を抽出する抽出アルゴリズムを図5の模式図を用いて説明する。図5には、道路を走行中の車両が走行途中の各車両位置(撮影位置):P00,P01・・・で前方風景を撮影した実撮影画像から生成される画像特徴点データであるマッチング用データ:G00,G01・・・が模式的に示されている。なお、ここでは、このマッチング用データは、予め生成されている参照データ(マッチング用データのマッチング相手となるもの)と同一とする。従って、推定自車位置が実際の実自車位置と同じであれば、その実撮影画像のマッチング用データとマッチングした参照データに関係付けられた自車位置が一致する。
しかしながら、推定自車位置と実自車位置とは一般的には異なる。従って、推定自車位置(撮影位置)を基準として、その前後で複数の参照データを参照データDB92から抽出し、順次マッチングパターンとし、実自車位置で撮影された風景に基づくマッチング用データとパターンマッチングされる。
Next, an extraction algorithm for extracting a reference data string from the
However, the estimated own vehicle position and the actual own vehicle position are generally different. Therefore, with reference to the estimated vehicle position (shooting position), a plurality of reference data is extracted from the
図5に示されたマッチング用データ列に示された、道路沿いに設置されている人工物のコーナ:OJを示す画像特徴点は説明目的のために、簡単化されており、図5では一個の黒丸で示されている。これらのマッチング用データ列が実質的に等間隔で撮影されたものに基づいているとして、G01で示されているマッチング用データにおける特徴点は、G06では左上端にまで移動し、次のG07で消失している。この特徴点の移動は、車両が人工物のコーナ:OJから遠い場合には中央領域をゆっくりと移動するが、コーナ:OJに近づくと、左上領域を急速に移動する。このことは、コーナ:OJの特徴点は、等距離間隔で取得されたとすると、中央領域での滞在が長く、周辺領域での滞在が短いことを意味する。従って、推定自車位置を基準にして所定数の参照データ列を抽出する場合、もし実撮影画像に基づく特徴点が周辺部に位置する場合、その撮影画像に対応する撮影位置より車両走行方向に関して後方の撮影位置における参照データの方が前方の撮影位置における参照データよりその特徴点が存在する可能性が高い。
次に、例を挙げてこのことを説明する。図5にも示しているように、実自車位置がP06で推定自車位置がP09とすると、実撮影画像によるマッチング用データはG06に対応し、推定自車位置を基準として前後に2つずつ参照データを抽出すると、G07〜G11となる。この場合では、G06に存在している特徴点が抽出された参照データ列のいずれにも存在していないので、マッチングは不成功となる。これに対して、もし基準点のオフセット修正を、例えば基準点を2つ後方に下げると(P09からP07へのオフセット)、抽出される参照データ列はG05〜G09となり、G05とG06に特徴点が存在するのでマッチングが成功する。
逆に、実撮影画像によるマッチング用データの中央領域に画像特徴点が存在している場合には、推定自車位置に基づく基準点を車両方向前方側にオフセットすることで、同様な効果が得られる。例えば、実自車位置がP02で推定自車位置がP00よりさらに後方側であった場合でも、基準点を車両方向前方側にオフセットすることでマッチングが成功とする可能性が高くなる。
つまり、(1)特徴点の分布状態が撮影画像の周辺領域に集中している場合には、参照データの抽出基準点を車両走行方向で後方にオフセットし、(2)特徴点の分布状態が撮影画像の中央領域に集中している場合には、参照データの抽出基準点を車両走行方向で前方にオフセットし、(3)特徴点の分布状態が全般的に拡がってその散布度が高い場合には、参照データの抽出基準点をオフセットしないというような参照点抽出アルゴリズムを採用することで、参照データDB92から参照データ列を効果的に抽出することができる。
The image feature points indicating the corners OJ of the artifacts installed along the road shown in the matching data string shown in FIG. 5 are simplified for the purpose of explanation. It is indicated by a black circle. Assuming that these matching data strings are based on images taken at substantially equal intervals, the feature point in the matching data indicated by G01 moves to the upper left end in G06, and in the next G07 Disappeared. When the vehicle is far from the artifact corner: OJ, the feature point moves slowly in the central area, but when the vehicle approaches the corner: OJ, it moves rapidly in the upper left area. This means that if the corner: OJ feature points are acquired at equidistant intervals, the stay in the central region is long and the stay in the peripheral region is short. Therefore, when a predetermined number of reference data strings are extracted based on the estimated own vehicle position, if a feature point based on the actual captured image is located in the periphery, the vehicle traveling direction is determined from the captured position corresponding to the captured image. It is more likely that the reference data at the rear photographing position has the feature point than the reference data at the front photographing position.
Next, this will be described with an example. As shown in FIG. 5, if the actual vehicle position is P06 and the estimated vehicle position is P09, matching data based on the actual captured image corresponds to G06, and two data are obtained before and after the estimated vehicle position as a reference. When the reference data is extracted one by one, G07 to G11 are obtained. In this case, since the feature point existing in G06 does not exist in any of the extracted reference data strings, the matching is unsuccessful. On the other hand, if the reference point offset correction is performed, for example, if the reference point is lowered backward by 2 (offset from P09 to P07), the extracted reference data string becomes G05 to G09, and the characteristic points in G05 and G06 Because there exists, matching succeeds.
Conversely, if an image feature point exists in the center area of the matching data based on the actual captured image, the same effect can be obtained by offsetting the reference point based on the estimated vehicle position forward in the vehicle direction. It is done. For example, even when the actual vehicle position is P02 and the estimated vehicle position is further rearward than P00, the possibility of successful matching is increased by offsetting the reference point forward in the vehicle direction.
That is, (1) when the distribution state of feature points is concentrated in the peripheral area of the captured image, the reference point for extracting reference data is offset backward in the vehicle traveling direction, and (2) the distribution state of the feature points is When concentrated in the central area of the captured image, the reference point for extracting reference data is offset forward in the vehicle traveling direction, and (3) the distribution state of the feature points is generally expanded and the degree of dispersion is high The reference data string can be effectively extracted from the
図6には、上述した抽出アルゴリズムを実行するために風景マッチング部6に備えられた各機能部を説明するための機能ブロック図が示されている。風景マッチング部6は、特徴点分布状態算定部61、抽出基準点オフセット算定部62、参照データ抽出検索条件決定部63、マッチング実行部64、マッチング撮影位置取り出し部65を備えている。特徴点分布状態算定部61は、マッチング用データを構成する画像特徴点の撮影画像における分布状態を算定するものであり、実撮影画像から生成された画像特徴点データであるマッチング用データにおける画像特徴点の分布状態を散布度演算によって算定する。散布度を表す統計量は種々のものが知られているがここでは特別なものに限定されていない。画像特徴量の拡がりを簡単な演算で算定できるようなものであればよい。抽出基準点オフセット算定部62は、特徴点分布状態算定部61によって算定された散布度に基づいて、画像特徴点の部分的にかつどの領域に集中しているかどうかを判定して、抽出基準点オフセット量を算定する。参照データ抽出検索条件決定部63は、撮影方位と推定自車位置とオフセット量とに基づいて参照データDB92から参照データ列を抽出する参照データ抽出検索条件を決定して、参照データDB92から参照データ列を抽出する。マッチング実行部64は、抽出された参照データ列を順々にパターンとしてセットしながら、マッチング用データに対するパターンマッチングを行う。マッチング撮影位置取り出し部65は、マッチングが成功した場合、成功したマッチング相手としての参照画像に関係付けられている撮影位置(自車位置)を読み出して、これを高精度自車位置として自車位置決定部45に送り出す。このことから、参照データ抽出検索条件決定部63が、特徴点分布状態算定部61によって算定された分布状態と撮影位置とに基づいて前記マッチング用データのマッチング相手候補として前記参照データデータベースから抽出する参照データを決定する抽出参照データ決定部として機能していることが理解できる。
FIG. 6 is a functional block diagram for explaining each functional unit provided in the landscape matching unit 6 for executing the above extraction algorithm. The landscape matching unit 6 includes a feature point distribution
上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われている。また、マッチング実行部64は、一般的なパターンマッチングのアルゴリズムを採用しているが、風景画像において重要度が高いコーナ点(2つの直線成分の交点としての交点エッジ点)の一致(マッチング)に他のエッジ点に比べて高い一致評価を与える重みつきパターンマッチングのアルゴリズムを採用してもよい。その際、参照データにコーナ点の座標値を示すコーナ属性値を付属させた形態で参照データDB92を構築するのが好ましいが、参照データが抽出される毎にコーナ点を検出するようにしてもよい。マッチング用データの方は、実撮影画像から生成される過程において、コーナ点にラベルを付与しておくとよい。
In the above-described embodiment, the image feature point is an edge point obtained by edge detection processing, particularly a line segment edge constituting one line segment or an intersection point where such a line segment intersects, preferably approximately orthogonally. A corner edge is treated as an effective image feature point. Further, the matching
上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われている。しかしながら、本発明は、画像特徴点としてそのようなエッジ点に限定されるわけではない。例えば、円や四角形など幾何学的形状を形成する代表的なエッジ点(円なら円周上の3点など)あるいは幾何学的形状の重心やその重心としての点なども、その風景によっては効果的な画像特徴点となるので、用いられる。また、エッジ強度も重要度を算定するための因子として採用することも好適であり、例えば強度の強いエッジからなる線分なら、その線分の始点と終点は重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体の端点なども重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点以外に、撮影画像を色相や彩度の変化として捉え、その変化の大きい点を画像特徴点として採用することも可能である。同様に色情報に基づくものとして色温度の高い物体の端点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴量データとの間の類似度判定、例えば、パターンマッチングにとって有効なものであれば、全て利用の対象となる。
In the above-described embodiment, the image feature point is an edge point obtained by edge detection processing, particularly a line segment edge constituting one line segment or an intersection point where such a line segment intersects, preferably approximately orthogonally. A corner edge is treated as an effective image feature point. However, the present invention is not limited to such edge points as image feature points. For example, typical edge points that form geometric shapes such as circles and quadrilaterals (three points on the circumference if circles) or the center of gravity of a geometric shape and the point as the center of gravity are also effective depending on the landscape. It is used because it becomes a typical image feature point. It is also preferable to adopt edge strength as a factor for calculating importance. For example, if a line segment is a strong edge, the start point and end point of the line segment are treated as highly important image feature points. be able to. In addition, a specific point in a characteristic geometric shape, for example, an end point of a symmetrical object can be handled as a highly important image feature point.
Furthermore, in addition to the edge points obtained by the edge detection process, it is also possible to regard a captured image as a change in hue or saturation and to employ a point with a large change as an image feature point. Similarly, an end point of an object having a high color temperature can be handled as a highly important image feature point based on color information.
That is, the image feature points handled in the present invention are all used if they are effective for similarity determination between the reference data and the image feature amount data generated from the actual captured image, for example, pattern matching. It becomes.
上述した実施形態では、参照データDB92に格納される参照データには、撮影位置と撮影方位(カメラ光軸方位)が関係付けられていたが、それ以外に、上述した撮影状況情報、さらには撮影日時や撮影時天候なども、関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの作成時も、この参照データを用いての風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合では、撮影方位は不必要となる。
逆に、1つの基本的な撮影方位での参照データから撮影方位を適度にずらせた参照データを用意することができる場合では、方位センサなどの情報から算定された車両の走行方向に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。
本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景をとるカメラであってもよいし、さらには後方の風景を撮影するカメラであってよい。但し、後方の風景を撮影するリアカメラを利用すると、車両の走行ともに移動する特徴点の移動方向がフロントカメラの場合と逆となるので、特徴点が周辺に集中している場合には、基準点をオフセットする方向を後方ではなく前方とする。また特徴点が中央に集中している場合には、基準点をオフセットする方向を前方ではなく後方とする。つまり、フロントカメラでもリアカメラでも使用可能であるので、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されない。
In the above-described embodiment, the reference data stored in the
The photographing position may be two-dimensional data such as latitude / longitude data at least, but may be three-dimensional data in addition to height data.
Further, it is not essential to relate the shooting direction to the reference data. For example, when creating reference data and when recognizing a landscape image using this reference data, the shooting direction is not required if it is guaranteed that the road is shot with substantially the same shooting direction. It becomes.
Conversely, in the case where reference data in which the shooting direction is appropriately shifted from the reference data in one basic shooting direction can be prepared, based on the traveling direction of the vehicle calculated from information such as a direction sensor, It is also possible to set only the reference data suitable for the traveling direction as the object of landscape image recognition.
The on-vehicle camera handled in the present invention is most suitable for photographing a landscape in front of the vehicle traveling direction. However, the camera may be a camera that takes a landscape oblique to the front, or may be a camera that captures a landscape behind. However, if you use a rear camera that captures the landscape behind, the moving direction of the feature points that move as the vehicle travels is the opposite of that of the front camera, so if the feature points are concentrated in the vicinity, The direction in which the points are offset is not the rear but the front. When the feature points are concentrated in the center, the direction in which the reference point is offset is set to the rear rather than the front. That is, since it can be used with either a front camera or a rear camera, a captured image handled in the present invention is not limited to a photograph of a front landscape in the vehicle traveling direction.
上述した実施形態の説明に用いられた機能ブロック図で区分けされた示された機能部はわかりやすい説明を目的としており、ここで示された区分けに本発明は限定されているわけではなく、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である The functional units shown in the functional block diagrams used in the description of the above-described embodiments are for easy understanding, and the present invention is not limited to the divisions shown here. It is possible to freely combine function parts or further divide one function part
本発明の画像処理システムは、カーナビゲーションのみならず、風景画像認識によって現在位置や方位を測位する技術分野に適用可能である。 The image processing system of the present invention can be applied not only to car navigation but also to a technical field that measures the current position and orientation by landscape image recognition.
3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:撮影画像処理部
51:データ入力部
52:特徴点抽出部
53:特徴点重要度決定部
54:重み付け部
55:調整係数設定部
56:画像特徴点データ生成部
57:参照データデータベース化部
6:風景マッチング部
61:特徴点分布状態算定部
62:抽出基準点オフセット算定部
63:参照データ抽出検索条件決定部
64:マッチング実行部
65:マッチング撮影位置取り出し部
14:カメラ
92:参照データDB
91:道路地図DB
3: navigation control module 4: own vehicle position detection module 41: GPS processing unit 42: dead reckoning processing unit 43: own vehicle position coordinate calculation unit 44: map matching unit 45: own vehicle position determination unit 5: captured image processing unit 51 : Data input unit 52: feature point extraction unit 53: feature point importance determination unit 54: weighting unit 55: adjustment coefficient setting unit 56: image feature point data generation unit 57: reference data database creation unit 6: landscape matching unit 61: Feature point distribution state calculation unit 62: extraction reference point offset calculation unit 63: reference data extraction search condition determination unit 64: matching execution unit 65: matching shooting position extraction unit 14: camera 92: reference data DB
91: Road map DB
Claims (4)
車載カメラによる風景の実撮影画像を入力して当該実撮影画像から画像特徴点を抽出することによって生成されたマッチング用データを出力する撮影画像処理部と、
前記実撮影画像の撮影位置を取得する撮影位置取得部と、
前記マッチング用データを構成する前記画像特徴点の前記撮影画像における分布状態を算定する分布状態算定部と、
前記分布状態と前記撮影位置とに基づいて前記マッチング用データのマッチング相手候補として前記参照データデータベースから抽出する参照データを決定する抽出参照データ決定部と、
前記抽出参照データ決定部によって決定された参照データと前記マッチング用データとのマッチングを行うマッチング実行部と、
前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する自車位置決定部と、
を備えている、風景画像認識を用いた自車位置検出システム。 A reference data group in which image feature point data generated by extracting image feature points from a photographed image obtained by photographing a landscape from a vehicle and the photographing position of the photographed image corresponding to the image feature point data is stored. A reference data database,
A captured image processing unit that outputs a matching image generated by inputting an actual captured image of a landscape by an in-vehicle camera and extracting image feature points from the actual captured image;
A shooting position acquisition unit for acquiring a shooting position of the actual shot image;
A distribution state calculation unit for calculating a distribution state in the captured image of the image feature points constituting the matching data;
An extraction reference data determination unit that determines reference data to be extracted from the reference data database as a matching partner candidate of the matching data based on the distribution state and the photographing position;
A matching execution unit that performs matching between the reference data determined by the extracted reference data determination unit and the matching data;
A vehicle position determination unit that determines the vehicle position based on a shooting position related to the reference data that has been successfully matched;
A vehicle position detection system using landscape image recognition.
An estimated vehicle position acquisition unit that acquires an estimated vehicle position that is an estimated position of the vehicle is further provided, and the imaging position acquisition unit acquires the imaging position using the estimated vehicle position. The vehicle position detection system according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010084624A JP5333860B2 (en) | 2010-03-31 | 2010-03-31 | Vehicle position detection system using landscape image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010084624A JP5333860B2 (en) | 2010-03-31 | 2010-03-31 | Vehicle position detection system using landscape image recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011215052A true JP2011215052A (en) | 2011-10-27 |
JP5333860B2 JP5333860B2 (en) | 2013-11-06 |
Family
ID=44944932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010084624A Expired - Fee Related JP5333860B2 (en) | 2010-03-31 | 2010-03-31 | Vehicle position detection system using landscape image recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5333860B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104748756A (en) * | 2013-12-31 | 2015-07-01 | 现代自动车株式会社 | Method for measuring position of vehicle using cloud computing |
KR20180015961A (en) * | 2016-08-04 | 2018-02-14 | 영남대학교 산학협력단 | Method of estimating the location of object image-based and apparatus therefor |
CN108073184A (en) * | 2017-11-27 | 2018-05-25 | 天脉聚源(北京)传媒科技有限公司 | UAV Flight Control method and device |
CN109508682A (en) * | 2018-11-20 | 2019-03-22 | 成都通甲优博科技有限责任公司 | A kind of detection method on panorama parking stall |
JP2019052904A (en) * | 2017-09-14 | 2019-04-04 | 日産自動車株式会社 | Landmark detection method and landmark detector |
CN110275516A (en) * | 2018-03-13 | 2019-09-24 | 本田技研工业株式会社 | By the steady instant positioning and the map structuring that remove dynamic traffic participant |
JP2021068240A (en) * | 2019-10-24 | 2021-04-30 | 株式会社東芝 | Road surface image management system and road surface image management method thereof |
WO2022024563A1 (en) * | 2020-07-31 | 2022-02-03 | 日立Astemo株式会社 | Own-position estimation device and program |
JP2022513868A (en) * | 2019-05-27 | 2022-02-09 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Camera positioning |
CN114750147A (en) * | 2022-03-10 | 2022-07-15 | 深圳甲壳虫智能有限公司 | Robot space pose determining method and device and robot |
JP2022150594A (en) * | 2021-03-26 | 2022-10-07 | Kddi株式会社 | Point cloud management device and program |
CN117520662A (en) * | 2024-01-04 | 2024-02-06 | 陕西云创网络科技股份有限公司 | Intelligent scenic spot guiding method and system based on positioning |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08247775A (en) * | 1995-03-15 | 1996-09-27 | Toshiba Corp | Device and method for identification of self position of moving body |
WO2005038402A1 (en) * | 2003-10-21 | 2005-04-28 | Waro Iwane | Navigation device |
JP2005265494A (en) * | 2004-03-17 | 2005-09-29 | Hitachi Ltd | Car location estimation system and drive support device using car location estimation system and drive support device using this |
WO2006106694A1 (en) * | 2005-03-31 | 2006-10-12 | Pioneer Corporation | Route guidance system, route guidance method, route guidance program, and recording medium |
JP2007108043A (en) * | 2005-10-14 | 2007-04-26 | Xanavi Informatics Corp | Location positioning device, location positioning method |
JP2009074986A (en) * | 2007-09-21 | 2009-04-09 | Xanavi Informatics Corp | Device, method, and program for calculating one's-own-vehicle position |
JP2009250718A (en) * | 2008-04-03 | 2009-10-29 | Nissan Motor Co Ltd | Vehicle position detecting apparatus and vehicle position detection method |
-
2010
- 2010-03-31 JP JP2010084624A patent/JP5333860B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08247775A (en) * | 1995-03-15 | 1996-09-27 | Toshiba Corp | Device and method for identification of self position of moving body |
WO2005038402A1 (en) * | 2003-10-21 | 2005-04-28 | Waro Iwane | Navigation device |
JP2005265494A (en) * | 2004-03-17 | 2005-09-29 | Hitachi Ltd | Car location estimation system and drive support device using car location estimation system and drive support device using this |
WO2006106694A1 (en) * | 2005-03-31 | 2006-10-12 | Pioneer Corporation | Route guidance system, route guidance method, route guidance program, and recording medium |
JP2007108043A (en) * | 2005-10-14 | 2007-04-26 | Xanavi Informatics Corp | Location positioning device, location positioning method |
JP2009074986A (en) * | 2007-09-21 | 2009-04-09 | Xanavi Informatics Corp | Device, method, and program for calculating one's-own-vehicle position |
JP2009250718A (en) * | 2008-04-03 | 2009-10-29 | Nissan Motor Co Ltd | Vehicle position detecting apparatus and vehicle position detection method |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9465099B2 (en) | 2013-12-31 | 2016-10-11 | Hyundai Motor Company | Method for measuring position of vehicle using cloud computing |
CN104748756A (en) * | 2013-12-31 | 2015-07-01 | 现代自动车株式会社 | Method for measuring position of vehicle using cloud computing |
KR20180015961A (en) * | 2016-08-04 | 2018-02-14 | 영남대학교 산학협력단 | Method of estimating the location of object image-based and apparatus therefor |
KR101885961B1 (en) * | 2016-08-04 | 2018-08-06 | 영남대학교 산학협력단 | Method of estimating the location of object image-based and apparatus therefor |
JP7027749B2 (en) | 2017-09-14 | 2022-03-02 | 日産自動車株式会社 | Landmark detection method and landmark detection device |
JP2019052904A (en) * | 2017-09-14 | 2019-04-04 | 日産自動車株式会社 | Landmark detection method and landmark detector |
CN108073184A (en) * | 2017-11-27 | 2018-05-25 | 天脉聚源(北京)传媒科技有限公司 | UAV Flight Control method and device |
CN108073184B (en) * | 2017-11-27 | 2024-02-20 | 北京拉近众博科技有限公司 | Unmanned aerial vehicle flight control method and device |
JP7221089B2 (en) | 2018-03-13 | 2023-02-13 | 本田技研工業株式会社 | Stable simultaneous execution of location estimation and map generation by removing dynamic traffic participants |
JP2019207220A (en) * | 2018-03-13 | 2019-12-05 | 本田技研工業株式会社 | Position estimation by dynamic removal of traffic participants with simultaneous execution of stable map generation |
CN110275516A (en) * | 2018-03-13 | 2019-09-24 | 本田技研工业株式会社 | By the steady instant positioning and the map structuring that remove dynamic traffic participant |
CN109508682A (en) * | 2018-11-20 | 2019-03-22 | 成都通甲优博科技有限责任公司 | A kind of detection method on panorama parking stall |
JP2022513868A (en) * | 2019-05-27 | 2022-02-09 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Camera positioning |
JP7102383B2 (en) | 2019-10-24 | 2022-07-19 | 株式会社東芝 | Road surface image management system and its road surface image management method |
JP2021068240A (en) * | 2019-10-24 | 2021-04-30 | 株式会社東芝 | Road surface image management system and road surface image management method thereof |
US11256930B2 (en) | 2019-10-24 | 2022-02-22 | Kabushiki Kaisha Toshiba | Road surface management system and road surface management method thereof |
JP2022026832A (en) * | 2020-07-31 | 2022-02-10 | 日立Astemo株式会社 | Own position estimation device and program |
JP7382910B2 (en) | 2020-07-31 | 2023-11-17 | 日立Astemo株式会社 | Self-position estimation device and program |
WO2022024563A1 (en) * | 2020-07-31 | 2022-02-03 | 日立Astemo株式会社 | Own-position estimation device and program |
JP2022150594A (en) * | 2021-03-26 | 2022-10-07 | Kddi株式会社 | Point cloud management device and program |
JP7479322B2 (en) | 2021-03-26 | 2024-05-08 | Kddi株式会社 | Point cloud management device and program |
CN114750147A (en) * | 2022-03-10 | 2022-07-15 | 深圳甲壳虫智能有限公司 | Robot space pose determining method and device and robot |
CN114750147B (en) * | 2022-03-10 | 2023-11-24 | 深圳甲壳虫智能有限公司 | Space pose determining method and device of robot and robot |
CN117520662A (en) * | 2024-01-04 | 2024-02-06 | 陕西云创网络科技股份有限公司 | Intelligent scenic spot guiding method and system based on positioning |
Also Published As
Publication number | Publication date |
---|---|
JP5333860B2 (en) | 2013-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5333860B2 (en) | Vehicle position detection system using landscape image recognition | |
JP5062497B2 (en) | Vehicle position detection system using landscape image recognition | |
JP5435306B2 (en) | Image processing system and positioning system | |
JP5168601B2 (en) | Own vehicle position recognition system | |
JP5057184B2 (en) | Image processing system and vehicle control system | |
JP5057183B2 (en) | Reference data generation system and position positioning system for landscape matching | |
JP5505723B2 (en) | Image processing system and positioning system | |
JP5062498B2 (en) | Reference data generation system and position positioning system for landscape matching | |
JP5333862B2 (en) | Vehicle position detection system using landscape image recognition | |
JP5182594B2 (en) | Image processing system | |
JP5177579B2 (en) | Image processing system and positioning system | |
JP5333861B2 (en) | Vehicle position detection system using landscape image recognition | |
JP5557036B2 (en) | Exit determination device, exit determination program, and exit determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5333860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |