JP5333862B2 - Vehicle position detection system using landscape image recognition - Google Patents

Vehicle position detection system using landscape image recognition Download PDF

Info

Publication number
JP5333862B2
JP5333862B2 JP2010084628A JP2010084628A JP5333862B2 JP 5333862 B2 JP5333862 B2 JP 5333862B2 JP 2010084628 A JP2010084628 A JP 2010084628A JP 2010084628 A JP2010084628 A JP 2010084628A JP 5333862 B2 JP5333862 B2 JP 5333862B2
Authority
JP
Japan
Prior art keywords
vehicle
reference data
data
image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010084628A
Other languages
Japanese (ja)
Other versions
JP2011215055A (en
Inventor
健 石川
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010084628A priority Critical patent/JP5333862B2/en
Publication of JP2011215055A publication Critical patent/JP2011215055A/en
Application granted granted Critical
Publication of JP5333862B2 publication Critical patent/JP5333862B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、車両から撮影した風景画像を用いて走行中の車両の現在位置を求める自車位置検出システムに関する。   The present invention relates to a vehicle position detection system that obtains the current position of a running vehicle using a landscape image taken from the vehicle.

従来から、カーナビゲーションの技術分野では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPSとを組合せる方法が採用されている。さらに、高精度に現在位置を算出するために、測位衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系)における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と、記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とを用いて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号および各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。しかし、この特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、高い演算能力が装置に要求され、コストアップの要因となる。   Conventionally, in the technical field of car navigation, as a method of calculating the current position of a vehicle, a method of using information acquired from a sensor such as a gyroscope or a geomagnetic sensor (autonomous navigation), a method of using a signal from a GPS satellite, Or the method of combining autonomous navigation and GPS is adopted. Furthermore, in order to calculate the current position with high accuracy, the provisional current position is obtained using a signal from a positioning satellite, and the provisional current position is used as a reference using the captured image in front of the vehicle. The coordinate of the feature point of the road marking (automotive coordinate system feature point) in the coordinate system (car coordinate system) is calculated, and the calculated coordinate point of the car coordinate system and the coordinate of the feature point of the stored road sign (world 2. Description of the Related Art Position positioning devices configured to calculate the current position of a vehicle using a coordinate system) are known (for example, see Patent Document 1). In this apparatus, even if positioning based on signals from positioning satellites and signals from various sensors includes an error, it is possible to calculate a current position with high accuracy. However, in the positioning device according to Patent Document 1, the spatial coordinates of the feature points of the road marking on the road are obtained from the stereo image, and obtained from the latitude / longitude of the road marking having the feature point stored in the road marking information database. Since the vehicle position is calculated using the coordinates obtained, it cannot be used in a place where there is no road marking. In addition, since it is necessary to calculate the spatial coordinates of the feature points recognized by the image processing, a high calculation capability is required for the apparatus, resulting in a cost increase.

また、同じカーナビゲーションの技術分野において、建物や風景などの撮影画像を検索キーとして画像データベース上から類似度の大きい画像を検索し、検索された1以上の画像をそれに対応する地点特定情報と共に表示してユーザに提示し、この表示をみたユーザにより選択された画像に対応付けられた位置情報を目的地に設定するナビゲーション装置が知られている(例えば、特許文献2参照)。このナビゲーション装置を使用すると、ある地点で撮影した撮影画像を入力して検索を実行すれば、その入力画像にマッチする画像とそれに対応する地点特定情報とが検索にヒットしてユーザに提示され、ユーザの選択によりその地点が目的地に設定される。これにより、目的地に設定したい地点の位置や施設名などの情報が全く分らなくても、その地点の撮影画像を利用して目的地の設定を行うことが可能となる。しかしながら、このような風景撮影画像を用いた位置の特定では、検索キーとして入力画像にマッチする画像をナビゲーション装置が提示した後、ユーザが確認する必要があるので、カーナビゲーションで利用されている自車位置検出には適用することはできない。   Also, in the same car navigation technology field, images with a high similarity are searched from an image database using a photographed image of a building or landscape as a search key, and one or more searched images are displayed together with corresponding point specifying information. There is known a navigation device that presents to a user and sets position information associated with an image selected by the user viewing this display as a destination (see, for example, Patent Document 2). When this navigation device is used, if a captured image taken at a certain point is input and a search is executed, an image that matches the input image and the corresponding point specifying information are hit in the search and presented to the user, The point is set as the destination by the user's selection. This makes it possible to set the destination using the captured image of the point even if the information such as the position of the point to be set as the destination and the name of the facility is not known at all. However, in specifying the position using such a landscape photographed image, the navigation device presents an image that matches the input image as a search key, and the user needs to confirm it. It cannot be applied to vehicle position detection.

特開2007−108043号公報(段落番号0009−0013、図1)JP 2007-108043 A (paragraph number 0009-0013, FIG. 1) 特開2004−333233号公報(段落番号0010−0043、図1)Japanese Patent Laying-Open No. 2004-333233 (paragraph numbers 0010-0043, FIG. 1)

上述した実情から、風景画像認識技術を用いながらも、人の判断を要求することなく、効率的な自車位置検出が可能な自車位置検出システムの実現が望まれる。   From the above situation, it is desired to realize a vehicle position detection system that can efficiently detect the vehicle position without requiring human judgment while using the landscape image recognition technology.

本発明に係る風景画像認識を用いた自車位置検出システムの特徴構成は、車両からの風景を撮影した撮影画像から画像特徴点を抽出することによって生成された画像特徴点データ及び当該画像特徴点データに対応する撮影画像の撮影位置を関係付けた参照データを格納している参照データデータベースと、車載カメラによる風景の実撮影画像を入力して当該実撮影画像から画像特徴点を抽出することによって生成されたマッチング用データを出力する撮影画像処理部と、前記車両の車両挙動である実車両挙動を示す車両挙動データを取得する車両挙動取得部と、前記車両の推定自車位置を抽出条件として前記参照データデータベースから前記推定自車位置の周辺を撮影位置とする予備参照データを抽出し、前記実車両挙動に基づいて前記予備参照データの中から参照データを絞り込み、前記マッチング用データに対するマッチング相手候補として出力する参照データ出力部と、出力された前記参照データと前記マッチング用データとのマッチングを行うマッチング実行部と、前記マッチングに成功した前記参照データに関係付けられた前記撮影位置に基づいて自車位置を決定する自車位置決定部とを備えている点である。   The feature configuration of the vehicle position detection system using landscape image recognition according to the present invention includes image feature point data generated by extracting image feature points from a captured image obtained by photographing a landscape from a vehicle, and the image feature points. By inputting the reference data database storing reference data relating the shooting position of the shot image corresponding to the data and the actual shot image of the landscape by the in-vehicle camera, and extracting the image feature points from the actual shot image The captured image processing unit that outputs the generated matching data, the vehicle behavior acquisition unit that acquires the vehicle behavior data indicating the actual vehicle behavior that is the vehicle behavior of the vehicle, and the estimated vehicle position of the vehicle as an extraction condition Preliminary reference data having a shooting position around the estimated vehicle position is extracted from the reference data database, and the preliminary data is extracted based on the actual vehicle behavior. A reference data output unit that narrows down the reference data from the reference data and outputs it as a matching partner candidate for the matching data, a matching execution unit that performs matching between the output reference data and the matching data, and the matching And a vehicle position determination unit that determines the vehicle position based on the photographing position related to the reference data that has been successfully completed.

GPSや推測航法による位置座標の測定において自車位置を推定する場合に誤差が生じるので、実自車位置(実際の自車位置)はこの推定自車位置を基準とした所定半径領域(以後これを推定誤差範囲と称する)に存在するとみなされる。なお、車両は道路もしくはそれに同等な位置にしか存在していないことを条件とすると、その所定半径領域は例えば道に沿った形状に縮小することが可能であるが、そのような形状も含めて、推定誤差範囲(通常は単に誤差範囲と略称される)という語句が用いられる。この推定誤差範囲が大きい場合、その範囲内に属する参照データを全て参照データデータベースから抽出してマッチング相手とする必要がある。しかしながら、本発明による自車位置検出システムでは、車両の実時間での車両挙動である実車両挙動を示す車両挙動データが取得され、推定誤差範囲に属する参照データであっても実車両挙動と一致しないとみなされる参照データ、例えば実車両挙動が発生する撮影位置に属するとみなされないる参照データはマッチング相手から除外することができる。このように、マッチング相手としてふさわしくないと思われる参照データを除外することで、効率的な風景画像認識が実現する。   Since an error occurs when the position of the vehicle is estimated in the measurement of position coordinates by GPS or dead reckoning, the actual vehicle position (actual vehicle position) is a predetermined radius region (hereinafter referred to as this) based on the estimated vehicle position. Is referred to as an estimation error range). Assuming that the vehicle exists only on the road or an equivalent position, the predetermined radius area can be reduced to a shape along the road, for example. The term “estimated error range” (usually simply abbreviated as “error range”) is used. When this estimated error range is large, it is necessary to extract all the reference data belonging to the range from the reference data database and make it a matching partner. However, in the vehicle position detection system according to the present invention, vehicle behavior data indicating the actual vehicle behavior that is the vehicle behavior of the vehicle in real time is acquired, and even the reference data belonging to the estimated error range matches the actual vehicle behavior. Reference data that is considered not to be, for example, reference data that is not considered to belong to the shooting position where the actual vehicle behavior occurs can be excluded from the matching partner. In this way, efficient landscape image recognition is realized by excluding reference data that is not suitable as a matching partner.

本発明の好適な実施形態の1つとして、前記参照データ出力部が、地図データに基づいて前記実車両挙動が生じる撮影位置範囲を求め、当該撮影位置範囲を用いて前記予備参照データの中から前記参照データの絞り込みを行うように構成されたものがある。この構成では、実車両挙動が生じる撮影位置範囲を地図データに基づいて求めるため、撮影位置範囲と車両挙動とを関係を規定する専用のデータが不必要となるので、好都合である。   As one preferred embodiment of the present invention, the reference data output unit obtains a shooting position range where the actual vehicle behavior occurs based on map data, and uses the shooting position range from the preliminary reference data. Some are configured to narrow down the reference data. This configuration is advantageous because the shooting position range where the actual vehicle behavior occurs is obtained based on the map data, and dedicated data for defining the relationship between the shooting position range and the vehicle behavior is unnecessary.

この発明で取り扱われる具体的な車両挙動としては、その車両挙動は道路状態や道路状況に応じて特定できるような挙動が好都合である。このことから、本発明の好適な実施形態の1つでは、前記車両挙動は、前記車両が走行する特定の道路状況に起因する車両挙動とされている。そのような車両挙動として、例えばカーブ走行、上り坂下り坂走行、減速走行、加速走行が挙げられる。カーブ走行では、所定角度の操舵角が検出でき、上り坂走行や下り坂走行では加速性の増減ないしは水準計による所定角度の車体傾斜角度が検出できる。また、減速走行や加速走行では、加速度センサによる所定加速度が検出でき、さらに好ましいのは車両の停止であり、この車両停止は距離センサなどで簡単に検出できる。さらに、車両停止は、交差点や踏み切りや横断歩道との関連性もあり、好適に利用可能である。   As a specific vehicle behavior handled in the present invention, it is advantageous that the vehicle behavior can be specified according to the road condition or the road condition. Therefore, in one preferred embodiment of the present invention, the vehicle behavior is a vehicle behavior resulting from a specific road condition on which the vehicle travels. Examples of such vehicle behavior include curve traveling, uphill downhill traveling, deceleration traveling, and acceleration traveling. In curve driving, a predetermined steering angle can be detected, and in uphill driving and downhill driving, an acceleration increase / decrease or a vehicle body inclination angle by a level meter can be detected. Further, in deceleration traveling and acceleration traveling, a predetermined acceleration can be detected by an acceleration sensor, and it is more preferable to stop the vehicle. This vehicle stop can be easily detected by a distance sensor or the like. Furthermore, the vehicle stop has a relationship with an intersection, a railroad crossing, and a pedestrian crossing, and can be suitably used.

本発明による、風景画像認識を用いた自車位置検出システムにおける自車位置検出技術の基本概念を説明する模式図である。It is a schematic diagram explaining the basic concept of the own vehicle position detection technique in the own vehicle position detection system using landscape image recognition according to the present invention. 本発明による自車位置検出システムに用いられる参照データを生成する画像処理システムの主な機能を示す機能ブロック図である。It is a functional block diagram which shows the main functions of the image processing system which produces | generates the reference data used for the own vehicle position detection system by this invention. 調整係数を用いた重み係数の調整を模式的に示す模式図である。It is a schematic diagram which shows typically the adjustment of the weighting coefficient using an adjustment coefficient. 本発明による自車位置検出システムを採用したカーナビゲーションシステムの機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the car navigation system which employ | adopted the own vehicle position detection system by this invention. 曲線路を例として車両挙動比較に基づいて推定誤差範囲に属する参照データ群を絞り込む処理を模式的に説明するための模式図である。It is a schematic diagram for demonstrating typically the process which narrows down the reference data group which belongs to an estimation error range based on a vehicle behavior comparison for a curved road as an example. 交差点を例として車両挙動比較に基づいて推定誤差範囲に属する参照データ群を絞り込む処理を模式的に説明するための模式図である。It is a schematic diagram for demonstrating typically the process which narrows down the reference data group which belongs to an estimation error range based on a vehicle behavior comparison for an intersection. 登坂路を例として車両挙動比較に基づいて推定誤差範囲に属する参照データ群を絞り込む処理を模式的に説明するための模式図である。It is a schematic diagram for demonstrating typically the process which narrows down the reference data group which belongs to an estimation error range based on a vehicle behavior comparison for an uphill road. 風景マッチング部の機能を示す機能ブロック図である。It is a functional block diagram which shows the function of a scenery matching part.

以下、図面を用いて本発明を詳しく説明する。図1は、ここでは、車両走行方向前方を撮影するように配置された車載カメラからの風景画像を、本発明による画像処理システムによって作成される参照データを用いたマッチング処理を通じて画像認識することで、その風景画像が撮影される位置、つまり自車位置を決定する、位置測位技術の基本概念を模式的に示している。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 shows an image recognition of a landscape image from an in-vehicle camera arranged so as to photograph the front in the vehicle traveling direction through a matching process using reference data created by the image processing system according to the present invention. 3 schematically shows the basic concept of position positioning technology for determining the position where the landscape image is taken, that is, the position of the vehicle.

まず、参照データデータベース92(以下単に参照データDBと略称する)の構築手順を説明する。図1に示すように、走行途中における車両からの風景を撮影した撮影画像と、その撮影時の撮影位置や撮影方位を含む撮影属性情報と、その撮影時の車両挙動(曲線路走行のための所定の操舵角など)が入力される(#01)。入力された撮影画像に対して画像特徴点を検出するための特徴点検出処理、例えばエッジ検出処理が実行される(#02)。ここでは、1つの画素ないしは複数の画素に対応させたエッジ点が輪郭のような一本の線分を構成している部分をエッジと呼び、複数のエッジが交差している交点をコーナと呼ぶことにするが、画像特徴点の一例がこのエッジとコーナである。エッジ検出処理によって得られるエッジ検出画像から、コーナを含むエッジが画像特徴点として抽出される(#03)。   First, the construction procedure of the reference data database 92 (hereinafter simply referred to as “reference data DB”) will be described. As shown in FIG. 1, a captured image obtained by capturing a landscape from a vehicle during traveling, photographing attribute information including a photographing position and a photographing direction at the time of photographing, and vehicle behavior at the time of photographing (for traveling on a curved road) A predetermined steering angle or the like is input (# 01). A feature point detection process for detecting an image feature point, for example, an edge detection process is performed on the input photographed image (# 02). Here, an edge point corresponding to one pixel or a plurality of pixels constitutes a line segment such as an outline is called an edge, and an intersection point where a plurality of edges intersect is called a corner. However, an example of the image feature point is the edge and the corner. An edge including a corner is extracted as an image feature point from the edge detection image obtained by the edge detection process (# 03).

風景画像認識のために用いられることを考慮すると、抽出された全ての画像特徴点は、同じ重要度をもっているとは限らない。例えば、その対応する撮影画像における座標位置によって各画像特徴点の重要度が異なる場合がある。このため、風景画像認識にふさわしくない画像特徴点の重要性を低くすることや、風景画像認識にとって重要となる画像特徴点の重要性を高くするといったルールを適用させながら、各画像特徴点の重要度を決定することが好ましい(#04)。各画像特徴点の重要度が決定されると、その重要度に応じた各画像特徴点への重み係数の割り当てを規定している重み係数マトリックスが生成される(#05)。   In consideration of being used for landscape image recognition, not all extracted image feature points have the same importance. For example, the importance of each image feature point may differ depending on the coordinate position in the corresponding captured image. Therefore, while applying rules such as reducing the importance of image feature points that are not suitable for landscape image recognition and increasing the importance of image feature points that are important for landscape image recognition, the importance of each image feature point It is preferable to determine the degree (# 04). When the importance of each image feature point is determined, a weighting coefficient matrix that defines the assignment of the weighting coefficient to each image feature point according to the importance is generated (# 05).

続いて、重み係数マトリックスを用いながら、画像特徴点を整理して撮影画像毎の画像特徴点データが生成される(#07)。この画像特徴点データの生成過程において、所定しきい値レベル以下の重み係数をもつ画像特徴点を破棄したり、所定しきい値レベル以上の重み係数をもつ画像特徴点とその周辺の画像特徴点以外を破棄したりする取捨選択処理が行われる。ここで生成された画像特徴点データは、風景画像認識の目的でパターンマッチングが採用されるときには、そのパターンとして用いられるので、風景画像のパターンマッチングにおいて効果的な画像特徴点だけを備えることがマッチングの高速性と正確さにとって重要である。生成された画像特徴点データはこの画像特徴点データに対応する撮影画像の撮影位置や撮影方位、さらには車両挙動と関係付けることで、撮影位置や撮影方位及び車両挙動を検索キーとして利用可能なデータベース用データとなる(#08)。つまり、この画像特徴点データは、風景画像認識のために利用される参照データ、つまりマッチング相手として抽出されるべき参照データDB92に格納される(#09)。   Subsequently, using the weighting coefficient matrix, the image feature points are organized to generate image feature point data for each captured image (# 07). In this image feature point data generation process, image feature points having a weighting factor equal to or lower than a predetermined threshold level are discarded, or image feature points having a weighting factor equal to or higher than a predetermined threshold level and surrounding image feature points Sorting process to discard other than is performed. Since the image feature point data generated here is used as a pattern when pattern matching is adopted for the purpose of landscape image recognition, it is necessary to provide only image feature points effective in pattern matching of landscape images. Important for speed and accuracy. The generated image feature point data can be used as a search key by relating the shooting position, shooting direction, and vehicle behavior of the shot image corresponding to the image feature point data to the vehicle behavior. Data for the database is obtained (# 08). That is, the image feature point data is stored in the reference data used for landscape image recognition, that is, the reference data DB 92 to be extracted as a matching partner (# 09).

次に、上述したような手順で構築された参照データDBを用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、GPS測定ユニットなどを用いて推定された推定自車位置、その推定自車位置を撮影位置として車載カメラで撮影された実撮影画像とその撮影方位、及びその撮影時の実車両挙動である車両挙動データが入力される(#11)。まず、入力された撮影画像から、上記ステップ#02〜#07の処理手順を経て画像特徴点データであるマッチング用データが生成される(#12)。   Next, a procedure for determining the position of the vehicle (vehicle position) during actual vehicle travel will be described using the reference data DB constructed by the above-described procedure. As shown in FIG. 1, an estimated own vehicle position estimated using a GPS measurement unit, an actual captured image captured by an in-vehicle camera with the estimated own vehicle position as a capturing position, its capturing orientation, and at the time of capturing Vehicle behavior data that is actual vehicle behavior is input (# 11). First, matching data, which is image feature point data, is generated from the input photographed image through the processing procedures of steps # 02 to # 07 (# 12).

さらに、入力された撮影位置でもある推定自車位置の誤差によって規定される推定誤差範囲(以下単に誤差範囲と略称する)が算定される(#13a)。さらに、入力された車両挙動データが評価されて、参照データDB92の検索条件として利用できるような車両挙動情報(以下単に実車両挙動と略称する)が生成される(#13b)。誤差範囲と実車両挙動はマッチング用データのマッチング相手として適切な参照データ群を参照データDB92から抽出して(#13c)、出力されるために用いられる(#13d)。出力された参照データは風景画像認識であるマッチング処理のためにセットされる(#14)。   Further, an estimated error range (hereinafter simply referred to as an error range) defined by the error of the estimated own vehicle position that is also the input photographing position is calculated (# 13a). Further, the input vehicle behavior data is evaluated, and vehicle behavior information (hereinafter simply referred to as actual vehicle behavior) that can be used as a search condition in the reference data DB 92 is generated (# 13b). The error range and the actual vehicle behavior are used to extract and output a reference data group appropriate as a matching partner of the matching data from the reference data DB 92 (# 13c) (# 13d). The output reference data is set for matching processing that is landscape image recognition (# 14).

抽出されたマッチング候補参照データ列から1つずつ参照データをパターンとして設定し、今生成されたマッチング用データとの間のパターンマッチング処理が風景画像認識として実行される(#15)。マッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#16)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#17)。   Reference data is set as a pattern one by one from the extracted matching candidate reference data string, and pattern matching processing with the currently generated matching data is executed as landscape image recognition (# 15). If the matching is successful, the shooting position associated with the reference data that is the target is read (# 16), and this shooting position is determined as the official vehicle position that replaces the estimated vehicle position (#). 17).

次に、上述した自車位置検出システムで用いられる参照データを、車両から風景を撮影した撮影画像から作り出す、画像処理システムの一例を説明する。図2は、そのような画像処理システムの機能を模式的に示した機能ブロック図である。
この画像処理システムは、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と、重み付け部55、調整係数設定部54、画像特徴点データ生成部56、参照データデータベース化部57、などの機能部を備えているおり、それらの各機能はハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
Next, an example of an image processing system that creates reference data used in the above-described vehicle position detection system from a photographed image obtained by photographing a landscape from a vehicle will be described. FIG. 2 is a functional block diagram schematically showing the functions of such an image processing system.
This image processing system includes a data input unit 51, a feature point extraction unit 52, a feature point importance degree determination unit 53, a weighting unit 55, an adjustment coefficient setting unit 54, an image feature point data generation unit 56, and a reference data database generation unit 57. , Etc., and each of these functions can be created by hardware, software, or a combination thereof.

データ入力部51には、参照データ作成目的で走行している車両に搭載されたカメラによる風景を撮影した撮影画像と、その撮影時の撮影位置及び撮影方位を含む撮影属性情報と、さらに撮影状況情報とが撮影関係情報として入力される。さらに、その撮影時の車両挙動を示す車両挙動データも入力される。この車両挙動データには、例えば、ステアリング角度(操舵角度)や、加速度センサからの信号や水準器からの信号によって算定される車両の前後方向の傾き(つまり道路の勾配)などが含まれる。画像処理システムが走行車両に搭載されている形態においては、この入力部51にはリアルタイムで撮影画像と撮影属性情報と撮影状況情報が入力されることになるが、この画像処理システムがデータ処理センタなどに設置されている形態においては、撮影画像と撮影属性情報と撮影状況情報が一時的に記録メディアに記録され、これらのデータ入力はバッチ処理的に行われる。撮影画像や撮影属性情報の生成方法は周知であるのでその説明は省略する。   The data input unit 51 includes a photographic image obtained by photographing a landscape by a camera mounted on a vehicle traveling for reference data creation, photographing attribute information including a photographing position and a photographing direction at the time of photographing, and a photographing situation. Information is input as shooting-related information. Furthermore, vehicle behavior data indicating the vehicle behavior at the time of shooting is also input. The vehicle behavior data includes, for example, a steering angle (steering angle), a vehicle front-rear direction inclination (that is, a road gradient) calculated based on a signal from an acceleration sensor or a signal from a level. In the form in which the image processing system is mounted on the traveling vehicle, the captured image, the photographing attribute information, and the photographing situation information are input to the input unit 51 in real time. In such a configuration, the photographed image, photographing attribute information, and photographing state information are temporarily recorded on a recording medium, and these data inputs are performed in a batch process. Since the method for generating the photographed image and the photographing attribute information is well known, the description thereof is omitted.

撮影状況情報は、撮影画像に特定被写体が含まれている可能性を表す情報であり、この実施の形態の撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データである。走行レーンデータは、撮影画像に対する画像処理を通じて得られる白線やガイドレールや安全地帯の認識結果から得られた、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、レーダなどの障害物を検知する車載センサによって認識される車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所の種別、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといったエリア属性を示すデータである。   The shooting situation information is information indicating the possibility that a specific subject is included in the shot image, and the contents included in the shooting situation information of this embodiment include travel lane data, moving object data, and area attribute data. It is. The traveling lane data is data indicating the traveling lane region of the own vehicle and the region outside the road in the photographed image obtained from the recognition result of the white line, the guide rail, and the safety zone obtained through image processing on the photographed image. The moving object data is data indicating an existing area in a captured image of a moving object present around the vehicle that is recognized by an in-vehicle sensor that detects an obstacle such as a radar. Area attribute data is data indicating area attributes such as mountain area, suburban area, urban area, high-rise city area, etc. is there.

特徴点抽出部52は、適当な演算子を使用して撮影画像から画像特徴点としてエッジ点を抽出する。特徴点重要度決定部53は、特徴点抽出部52によって抽出された画像特徴点の重要度を、撮影状況情報に含まれている各データの内容に基づいて決定する。例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対してより高い重要度を付与する。また、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して低い重要度を付与する。さらに、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に対して高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。   The feature point extraction unit 52 extracts edge points as image feature points from the captured image using an appropriate operator. The feature point importance determination unit 53 determines the importance of the image feature points extracted by the feature point extraction unit 52 based on the contents of each data included in the shooting situation information. For example, when the content of the travel lane data is used, higher importance is assigned to image feature points belonging to a region further away from the travel lane closer to the shoulder in the captured image. When moving object data is used, a low importance is assigned to image feature points belonging to a region where a moving object exists in a captured image. Further, when the contents of the area attribute data are used, the importance assigning rule corresponding to the position in the captured image is changed according to the area attribute. For example, in a captured image of a mountain area, since there is a high possibility that the upper part of the photographing center optical axis is empty and the left and right are forests, high importance is set for the central region around the photographing central optical axis. In the photographed image of the suburban area, there is little traffic of cars, and structures such as houses spread around, so a high importance is set for the area below the photographing center optical axis. In the captured image of the urban area, since there is a lot of traffic, a high importance is set for the area above the optical axis of the image capturing center. In the photographed image of the high-rise city area, since there are many elevated roads and viaducts, high importance is set for the region above the photographing center optical axis.

重み付け部55は、特徴点重要度決定部53によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されているので、高い重要度が設定された画像特徴点に大きい重み係数が割り当てられるが、低い重み係数をもつ画像特徴点は実際の画像認識において使用されない可能性が高いこと、あるいは参照データから削除されることを考慮して、画像特徴点の取捨選択の判定のために利用できるように算定される。   The weighting unit 55 assigns a weighting factor to the image feature point according to the importance determined by the feature point importance determining unit 53. High importance is set for image feature points that are considered important for accurate image recognition (pattern matching), so a large weighting factor is assigned to image feature points with high importance. Considering that image feature points with low weighting factors are not likely to be used in actual image recognition or deleted from reference data, they can be used to determine the selection of image feature points Calculated.

調整係数設定部54は、重み付け部55によって割り当てられた重み係数を対応する撮影画像領域における分布状態の観点から変更するための調整係数を算定する。つまり、特徴点抽出部52によって抽出された画像特徴点に対して撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部55によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部54は用いられる。演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数が設定され、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数が設定される   The adjustment coefficient setting unit 54 calculates an adjustment coefficient for changing the weighting coefficient assigned by the weighting unit 55 from the viewpoint of the distribution state in the corresponding captured image region. In other words, the importance determined based on the shooting situation information for the image feature points extracted by the feature point extraction unit 52 includes a certain degree of error, and image feature points having a certain degree of importance are also randomly generated. It is also possible that For this reason, when there is an uneven distribution of image feature points, in other words, an uneven distribution of the weighting coefficient assigned by the weighting unit 55, the adjustment coefficient setting unit 54 is used for the purpose of easing the uneven distribution. When the distribution of image feature points obtained by calculation processing indicates the uneven distribution of image feature points, the adjustment coefficient is set so that the weighting factor of image feature points belonging to the region where the density of image feature points is small is increased. The adjustment coefficient is set so that the weighting coefficient of the image feature point belonging to the region where the density of the image feature point is large is small.

画像特徴点データ生成部56は、重み付け部55によって割り当てられた重み係数、及び場合によっては付与されている調整係数に基づいて各画像特徴点を整理して撮影画像毎の画像特徴点データを生成する。その際、所定しきい値以下の重み係数をもつ画像特徴点を削除することでマッチング処理が効率よく行われるように画像特徴点を絞り込むことができる。また、この重み係数をそのまま参照データにおいても各画像特徴点に関係付けられるように画像特徴点データに付属させておき、その重み係数付き参照データを用いたマッチング処理時における重み付け類似度演算のために用いられるようにしてもよい。   The image feature point data generation unit 56 organizes the image feature points based on the weighting coefficient assigned by the weighting unit 55 and the adjustment coefficient assigned in some cases, and generates image feature point data for each captured image. To do. At this time, the image feature points can be narrowed down so that the matching process is efficiently performed by deleting the image feature points having a weighting coefficient equal to or less than a predetermined threshold value. In addition, this weighting factor is attached to the image feature point data so that it can be related to each image feature point in the reference data as it is, and for weighting similarity calculation at the time of matching processing using the reference data with the weighting factor. It may be used for.

ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を図3に示された模式的説明図を用いて説明する。撮影画像(図3(a)から画像特徴点を抽出することで特徴点画像(図3(b))が生成される。この特徴点画像の各画像特徴点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図3(c)では特徴点画像に対応する重要度レイヤの形で各画像特徴点に対応する重要度が示されている。この重要度レイヤを用いて、各画像特徴点に重み係数が割り当てられる。図3(d)では、大きな重み係数をもつほど大きい点となるように画像特徴点を描いた特徴点画像の形で重み係数を割り当てたれた画像特徴点が示されている。ここで、所定しきい値以下の重み係数を割り当てられた画像特徴点が除去されるような画像特徴点の整理が行われると、例えば、図3(d)で大きな点となっている画像特徴点だけが選別されると、特徴点画像の下方領域に位置している画像特徴点は排除され、残った画像特徴点の分布に大きな偏在が生じる。この偏在を回避するため、特徴点画像における画像特徴点の散布度を算出し、結果的に選別される画像特徴点の密度が低くなる領域の画像特徴点の重み係数を増加させるような調整係数が設定される。そのように設定される調整係数を模式的に理解できるように、図3(e)では調整係数群を特徴点画像に対応するようにマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形で示されている。画像特徴点データ生成部56は、このような重み係数と調整係数に基づいて最終的に設定された重み係数を用いて各画像特徴点を整理して、図3(f)で示されたような画像特徴点データを撮影画像毎に生成する。   Here, a process of spreading image feature points as widely as possible over the entire photographed image area using the above-described adjustment coefficient will be described with reference to a schematic explanatory diagram shown in FIG. A feature point image (FIG. 3B) is generated by extracting image feature points from the photographed image (FIG. 3A), and importance is given to each image feature point of the feature point image. 3C, the importance corresponding to each image feature point is shown in the form of the importance layer corresponding to the feature point image so that the degree to which the degree is given can be schematically understood. 3D, a weighting factor is assigned to each image feature point, and in FIG.3 (d), the weighting factor is in the form of a feature point image in which image feature points are drawn such that the larger the weighting factor, the larger the point. Here, when image feature points are arranged such that image feature points assigned weighting factors equal to or less than a predetermined threshold are removed, for example, FIG. Only image feature points that are large in 3 (d) are selected. Then, the image feature points located in the lower region of the feature point image are excluded, and the distribution of the remaining image feature points is greatly uneven. The adjustment coefficient is set so as to increase the weighting coefficient of the image feature points in the region where the density of the image feature points to be selected is reduced as a result. As can be understood, in FIG. 3 (e), the adjustment coefficient group is shown in the form of an adjustment coefficient layer arranged in a matrix (here, in units of a plurality of pixel areas) so as to correspond to the feature point image. The image feature point data generation unit 56 organizes each image feature point using the weighting coefficient finally set based on such weighting coefficient and adjustment coefficient, and is shown in FIG. Image feature point data It is generated for each shadow image.

参照データデータベース化部57は、画像特徴点データ生成部56によって生成された画像特徴点データを、この画像特徴点データに対応する撮影画像の撮影属性情報に関係付けて、風景画像認識のために利用される参照データとしてデータベース化する。その際、風景画像認識を補助するために、車両挙動データから記録車両挙動として取り出された、撮影時の車両挙動を示す情報も、その参照データに関係付けられる。このようにデータベース化された参照データは参照データDB92に格納されていく。   The reference data database unit 57 associates the image feature point data generated by the image feature point data generation unit 56 with the shooting attribute information of the shot image corresponding to the image feature point data, and recognizes the landscape image. Create a database as reference data to be used. At this time, in order to assist landscape image recognition, information indicating the vehicle behavior at the time of shooting, which is extracted from the vehicle behavior data as the recorded vehicle behavior, is also related to the reference data. The reference data stored in the database in this way is stored in the reference data DB 92.

以上の説明では、画像特徴点毎に重要度が決定され、その結果画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。その際には、例えば、撮影画像領域が複数の画像区画に分割され、特徴点重要度決定部53が、同一画像区画に属する画像特徴点を画像特徴点群としてグループ化して統一的に取り扱い、当該画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部55も同様に画像特徴点群単位で重み係数を設定するとよい。また、ここで取り扱われている画像区画を、撮影画像を構成する1画素単位で取り扱ってもよいが、複数画素単位で画像区画を取り扱ってもよい。従って、本発明では、画像区画は1つ又は複数の画素から構成されることになる。   In the above description, the degree of importance is determined for each image feature point, and as a result, a weighting factor is set for each image feature point. However, these processes can be performed in units of groups. is there. In that case, for example, the captured image area is divided into a plurality of image sections, and the feature point importance determination unit 53 groups image feature points belonging to the same image section as an image feature point group and handles them in a unified manner. The image feature points included in the image feature point group may be given the same importance, and the weighting unit 55 may similarly set the weight coefficient in units of image feature point groups. In addition, the image sections handled here may be handled in units of one pixel constituting the captured image, but may be handled in units of a plurality of pixels. Therefore, in the present invention, the image section is composed of one or a plurality of pixels.

次に、上述した自車位置検出システムの基本概念、及び上述した画像処理システムで作成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正する車載用カーナビゲーションシステムを説明する。図4には、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とカーナビ用道路地図データを収納した道路地図DB91(以下単に道路地図DBと略称する)とを有するデータベース9、車両挙動検知モジュール24を備えている。車両挙動検知モジュール24は、車両の制動や加速や操舵などといった車両の種々の挙動を示すセンサ信号や制御信号を車載LANを通じて受け取って、種々の車両挙動を含む車両挙動データを生成して出力する機能を有する。   Next, an in-vehicle car that corrects the vehicle position by landscape image recognition (image feature point pattern matching) using the basic concept of the vehicle position detection system described above and the reference data DB 92 created by the image processing system described above. A navigation system will be described. FIG. 4 is a functional block showing such a car navigation system incorporated in an in-vehicle LAN. This car navigation system includes an input operation module 21, a navigation control module 3, a vehicle position detection module 4, a photographing situation information generation unit 7, a road map DB 91 (hereinafter simply referred to as “car map navigation road map data”). A database 9 having a vehicle map and a vehicle behavior detection module 24. The vehicle behavior detection module 24 receives sensor signals and control signals indicating various behaviors of the vehicle such as vehicle braking, acceleration, and steering through the in-vehicle LAN, and generates and outputs vehicle behavior data including various vehicle behaviors. It has a function.

ナビ制御モジュール3は、経路設定部31、経路探索部32、経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。   The navigation control module 3 includes a route setting unit 31, a route search unit 32, and a route guide unit 33. The route setting unit 31 sets, for example, a departure point such as the vehicle position, an input destination, a passing point, and traveling conditions (whether or not an expressway is used). The route search unit 32 is a processing unit that performs arithmetic processing for searching for a guide route from the departure point to the destination based on the conditions set by the route setting unit 31. The route guidance unit 33 provides appropriate route guidance to the driver by guidance display on the display screen of the monitor 12 or voice guidance by the speaker 13 according to the route from the departure place to the destination searched by the route search unit 32. It is a process part which performs the arithmetic processing for performing.

自車位置検出モジュール4は、従来のGPSによる位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上とする補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。   The own vehicle position detection module 4 corrects the estimated own vehicle position obtained by the conventional position calculation by GPS and the position calculation by dead reckoning with the own vehicle position determined by landscape image recognition using the estimated own vehicle position. It has the function to do. The own vehicle position detection module 4 includes a GPS processing unit 41, dead reckoning processing unit 42, own vehicle position coordinate calculation unit 43, map matching unit 44, own vehicle position determination unit 45, captured image processing unit 5, and landscape matching unit 6. I have. A GPS measurement unit 15 that receives GPS signals from GPS satellites is connected to the GPS processing unit 41. The GPS processing unit 41 analyzes the signal from the GPS satellite received by the GPS measurement unit 15, calculates the current position (latitude and longitude) of the vehicle, and sends it to the own vehicle position coordinate calculation unit 43 as GPS position coordinate data. The dead reckoning processing unit 42 is connected to the distance sensor 16 and the azimuth sensor 17. The distance sensor 16 is a sensor that detects a vehicle speed or a moving distance of the vehicle. For example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft, a wheel, or the like of the vehicle rotates by a certain amount detects the acceleration of the host vehicle C. And a circuit that integrates the detected acceleration. The distance sensor 16 outputs information on the vehicle speed and moving distance as the detection result to the dead reckoning processing unit 42. The direction sensor 17 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like, and the direction of the detection result Information is output to dead reckoning processing unit 42. The dead reckoning processing unit 42 calculates dead reckoning position coordinates based on the moving distance information and the direction information sent every moment, and sends the dead reckoning position coordinate data to the own vehicle position coordinate calculating unit 43 as dead reckoning position coordinate data. The own vehicle position coordinate calculation unit 43 performs an operation for specifying the position of the vehicle from the GPS position coordinate data and the dead reckoning position coordinate data by a known method. The calculated vehicle position information is information including measurement errors and the like, and in some cases, the vehicle position information is off the road. Therefore, the map matching unit 44 determines the vehicle position on the road indicated on the road map. Correction is performed. The vehicle position coordinates are sent to the vehicle position determination unit 45 as the estimated vehicle position.

撮影画像処理部5は、実質的には図2で示された画像処理システムを構成していた大部分の機能部を備えている。この撮影画像処理部5は、データ入力部51、特徴点抽出部52、特徴点重要度決定部53と重み付け部55、調整係数設定部54、画像特徴点データ生成部56を備え、車載カメラ14によって撮影された車両からの前方風景撮影画像がデータ入力部51に入力されると、上述したような手順を経て画像特徴点データが画像特徴点データ生成部56から出力される。なお、特徴点重要度決定部53で利用される撮影情況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを作成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで走行レーンデータが作成される。また、撮影状況情報生成部7は、上記移動物体データを作成するために障害物検出用のセンサ群18と接続されている。このセンサ群18からのセンサ情報に基づいて移動物体データが作成される。さらに、撮影状況情報生成部7は、上記を作成するために、自車位置決定部45及びデータベース9と接続している。自車位置決定部45からの自車位置座標と検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データが作成される。   The photographed image processing unit 5 substantially includes most of the functional units that constitute the image processing system shown in FIG. The captured image processing unit 5 includes a data input unit 51, a feature point extraction unit 52, a feature point importance degree determination unit 53 and a weighting unit 55, an adjustment coefficient setting unit 54, and an image feature point data generation unit 56. When the front landscape photographed image from the vehicle photographed by the above is input to the data input unit 51, the image feature point data is output from the image feature point data generation unit 56 through the procedure described above. Note that the shooting situation information used in the feature point importance determination unit 53 is generated by the shooting situation information generation unit 7 mounted on the vehicle and sent to the shot image processing unit 5. The shooting state information generation unit 7 is connected to the in-vehicle camera 14 to generate the travel lane data, and receives the same shot image sent to the shot image processing unit 5. Traveling lane data is created by image processing the received captured image using a known algorithm. The photographing situation information generation unit 7 is connected to an obstacle detection sensor group 18 in order to create the moving object data. Moving object data is created based on sensor information from the sensor group 18. Further, the shooting situation information generation unit 7 is connected to the vehicle position determination unit 45 and the database 9 in order to create the above. The database 9 is searched using the vehicle position coordinates and the search key from the vehicle position determination unit 45 to acquire area attributes (mountainous area, city area, etc.) of the current traveling location, and the area attribute data is based on the area attributes. Created.

風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置と車両挙動検知モジュールから送られてきた実車両挙動に基づいて参照データDB92から後で詳しく説明する抽出アルゴリズムに基づいて所定数の参照データからなる参照データ列を抽出する。さらに、抽出された参照データ列からパターンとして順次参照データをセットし、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、マッチングパターンである参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。   The scenery matching unit 6 is based on an extraction algorithm that will be described in detail later from the reference data DB 92 based on the estimated vehicle position sent from the vehicle position determination unit 45 and the actual vehicle behavior sent from the vehicle behavior detection module. A reference data string consisting of a predetermined number of reference data is extracted. Further, reference data is sequentially set as a pattern from the extracted reference data string, and pattern matching processing is performed on the image feature point data sent from the captured image processing unit 5. If the pattern matching is successful, the shooting position associated with the reference data that is the matching pattern is read out. This photographing position is transferred to the own vehicle position determination unit 45 as the own vehicle position. The own vehicle position determination unit 45 corrects the own vehicle position by replacing the transferred own vehicle position with the estimated own vehicle position.

このカーナビゲーションシステムは、また、周辺装置として、タッチパネル11やスイッチなどの入力デバイス11とそれらの入力デバイス11を通じての操作入力を適切な操作信号に変化して内部に転送する操作入力評価部21aを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を流す音声生成モジュール23を備えている。   This car navigation system also includes an input device 11 such as a touch panel 11 or a switch as a peripheral device, and an operation input evaluation unit 21a that changes an operation input through the input device 11 into an appropriate operation signal and transfers the operation signal to the inside. The input operation module 21 has a display module 22 for displaying image information necessary for car navigation on the monitor 12, and a sound generation module 23 for flowing sound information necessary for car navigation from the speaker 13 and the buzzer.

つぎに、風景マッチング部6で行われる、推定自車位置を中心とする誤差範囲の算定と、その誤差範囲に含まれる測定データ群を車両挙動検知モジュール24から送られてくる実車両挙動を示す車両挙動データに基づいて絞り込む処理を図5、図6、図7の模式図を用いて説明する。
図5では、推定自車位置を基準点:Pnとし、そこから車両走行方向の前方側に位置する参照データの撮影位置を車両から近い順にPn+1,Pn+2,・・・Pn+k(kは正の整数)で示され、そこから車両走行方向の後方側に位置する参照データの撮影位置を車両から近い順にPn-1,Pn-2,・・・Pn+k(kは負の整数)で示されている。基準点:Pnを中心として自車位置測定誤差に基づいて算定される誤差範囲が点線で道路に沿って示されている。この例では、誤差範囲には、基準点:Pnとともに撮影位置:Pn+1,Pn+2,Pn-1,Pn-2が属している。この撮影位置とは、参照データDB92に格納されている参照データの撮影位置を意味している。さらに、その撮影位置の参照データに関連付けられている車両挙動として操舵角が模式的に示されており、基準点:Pnは0°、撮影位置:Pn+1,Pn-1は0°、撮影位置:Pn+2は15°, Pn-2は−15°となっている。このことから、推定自車位置である基準点:Pnの精度がかなり高いとすれば、マッチング相手として、この基準点:Pnでの車両挙動である操舵角と実質的に同じ操舵角を有する参照データだけに絞り込むことが可能となる。従って、この図5の例では、撮影位置:Pn+2と Pn-2はマッチング相手から除外することができる。つまり、誤差範囲に含まれている参照データのうち、基準点:Pnでの車両挙動、ここでは操舵角と所定許容範囲外となる参照データを除外することができる。このようなマッチング相手の絞り込みを行うことで、マッチング処理効率が向上する。
Next, calculation of an error range centered on the estimated own vehicle position performed by the landscape matching unit 6 and a measurement data group included in the error range are shown as actual vehicle behavior sent from the vehicle behavior detection module 24. The process of narrowing down based on the vehicle behavior data will be described with reference to the schematic diagrams of FIGS.
In FIG. 5, the estimated own vehicle position is set as a reference point: Pn, and the shooting positions of the reference data located on the front side in the vehicle traveling direction from there are Pn + 1, Pn + 2,. (K is a positive integer), and from there the shooting positions of the reference data located on the rear side in the vehicle traveling direction are Pn-1, Pn-2,... Pn + k (k is negative) Integer). Reference point: The error range calculated based on the vehicle position measurement error around Pn is indicated by a dotted line along the road. In this example, the photographing positions: Pn + 1, Pn + 2, Pn-1, and Pn-2 belong to the error range together with the reference point: Pn. The shooting position means the shooting position of the reference data stored in the reference data DB 92. Further, the steering angle is schematically shown as the vehicle behavior associated with the reference data of the shooting position. The reference point: Pn is 0 °, the shooting positions: Pn + 1, Pn-1 are 0 °, and shooting is performed. Position: Pn + 2 is 15 ° and Pn-2 is −15 °. From this, if the accuracy of the reference point: Pn, which is the estimated vehicle position, is quite high, the matching partner has a steering angle that is substantially the same as the steering angle that is the vehicle behavior at this reference point: Pn. It becomes possible to narrow down to data only. Therefore, in the example of FIG. 5, the photographing positions: Pn + 2 and Pn-2 can be excluded from matching partners. That is, of the reference data included in the error range, the vehicle behavior at the reference point: Pn, here, the reference data outside the predetermined allowable range with the steering angle can be excluded. By narrowing down such matching partners, matching processing efficiency is improved.

図6は、交差点を例示しており、符号のつけ方や、誤差範囲、車両挙動などの表し方は同じである。交差点内に入った車両の操舵角も所定方向から進入して所定の方向へ出て行く際には所定の範囲内に維持されていると考えることができる。このように考えると、図5を用いた説明と同様に、誤差範囲内に属している参照データを絞り込むことが可能となる。この例では、基準点:Pnでの車両挙動としての操舵角は30°であるので、実質的な同じ操舵角を有する参照データ(ここでは撮影位置:Pn+1とPn+2で示されている)だけがマッチング相手として残され、その他(ここでは撮影位置:Pn+kで示されている)は除外されている。特に大きな交差点では、進入してくる方向や出て行く方向の組み合わせで多くの参照データが存在することになるので、このような参照データの絞込みは好都合である。   FIG. 6 exemplifies intersections, and the way of signing, the way of expressing the error range, vehicle behavior, etc. are the same. It can be considered that the steering angle of the vehicle entering the intersection is also maintained within a predetermined range when entering from a predetermined direction and going out in a predetermined direction. In this way, it is possible to narrow down the reference data belonging to the error range, as in the description using FIG. In this example, since the steering angle as the vehicle behavior at the reference point: Pn is 30 °, the reference data having substantially the same steering angle (here, indicated by the shooting positions: Pn + 1 and Pn + 2) Only) is left as a matching partner, and others (here, the shooting position: indicated by Pn + k) are excluded. In particular, at a large intersection, a lot of reference data exists depending on a combination of an approaching direction and an exiting direction. Therefore, such narrowing of the reference data is advantageous.

また、図7は、登坂道路を例示しており、道路勾配が理解しやすいように側面からの模式図であるが、符号のつけ方や、誤差範囲、車両挙動などの表し方は同じである。図7から容易に理解可能であるが、前方に大きな勾配の坂があれば、その地点での風景撮影画像は大きく変化する。この現象を考慮して、車両挙動としての走行道路の勾配が基準点:Pnでの勾配と明らかに異なる撮影位置の参照データはマッチング相手から除外する。走行道路の勾配は、Gセンサからの信号の評価、車体傾斜センサからの信号の利用などによって検出できる。図7では、基準点:Pnでの走行道路の勾配に対応する車両挙動が実質的に同じである撮影位置:Pn+1,Pn-1,Pn-2が残され、撮影位置:Pn+2が除外されている。このように勾配のある道路でも、上記と同様なアルゴリズムで誤差範囲に属する参照データを車両挙動の類似性の観点から絞り込むことができる。   Further, FIG. 7 illustrates an uphill road and is a schematic view from the side so that the road gradient is easy to understand. However, the way of signing, the way of expressing the error range, vehicle behavior, etc. are the same. . As can be easily understood from FIG. 7, if there is a slope with a large slope in front, the landscape photographed image at that point changes greatly. In consideration of this phenomenon, reference data of a shooting position where the gradient of the traveling road as the vehicle behavior is clearly different from the gradient at the reference point: Pn is excluded from the matching partner. The gradient of the traveling road can be detected by evaluating a signal from the G sensor, using a signal from the vehicle body tilt sensor, or the like. In FIG. 7, shooting positions: Pn + 1, Pn-1, and Pn-2 that have substantially the same vehicle behavior corresponding to the gradient of the traveling road at the reference point: Pn are left, and the shooting position: Pn + 2. Is excluded. Thus, even on a road with a slope, the reference data belonging to the error range can be narrowed down from the viewpoint of the similarity of the vehicle behavior by the same algorithm as described above.

以上のとおり、風景マッチング部6は、車両の推定自車位置を抽出条件として参照データDB92から推定自車位置の周辺、具体的には推定自車位置の誤差範囲内を撮影位置とする参照データを予備参照データとして抽出する。そして、風景マッチング部6は、操舵による進路変更や勾配走行等の実車両挙動に基づいて予備参照データの中から参照データを絞り込み、マッチング用データに対するマッチング相手候補として出力する。なお、このような風景マッチング部6の処理は、後述する参照データ出力部63により行われる。   As described above, the landscape matching unit 6 uses the estimated vehicle position of the vehicle as an extraction condition, and the reference data that uses the reference data DB 92 as a shooting position around the estimated vehicle position, specifically within the error range of the estimated vehicle position. Are extracted as preliminary reference data. Then, the landscape matching unit 6 narrows down the reference data from the preliminary reference data based on actual vehicle behavior such as a course change by steering or a gradient running, and outputs the reference data as matching partner candidates for the matching data. Note that such processing of the landscape matching unit 6 is performed by a reference data output unit 63 described later.

図8には、上述した誤差範囲と車両挙動とを用いて絞り込んで出力される参照データと、撮影画像から生成されるマッチング用データとの間で風景画像認識を行う風景マッチング部6に備えられた各機能部を説明するための機能ブロック図が示されている。風景マッチング部6は、車両挙動評価部61、誤差範囲算定部62、参照データ出力部63、マッチング実行部64、マッチング撮影位置取り出し部65を備えている。車両挙動評価部61は、車両挙動検知モジュール24から送られてくる車両挙動データを評価して、操舵角、車両傾斜角、加速度値などの実車両挙動を示す値を、参照データに関連付けられている記録車両挙動と比較可能な形式で記録した車両挙動評価情報を出力する。車両挙動評価部61は、車両挙動検知モジュール24から送られてくる車両挙動データを受け取って、他の機能部に転送する車両挙動取得部として機能するように構成してもよい。
誤差範囲算定部62は、推定自車位置を基準として推定自車位置の誤差を考慮して誤差範囲を算定する。参照データ出力部63は、車両挙動評価部61から送られてくる車両挙動評価情報に記録されている実車両挙動及び誤差範囲算定部62から送られてくる誤差範囲に基づいて、撮影画像処理部5によって生成されたマッチング用データのための適切なマッチング相手候補を抽出するための検索条件を作成する。さらに、参照データ出力部63は、この検索条件によって参照データDB92から引き出された参照データをマッチング実行部64に転送する。なお、参照データ出力部63は、誤差範囲に属する撮影位置を有すること及び所定許容範囲の車両挙動を有することをAND条件として前記参照データデータベースから参照データを前記マッチング相手候補として抽出するように構成してもよいし、誤差範囲に属する前記撮影位置を有することを検索条件として前記参照データデータベースから参照データを抽出し、抽出された前記参照データのうち所定許容範囲の車両挙動を有する参照データだけを前記マッチング相手候補として出力するように構成してもよい。マッチング実行部64は、抽出された参照データ列を順々にパターンとしてセットしながら、マッチング用データに対するパターンマッチングを行う。マッチング撮影位置取り出し部65は、マッチングが成功した場合、成功したマッチング相手としての参照画像に関係付けられている撮影位置(自車位置)を読み出して、これを高精度自車位置として自車位置決定部45に送り出す。
FIG. 8 includes a landscape matching unit 6 that performs landscape image recognition between reference data that is narrowed down and output using the above-described error range and vehicle behavior and matching data generated from a captured image. A functional block diagram for explaining each functional unit is shown. The landscape matching unit 6 includes a vehicle behavior evaluation unit 61, an error range calculation unit 62, a reference data output unit 63, a matching execution unit 64, and a matching photographing position extraction unit 65. The vehicle behavior evaluation unit 61 evaluates the vehicle behavior data sent from the vehicle behavior detection module 24, and values indicating actual vehicle behavior such as a steering angle, a vehicle inclination angle, and an acceleration value are associated with the reference data. The vehicle behavior evaluation information recorded in a format comparable to the recorded vehicle behavior is output. The vehicle behavior evaluation unit 61 may be configured to function as a vehicle behavior acquisition unit that receives the vehicle behavior data sent from the vehicle behavior detection module 24 and transfers it to other functional units.
The error range calculation unit 62 calculates the error range in consideration of the error of the estimated vehicle position with the estimated vehicle position as a reference. The reference data output unit 63 is based on the actual vehicle behavior recorded in the vehicle behavior evaluation information sent from the vehicle behavior evaluation unit 61 and the error range sent from the error range calculation unit 62. A search condition for extracting an appropriate matching partner candidate for the matching data generated by 5 is created. Further, the reference data output unit 63 transfers the reference data extracted from the reference data DB 92 according to this search condition to the matching execution unit 64. Note that the reference data output unit 63 is configured to extract reference data from the reference data database as the matching partner candidate using an AND condition that the photographing position belongs to the error range and the vehicle behavior has a predetermined allowable range. Alternatively, reference data is extracted from the reference data database using the imaging position belonging to the error range as a search condition, and only the reference data having a vehicle behavior within a predetermined allowable range among the extracted reference data. May be output as the matching partner candidate. The matching execution unit 64 performs pattern matching on the matching data while sequentially setting the extracted reference data string as a pattern. When the matching is successful, the matching photographing position extraction unit 65 reads out the photographing position (own vehicle position) related to the reference image as a successful matching partner, and uses this as a high-accuracy own vehicle position. Send to decision unit 45.

なお、誤差範囲に属する参照データから、推定自車位置での実車両挙動に類似するものだけに絞り込むという処理は、推定自車位置の信頼性が高いことが要求される。このため、推定自車位置に信頼度のような属性値がついている場合には、それを利用して、車両挙動による参照データの絞り込みを行うかどうかを決定するとよい。そのような属性値がない場合は、推定自車位置まで走行した道路の状況がスリップ誤差やコーナリング誤差が生じやすいと判断される場合、あるいはその他の要因で距離誤差が生じやすいと判断される場合には、車両挙動による参照データの絞り込みを行わないようにしてもよい。   In addition, the process of narrowing down to only those similar to the actual vehicle behavior at the estimated vehicle position from the reference data belonging to the error range is required to have high reliability of the estimated vehicle position. For this reason, when an attribute value such as reliability is attached to the estimated own vehicle position, it is preferable to determine whether or not to narrow down the reference data based on the vehicle behavior. When there is no such attribute value, when it is determined that the road traveling to the estimated vehicle position is prone to slip error or cornering error, or other factors are likely to cause distance error However, the reference data based on vehicle behavior may not be narrowed down.

上述した実施形態では、参照データDB92に格納されている参照データは、画像特徴点データ及び当該画像特徴点データに対応する撮影画像の撮影位置、及び撮影時の車両挙動を示す記録車両挙動を関係付けたものであったが、本発明では、参照データは、少なくとも画像特徴点データとその撮影位置とが関係付けられているだけでよい。道路地図DB91から読み出される地図データから、特定の車両挙動が生じる撮影位置を知ることが可能である。例えば、急カーブの手前では制動挙動が生じ、急カーブに入るとステアリング挙動が生じる。このように、地図データから読み取ることができる車両挙動可能性を利用して、参照データの絞り込みが可能となる。この場合、参照データ出力部63は、地図データに基づいて実車両挙動が生じる撮影位置範囲を求め、当該撮影位置範囲を用いて、推定自車位置の誤差範囲内を撮影位置とする予備参照データの中から参照データの絞り込みを行う。本発明の特徴は、実車両挙動を検知し、その実車両挙動によってマッチング相手となる参照データを絞り込むことである。   In the embodiment described above, the reference data stored in the reference data DB 92 relates the image feature point data, the shooting position of the shot image corresponding to the image feature point data, and the recorded vehicle behavior indicating the vehicle behavior at the time of shooting. However, in the present invention, the reference data need only relate at least the image feature point data and the shooting position thereof. From the map data read from the road map DB 91, it is possible to know the shooting position where a specific vehicle behavior occurs. For example, braking behavior occurs before a sharp curve, and steering behavior occurs when entering a sharp curve. In this way, the reference data can be narrowed down using the possibility of vehicle behavior that can be read from the map data. In this case, the reference data output unit 63 obtains a shooting position range where the actual vehicle behavior occurs based on the map data, and uses the shooting position range as a preliminary reference data with the error range of the estimated vehicle position as the shooting position. The reference data is narrowed down from the list. A feature of the present invention is that the actual vehicle behavior is detected and the reference data to be matched is narrowed down by the actual vehicle behavior.

上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われている。また、マッチング実行部64は、一般的なパターンマッチングのアルゴリズムを採用しているが、風景画像において重要度が高いコーナ点(2つの直線成分の交点としての交点エッジ点)の一致(マッチング)に他のエッジ点に比べて高い一致評価を与える重みつきパターンマッチングのアルゴリズムを採用してもよい。その際、参照データにコーナ点の座標値を示すコーナ属性値を付属させた形態で参照データDB92を構築するのが好ましいが、参照データが抽出される毎にコーナ点を検出するようにしてもよい。マッチング用データの方は、実撮影画像から生成される過程において、コーナ点に識別符号(ラベル)を付与しておくとよい。
上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われている。しかしながら、本発明は、画像特徴点としてそのようなエッジ点に限定されるわけではない。例えば、円や四角形など幾何学的形状を形成する代表的なエッジ点(円なら円周上の3点など)あるいは幾何学的形状の重心やその重心としての点なども、その風景によっては効果的な画像特徴点となるので、用いられる。また、エッジ強度も重要度を算定するための因子として採用することも好適であり、例えば強度の強いエッジからなる線分なら、その線分の始点と終点は重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体の端点なども重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点以外に、撮影画像を色相や彩度の変化として捉え、その変化の大きい点を画像特徴点として採用することも可能である。同様に色情報に基づくものとして色温度の高い物体の端点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴量データとの間の類似度判定、例えば、パターンマッチングにとって有効なものであれば、全て利用の対象となる。
In the above-described embodiment, the image feature point is an edge point obtained by edge detection processing, particularly a line segment edge constituting one line segment or an intersection point where such a line segment intersects, preferably approximately orthogonally. A corner edge is treated as an effective image feature point. Further, the matching execution unit 64 employs a general pattern matching algorithm. However, in the matching (matching) of corner points (intersection edge points as intersections of two linear components) having high importance in a landscape image. A weighted pattern matching algorithm that gives a higher matching evaluation than other edge points may be employed. At that time, it is preferable to construct the reference data DB 92 in a form in which corner attribute values indicating the coordinate values of the corner points are attached to the reference data. However, each time the reference data is extracted, the corner points may be detected. Good. The matching data may be given an identification code (label) to a corner point in the process of being generated from the actual captured image.
In the above-described embodiment, the image feature point is an edge point obtained by edge detection processing, particularly a line segment edge constituting one line segment or an intersection point where such a line segment intersects, preferably approximately orthogonally. A corner edge is treated as an effective image feature point. However, the present invention is not limited to such edge points as image feature points. For example, typical edge points that form geometric shapes such as circles and quadrilaterals (three points on the circumference if circles) or the center of gravity of a geometric shape and the point as the center of gravity are also effective depending on the landscape. It is used because it becomes a typical image feature point. It is also preferable to adopt edge strength as a factor for calculating importance. For example, if a line segment is a strong edge, the start point and end point of the line segment are treated as highly important image feature points. be able to. In addition, a specific point in a characteristic geometric shape, for example, an end point of a symmetrical object can be handled as a highly important image feature point.
Furthermore, in addition to the edge points obtained by the edge detection process, it is also possible to regard a captured image as a change in hue or saturation and to employ a point with a large change as an image feature point. Similarly, an end point of an object having a high color temperature can be handled as a highly important image feature point based on color information.
That is, the image feature points handled in the present invention are all used if they are effective for similarity determination between the reference data and the image feature amount data generated from the actual captured image, for example, pattern matching. It becomes.

上述した実施形態では、参照データDB92に格納される参照データには、撮影位置と撮影方位(カメラ光軸方位)が関係付けられていたが、それ以外に、上述した撮影状況情報、さらには撮影日時や撮影時天候なども、関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの作成時も、この参照データを用いての風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合では、撮影方位は不必要となる。
逆に、1つの基本的な撮影方位での参照データから撮影方位を適度にずらせた参照データを用意することができる場合では、方位センサなどの情報から算定された車両の走行方向に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。
本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景をとるカメラであってもよいし、さらには後方の風景を撮影するカメラであってよい。但し、後方の風景を撮影するリアカメラを利用すると、車両の走行ともに移動する特徴点の移動方向がフロントカメラの場合と逆となるので、特徴点が周辺に集中している場合には、基準点をオフセットする方向を後方ではなく前方とする。また特徴点が中央に集中している場合には、基準点をオフセットする方向を前方ではなく後方とする。つまり、フロントカメラでもリアカメラでも使用可能であるので、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されない。
In the above-described embodiment, the reference data stored in the reference data DB 92 is associated with the shooting position and the shooting direction (camera optical axis direction). The date and time and the weather at the time of shooting may also be related.
The photographing position may be two-dimensional data such as latitude / longitude data at least, but may be three-dimensional data in addition to height data.
Further, it is not essential to relate the shooting direction to the reference data. For example, when creating reference data and when recognizing a landscape image using this reference data, the shooting direction is not required if it is guaranteed that the road is shot with substantially the same shooting direction. It becomes.
Conversely, in the case where reference data in which the shooting direction is appropriately shifted from the reference data in one basic shooting direction can be prepared, based on the traveling direction of the vehicle calculated from information such as a direction sensor, It is also possible to set only the reference data suitable for the traveling direction as the object of landscape image recognition.
The on-vehicle camera handled in the present invention is most suitable for photographing a landscape in front of the vehicle traveling direction. However, the camera may be a camera that takes a landscape oblique to the front, or may be a camera that captures a landscape behind. However, if you use a rear camera that captures the landscape behind, the moving direction of the feature points that move as the vehicle travels is the opposite of that of the front camera, so if the feature points are concentrated in the vicinity, The direction in which the points are offset is not the rear but the front. When the feature points are concentrated in the center, the direction in which the reference point is offset is set to the rear rather than the front. That is, since it can be used with either a front camera or a rear camera, a captured image handled in the present invention is not limited to a photograph of a front landscape in the vehicle traveling direction.

上述した実施形態の説明に用いられた機能ブロック図で区分けされた示された機能部はわかりやすい説明を目的としており、ここで示された区分けに本発明は限定されているわけではなく、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である   The functional units shown in the functional block diagrams used in the description of the above-described embodiments are for easy understanding, and the present invention is not limited to the divisions shown here. It is possible to freely combine function parts or further divide one function part

本発明の画像処理システムは、カーナビゲーションのみならず、風景画像認識によって現在位置や方位を測位する技術分野に適用可能である。   The image processing system of the present invention can be applied not only to car navigation but also to a technical field that measures the current position and orientation by landscape image recognition.

3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:撮影画像処理部
51:データ入力部
52:特徴点抽出部
53:特徴点重要度決定部
54:重み付け部
55:調整係数設定部
56:画像特徴点データ生成部
57:参照データデータベース化部
6:風景マッチング部
61:車両挙動評価部
62:誤差範囲修正部
63:参照データ出力部
64:マッチング実行部
65:マッチング撮影位置取り出し部
14:カメラ
91:道路地図DB(道路地図データベース)
92:参照データDB(参照データデータベース)
3: navigation control module 4: own vehicle position detection module 41: GPS processing unit 42: dead reckoning processing unit 43: own vehicle position coordinate calculation unit 44: map matching unit 45: own vehicle position determination unit 5: captured image processing unit 51 : Data input unit 52: feature point extraction unit 53: feature point importance determination unit 54: weighting unit 55: adjustment coefficient setting unit 56: image feature point data generation unit 57: reference data database creation unit 6: landscape matching unit 61: Vehicle behavior evaluation unit 62: error range correction unit 63: reference data output unit 64: matching execution unit 65: matching shooting position extraction unit 14: camera 91: road map DB (road map database)
92: Reference data DB (reference data database)

Claims (3)

車両からの風景を撮影した撮影画像から画像特徴点を抽出することによって生成された画像特徴点データ及び当該画像特徴点データに対応する撮影画像の撮影位置を関係付けた参照データを格納している参照データデータベースと、
車載カメラによる風景の実撮影画像を入力して当該実撮影画像から画像特徴点を抽出することによって生成されたマッチング用データを出力する撮影画像処理部と、
前記車両の車両挙動である実車両挙動を示す車両挙動データを取得する車両挙動取得部と、
前記車両の推定自車位置を抽出条件として前記参照データデータベースから前記推定自車位置の周辺を撮影位置とする予備参照データを抽出し、前記実車両挙動に基づいて前記予備参照データの中から参照データを絞り込み、前記マッチング用データに対するマッチング相手候補として出力する参照データ出力部と、
出力された前記参照データと前記マッチング用データとのマッチングを行うマッチング実行部と、
前記マッチングに成功した前記参照データに関係付けられた前記撮影位置に基づいて自車位置を決定する自車位置決定部とを備えている、風景画像認識を用いた自車位置検出システム。
Stores image feature point data generated by extracting image feature points from a photographed image obtained by photographing a landscape from a vehicle, and reference data relating the photographing positions of photographed images corresponding to the image feature point data. A reference data database;
A captured image processing unit that outputs a matching image generated by inputting an actual captured image of a landscape by an in-vehicle camera and extracting image feature points from the actual captured image;
A vehicle behavior acquisition unit that acquires vehicle behavior data indicating actual vehicle behavior that is the vehicle behavior of the vehicle;
Using the estimated vehicle position of the vehicle as an extraction condition, preliminary reference data in which the periphery of the estimated vehicle position is a shooting position is extracted from the reference data database, and is referenced from the preliminary reference data based on the actual vehicle behavior A reference data output unit that narrows down the data and outputs it as a matching partner candidate for the matching data;
A matching execution unit that performs matching between the output reference data and the matching data;
A vehicle position detection system using landscape image recognition, comprising: a vehicle position determination unit that determines a vehicle position based on the photographing position related to the reference data that has been successfully matched.
前記参照データ出力部は、地図データに基づいて前記実車両挙動が生じる撮影位置範囲を求め、当該撮影位置範囲を用いて前記予備参照データの中から前記参照データの絞り込みを行う請求項1に記載の自車位置検出システム。   The reference data output unit obtains a shooting position range in which the actual vehicle behavior occurs based on map data, and narrows down the reference data from the preliminary reference data using the shooting position range. Vehicle position detection system. 前記車両挙動は、前記車両が走行する特定の道路状況に起因する車両挙動である請求項1または2に記載の自車位置検出システム。   The host vehicle position detection system according to claim 1, wherein the vehicle behavior is a vehicle behavior caused by a specific road condition on which the vehicle travels.
JP2010084628A 2010-03-31 2010-03-31 Vehicle position detection system using landscape image recognition Expired - Fee Related JP5333862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010084628A JP5333862B2 (en) 2010-03-31 2010-03-31 Vehicle position detection system using landscape image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084628A JP5333862B2 (en) 2010-03-31 2010-03-31 Vehicle position detection system using landscape image recognition

Publications (2)

Publication Number Publication Date
JP2011215055A JP2011215055A (en) 2011-10-27
JP5333862B2 true JP5333862B2 (en) 2013-11-06

Family

ID=44944934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084628A Expired - Fee Related JP5333862B2 (en) 2010-03-31 2010-03-31 Vehicle position detection system using landscape image recognition

Country Status (1)

Country Link
JP (1) JP5333862B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867176B2 (en) * 2012-03-06 2016-02-24 日産自動車株式会社 Moving object position and orientation estimation apparatus and method
CN102997910B (en) * 2012-10-31 2016-04-13 上海交通大学 A kind of based on road of ground surface target location guidance system and method
JP2015225450A (en) 2014-05-27 2015-12-14 村田機械株式会社 Autonomous traveling vehicle, and object recognition method in autonomous traveling vehicle
JP2016080460A (en) * 2014-10-15 2016-05-16 シャープ株式会社 Moving body
JP6380936B2 (en) * 2015-03-30 2018-08-29 シャープ株式会社 Mobile body and system
CA3031723C (en) 2016-07-26 2020-06-23 Nissan Motor Co., Ltd. Self-position estimation method and self-position estimation device
JP6760114B2 (en) 2017-01-31 2020-09-23 富士通株式会社 Information processing equipment, data management equipment, data management systems, methods, and programs
JP2020060500A (en) * 2018-10-12 2020-04-16 パイオニア株式会社 Information processing device
JP7254671B2 (en) * 2019-09-27 2023-04-10 株式会社ゼンリンデータコム Self-position estimation device, method for estimating self-position, and computer program
CN115516337A (en) 2019-10-21 2022-12-23 派珀网络公司 Traffic localization system and method using LIDAR
WO2022196069A1 (en) * 2021-03-15 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (en) * 1995-03-15 1996-09-27 Toshiba Corp Device and method for identification of self position of moving body
JP4273119B2 (en) * 2003-10-21 2009-06-03 和郎 岩根 Navigation device
JP4277717B2 (en) * 2004-03-17 2009-06-10 株式会社日立製作所 Vehicle position estimation device and driving support device using the same
JP4612678B2 (en) * 2005-03-31 2011-01-12 パイオニア株式会社 Route guidance device, route guidance method, route guidance program, and recording medium
JP4847090B2 (en) * 2005-10-14 2011-12-28 クラリオン株式会社 Position positioning device and position positioning method
JP4981601B2 (en) * 2007-09-21 2012-07-25 クラリオン株式会社 Own vehicle position calculation device, own vehicle position calculation method, and own vehicle position calculation program
JP2009250718A (en) * 2008-04-03 2009-10-29 Nissan Motor Co Ltd Vehicle position detecting apparatus and vehicle position detection method

Also Published As

Publication number Publication date
JP2011215055A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
JP5062497B2 (en) Vehicle position detection system using landscape image recognition
JP5333862B2 (en) Vehicle position detection system using landscape image recognition
JP5168601B2 (en) Own vehicle position recognition system
JP5057184B2 (en) Image processing system and vehicle control system
JP5435306B2 (en) Image processing system and positioning system
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP5057183B2 (en) Reference data generation system and position positioning system for landscape matching
JP5505723B2 (en) Image processing system and positioning system
JP5333860B2 (en) Vehicle position detection system using landscape image recognition
JP5182594B2 (en) Image processing system
JP5333861B2 (en) Vehicle position detection system using landscape image recognition
JP5177579B2 (en) Image processing system and positioning system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130717

R150 Certificate of patent or registration of utility model

Ref document number: 5333862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees