JP2011215974A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2011215974A
JP2011215974A JP2010084691A JP2010084691A JP2011215974A JP 2011215974 A JP2011215974 A JP 2011215974A JP 2010084691 A JP2010084691 A JP 2010084691A JP 2010084691 A JP2010084691 A JP 2010084691A JP 2011215974 A JP2011215974 A JP 2011215974A
Authority
JP
Japan
Prior art keywords
image
feature
feature point
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010084691A
Other languages
Japanese (ja)
Other versions
JP5182594B2 (en
Inventor
Takayuki Miyajima
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010084691A priority Critical patent/JP5182594B2/en
Publication of JP2011215974A publication Critical patent/JP2011215974A/en
Application granted granted Critical
Publication of JP5182594B2 publication Critical patent/JP5182594B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system suitable for creation of effective image data for reference since the creation of the effective image data for reference to be used for a scene image recognition technology becomes significant.SOLUTION: The image processing system recognizes, from a captured image of a scene viewed from a vehicle, a recognizable thing in the captured image as a feature object, and extracts one or more representative image feature points specifying the feature object, and generates feature point data including feature point position information indicating the position of the representative image feature point in the captured image and attribute information indicating object attributes as the attributes of the feature object. Furthermore, this system generates reference data for scene image matching by associating the image-capturing position with the feature point data.

Description

本発明は、画像処理システム、特にカーナビゲーション装置における画像マッチングを用いた自車位置決定に適した参照データを生成する画像処理システムに関する。   The present invention relates to an image processing system, and more particularly to an image processing system that generates reference data suitable for vehicle position determination using image matching in a car navigation apparatus.

従来から、カーナビゲーション装置では、車両の現在位置を算出する方法として、ジャイロや地磁気センサ等のセンサから取得した情報を利用する方法(自律航法)、GPS衛星からの信号を利用する方法、あるいは自律航法とGPSとを組合せる方法が採用されている。さらに、高精度に現在位置を算出するために、GPS衛星からの信号等を利用して暫定的な現在位置を求めておいて、撮影された車両前方の画像を用いて、暫定現在位置を基準にした座標系(自動車座標系)における道路標示の特徴点の座標(自動車座標系特徴点)を算出し、算出した自動車座標系特徴点と記憶している道路標示の特徴点の座標(ワールド座標系で示した座標)とを用いて、車両の現在位置を算出するように構成された位置測位装置が知られている(例えば、特許文献1参照)。この装置では、測位衛星からの信号および各種センサからの信号による測位では誤差を含んでしまう場合であっても、精度の高い現在位置を算出することが可能となる。   Conventionally, in a car navigation apparatus, as a method of calculating the current position of a vehicle, a method using information acquired from a sensor such as a gyroscope or a geomagnetic sensor (autonomous navigation), a method using a signal from a GPS satellite, or an autonomous vehicle A method of combining navigation and GPS is adopted. Furthermore, in order to calculate the current position with high accuracy, the provisional current position is obtained using a signal from a GPS satellite, etc., and the provisional current position is used as a reference using the captured image in front of the vehicle. The coordinates of the feature points of the road markings (automotive coordinate system feature points) in the coordinate system (car coordinate system) are calculated, and the coordinates of the calculated feature points of the car coordinate system and the stored road marking feature points (world coordinates) There is known a position positioning device configured to calculate the current position of a vehicle using coordinates indicated by a system) (see, for example, Patent Document 1). In this apparatus, even if positioning based on signals from positioning satellites and signals from various sensors includes an error, it is possible to calculate a current position with high accuracy.

特開2007−208043号公報(段落番号0009−0013、図1)JP 2007-208043 (paragraph number 0009-0013, FIG. 1)

しかし、上記特許文献1による位置測位装置では、道路上の道路標示の特徴点の空間座標をステレオ画像から求め、道路標示情報データベースに収められたその特徴点を有する道路標示の緯度・経度によって求められた座標を用いて自車位置を算出するので、道路標示のない場所では利用できない。また、画像処理によって認識された特徴点の空間座標を演算する必要があるので、装置には高い演算能力が要求され、コストアップの要因となる。   However, in the positioning device according to Patent Document 1, the spatial coordinates of the feature points of the road marking on the road are obtained from the stereo image, and are obtained from the latitude / longitude of the road marking having the feature point stored in the road marking information database. Since the vehicle position is calculated using the coordinates obtained, it cannot be used in a place where there is no road marking. Further, since it is necessary to calculate the spatial coordinates of the feature points recognized by the image processing, the apparatus is required to have a high calculation capability, which causes a cost increase.

そこで、道路標識のない道路や特定敷地内においても利用できるとともに、各特徴点の空間座標を位置算出毎に演算しなくてもよい位置決めとして風景画像認識技術の利用が考えられる。その際、風景画像認識技術に利用される効果的な参照用画像データの作成が重要となるので、そのような効果的な参照用画像データの作成に適した画像処理システムの実現が望まれる。   Therefore, it is possible to use the landscape image recognition technique as a positioning that can be used on a road without a road sign or in a specific site, and does not have to calculate the spatial coordinates of each feature point for each position calculation. At that time, since it is important to create effective reference image data used in landscape image recognition technology, it is desired to realize an image processing system suitable for creating such effective reference image data.

上記課題を解決するための本発明に係る、車両からの風景を撮影した撮影画像に基づいて風景画像マッチングを行う際に利用される参照データを作成する画像処理システムの特徴構成は、前記撮影画像と当該撮影画像の撮影位置とを入力するデータ入力部と、入力された前記撮影画像から当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する特徴オブジェクト認識部と、各前記特徴オブジェクトから当該特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点を抽出する代表特徴点抽出部と、各前記特徴オブジェクトの属性であるオブジェクト属性を分類判定する属性判定部と、前記撮像画像内における前記代表画像特徴点の位置を表す特徴点位置情報と、当該代表画像特徴点が属する特徴オブジェクトのオブジェクト属性を表す属性情報とを含む特徴点データを生成する特徴点データ生成部と、前記特徴点データに前記撮影位置を関連付けて、前記参照データを生成する参照データ生成部とを備える点にある。   According to the present invention for solving the above-described problems, the characteristic configuration of an image processing system for creating reference data used when performing landscape image matching based on a captured image obtained by capturing a landscape from a vehicle is the captured image. And a data input unit for inputting a shooting position of the shot image, a feature object recognition unit for recognizing an identifiable thing in the shot image from the input shot image as a feature object, and the feature object from each of the feature objects A representative feature point extraction unit that extracts one or more representative image feature points that define a feature object, an attribute determination unit that classifies and determines an object attribute that is an attribute of each feature object, and Feature point position information indicating the position of the representative image feature point, and an object object to which the representative image feature point belongs. A feature point data generating unit that generates feature point data including attribute information that represents the object attribute; and a reference data generating unit that associates the shooting position with the feature point data and generates the reference data. .

風景画像のような単純ではない構図をもつ場合、通常行われているような、参照データとマッチング用データとの間の互いの画素点を比較するようなマッチング処理では処理量が膨大になる。しかしながら、上記構成によれば、識別可能に認識される特徴オブジェクトという概念を導入することで、その特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点と、その特徴オブジェクトの属性を表す属性情報とからなる特徴点データを参照データとして利用することが可能となる。マッチング対象となるのが少ない数の代表画像特徴点となることからその演算負荷が減少することはもちろんであるが、マッチング対象が僅かな数の代表画像特徴点であっても、属性情報から決定される特徴オブジェクトに鑑みて、その代表画像特徴点が有意なものであるため、十分なマッチング精度が確保できる。その結果、このようにして生成される参照データを用いることで、撮影位置の特定、つまり自車位置の特定のための風景画像マッチング処理を効率よく行うことができる。   In the case of a non-simple composition such as a landscape image, the amount of processing becomes enormous in a matching process that compares pixel points between reference data and matching data as is normally done. However, according to the above configuration, by introducing the concept of a feature object that is identifiably recognized, one or more representative image feature points that define the feature object, and the attributes of the feature object are represented. Feature point data including attribute information can be used as reference data. The number of representative image feature points to be matched is a small number of representative image feature points, so that the calculation load is reduced. Of course, even if the matching target is a small number of representative image feature points, it is determined from the attribute information. In view of the feature object to be displayed, the representative image feature point is significant, so that sufficient matching accuracy can be ensured. As a result, by using the reference data generated in this way, it is possible to efficiently perform landscape image matching processing for specifying the shooting position, that is, specifying the vehicle position.

風景を被写体とする撮影画像においては、同じ種類の特徴オブジェクトが複数含まれることがあるので、これらの特徴オブジェクトを明確に区別する必要がある。このため、オブジェクト属性を定義する識別データの中に、認識された特徴オブジェクトが他の特徴オブジェクトと混同しないように、同じ種類の特徴オブジェクトを区別するための何らかの情報が必要となる。この目的のため、前記属性情報が判定された前記オブジェクト属性毎に割り当てられる識別データを含み、前記識別データは他の特徴オブジェクトと区別するための識別コードを含むように構成すると好適である。   Since a captured image with a landscape as a subject may include a plurality of feature objects of the same type, it is necessary to clearly distinguish these feature objects. For this reason, some information for distinguishing the same type of feature objects is necessary in the identification data defining the object attributes so that the recognized feature objects are not confused with other feature objects. For this purpose, it is preferable that the attribute information includes identification data assigned to each determined object attribute, and the identification data includes an identification code for distinguishing from other characteristic objects.

特徴オブジェクトとして、少ない代表画像特徴点で明確に定義でき、データ処理しやすいものが好適である。従って、本発明の好適な実施形態の1つでは、前記特徴オブジェクトは幾何形状であり、前記オブジェクト属性は幾何形状を特定するものとしている。例えば、撮影画像から円や四角形といった面積を有するものや交差する直線などは比較的認識しやすく、その定義式が簡単なためデータ処理的にも取り扱いが便利である。風景画像を幾何形状で置き換えることで、風景画像マッチング処理の効率化が実現する。その際、認識された幾何形状が特定輪郭線を有する特定幾何形状である場合、当該輪郭線上に位置する幾何学的特徴点を前記代表画像特徴点とし、前記代表画像特徴点の前記撮影画像上の座標値を前記特徴点位置情報とすると、マッチング処理が容易となり、好都合である。   A feature object that can be clearly defined with a small number of representative image feature points and is easy to process data is suitable. Therefore, in one preferred embodiment of the present invention, the feature object is a geometric shape, and the object attribute specifies a geometric shape. For example, a photographed image having an area such as a circle or a rectangle or a straight line intersecting with each other is relatively easy to recognize, and its definition formula is simple, so that it is easy to handle in terms of data processing. By replacing the landscape image with a geometric shape, the efficiency of the landscape image matching process is realized. At this time, when the recognized geometric shape is a specific geometric shape having a specific contour line, a geometric feature point located on the contour line is set as the representative image feature point, and the representative image feature point on the captured image is displayed. If the coordinate value is used as the feature point position information, the matching process is facilitated, which is convenient.

走行する車両から撮影された風景画像から、マッチング処理に適した特徴オブジェクトや適していない特徴オブジェクトが認識される可能性がある。例えば、同じような画像パターンであるセンターラインなどはマッチング処理には適していない。また車両周辺の自動車などの移動物体などもマッチング処理には適していない。また、車両が走行しているエリア、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどによって、重要な代表オブジェクトが認識される撮影画像上の位置は異なる。このことから、そのような状況を規定した撮影状況情報などが取得できる場合、その撮影状況情報に応じて特徴オブジェクトを抽出するやり方を変えることが望ましい。従って、本発明の好適な実施形態の1つでは、前記撮影画像に特定被写体が含まれている可能性を表す撮影状況情報が入力され、当該撮影状況情報に基づいて前記撮影画像から前記特徴オブジェクトが抽出される抽出領域といった抽出条件が変更されるように構成されている。   There is a possibility that a feature object suitable for matching processing or a feature object unsuitable for matching processing may be recognized from a landscape image taken from a traveling vehicle. For example, a center line having a similar image pattern is not suitable for the matching process. Also, moving objects such as automobiles around the vehicle are not suitable for the matching process. Further, the position on the captured image where an important representative object is recognized differs depending on the area where the vehicle is traveling, for example, a mountain area, a suburb area, an urban area, a high-rise city area, or the like. Therefore, when shooting situation information that defines such a situation can be acquired, it is desirable to change the manner in which the feature object is extracted according to the shooting situation information. Accordingly, in one preferred embodiment of the present invention, shooting situation information indicating the possibility that a specific subject is included in the shot image is input, and the feature object is extracted from the shot image based on the shooting situation information. The extraction condition such as the extraction region from which is extracted is changed.

また、代表特徴点の元になる画像特徴点は、画像の上にある点で安定して検出できるものが好ましいので、一般にはエッジ検出フィルタなどを用いて得られるエッジ画像を構成するエッジ点を用いるとよい。このため、本発明の好適な実施形態の1つでは、前記撮影画像からの前記特徴オブジェクトの抽出は、前記撮影画像にエッジ検出処理を施すことで得られたエッジ画像を通じて行われるように構成されている。   In addition, it is preferable that the image feature point that is the basis of the representative feature point is one that can be stably detected at a point on the image. Therefore, in general, edge points that constitute an edge image obtained by using an edge detection filter or the like are used. Use it. Therefore, in a preferred embodiment of the present invention, the feature object is extracted from the captured image through an edge image obtained by performing edge detection processing on the captured image. ing.

さらに、本発明は、上述した風景マッチング用参照データ生成システムによって作成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムも権利範囲としている。そのようなる位置測位システムは、前記参照データを格納している参照データデータベースと、車両からの風景を撮影した実撮影画像を入力するデータ入力部と、入力された前記実撮影画像から当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する特徴オブジェクト認識部と、各前記特徴オブジェクトから当該特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点を抽出する代表特徴点抽出部と、各前記特徴オブジェクトの属性であるオブジェクト属性を分類判定する属性判定部と、前記実撮像画像内における前記代表画像特徴点の位置を表す特徴点位置情報と、当該代表画像特徴点が属する特徴オブジェクトのオブジェクト属性を表す属性情報とを含む特徴点データをマッチング用データとして生成する特徴点データ生成部と、前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えている。この位置測位システムでは、上述したように、風景画像マッチングに効果的な参照データを用いているので、良好に自車位置を決定することができる。   Furthermore, the present invention also includes a position positioning system that determines the position of the vehicle through matching processing using reference data created by the above-described landscape matching reference data generation system. Such a positioning system includes a reference data database storing the reference data, a data input unit for inputting an actual captured image obtained by capturing a landscape from a vehicle, and the captured image from the input actual captured image. A feature object recognition unit for recognizing an identifiable thing as a feature object, a representative feature point extraction unit for extracting one or more representative image feature points defining the feature object from each of the feature objects, An attribute determination unit that classifies and determines an object attribute that is an attribute of each feature object, feature point position information that represents the position of the representative image feature point in the actual captured image, and a feature object to which the representative image feature point belongs Generate feature point data including attribute information representing object attributes as matching data In addition to matching the reference data extracted from the reference data database and the matching data, the vehicle data position is determined based on the shooting position related to the reference data that has been successfully matched. And a landscape matching section. In this position positioning system, as described above, reference data effective for landscape image matching is used, so that the vehicle position can be determined satisfactorily.

また、このような自車位置の決定に関して、更に好適な実施形態の1つでは、前記風景マッチング部は、前記参照データに含まれる異なる複数の前記特徴オブジェクトのそれぞれから前記代表画像特徴点を選択し、選択された複数の代表画像特徴点のそれぞれの特徴点位置情報を読み出すとともに、前記実撮像画像内における対応する複数の代表画像特徴点を抽出し、前記参照データの前記複数の代表画像特徴点の位置関係と、前記実撮像画像から抽出された対応する前記複数の代表画像特徴点の位置関係と、に基づいて自車位置を決定する。この構成によれば、参照データの前記複数の代表画像特徴点の位置関係と、前記実撮像画像から抽出された対応する前記複数の代表画像特徴点の位置関係と、に基づいて、参照データの元となった撮影画像の撮影位置及び方位と、実撮像画像の撮影位置及び方位とのずれも算出することが可能となるので、より高精度な自車位置の決定を行うことができる。   In addition, regarding the determination of the vehicle position, in one of the more preferable embodiments, the landscape matching unit selects the representative image feature point from each of a plurality of different feature objects included in the reference data. The feature point position information of each of the selected representative image feature points is read out, and the corresponding representative image feature points in the actual captured image are extracted, and the plurality of representative image features of the reference data are extracted. The vehicle position is determined based on the positional relationship between the points and the positional relationship between the corresponding representative image feature points extracted from the actual captured image. According to this configuration, based on the positional relationship between the plurality of representative image feature points in the reference data and the positional relationship between the corresponding representative image feature points extracted from the actual captured image, the reference data Since it is possible to calculate the difference between the shooting position and orientation of the original captured image and the shooting position and orientation of the actual captured image, it is possible to determine the position of the vehicle with higher accuracy.

本発明による画像処理システムによる参照データの作成と、その参照データを用いたマッチング処理を通じて自車位置を決定する位置測位技術の基本概念を説明する模式図である。It is a schematic diagram explaining the basic concept of the positioning technology which determines the own vehicle position through preparation of the reference data by the image processing system by this invention, and the matching process using the reference data. 本発明による画像処理システムの主な機能を示す機能ブロック図である。It is a functional block diagram which shows the main functions of the image processing system by this invention. 特徴点抽出部の主な処理機能と処理の流れを示す模式図である。It is a schematic diagram which shows the main processing functions and the flow of a process of a feature point extraction part. 撮影画像からエッジ点データを生成する過程を模式的に示す模式図である。It is a schematic diagram which shows typically the process of producing | generating edge point data from a picked-up image. 画像処理システムにおけるエッジ点データから参照データを生成する過程を示す模式図である。It is a schematic diagram which shows the process which produces | generates reference data from the edge point data in an image processing system. 本発明による画像処理システムで作成された参照データで構築されている参照データDBを用いたカーナビゲーションシステムの機能ブロックである。It is a functional block of a car navigation system using a reference data DB constructed by reference data created by an image processing system according to the present invention.

以下、図面を用いて本発明を詳しく説明する。図1は、風景画像マッチングを通じて自車位置を決定する位置測位技術の基本概念を模式的に示している。
風景画像マッチングに利用される参照データデータベース92(以下単に参照データDBと略称する)は本発明による画像処理システムによって生成される参照データをデータベース化することで構築することができる。以下に、この構築手順を説明する。図1に示すように、走行途中における車両からの風景を撮影した撮影画像とその撮影時の撮影位置(実質的には自車位置である)が入力され、ワーキングメモリに一時格納される(#01)。次に、ワーキングメモリに展開された撮影画像から画像特徴を抽出し、そのような画像特徴から当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する(#02)。この画像特徴はその特徴抽出の方法によって画像特徴点群で表されるもの、線群で表されるもの、エリアで表されるものなど様々であるが、代表的なものは撮影画像から輪郭だけを抽出したものであり、その抽出結果は、画像特徴点ないしは画像特徴点の集まりとしての特徴線群で表される。この場合は、認識される特徴オブジェクトは、点や線で規定される幾何形状体とすることが好適である。
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 schematically shows a basic concept of a position positioning technique for determining a vehicle position through landscape image matching.
A reference data database 92 (hereinafter simply referred to as “reference data DB”) used for landscape image matching can be constructed by creating a database of reference data generated by the image processing system according to the present invention. The construction procedure will be described below. As shown in FIG. 1, a photographed image obtained by photographing a landscape from a vehicle during traveling and a photographing position at the time of photographing (substantially the own vehicle position) are input and temporarily stored in a working memory (# 01). Next, an image feature is extracted from the photographed image developed in the working memory, and an identifiable thing in the photographed image is recognized as a feature object from such an image feature (# 02). These image features vary depending on the feature extraction method, such as those represented by image feature points, those represented by lines, and those represented by areas. The extraction result is represented by image feature points or feature line groups as a collection of image feature points. In this case, it is preferable that the feature object to be recognized is a geometric shape body defined by points or lines.

次いで、認識された特徴オブジェクトから当該特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点を抽出する(#03)。この代表特徴点は、特徴オブジェクトが幾何形状とすれば、その幾何形状を規定する画像特徴点である。例えば、四角形なら、その4つのコーナ点が代表画像特徴点となる。代表画像特徴点が決まると、その代表画像特徴点によって規定される幾何形状の種類などのオブジェクト属性(属性情報)が分類判定され、その代表画像特徴点の座標位置(特徴点位置情報)と組み合わされる(#04)。さらに、1枚の撮影画像中で認識された各特徴点位置情報と属性情報とからなる特徴オブジェクトの全てを表現した特徴点データが生成される(#05)。このようにして生成された特徴点データは撮影位置と関連(リンク)付けられて、風景画像マッチングの参照データとなる(#06)。さらに参照データは、撮影位置を検索条件として検索抽出可能なようにデータベース化され、風景画像マッチングでのパターンマッチングのパターンとして利用されるべく参照データDB92に格納される(#07)。   Next, one or more representative image feature points that define the feature object are extracted from the recognized feature object (# 03). This representative feature point is an image feature point that defines a geometric shape if the feature object has a geometric shape. For example, in the case of a square, the four corner points are representative image feature points. When a representative image feature point is determined, an object attribute (attribute information) such as the type of geometric shape defined by the representative image feature point is classified and determined and combined with the coordinate position (feature point position information) of the representative image feature point. (# 04). Further, feature point data expressing all the feature objects composed of the feature point position information and the attribute information recognized in one photographed image is generated (# 05). The feature point data generated in this way is associated (linked) with the shooting position and becomes reference data for landscape image matching (# 06). Furthermore, the reference data is stored in the reference data DB 92 so as to be used as a pattern matching pattern in landscape image matching so that it can be searched and extracted using the shooting position as a search condition (# 07).

次に、上述したような手順で構築された参照データDB92を用いて、実際の車両走行時にその車両の位置(自車位置)を決定する手順を説明する。図1に示すように、車載カメラで風景を撮影して得られた実撮影画像と、参照データDB92から参照データを抽出するために用いられる、その撮影位置と撮影方位が入力される(#11)。ここでの撮影位置は、GPS測定ユニットなどを用いて推定された推定自車位置である。入力された撮影画像から、上記ステップ#02〜#05の処理手順を経て特徴点データであるマッチング用データが生成される(#12)。さらに、入力された撮影位置(推定自車位置)を検索条件として、該当する撮影位置の参照データ及びその撮影位置(推定自車位置)の前後の参照データがマッチング候補参照データとして抽出される(#13)。   Next, a procedure for determining the position of the vehicle (vehicle position) during actual vehicle travel using the reference data DB 92 constructed in the above-described procedure will be described. As shown in FIG. 1, an actual captured image obtained by capturing a landscape with an in-vehicle camera, and an imaging position and an imaging direction used for extracting reference data from the reference data DB 92 are input (# 11). ). The photographing position here is an estimated own vehicle position estimated using a GPS measurement unit or the like. From the input photographed image, matching data, which is feature point data, is generated through the processing steps of steps # 02 to # 05 (# 12). Further, using the input shooting position (estimated vehicle position) as a search condition, reference data of the corresponding shooting position and reference data before and after the shooting position (estimated vehicle position) are extracted as matching candidate reference data ( # 13).

抽出されたマッチング候補参照データセットから1つずつ参照データをマッチング用パターンとして設定し、現時点で生成されたマッチング用データとの間のパターンマッチング処理が風景画像認識として実行される(#14)。マッチングが成功すれば、その対象となった参照データに関係付けられた撮影位置が読み出され(#15)、この撮影位置が推定自車位置に代わる正式な自車位置として決定される(#16)。   Reference data is set as a matching pattern one by one from the extracted matching candidate reference data sets, and pattern matching processing with the matching data generated at the present time is executed as landscape image recognition (# 14). If the matching is successful, the shooting position associated with the reference data that is the target is read (# 15), and this shooting position is determined as the official vehicle position that replaces the estimated vehicle position (#). 16).

次に、上述した自車位置測位技術の基本概念に基づいて撮影画像から参照データを作り出す、本発明による画像処理システムの一例を図2の機能ブロック図を用いて説明する。この画像処理システムは、データ入力部51、特徴点抽出部60、特徴オブジェクト認識部52、属性判定部53、代表特徴点抽出部54、属性情報生成部55、特徴点データ生成部56、参照データ生成部57を備えている。それらの各機能はハードウエアまたはソフトウエアあるいはその組み合わせで作り出すことができる。
データ入力部51は、参照データの作成目的で走行している車両からの風景を撮影した撮影画像と当該撮影画像の撮影位置とを入力する。特徴点抽出部60は、風景画像認識に適した画像特徴を撮影画像から抽出して、所定の画像特徴を示している画素または画素群を画像特徴点とする。この実施形態では、撮影画像にエッジ検出処理を施すことで得られたエッジ画像に基づいて取り出されるエッジ点が画像特徴点である。個々では、元となる撮影画像はRGB画像であり、輝度差(濃度差)によって輪郭が検知されているが、これに代えて、彩度差や色相差によって輪郭が検知されるような方法を採用してもよい。抽出条件調整部60Aは、風景マッチングに不適な画像特定点が最終的に残らないようにするためも、その抽出に制限、例えばエリア制限を行う。
Next, an example of an image processing system according to the present invention that creates reference data from a captured image based on the basic concept of the vehicle position measurement technique described above will be described with reference to the functional block diagram of FIG. This image processing system includes a data input unit 51, a feature point extraction unit 60, a feature object recognition unit 52, an attribute determination unit 53, a representative feature point extraction unit 54, an attribute information generation unit 55, a feature point data generation unit 56, and reference data. A generation unit 57 is provided. Each of these functions can be created in hardware or software or a combination thereof.
The data input unit 51 inputs a photographed image obtained by photographing a landscape from a vehicle traveling for the purpose of creating reference data and a photographing position of the photographed image. The feature point extraction unit 60 extracts an image feature suitable for landscape image recognition from a captured image, and sets a pixel or a pixel group indicating a predetermined image feature as an image feature point. In this embodiment, an edge point extracted based on an edge image obtained by performing edge detection processing on a captured image is an image feature point. Individually, the original photographed image is an RGB image, and the contour is detected by a luminance difference (density difference). Instead, a method in which the contour is detected by a saturation difference or a hue difference is used. It may be adopted. The extraction condition adjusting unit 60A limits the extraction, for example, area limitation, so that image specific points unsuitable for landscape matching do not remain in the end.

特徴オブジェクト認識部52は、撮影画像における画像特徴が示された画像から、当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する機能を有し、ここでは特徴オブジェクトは、幾何形状とされている。ここで特徴オブジェクトとして認識される幾何形状としては、交点を有する2つ以上の直線、円、四角形、三角形などの基本的な幾何形状が取り扱われている。属性判定部53は、特徴オブジェクト部52で認識された幾何形状に対して他の機能部で利用できるように特徴オブジェクトの属性であるオブジェクト属性(上述した直線、円、四角形など)を分類判定する。代表特徴点抽出部54は、属性判定部53による分類判定結果に基づいて、各特徴オブジェクトを規定する1つまたは2つ以上の画像特徴点を代表画像特徴点として抽出する。例えば、四角形なら、4つのコーナ点である。属性情報生成部55は、属性判定部53による分類判定結果及び、代表特徴点抽出部54による抽出された代表特徴点の座標値などを含むオブジェクト属性を属性データ化して属性情報を生成する。特徴点データ生成部56は、代表画像特徴点の位置を表す特徴点位置情報と、当該代表画像特徴点によって規定される特徴オブジェクトの属性情報とを含む特徴点データを生成する。参照データ生成部57は、特徴点データ生成部56によって生成された特徴点データに撮影位置(自車位置)を関連付けて、風景画像マッチングの参照データを生成する。   The feature object recognition unit 52 has a function of recognizing an identifiable thing in the photographed image as a feature object from the image showing the image feature in the photographed image. Here, the feature object has a geometric shape. Yes. Here, as a geometric shape recognized as a feature object, basic geometric shapes such as two or more straight lines, circles, squares, and triangles having intersections are handled. The attribute determination unit 53 classifies and determines object attributes (line, circle, quadrangle, etc.) that are attributes of the feature object so that the geometric shape recognized by the feature object unit 52 can be used by other functional units. . Based on the classification determination result by the attribute determination unit 53, the representative feature point extraction unit 54 extracts one or more image feature points that define each feature object as representative image feature points. For example, in the case of a square, there are four corner points. The attribute information generation unit 55 generates attribute information by converting the object attribute including the classification determination result by the attribute determination unit 53 and the coordinate value of the representative feature point extracted by the representative feature point extraction unit 54 into attribute data. The feature point data generation unit 56 generates feature point data including feature point position information representing the position of the representative image feature point and feature object attribute information defined by the representative image feature point. The reference data generation unit 57 associates the shooting position (own vehicle position) with the feature point data generated by the feature point data generation unit 56 and generates reference data for landscape image matching.

次に、データ入力部51と特徴点抽出部60の主な処理の流れを模式的に示している図3を用いて、そのデータ処理を詳しく説明する。
データ入力部51には、参照データ作成目的で走行している車両に搭載されたカメラによる風景を撮影した撮影画像と、その撮影時の撮影位置及び撮影方位を含む撮影属性情報と、さらに撮影状況情報が入力される。画像処理システムが走行車両に搭載されている形態においては、この入力部51にはリアルタイムで撮影画像と撮影属性情報と撮影状況情報が入力されることになるが、この画像処理システムがデータ処理センタなどに設置されている形態においては、撮影画像と撮影属性情報と撮影状況情報が一時的に記録メディアに記録され、これらのデータ入力はバッチ処理的に行われる。
Next, the data processing will be described in detail with reference to FIG. 3 schematically showing the main processing flow of the data input unit 51 and the feature point extraction unit 60.
The data input unit 51 includes a photographic image obtained by photographing a landscape by a camera mounted on a vehicle traveling for reference data creation, photographing attribute information including a photographing position and a photographing direction at the time of photographing, and a photographing situation. Information is entered. In the form in which the image processing system is mounted on the traveling vehicle, the captured image, the photographing attribute information, and the photographing situation information are input to the input unit 51 in real time. In such a configuration, the photographed image, photographing attribute information, and photographing state information are temporarily recorded on a recording medium, and these data inputs are performed in a batch process.

撮影状況情報は、撮影画像に特定被写体が含まれている可能性を表す情報であり、この実施の形態の撮影状況情報に含まれる内容は、走行レーンデータと、移動物体データと、エリア属性データである。走行レーンデータは、撮影画像に対する画像処理を通じて得られる白線やガイドレールや安全地帯の認識結果から得られた、撮影画像における自車の走行レーン領域や道路外領域を示すデータである。移動物体データは、レーダなどの障害物を検知する車載センサによって認識される車両周辺に存在する移動物体の撮影画像中における存在領域を示すデータである。エリア属性データは、撮影画像の撮影時の車両位置と地図データとに基づいて認識された撮影場所の種別、例えば、山間エリア・郊外エリア・市街地エリア・高層都市エリアなどといったエリア属性を示すデータである。   The shooting situation information is information indicating the possibility that a specific subject is included in the shot image, and the contents included in the shooting situation information of this embodiment include travel lane data, moving object data, and area attribute data. It is. The traveling lane data is data indicating the traveling lane region of the own vehicle and the region outside the road in the photographed image obtained from the recognition result of the white line, the guide rail, and the safety zone obtained through image processing on the photographed image. The moving object data is data indicating an existing area in a captured image of a moving object present around the vehicle that is recognized by an in-vehicle sensor that detects an obstacle such as a radar. Area attribute data is data indicating area attributes such as mountain area, suburban area, urban area, high-rise city area, etc. is there.

特徴点抽出部60は、一時格納部61、エッジ検出部62、エッジ重要度決定部63、重み付け部64、調整係数設定部65、エッジ点画像出力部66を備えている。一時格納部61は、入力された撮影画像を、一時的に格納するワーキングメモリであり、通常はメインメモリの一部の領域に割り当てられる。   The feature point extraction unit 60 includes a temporary storage unit 61, an edge detection unit 62, an edge importance degree determination unit 63, a weighting unit 64, an adjustment coefficient setting unit 65, and an edge point image output unit 66. The temporary storage unit 61 is a working memory that temporarily stores an input captured image, and is normally assigned to a partial area of the main memory.

エッジ検出部62は、適当な輪郭(エッジ)検出演算子を使用して撮影画像から画像特徴としての画像特徴点を抽出する。ここでの画像特徴点はエッジ点やエッジ点群(エッジ線)である。エッジ重要度決定部63は、エッジ検出部62によって抽出された画像特徴点(エッジ点)の重要度を、撮影状況情報に含まれている各データの内容に基づいて決定する。例えば、走行レーンデータの内容を用いる場合、撮影画像中における、路肩寄りの走行レーンからさらに路肩側に外れた領域に属する画像特徴点に対してより高い重要度を付与する。また、移動物体データを用いる場合、撮影画像中における、移動物体が存在する領域に属する画像特徴点に対して低い重要度を付与する。さらに、エリア属性データの内容を用いる場合、撮影画像中の位置に応じた重要度の付与規則を前記エリア属性に応じて変更する。例えば、山間エリアの撮影画像では、撮影中心光軸の上方は空で左右は森林である可能性が高いので、撮影中心光軸周りである中心領域に対して高い重要度を設定する。郊外エリアの撮影画像では、車の往来が少なく、住宅等の構造物が周囲に広がっているので、撮影中心光軸の下方領域に対して高い重要度を設定する。市街地エリアの撮影画像では、車の往来が多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。高層都市エリアの撮影画像では、高架道路や高架橋などが多いので、撮影中心光軸の上方領域に対して高い重要度を設定する。   The edge detector 62 extracts image feature points as image features from the captured image using an appropriate contour (edge) detection operator. The image feature points here are edge points and edge point groups (edge lines). The edge importance determination unit 63 determines the importance of the image feature points (edge points) extracted by the edge detection unit 62 based on the contents of each data included in the shooting situation information. For example, when the content of the travel lane data is used, higher importance is assigned to image feature points belonging to a region further away from the travel lane closer to the shoulder in the captured image. When moving object data is used, a low importance is assigned to image feature points belonging to a region where a moving object exists in a captured image. Further, when the contents of the area attribute data are used, the importance assigning rule corresponding to the position in the captured image is changed according to the area attribute. For example, in a captured image of a mountain area, since there is a high possibility that the upper part of the photographing center optical axis is empty and the left and right are forests, high importance is set for the central region around the photographing central optical axis. In the photographed image of the suburban area, there is little traffic of cars, and structures such as houses spread around, so a high importance is set for the area below the photographing center optical axis. In the captured image of the urban area, since there is a lot of traffic, a high importance is set for the area above the optical axis of the image capturing center. In the photographed image of the high-rise city area, since there are many elevated roads and viaducts, high importance is set for the region above the photographing center optical axis.

重み付け部64は、エッジ重要度決定部63によって決定された重要度に応じて画像特徴点に重み係数を割り当てる。正確な画像認識(パターンマッチング)を行うために重要と思われる画像特徴点には高い重要度が設定されているので、高い重要度が設定された画像特徴点に大きい重み係数が割り当てられるが、低い重み係数をもつ画像特徴点は実際の画像認識において使用されない可能性が高いこと、あるいは参照データから削除されることを考慮して、画像特徴点の取捨選択の判定のために利用できるように算定される。   The weighting unit 64 assigns weighting factors to the image feature points according to the importance determined by the edge importance determination unit 63. High importance is set for image feature points that are considered important for accurate image recognition (pattern matching), so a large weighting factor is assigned to image feature points with high importance. Considering that image feature points with low weighting factors are not likely to be used in actual image recognition or deleted from reference data, they can be used to determine the selection of image feature points Calculated.

調整係数設定部65は、重み付け部64によって割り当てられた重み係数を対応する撮影画像領域における分布状態の観点から変更するための調整係数を算定する。つまり、エッジ検出部62によって抽出された画像特徴点に対して撮影状況情報に基づいて決定された重要度にはある程度の誤りが含まれ、その重要度がある程度高い画像特徴点もランダムに発生する可能性があるとも考えられる。このため、画像特徴点の偏在、言い換えると重み付け部64によって割り当てられた重み係数の偏在が生じていた場合、その偏在を緩やかにする目的でこの調整係数設定部65は用いられる。演算処理で得られた画像特徴点の散布度が画像特徴点の偏在を示している場合、画像特徴点の密度が小さい領域に属する画像特徴点の重み係数が大きくなるように調整係数が設定され、画像特徴点の密度が大きい領域に属する画像特徴点の重み係数が小さくなるように調整係数が設定される。エッジ点画像出力部66は、重み付け部64によって割り当てられた重み係数、及びオプション的に利用される調整係数に基づいて各画像特徴点を整理して撮影画像毎の画像特徴点データを出力する。つまり、エッジ重要度決定部63、重み付け部64、調整係数設定部65によって、抽出される画像特徴点を調整する抽出条件調整部60Aとして機能する。   The adjustment coefficient setting unit 65 calculates an adjustment coefficient for changing the weighting coefficient assigned by the weighting unit 64 from the viewpoint of the distribution state in the corresponding captured image region. That is, the importance determined based on the shooting situation information for the image feature points extracted by the edge detection unit 62 includes a certain degree of error, and image feature points having a certain degree of importance are also randomly generated. There is also a possibility. For this reason, when there is an uneven distribution of image feature points, in other words, an uneven distribution of the weighting coefficient assigned by the weighting unit 64, the adjustment coefficient setting unit 65 is used to moderate the uneven distribution. When the distribution of image feature points obtained by calculation processing indicates the uneven distribution of image feature points, the adjustment coefficient is set so that the weighting factor of image feature points belonging to the region where the density of image feature points is small is increased. The adjustment coefficient is set so that the weighting coefficient of the image feature point belonging to the region where the density of the image feature points is large is small. The edge point image output unit 66 organizes the image feature points based on the weighting coefficient assigned by the weighting unit 64 and the adjustment coefficient that is optionally used, and outputs image feature point data for each captured image. That is, the edge importance determination unit 63, the weighting unit 64, and the adjustment coefficient setting unit 65 function as an extraction condition adjustment unit 60A that adjusts the extracted image feature points.

ここで、上述した調整係数によって画像特徴点を撮影画像領域全体にわたってできるだけ広く散布させる処理を図4に示された模式的説明図を用いて説明する。撮影画像(図4(a)から画像特徴点(エッジ点)を抽出することでエッジ検出画像(図4(b))が生成される。このエッジ検出画像の各エッジ点に重要度が付与される。重要度の付与された様子を模式的に理解できるように、図4(c)では特徴点画像に対応する重要度レイヤの形で各エッジ点に対応する重要度が示されている。この重要度レイヤを用いて、各エッジ点に重み係数が割り当てられる。図4(d)では、大きな重み係数をもつほど大きい点となるようにエッジ点を描いたエッジ点画像の形で重み係数を割り当てたれたエッジ点が示されている。ここで、所定しきい値以下の重み係数を割り当てられたエッジ点が除去されるようなエッジ点の整理が行われると、例えば、図4(d)で大きな点となっているエッジ点だけが選別されると、エッジ点画像の下方領域に位置しているエッジ点は排除され、残ったエッジ点の分布に大きな偏在が生じる。この偏在を回避するため、エッジ点画像におけるエッジ点の散布度を算出し、結果的に選別されるエッジ点の密度が低くなる領域のエッジ点の重み係数を増加させるような調整係数が設定される。そのように設定される調整係数を模式的に理解できるように、図4(e)では調整係数群をエッジ点画像に対応するようにマトリックス的に(ここでは複数の画素領域からなる区画単位で)配置した調整係数レイヤの形で示されている。エッジ点画像出力部66は、このような重み係数と調整係数に基づいて最終的に設定された重み係数を用いて各画像特徴点を整理して、図4(f)で示されたようなエッジ点画像を撮影画像毎に生成する。   Here, the process of spreading image feature points as widely as possible over the entire captured image area using the above-described adjustment coefficient will be described with reference to the schematic explanatory view shown in FIG. An edge detection image (FIG. 4B) is generated by extracting an image feature point (edge point) from the photographed image (FIG. 4A). Importance is given to each edge point of the edge detection image. 4C shows the importance corresponding to each edge point in the form of an importance layer corresponding to the feature point image so that the appearance of the importance can be schematically understood. In this importance layer, a weighting factor is assigned to each edge point, as shown in Fig. 4D, in the form of an edge point image in which the edge point is drawn so that the larger the weighting factor, the larger the point becomes. Here, when the edge points are arranged such that the edge points to which the weighting coefficient equal to or less than the predetermined threshold is assigned are removed, for example, FIG. ) Only edge points that are large points are selected. In this case, the edge points located in the lower area of the edge point image are excluded, and a large uneven distribution occurs in the distribution of the remaining edge points. An adjustment coefficient that increases the weighting coefficient of the edge point in the area where the density of the edge point that is calculated and selected as a result is low is set so that the adjustment coefficient that is set can be understood schematically. In FIG. 4E, the adjustment coefficient group is shown in the form of an adjustment coefficient layer arranged in a matrix (in this case, in units of sections made up of a plurality of pixel areas) so as to correspond to the edge point image. The point image output unit 66 organizes each image feature point using the weighting factor finally set based on the weighting factor and the adjustment factor, and the edge as shown in FIG. Shooting point images It is generated for each.

ここでは、画像特徴点(エッジ点)毎に重要度が決定され、その結果画像特徴点毎に重み係数が設定されているような形態であったが、これらの処理をグループ単位で行うことも可能である。その際には、例えば、撮影画像領域が複数の画像区画に分割され、エッジ重要度決定部63が、同一画像区画に属する記画像特徴点を画像特徴点群としてグループ化して統一的に取り扱い、当該画像特徴点群に含まれる画像特徴点には同一の重要度を与え、重み付け部64も同様に画像特徴点群単位で重み係数を設定するとよい。また、ここで取り扱われている画像区画を、撮影画像を構成する1画素単位で取り扱ってもよいが、複数画素単位で画像区画を取り扱ってもよい。   Here, the degree of importance is determined for each image feature point (edge point), and as a result, a weighting factor is set for each image feature point. However, these processes may be performed in units of groups. Is possible. In that case, for example, the captured image area is divided into a plurality of image sections, and the edge importance determination unit 63 groups the image feature points belonging to the same image section as an image feature point group and handles them in a unified manner. The image feature points included in the image feature point group are given the same importance, and the weighting unit 64 may similarly set the weighting coefficient in units of image feature point groups. In addition, the image sections handled here may be handled in units of one pixel constituting the captured image, but may be handled in units of a plurality of pixels.

上述した特徴点抽出部60から出力されたエッジ点画像から特徴オブジェクトとして幾何形状を認識して、エッジ点画像の含まれているエッジ点をこの幾何形状によって特定して特徴点データを生成する処理の流れを図5の模式図を用いて説明する。
特徴オブジェクト部52は、撮影画像から得られたエッジ点画像中における1つ以上のエッジ点から規定される幾何形状、例えば、交差する直線、三角形、四角形、円などを認識する。このような幾何形状の認識は、例えば、画像のハフ変換によって、直線や円を認識することにより、可能である。複数直線及びそれらの直線の交点を認識することで、三角形(3つの交点)や四角形(4つの交点)も認識することができる。これらの認識アルゴリズムはよく知られているので、詳しい説明は省略する。特定の幾何形状が認識されると、属性判定部53がその幾何形状を特定するための情報であるオブジェクト属性を決めるとともに、代表特徴点抽出部54が、その特定の幾何形状を規定する1つまたは2つ以上のエッジ点を代表画像特徴点として特定抽出して、それらの座標値などを取り込む。そして、属性情報生成部55が認識された幾何形状(特徴オブジェクト)を特定する種々のパラメータを属性値とする属性情報を幾何形状毎に作成する。例えば、認識された幾何形状が四角形なら、代表画像特徴点は四角形の4つのコーナ点(エッジ点)とする。また、円なら、代表画像特徴点は、円中心を通るX軸平行線及びY軸平行線と円周との交点に位置するエッジ点とする。また、交わる2直線なら、その交点を代表画像特徴点として、記述的特徴としてその交差角を付属させるとよい。ここでは単純な線分も認識される幾何形状として扱われ、その代表画像特徴点は、線分の一方端のエッジ点と他方端のエッジ点とする。以上の説明から明らかなように、一般的には、認識された幾何形状が特定輪郭線を有する特定幾何形状である場合、そのエッジ点群である輪郭線上に位置するエッジ点(幾何学的特徴点)が代表画像特徴点として採用されており、この代表画像特徴点の撮影画像上の座標値が特徴点位置情報として属性値の形で組み込まれる。
また、認識された幾何形状毎に付与される属性情報には、同一種の他の幾何形状と区別するために識別コード、つまりIDコードが含まれる。
さらに、画像上において認識される幾何形状として、複数画像を用いた認識処理を採用すれば、周期的に点滅する発光体が作り出す発光エリア形状も含めることも可能である。そのような無定形な形状では、その重心点を属性値とすると好都合である。
Processing for recognizing a geometric shape as a feature object from the edge point image output from the above-described feature point extraction unit 60, specifying an edge point included in the edge point image by this geometric shape, and generating feature point data The flow will be described with reference to the schematic diagram of FIG.
The feature object unit 52 recognizes a geometric shape defined by one or more edge points in the edge point image obtained from the photographed image, for example, intersecting straight lines, triangles, squares, circles, and the like. Such a geometric shape can be recognized, for example, by recognizing a straight line or a circle by Hough transform of the image. By recognizing a plurality of straight lines and their intersections, triangles (three intersections) and quadrangles (four intersections) can also be recognized. These recognition algorithms are well known and will not be described in detail. When a specific geometric shape is recognized, the attribute determination unit 53 determines an object attribute that is information for specifying the geometric shape, and the representative feature point extraction unit 54 defines one specific geometric shape. Alternatively, two or more edge points are specified and extracted as representative image feature points, and their coordinate values are captured. Then, the attribute information generating unit 55 creates attribute information for each geometric shape having various parameters specifying the recognized geometric shape (feature object) as attribute values. For example, if the recognized geometric shape is a quadrangle, the representative image feature points are four corner points (edge points) of the quadrangle. In the case of a circle, the representative image feature point is an edge point located at the intersection of the X axis parallel line passing through the center of the circle and the Y axis parallel line and the circumference. If two lines intersect, the intersection may be used as a representative image feature point, and the intersection angle may be attached as a descriptive feature. Here, a simple line segment is also treated as a recognized geometric shape, and the representative image feature points are an edge point on one end and an edge point on the other end of the line segment. As is apparent from the above description, generally, when the recognized geometric shape is a specific geometric shape having a specific contour line, an edge point (geometric feature) located on the contour line that is the edge point group. Point) is adopted as the representative image feature point, and the coordinate value of the representative image feature point on the captured image is incorporated as feature point position information in the form of an attribute value.
Further, the attribute information given for each recognized geometric shape includes an identification code, that is, an ID code, in order to distinguish it from other geometric shapes of the same type.
Further, if a recognition process using a plurality of images is adopted as a geometric shape recognized on the image, a light emitting area shape created by a light-emitting body that periodically blinks can be included. In such an amorphous shape, it is convenient to use the center of gravity as an attribute value.

特徴点データ生成部56は、代表画像特徴点の位置を表すエッジ点の座標位置を表現する位置情報(たとえばエッジ点画像)と、この代表画像特徴点によって規定される特徴オブジェクトとしての幾何形状の属性情報とからなる特徴点データを生成する。参照データ生成部57は、特徴点データ生成部56によって生成された特徴点データに撮影位置(自車位置)を関連付けて、風景画像マッチングの参照データを生成する。   The feature point data generation unit 56 includes position information (for example, an edge point image) that represents the coordinate position of an edge point that represents the position of the representative image feature point, and the geometric shape as a feature object defined by the representative image feature point. Feature point data including attribute information is generated. The reference data generation unit 57 associates the shooting position (own vehicle position) with the feature point data generated by the feature point data generation unit 56 and generates reference data for landscape image matching.

なお、上述した参照データの生成過程では、撮影画像に特定被写体が含まれている可能性を表す撮影状況情報に基づいて撮影画像からの特徴オブジェクトの抽出に制限(抽出条件)を加えるために、前もって、エッジ点画像の生成時に予め撮影状況情報に基づく制限を行っている。つまり、撮影状況情報から判断して、マッチングのために不適と思われる領域から特徴オブジェクトが認識されないように、予め、そのような領域のエッジ点が排除している。このやり方に代えて、特徴オブジェクトの認識時に、撮影状況情報から不適領域を指定して、特徴オブジェクトの認識対象から除外するようにしてもよい。   In addition, in the above-described reference data generation process, in order to limit (extraction conditions) extraction of feature objects from a captured image based on shooting state information indicating the possibility that a specific subject is included in the captured image, In advance, the restriction based on the shooting state information is performed in advance when the edge point image is generated. That is, the edge points of such areas are excluded in advance so that the feature objects are not recognized from the areas that are deemed inappropriate for matching, as determined from the shooting situation information. Instead of this method, when recognizing a feature object, an inappropriate region may be specified from the shooting situation information and excluded from the feature object recognition target.

次に、上述した画像処理システムで作成された参照データDB92を用いて風景画像認識(画像特徴点パターンマッチング)で自車位置を修正する車載用カーナビゲーションシステムを説明する。図6は、そのようなカーナビゲーションシステムを車載LANに組み込んだ形態で示した機能ブロックである。このカーナビゲーションシステムは、入力操作モジュール21、ナビ制御モジュール3、自車位置検出モジュール4、撮影状況情報生成部7、上記の参照データDB92とカーナビ用道路地図データを収納した道路地図データベース91(以下単に道路地図DBと略称する)とを有するデータベース9を備えている。   Next, an in-vehicle car navigation system that corrects the vehicle position by landscape image recognition (image feature point pattern matching) using the reference data DB 92 created by the above-described image processing system will be described. FIG. 6 is a functional block showing such a car navigation system incorporated in an in-vehicle LAN. This car navigation system includes an input operation module 21, a navigation control module 3, a vehicle position detection module 4, a photographing situation information generation unit 7, a road map database 91 (hereinafter referred to as a road map database 91) that stores the reference data DB 92 and car navigation road map data. And a database 9 having simply a road map DB).

ナビ制御モジュール3は、経路設定部31、経路探索部32、経路案内部33を備えている。経路設定部31は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する。経路探索部32は、経路設定部31によって設定された条件に基づき出発地から目的地までの案内経路を探索するための演算処理を行う処理部である。経路案内部33は、経路探索部32により探索された出発地から目的地までの経路に従って、モニタ12の表示画面による案内表示やスピーカ13による音声案内等により、運転者に対して適切な経路案内を行うための演算処理を行う処理部である。   The navigation control module 3 includes a route setting unit 31, a route search unit 32, and a route guide unit 33. The route setting unit 31 sets, for example, a departure point such as the vehicle position, an input destination, a passing point, and traveling conditions (whether or not an expressway is used). The route search unit 32 is a processing unit that performs arithmetic processing for searching for a guide route from the departure point to the destination based on the conditions set by the route setting unit 31. The route guidance unit 33 provides appropriate route guidance to the driver by guidance display on the display screen of the monitor 12 or voice guidance by the speaker 13 according to the route from the departure place to the destination searched by the route search unit 32. It is a process part which performs the arithmetic processing for performing.

自車位置検出モジュール4は、従来のGPSによる位置算定及び推測航法による位置算定によって得られた推定自車位置を、この推定自車位置を利用した風景画像認識によって決定された自車位置で修正する機能を有する。自車位置検出モジュール4は、GPS処理部41、推測航法処理部42、自車位置座標算定部43、マップマッチング部44、自車位置決定部45、撮影画像処理部5、風景マッチング部6を備えている。GPS処理部41にはGPS衛星からのGPS信号を受信するGPS測定ユニット15が接続されている。GPS処理部41はGPS測定ユニット15で受信されたGPS衛星からの信号を解析し、車両の現在位置(緯度及び経度)を算定し、GPS位置座標データとして自車位置座標算定部43に送る。推測航法処理部42には距離センサ16と方位センサ17が接続されている。距離センサ16は、車両の車速や移動距離を検出するセンサであり、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。距離センサ16は、その検出結果としての車速及び移動距離の情報を推測航法処理部42へ出力する。方位センサ17は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、その検出結果としての方位の情報を推測航法処理部42へ出力する。推測航法処理部42は、刻々と送られてくる移動距離情報と方位情報とに基づいて推測航法位置座標を演算し、推測航法位置座標データとして自車位置座標算定部43に送る。自車位置座標算定部43は、GPS位置座標データと推測航法位置座標データとから公知の方法により車両の位置を特定する演算を行う。算定された自車位置情報は、測定誤差等を含んだ情報となっており、場合によっては道路上から外れてしまうので、マップマッチング部44により、自車位置を道路地図に示される道路上とする補正が行われる。その自車位置座標は推定自車位置として自車位置決定部45に送られる。   The own vehicle position detection module 4 corrects the estimated own vehicle position obtained by the conventional position calculation by GPS and the position calculation by dead reckoning with the own vehicle position determined by landscape image recognition using the estimated own vehicle position. It has the function to do. The own vehicle position detection module 4 includes a GPS processing unit 41, dead reckoning processing unit 42, own vehicle position coordinate calculation unit 43, map matching unit 44, own vehicle position determination unit 45, captured image processing unit 5, and landscape matching unit 6. I have. A GPS measurement unit 15 that receives GPS signals from GPS satellites is connected to the GPS processing unit 41. The GPS processing unit 41 analyzes the signal from the GPS satellite received by the GPS measurement unit 15, calculates the current position (latitude and longitude) of the vehicle, and sends it to the own vehicle position coordinate calculation unit 43 as GPS position coordinate data. The dead reckoning processing unit 42 is connected to the distance sensor 16 and the azimuth sensor 17. The distance sensor 16 is a sensor that detects a vehicle speed or a moving distance of the vehicle. For example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft, a wheel, or the like of the vehicle rotates by a certain amount detects the acceleration of the host vehicle C. And a circuit that integrates the detected acceleration. The distance sensor 16 outputs information on the vehicle speed and moving distance as the detection result to the dead reckoning processing unit 42. The direction sensor 17 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like, and the direction of the detection result Information is output to dead reckoning processing unit 42. The dead reckoning processing unit 42 calculates dead reckoning position coordinates based on the moving distance information and the direction information sent every moment, and sends the dead reckoning position coordinate data to the own vehicle position coordinate calculating unit 43 as dead reckoning position coordinate data. The own vehicle position coordinate calculation unit 43 performs an operation for specifying the position of the vehicle from the GPS position coordinate data and the dead reckoning position coordinate data by a known method. The calculated vehicle position information is information including measurement errors and the like, and in some cases, the vehicle position information is off the road. Therefore, the map matching unit 44 determines the vehicle position on the road indicated on the road map. Correction is performed. The vehicle position coordinates are sent to the vehicle position determination unit 45 as the estimated vehicle position.

撮影画像処理部5は、実質的には図2で示された画像処理システムを構成していた大部分の機能部を備えている。この撮影画像処理部5は、データ入力部51、エッジ検出部62、エッジ重要度決定部63と、重み付け部64、調整係数設定部65、エッジ点画像出力部66を備え、車載カメラ14によって撮影された車両からの前方風景撮影画像がデータ入力部51に入力されると、上述したような手順を経て画像特徴点データがエッジ点画像出力部66から出力される。なお、エッジ重要度決定部63で利用される撮影情況情報は、車両に搭載された撮影状況情報生成部7によって生成され、撮影画像処理部5に送られる。撮影状況情報生成部7は、上記走行レーンデータを作成するために、車載カメラ14と接続されており、撮影画像処理部5に送られる撮影画像と同じものを受け取る。受け取った撮影画像を公知のアルゴリズムを用いて画像処理することで走行レーンデータが作成される。また、撮影状況情報生成部7は、上記移動物体データを作成するために障害物検出用のセンサ群18と接続されている。このセンサ群18からのセンサ情報に基づいて移動物体データが作成される。さらに、撮影状況情報生成部7は、上記を作成するために、自車位置決定部45及びデータベース9と接続している。自車位置決定部45からの自車位置座標と検索キーとしてデータベース9を検索して、現在走行している場所のエリア属性(山間部や市街地など)を取得し、それに基づいてエリア属性データが作成される。   The photographed image processing unit 5 substantially includes most of the functional units that constitute the image processing system shown in FIG. The captured image processing unit 5 includes a data input unit 51, an edge detection unit 62, an edge importance determination unit 63, a weighting unit 64, an adjustment coefficient setting unit 65, and an edge point image output unit 66. When the photographed front landscape photographed image from the vehicle is input to the data input unit 51, the image feature point data is output from the edge point image output unit 66 through the procedure described above. Note that the shooting situation information used in the edge importance determination unit 63 is generated by the shooting situation information generation unit 7 mounted on the vehicle and is sent to the shot image processing unit 5. The shooting state information generation unit 7 is connected to the in-vehicle camera 14 to generate the travel lane data, and receives the same shot image sent to the shot image processing unit 5. Traveling lane data is created by image processing the received captured image using a known algorithm. The photographing situation information generation unit 7 is connected to an obstacle detection sensor group 18 in order to create the moving object data. Moving object data is created based on sensor information from the sensor group 18. Further, the shooting situation information generation unit 7 is connected to the vehicle position determination unit 45 and the database 9 in order to create the above. The database 9 is searched using the vehicle position coordinates and the search key from the vehicle position determination unit 45 to acquire area attributes (mountainous area, city area, etc.) of the current traveling location, and the area attribute data is based on the area attributes. Created.

風景マッチング部6は、自車位置決定部45から送られてきた推定自車位置に基づいて参照データDB92から抽出された参照データをパターンとして、撮影画像処理部5から送られてきた画像特徴点データに対するパターンマッチング処理を行う。このパターンマッチングが成功した場合には、マッチングパターンである参照データに関係付けられた撮影位置が読み出される。この撮影位置が自車位置として、自車位置決定部45に転送される。自車位置決定部45は転送されてきた自車位置を推定自車位置と置き換える自車位置修正を行う。   The scenery matching unit 6 uses the reference data extracted from the reference data DB 92 based on the estimated vehicle position sent from the vehicle position determination unit 45 as a pattern, and the image feature points sent from the captured image processing unit 5 Perform pattern matching processing on data. If the pattern matching is successful, the shooting position associated with the reference data that is the matching pattern is read out. This photographing position is transferred to the own vehicle position determination unit 45 as the own vehicle position. The own vehicle position determination unit 45 corrects the own vehicle position by replacing the transferred own vehicle position with the estimated own vehicle position.

このカーナビゲーションシステムは、また、周辺装置として、タッチパネル11やスイッチなどの入力デバイス11とそれらの入力デバイス11を通じての操作入力を適切な操作信号に変化して内部に転送する操作入力評価部21aを有する入力操作モジュール21、モニタ12にカーナビゲーションに必要な画像情報を表示するための表示モジュール22、スピーカ13やブザーからカーナビゲーションに必要な音声情報を流す音声生成モジュール23、制動や加速や操舵などといった車両の種々の挙動を車載LANを通じて送られてくる挙動データに基づいて検知する車両挙動検知モジュール24を備えている。   This car navigation system also includes an input device 11 such as a touch panel 11 or a switch as a peripheral device, and an operation input evaluation unit 21a that changes an operation input through the input device 11 into an appropriate operation signal and transfers the operation signal to the inside. An input operation module 21, a display module 22 for displaying image information necessary for car navigation on the monitor 12, a voice generation module 23 for sending voice information necessary for car navigation from the speaker 13 or a buzzer, braking, acceleration, steering, etc. The vehicle behavior detection module 24 that detects various behaviors of the vehicle based on behavior data sent through the in-vehicle LAN is provided.

(別な実施形態)
上述した実施形態では、採用されていなかったが、本発明の別な実施形態の1つとして、自車位置検出モジュール4による自車位置の決定に関して、参照データに含まれる複数の特徴オブジェクトのそれぞれの代表画像特徴点の位置関係と、実撮像画像から抽出された対応する複数の代表画像特徴点の位置関係と、に基づいて詳細な自車位置を決定する構成としても好適である。この場合、風景マッチング部6は、参照データに含まれる異なる複数の特徴オブジェクトのそれぞれから代表画像特徴点を選択し、選択された複数の代表画像特徴点のそれぞれの特徴点位置情報を読み出す。また、風景マッチング部6は、実撮像画像内における対応する複数の代表画像特徴点を抽出する。そして、風景マッチング部6は、参照データの複数の代表画像特徴点の位置関係と、実撮像画像から抽出された対応する複数の代表画像特徴点の位置関係と、に基づいて自車位置を決定する。具体的には、参照データの複数の代表画像特徴点の位置関係と、実撮像画像から抽出された対応する複数の代表画像特徴点の位置関係との差異に基づいて、参照データの元となった撮影画像の撮影位置及び方位に対する、実撮像画像の撮影位置及び方位とのずれを算出する。これにより、風景マッチング部6は、より高精度な自車位置の決定を行う。
(Another embodiment)
Although not employed in the above-described embodiment, as another embodiment of the present invention, each of the plurality of feature objects included in the reference data regarding the determination of the vehicle position by the vehicle position detection module 4 It is also preferable that the detailed vehicle position is determined based on the positional relationship between the representative image feature points and the positional relationship between the corresponding representative image feature points extracted from the actual captured image. In this case, the landscape matching unit 6 selects a representative image feature point from each of a plurality of different feature objects included in the reference data, and reads out feature point position information of each of the selected representative image feature points. In addition, the landscape matching unit 6 extracts a plurality of corresponding representative image feature points in the actual captured image. Then, the landscape matching unit 6 determines the vehicle position based on the positional relationship between the plurality of representative image feature points in the reference data and the positional relationship between the corresponding representative image feature points extracted from the actual captured image. To do. Specifically, based on the difference between the positional relationship between the plurality of representative image feature points of the reference data and the positional relationship between the corresponding plurality of representative image feature points extracted from the actual captured image, the reference data is generated. The deviation of the captured position and orientation of the actual captured image from the captured position and orientation of the captured image is calculated. Thereby, the landscape matching unit 6 determines the own vehicle position with higher accuracy.

上述した実施形態では、画像特徴点として、エッジ検出処理によって得られるエッジ点、特に一本の線分を構成している線分エッジやそのような線分が交差、好ましくはほぼ直交する交点であるコーナエッジが効果的な画像特徴点として扱われる。しかしながら、本発明は、画像特徴点としてそのようなエッジ点に限定されるわけではない。例えば、円や四角形など幾何学的形状を形成する代表的なエッジ点(円なら円周上の3点など)あるいは無定形の幾何学的形状の重心やその重心としての点なども、その風景によっては効果的な画像特徴点となるので、用いられる。また、エッジ強度も重要度を算定するための因子として採用することも好適であり、例えば強度の強いエッジからなる線分なら、その線分の始点と終点は重要度の高い画像特徴点として取り扱うことができる。また、特徴的な幾何学的形状における特定点、例えば左右対称な物体のエッジ点や重心点なども重要度の高い画像特徴点として取り扱うことができる。
さらには、エッジ検出処理によって得られるエッジ点以外に、撮影画像を色相や彩度の変化として捉え、その変化の大きい点を画像特徴点として採用することも可能である。同様に色情報に基づくものとして色温度の高い物体のエッジ点を重要度の高い画像特徴点として取り扱うことも可能である。
つまり、本発明で取り扱われる画像特徴点は、参照データと実撮影画像から生成される画像特徴量データとの間の類似度判定、例えば、パターンマッチングにとって有効なものであれば、全て利用の対象となる。
In the above-described embodiment, the image feature point is an edge point obtained by edge detection processing, particularly a line segment edge constituting one line segment or an intersection point where such a line segment intersects, preferably approximately orthogonally. A corner edge is treated as an effective image feature point. However, the present invention is not limited to such edge points as image feature points. For example, typical edge points that form geometric shapes such as circles and quadrilaterals (three points on the circumference of a circle if they are circles), the center of gravity of an amorphous geometric shape, and the point as the center of gravity Is used because it is an effective image feature point. It is also preferable to adopt edge strength as a factor for calculating importance. For example, if a line segment is a strong edge, the start point and end point of the line segment are treated as highly important image feature points. be able to. In addition, specific points in a characteristic geometric shape, such as edge points and barycentric points of symmetrical objects, can be handled as highly important image feature points.
Furthermore, in addition to the edge points obtained by the edge detection process, it is also possible to regard a captured image as a change in hue or saturation and to employ a point with a large change as an image feature point. Similarly, an edge point of an object having a high color temperature can be handled as a highly important image feature point based on color information.
That is, the image feature points handled in the present invention are all used if they are effective for similarity determination between the reference data and the image feature amount data generated from the actual captured image, for example, pattern matching. It becomes.

上述した実施形態では、参照データDB92に格納される参照データには、撮影位置と撮影方位(カメラ光軸方位)が関係付けられていたが、それ以外に、上述した撮影状況情報、さらには撮影日時や撮影時天候なども、関係付けてもよい。
なお、撮影位置は、最低限、緯度・経度データのような二次元データでよいが、高さデータも加えて三次元データとしてもよい。
また、撮影方位を参照データに関係付けることは必須ではない。例えば、参照データの作成時も、この参照データを用いての風景画像認識時も、走行道路に対して実質的に同じ撮影方位で撮影されることが保証される場合では、撮影方位は不必要となる。
逆に、1つの基本的な撮影方位での参照データから撮影方位を適度にずらせた参照データを用意することができる場合では、方位センサなどの情報から算定された車両の走行方向に基づいて、その走行方位に適合する参照データだけを風景画像認識の対象とすることも可能である。
本発明で取り扱われる車載カメラは、車両走行方向前方の風景を撮影するものが最適である。しかしながら、前方斜めの風景をとるカメラであってもよいし、さらには側方、後方の風景を撮影するカメラであってよい。つまり、本発明で取り扱われる撮影画像は、車両走行方向の前方風景を撮影したものだけに限定されるわけではない。
In the above-described embodiment, the reference data stored in the reference data DB 92 is associated with the shooting position and the shooting direction (camera optical axis direction). The date and time and the weather at the time of shooting may also be related.
The photographing position may be two-dimensional data such as latitude / longitude data at least, but may be three-dimensional data in addition to height data.
Further, it is not essential to relate the shooting direction to the reference data. For example, when creating reference data and when recognizing a landscape image using this reference data, the shooting direction is not required if it is guaranteed that the road is shot with substantially the same shooting direction. It becomes.
Conversely, in the case where reference data in which the shooting direction is appropriately shifted from the reference data in one basic shooting direction can be prepared, based on the traveling direction of the vehicle calculated from information such as a direction sensor, It is also possible to set only the reference data suitable for the traveling direction as the object of landscape image recognition.
The on-vehicle camera handled in the present invention is most suitable for photographing a landscape in front of the vehicle traveling direction. However, the camera may be a camera that takes a landscape oblique to the front, or may be a camera that captures a landscape of the side or rear. That is, the photographed image handled in the present invention is not limited to only a photograph of a front landscape in the vehicle traveling direction.

上述した実施形態の説明に用いられた機能ブロック図で区分けされた示された機能部はわかりやすい説明を目的としており、ここで示された区分けに本発明は限定されているわけではなく、それぞれの機能部を自由に組み合わせたり、1つの機能部をさらに区分けしたりすることが可能である   The functional units shown in the functional block diagrams used in the description of the above-described embodiments are for easy understanding, and the present invention is not limited to the divisions shown here. It is possible to freely combine function parts or further divide one function part

本発明の画像処理システムは、カーナビゲーションのみならず、風景画像認識によって現在位置や方位を測位する技術分野に適用可能である。   The image processing system of the present invention can be applied not only to car navigation but also to a technical field that measures the current position and orientation by landscape image recognition.

3:ナビ制御モジュール
4:自車位置検出モジュール
41:GPS処理部
42:推測航法処理部
43:自車位置座標算定部
44:マップマッチング部
45:自車位置決定部
5:画像処理システム
51:データ入力部
52:特徴オブジェクト認識部
53:属性判定部
54:代表特徴点抽出部
55:属性情報生成部
56:特徴点データ生成部
57:参照データ生成部
60:特徴点抽出部
61:一時格納部
62:エッジ検出部
63:エッジ重要度決定部
64:重み付け部
65:調整係数設定部
66:エッジ点画像出力部
6:風景マッチング部
14:カメラ
92:参照データDB(参照データデータベース)
91:道路地図DB(道路地図データベース)

3: navigation control module 4: own vehicle position detection module 41: GPS processing unit 42: dead reckoning processing unit 43: own vehicle position coordinate calculation unit 44: map matching unit 45: own vehicle position determination unit 5: image processing system 51: Data input unit 52: feature object recognition unit 53: attribute determination unit 54: representative feature point extraction unit 55: attribute information generation unit 56: feature point data generation unit 57: reference data generation unit 60: feature point extraction unit 61: temporary storage Unit 62: Edge detection unit 63: Edge importance determination unit 64: Weighting unit 65: Adjustment coefficient setting unit 66: Edge point image output unit 6: Landscape matching unit 14: Camera 92: Reference data DB (reference data database)
91: Road map DB (Road map database)

Claims (8)

車両からの風景を撮影した撮影画像に基づいて風景画像マッチングを行う際に利用される参照データを作成する画像処理システムであって、
前記撮影画像と当該撮影画像の撮影位置とを入力するデータ入力部と、
入力された前記撮影画像から当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する特徴オブジェクト認識部と、
各前記特徴オブジェクトから当該特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点を抽出する代表特徴点抽出部と、
各前記特徴オブジェクトの属性であるオブジェクト属性を分類判定する属性判定部と、
前記撮像画像内における前記代表画像特徴点の位置を表す特徴点位置情報と、当該代表画像特徴点が属する特徴オブジェクトのオブジェクト属性を表す属性情報とを含む特徴点データを生成する特徴点データ生成部と、
前記特徴点データに前記撮影位置を関連付けて、前記参照データを生成する参照データ生成部と、
を備えた画像処理システム。
An image processing system for creating reference data used when performing landscape image matching based on a photographed image of a landscape from a vehicle,
A data input unit for inputting the photographed image and the photographing position of the photographed image;
A feature object recognition unit for recognizing an identifiable thing in the captured image as a feature object from the input captured image;
A representative feature point extraction unit that extracts one or more representative image feature points defining the feature object from each of the feature objects;
An attribute determination unit that classifies and determines an object attribute that is an attribute of each of the characteristic objects;
A feature point data generation unit that generates feature point data including feature point position information representing the position of the representative image feature point in the captured image and attribute information representing the object attribute of the feature object to which the representative image feature point belongs When,
A reference data generating unit that associates the shooting position with the feature point data and generates the reference data;
An image processing system.
前記属性情報は、判定された前記オブジェクト属性毎に割り当てられる識別データを含み、前記識別データは他の特徴オブジェクトと区別するための識別コードを含む請求項1に記載の画像処理システム。   The image processing system according to claim 1, wherein the attribute information includes identification data assigned for each determined object attribute, and the identification data includes an identification code for distinguishing from other characteristic objects. 前記特徴オブジェクトは幾何形状であり、前記オブジェクト属性は幾何形状を特定するものである請求項1または2に記載の画像処理システム。   The image processing system according to claim 1, wherein the feature object is a geometric shape, and the object attribute specifies a geometric shape. 認識された幾何形状が特定輪郭線を有する特定幾何形状である場合、当該輪郭線上に位置する幾何学的特徴点を前記代表画像特徴点とし、前記代表画像特徴点の前記撮影画像上の座標値を前記特徴点位置情報とする請求項3に記載の画像処理システム。 When the recognized geometric shape is a specific geometric shape having a specific contour line, a geometric feature point located on the contour line is set as the representative image feature point, and a coordinate value on the captured image of the representative image feature point The image processing system according to claim 3, wherein the feature point position information is used. 前記撮影画像に特定被写体が含まれている可能性を表す撮影状況情報が入力され、当該撮影状況情報に基づいて前記撮影画像から前記特徴オブジェクトを抽出するための抽出条件が変更される請求項1から4のいずれか一項に記載の画像処理システム。   The shooting condition information indicating the possibility that a specific subject is included in the shot image is input, and an extraction condition for extracting the feature object from the shot image is changed based on the shooting condition information. 5. The image processing system according to any one of items 1 to 4. 前記撮影画像からの前記特徴オブジェクトの抽出は、前記撮影画像にエッジ検出処理を施すことで得られたエッジ画像を通じて行われる請求項1から5のいずれか一項に記載の画像処理システム。   The image processing system according to claim 1, wherein the extraction of the feature object from the photographed image is performed through an edge image obtained by performing an edge detection process on the photographed image. 請求項1から6のいずれか一項に記載の画像処理システムによって作成される参照データを用いたマッチング処理を通じて自車位置を決定する位置測位システムにおいて、
前記参照データを格納している参照データデータベースと、
車両からの風景を撮影した実撮影画像を入力するデータ入力部と、
入力された前記実撮影画像から当該撮影画像中における識別可能な事物を特徴オブジェクトとして認識する特徴オブジェクト認識部と、
各前記特徴オブジェクトから当該特徴オブジェクトを規定する1つまたは2つ以上の代表画像特徴点を抽出する代表特徴点抽出部と、
各前記特徴オブジェクトの属性であるオブジェクト属性を分類判定する属性判定部と、
前記実撮像画像内における前記代表画像特徴点の位置を表す特徴点位置情報と、当該代表画像特徴点が属する特徴オブジェクトのオブジェクト属性を表す属性情報とを含む特徴点データをマッチング用データとして生成する特徴点データ生成部と、
前記参照データデータベースから抽出した参照データと前記マッチング用データとのマッチングを行うとともに、前記マッチングに成功した参照データに関係付けられた撮影位置に基づいて自車位置を決定する風景マッチング部とを備えた位置測位システム。
In the position positioning system which determines the own vehicle position through the matching process using the reference data created by the image processing system according to any one of claims 1 to 6,
A reference data database storing the reference data;
A data input unit for inputting an actual captured image of a landscape from the vehicle;
A feature object recognition unit for recognizing an identifiable thing in the photographed image as a feature object from the input photographed image;
A representative feature point extraction unit that extracts one or more representative image feature points defining the feature object from each of the feature objects;
An attribute determination unit that classifies and determines an object attribute that is an attribute of each of the characteristic objects;
Feature point data including feature point position information representing the position of the representative image feature point in the actual captured image and attribute information representing the object attribute of the feature object to which the representative image feature point belongs is generated as matching data. A feature point data generation unit;
A landscape matching unit that performs matching between the reference data extracted from the reference data database and the matching data, and determines a vehicle position based on a shooting position related to the reference data that has been successfully matched. Positioning system.
前記風景マッチング部は、前記参照データに含まれる異なる複数の前記特徴オブジェクトのそれぞれから前記代表画像特徴点を選択し、選択された複数の代表画像特徴点のそれぞれの特徴点位置情報を読み出すとともに、前記実撮像画像内における対応する複数の代表画像特徴点を抽出し、前記参照データの前記複数の代表画像特徴点の位置関係と、前記実撮像画像から抽出された対応する前記複数の代表画像特徴点の位置関係と、に基づいて自車位置を決定する請求項7に記載の位置測位システム。   The landscape matching unit selects the representative image feature point from each of a plurality of different feature objects included in the reference data, reads the feature point position information of each of the selected plurality of representative image feature points, A plurality of corresponding representative image feature points in the actual captured image are extracted, the positional relationship between the plurality of representative image feature points in the reference data, and the corresponding plurality of representative image features extracted from the actual captured image. The position positioning system according to claim 7, wherein the position of the vehicle is determined based on the positional relationship between the points.
JP2010084691A 2010-03-31 2010-03-31 Image processing system Expired - Fee Related JP5182594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010084691A JP5182594B2 (en) 2010-03-31 2010-03-31 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084691A JP5182594B2 (en) 2010-03-31 2010-03-31 Image processing system

Publications (2)

Publication Number Publication Date
JP2011215974A true JP2011215974A (en) 2011-10-27
JP5182594B2 JP5182594B2 (en) 2013-04-17

Family

ID=44945613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084691A Expired - Fee Related JP5182594B2 (en) 2010-03-31 2010-03-31 Image processing system

Country Status (1)

Country Link
JP (1) JP5182594B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program
DE112017006904T5 (en) 2017-01-24 2019-10-02 Fujitsu Limited Information processing device, feature point extraction program, and feature point extraction method
JP2020508528A (en) * 2017-07-12 2020-03-19 三菱電機株式会社 Imaging system
JP2020095625A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
CN112507152A (en) * 2020-12-03 2021-03-16 北京首钢自动化信息技术有限公司 Object identification method and device and terminal
WO2021117079A1 (en) * 2019-12-09 2021-06-17 日本電気株式会社 Self-position estimation device, self-position estimation method, and program
KR102269408B1 (en) * 2019-12-20 2021-06-25 군산대학교 산학협력단 Clustering method and apparatus based on contents of geo-tagged photos

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015089115A1 (en) 2013-12-09 2015-06-18 Nant Holdings Ip, Llc Feature density object classification, systems and methods
JP6999525B2 (en) 2018-09-14 2022-01-18 株式会社バンダイ Moving toys
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program
JP2004038877A (en) * 2002-07-08 2004-02-05 Yazaki Corp Perimeter monitoring device and image processing apparatus for vehicles
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2006040199A (en) * 2004-07-30 2006-02-09 Nippon Hoso Kyokai <Nhk> Video object extraction device, video object locus composition apparatus, and method and program thereof
WO2006025191A1 (en) * 2004-09-01 2006-03-09 Olympus Corporation Geometrical correcting method for multiprojection system
JP2006246175A (en) * 2005-03-04 2006-09-14 Epson Avasys Corp Moving image converter
JP2008070206A (en) * 2006-09-13 2008-03-27 Toyota Motor Corp Object recognizizing apparatus
WO2008050374A1 (en) * 2006-09-25 2008-05-02 Pioneer Corporation Scenery imaging device, scenery imaging method, scenery imaging program and computer readable recording medium
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
JP2009093280A (en) * 2007-10-04 2009-04-30 Fuji Xerox Co Ltd Image processor and collation system
JP2009156611A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Moving state estimation device
JP2009271650A (en) * 2008-05-02 2009-11-19 Geo Technical Laboratory Co Ltd Ground object specification method
JP2009289210A (en) * 2008-05-30 2009-12-10 Nippon Telegr & Teleph Corp <Ntt> Device and method for recognizing important object and program thereof

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program
JP2004038877A (en) * 2002-07-08 2004-02-05 Yazaki Corp Perimeter monitoring device and image processing apparatus for vehicles
WO2005038402A1 (en) * 2003-10-21 2005-04-28 Waro Iwane Navigation device
JP2006040199A (en) * 2004-07-30 2006-02-09 Nippon Hoso Kyokai <Nhk> Video object extraction device, video object locus composition apparatus, and method and program thereof
WO2006025191A1 (en) * 2004-09-01 2006-03-09 Olympus Corporation Geometrical correcting method for multiprojection system
JP2006246175A (en) * 2005-03-04 2006-09-14 Epson Avasys Corp Moving image converter
JP2008070206A (en) * 2006-09-13 2008-03-27 Toyota Motor Corp Object recognizizing apparatus
WO2008050374A1 (en) * 2006-09-25 2008-05-02 Pioneer Corporation Scenery imaging device, scenery imaging method, scenery imaging program and computer readable recording medium
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
JP2009093280A (en) * 2007-10-04 2009-04-30 Fuji Xerox Co Ltd Image processor and collation system
JP2009156611A (en) * 2007-12-25 2009-07-16 Toyota Motor Corp Moving state estimation device
JP2009271650A (en) * 2008-05-02 2009-11-19 Geo Technical Laboratory Co Ltd Ground object specification method
JP2009289210A (en) * 2008-05-30 2009-12-10 Nippon Telegr & Teleph Corp <Ntt> Device and method for recognizing important object and program thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017006904T5 (en) 2017-01-24 2019-10-02 Fujitsu Limited Information processing device, feature point extraction program, and feature point extraction method
US10997449B2 (en) 2017-01-24 2021-05-04 Fujitsu Limited Information processing system, computer-readable recording medium recording feature-point extraction program, and feature-point extraction method
JP2020508528A (en) * 2017-07-12 2020-03-19 三菱電機株式会社 Imaging system
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program
JP7036400B2 (en) 2018-01-30 2022-03-15 株式会社豊田中央研究所 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
JP2020095625A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7252750B2 (en) 2018-12-14 2023-04-05 株式会社デンソーテン Image processing device and image processing method
WO2021117079A1 (en) * 2019-12-09 2021-06-17 日本電気株式会社 Self-position estimation device, self-position estimation method, and program
JPWO2021117079A1 (en) * 2019-12-09 2021-06-17
JP7283579B2 (en) 2019-12-09 2023-05-30 日本電気株式会社 Self-position estimation device, self-position estimation method and program
KR102269408B1 (en) * 2019-12-20 2021-06-25 군산대학교 산학협력단 Clustering method and apparatus based on contents of geo-tagged photos
CN112507152A (en) * 2020-12-03 2021-03-16 北京首钢自动化信息技术有限公司 Object identification method and device and terminal

Also Published As

Publication number Publication date
JP5182594B2 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5057183B2 (en) Reference data generation system and position positioning system for landscape matching
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP5505723B2 (en) Image processing system and positioning system
JP5435306B2 (en) Image processing system and positioning system
JP5182594B2 (en) Image processing system
JP5057184B2 (en) Image processing system and vehicle control system
JP5062497B2 (en) Vehicle position detection system using landscape image recognition
JP5168601B2 (en) Own vehicle position recognition system
JP5333862B2 (en) Vehicle position detection system using landscape image recognition
JP5333860B2 (en) Vehicle position detection system using landscape image recognition
JP5177579B2 (en) Image processing system and positioning system
JP5333861B2 (en) Vehicle position detection system using landscape image recognition
JP5557036B2 (en) Exit determination device, exit determination program, and exit determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130102

R150 Certificate of patent or registration of utility model

Ref document number: 5182594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees