JP2007272119A - Planimetrical feature information output device - Google Patents

Planimetrical feature information output device Download PDF

Info

Publication number
JP2007272119A
JP2007272119A JP2006100469A JP2006100469A JP2007272119A JP 2007272119 A JP2007272119 A JP 2007272119A JP 2006100469 A JP2006100469 A JP 2006100469A JP 2006100469 A JP2006100469 A JP 2006100469A JP 2007272119 A JP2007272119 A JP 2007272119A
Authority
JP
Japan
Prior art keywords
feature
information
measurement point
image
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006100469A
Other languages
Japanese (ja)
Other versions
JP5010844B2 (en
Inventor
Tomoaki Ishikawa
知章 石川
Masaki Nakamura
正樹 中村
Satoshi Aisaka
総 逢坂
Motoki Kanba
基揮 勘場
Motohiro Nakamura
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2006100469A priority Critical patent/JP5010844B2/en
Publication of JP2007272119A publication Critical patent/JP2007272119A/en
Application granted granted Critical
Publication of JP5010844B2 publication Critical patent/JP5010844B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a planimetrical feature information output device and a planimetrical feature information output method that can output planimetrical feature information showing arrangements and topology of planimetrical features in detail and also suppress small the amount of data required to be stored in an information storage means to output such planimetrical feature information. <P>SOLUTION: The planimetrical feature information output device includes: a planimetrical feature topology information storage means DB1 which stores planimetrical feature topology information Fa for every planimetrical feature kind; a planimetrical feature arrangement information storage means DB2 which stores planimetrical feature kind information Fb on each planimetrical feature and planimetrical feature arrangement information Fc on each planimetrical feature; and a planimetrical feature information generating means 3 of acquiring planimetrical feature kind information Fb and planimetrical feature arrangement information Fc on a planimetrical feature nearby a specified position from the planimetrical feature arrangement information storage means DB2, acquiring planimetrical feature topology information Fa of the planimetrical feature kind from the planimetrical feature topology information storage means DB1 according to the acquired planimetrical feature kind information Fb, and generating and outputting planimetrical feature information F showing the arrangement and topology of the planimetrical feature nearby the specified position on a road surface based upon the planimetrical feature arrangement information Fc and planimetrical feature topology information Fa. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、位置入力手段からの指定位置の入力に従って、当該指定位置近傍の道路面上に配置された平面的な地物についての地物情報を出力する地物情報出力装置に関する。   The present invention relates to a feature information output device that outputs feature information about a planar feature placed on a road surface in the vicinity of the designated position in accordance with an input of the designated position from a position input means.

地図データベース等に用いる地物の情報を管理するための技術として、例えば下記の特許文献1には、以下のような地物管理装置に関する技術が開示されている。この装置は、入出力部、図形要素記憶部、属性データ用記憶部、地物管理プログラムが格納されたメモリ、基本プログラムが格納されたメモリ、及びCPUがバスにより接続された構成を有している。ここで、地物管理プログラムは地物の図形要素及び属性データの格納方法を規定し管理するプログラムである。そして、各地物はこれを他の地物と区別するための固有の管理番号が与えられて管理される。すなわち、各地物ごとにその管理番号(IDコード)を入出力部より入力すると共に、その地物の図形要素を入力する。これらの入力によりその管理番号と関連付けてその図形要素を図形要素用記憶部に格納する。   As a technique for managing feature information used for a map database or the like, for example, the following Patent Document 1 discloses a technique related to a feature management apparatus as described below. This device has a configuration in which an input / output unit, a graphic element storage unit, an attribute data storage unit, a memory storing a feature management program, a memory storing a basic program, and a CPU are connected by a bus. Yes. Here, the feature management program is a program that defines and manages the storage method of the graphic elements and attribute data of the features. Each feature is managed by being given a unique management number to distinguish it from other features. That is, the management number (ID code) is input from the input / output unit for each feature, and the graphic element of the feature is input. With these inputs, the graphic element is stored in the graphic element storage unit in association with the management number.

図形要素の代表座標値は、例えば地物が建物である場合、そのデジタル空間データの水平投影により生成される図形要素は平面形状で表現され、その平面形状の重心の緯度・経度値として与えられる。また、図形要素用記憶部には、各地物ごとに上記のようにして与えられた管理番号と関連付けて、図形要素が地物定義に従った点・線・面のどれかを用いて座標値で記憶される。線や面については、点と線の長さ及び向きとによるベクタ形式で表現されて記憶される。なお、属性データ用記憶部には、例えば地物が建物である場合、その特性を表わす主題属性として構造、用途、階数などが地物オブジェクトの管理番号と関連付けて記憶される。   For example, when the feature is a building, the representative coordinate value of the graphic element is expressed as a flat shape of the graphic element generated by horizontal projection of the digital space data, and is given as the latitude and longitude values of the center of gravity of the flat shape. . In addition, in the graphic element storage unit, the graphic element is associated with the management number given as described above for each feature, and the graphic element uses a point, line, or plane according to the feature definition as a coordinate value. Is memorized. Lines and surfaces are expressed and stored in a vector format based on points, line lengths, and orientations. In the attribute data storage unit, for example, when the feature is a building, the structure, usage, number of floors, and the like are stored in association with the management number of the feature object as the subject attribute representing the characteristic.

特開2005−164945号公報(第2−5頁、第1−2図)JP 2005-164945 A (page 2-5, Fig. 1-2)

上記の技術では、地物情報を記憶するに際して、管理対象となる各地物について、地物の平面形状の重心の座標値を地物の代表位置の情報とし、点と線の長さ及び向きとによるベクタ形式のデータを地物の平面形状を表す情報としてそれぞれ格納する。管理対象となる地物の数が膨大になる場合には、図形要素記憶部に記憶されるデータ量が非常に大きくならざるを得ないという問題がある。   In the above technique, when storing feature information, for each feature to be managed, the coordinate value of the center of gravity of the planar shape of the feature is used as information on the representative position of the feature, and the length and direction of the points, lines, The vector data according to is stored as information representing the planar shape of the feature. When the number of features to be managed becomes enormous, there is a problem that the amount of data stored in the graphic element storage unit has to be very large.

一方、データ量を小さくするために、地物の形状を実際の形状よりも簡略化したデータとして格納することも考えられる。しかし、地物情報を用いて画像認識を行い、その結果を車両制御や経路案内等に利用するためには、地物の位置及び形態を詳細にデータベース化することが必要となる。したがって、地物情報の用途によっては、安易に地物の形状等を表す情報を簡略化することはできない。   On the other hand, in order to reduce the amount of data, it may be possible to store the shape of the feature as data that is simplified from the actual shape. However, in order to perform image recognition using the feature information and use the result for vehicle control, route guidance, or the like, it is necessary to create a detailed database of the position and form of the feature. Therefore, depending on the use of the feature information, information representing the shape of the feature cannot be easily simplified.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、地物の配置及び形態を詳細に示す地物情報を出力することができるとともに、そのような地物情報を出力するために情報格納手段に格納することが必要とされるデータ量を小さく抑えることができる地物情報出力装置及び地物情報出力方法を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to output feature information indicating the arrangement and form of the feature in detail and to output such feature information. Therefore, an object of the present invention is to provide a feature information output device and a feature information output method that can reduce the amount of data required to be stored in an information storage means.

上記目的を達成するための本発明に係る、位置入力手段からの指定位置の入力に従って、当該指定位置近傍の道路面上に配置された平面的な地物についての地物情報を出力する地物情報出力装置の特徴構成は、一つの地物種別の地物が備える形態を規定した地物形態情報を、地物種別毎に格納した地物形態情報格納手段と、道路面上に配置された複数の平面的な地物について、各地物の地物種別を示す地物種別情報と各地物の位置及び方向を示す地物配置情報とを格納した地物配置情報格納手段と、前記指定位置近傍の地物の前記地物種別情報及び前記地物配置情報を前記地物配置情報格納手段から取得するとともに、取得された前記地物種別情報に従って当該地物種別の地物形態情報を前記地物形態情報格納手段から取得し、これらの前記地物配置情報及び前記地物形態情報に基づいて、前記指定位置近傍の地物の道路面上における配置及び形態を示す地物情報を生成して出力する地物情報生成手段と、を備える点にある。   According to the present invention for achieving the above object, a feature that outputs feature information about a planar feature arranged on a road surface in the vicinity of the designated position in accordance with an input of the designated position from the position input means. The characteristic configuration of the information output device is arranged on the road surface with the feature form information storage means for storing the feature form information that defines the form of the feature of one feature type for each feature type. For a plurality of planar features, feature location information storage means for storing feature type information indicating the feature type of each feature and feature location information indicating the position and direction of each feature, and the vicinity of the specified position The feature type information and the feature arrangement information of the feature are acquired from the feature arrangement information storage means, and the feature form information of the feature type is obtained in accordance with the acquired feature type information. Obtained from the morphological information storage means, A feature information generating means for generating and outputting feature information indicating the arrangement and form of the feature in the vicinity of the designated position on the road surface based on the feature arrangement information and the feature form information; is there.

ところで、例えばいわゆる道路ペイントと呼ばれる道路標示や区画線等のように、道路面上に配置された平面的な地物は、その形状及び寸法等が法令によって規定されているものが多い。本特徴構成によれば、このように形状及び寸法等が法令に規定されている地物等、同一の地物種別に属する地物に共通の形態を有する地物に関して、その形状及び寸法等を含む地物形態情報を、地物種別毎に地物形態情報格納手段に格納している。したがって、同一の地物種別に属する複数の地物について重複する情報となる地物形態情報を共通化して格納することになり、情報格納手段に格納するデータ量を小さく抑えることができる。一方、道路面上に配置された各地物の位置及び方向等の情報については、地物配置情報として地物種別情報と共に地物配置情報格納手段に格納している。したがって、地物種別情報に基づいて、地物形態情報格納手段に格納された情報と地物配置情報格納手段に格納された情報とを組み合わせることで、地物の道路面上における配置及び形態を詳細に示す地物情報を生成して出力することができる。   By the way, for example, a planar feature arranged on a road surface, such as a road marking or a lane marking called a so-called road paint, is often stipulated by laws and regulations. According to this feature configuration, the shape, size, etc. of the features having a common form to the features belonging to the same feature type, such as the features whose shapes, dimensions, etc. are stipulated by laws and regulations, are as follows. The included feature form information is stored in the feature form information storage unit for each feature type. Therefore, the feature form information, which is redundant information for a plurality of features belonging to the same feature type, is stored in common, and the amount of data stored in the information storage unit can be kept small. On the other hand, information such as the position and direction of each feature placed on the road surface is stored in the feature placement information storage unit together with the feature type information as feature placement information. Therefore, by combining the information stored in the feature form information storage means and the information stored in the feature placement information storage means based on the feature type information, the arrangement and form of the features on the road surface can be determined. Detailed feature information can be generated and output.

ここで、前記地物形態情報は、各地物種別の地物の輪郭形状を示す輪郭情報を少なくとも備えていると好適である。   Here, it is preferable that the feature form information includes at least contour information indicating a contour shape of the feature of each feature type.

これにより、地物情報として、地物の道路面上における配置及び少なくとも輪郭形状を示す情報を生成して出力することができる。したがって、画像認識等に用いるために最低限必要な情報を出力することができる。   As a result, information indicating the arrangement of the feature on the road surface and at least the contour shape can be generated and output as the feature information. Therefore, it is possible to output the minimum necessary information for use in image recognition or the like.

また、例えば、横断歩道、停止線、進行方向別通行区分等のように比較的簡略な形状の地物については、前記地物配置情報は、各地物の輪郭線上における最外部に位置する少なくとも2個の代表点の位置情報により構成されていると好適である。ここで、代表点が2個あればその地物の位置及び方向が定まるが、横断歩道や停止線等のように幅方向の情報が必要な地物も存在するため、地物種別によっては3個以上の代表点の位置情報を地物配置情報として備える場合もある。
また、例えば、最高速度等を示す文字や転回禁止等のように比較的複雑な形状の地物については、前記地物配置情報は、各地物をその輪郭線の最外部に沿って囲む矩形枠の角部に位置する4個の代表点の位置情報により構成されていると好適である。
In addition, for features having a relatively simple shape such as a crosswalk, a stop line, and a traffic division according to the traveling direction, the feature arrangement information is at least 2 located on the outermost contour line of each feature. It is preferable that the information is constituted by position information of individual representative points. Here, if there are two representative points, the position and direction of the feature are determined, but there are features that require information in the width direction, such as pedestrian crossings and stop lines, so depending on the feature type, 3 In some cases, position information of more than one representative point is provided as feature arrangement information.
Further, for example, for a feature having a relatively complicated shape such as a character indicating a maximum speed or a rotation prohibition, the feature arrangement information includes a rectangular frame that surrounds each feature along the outermost part of its outline. It is preferable that the information is constituted by position information of four representative points located at the corners.

このように構成することにより、地物配置情報を、各地物の道路上の位置及び向きを特定可能な情報とすることができる。また、このように一定の規則に従って地物配置情報を規定することにより、地物配置情報を汎用的な情報とすることができる。   With this configuration, the feature arrangement information can be information that can specify the position and orientation of each feature on the road. In addition, by defining the feature arrangement information according to certain rules in this way, the feature arrangement information can be made general-purpose information.

また、各地物種別の地物についての画像認識の際の基準となる複数箇所の測定点の形態情報を、地物の全体形態の中での複数箇所の測定点の配置として規定し、地物種別毎に格納した測定点形態情報格納手段と、前記指定位置近傍の地物の地物種別に対応する前記測定点の形態情報を、前記測定点形態情報格納手段から取得するとともに、取得した前記測定点の形態情報と前記地物情報生成手段により生成された前記地物情報とに基づいて前記測定点の位置情報を導出し、前記指定位置近傍の地物についての複数箇所の測定点の形態情報及び位置情報を含む測定点情報を生成して出力する測定点情報生成手段と、を更に備える構成とすると好適である。   In addition, the configuration information of multiple measurement points that serve as a reference for image recognition of features of each type of feature is defined as the arrangement of multiple measurement points in the overall form of the feature. The measurement point form information storage means stored for each type, and the measurement point form information corresponding to the feature type of the feature near the specified position are acquired from the measurement point form information storage means and the acquired The position information of the measurement point is derived based on the feature information of the measurement point and the feature information generated by the feature information generation means, and the form of a plurality of measurement points for the feature near the specified position It is preferable to further include measurement point information generating means for generating and outputting measurement point information including information and position information.

このように構成すれば、各地物についての画像認識の際の基準となる測定点の形態情報及び位置情報を適切に取得することができる。またこの際、測定点の位置情報は、測定点形態情報格納手段から取得した測定点の形態情報と、地物情報生成手段により生成された地物情報とに基づいて導出する。したがって、全ての測定点の座標等の位置情報を記憶しておく場合と比較して、情報格納手段に格納しておくことが必要な情報量を少なく抑えることが可能となる。   If comprised in this way, the shape information and position information of the measurement point used as the reference | standard at the time of the image recognition about each feature can be acquired appropriately. At this time, the position information of the measurement points is derived based on the measurement point form information acquired from the measurement point form information storage unit and the feature information generated by the feature information generation unit. Therefore, it is possible to reduce the amount of information that needs to be stored in the information storage means, compared to the case where position information such as the coordinates of all measurement points is stored.

また、前記地物の各測定点について、画像認識の困難性に関する状態を示す測定点状態情報を格納する測定点状態情報格納手段を更に備え、前記測定点情報生成手段は、前記測定点情報として、各測定点の測定点状態情報も出力する構成とすると好適である。   Further, the measurement point state information storage means for storing the measurement point state information indicating the state related to the difficulty of image recognition is further provided for each measurement point of the feature, and the measurement point information generation means includes the measurement point information as the measurement point information. It is preferable that the measurement point state information of each measurement point is also output.

ここで、「測定点状態情報」としては、例えば、対象地物における各測定点周辺のかすれや汚れの情報等、測定点の画像認識に影響を与える各種の情報が含まれる。
この構成によれば、地物情報出力装置により出力された地物情報に基づいて当該地物に設定された測定点の画像認識を行う場合に、地物のかすれや汚れの程度等を考慮して測定点の画像認識を行うことが可能となる。したがって、無駄な画像認識処理を省いて演算負荷を軽減できるとともに、測定点の位置の誤認識が生じることを抑制できる。
Here, the “measurement point state information” includes, for example, various kinds of information that affects the image recognition of the measurement point, such as blurring and dirt information around each measurement point in the target feature.
According to this configuration, when performing image recognition of the measurement points set on the feature based on the feature information output by the feature information output device, the degree of fading or dirt on the feature is taken into consideration. Thus, image recognition of the measurement point can be performed. Therefore, it is possible to reduce a calculation load by omitting useless image recognition processing, and it is possible to suppress erroneous recognition of the position of the measurement point.

本発明に係る画像認識装置の特徴構成は、上記のような地物情報出力装置を備えた画像認識装置であって、自車両に搭載された撮像装置により撮像した画像情報を取得する画像情報取得手段と、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、前記画像情報についての画像認識を行う画像認識手段と、を更に備え、前記地物情報出力装置は、前記自車位置情報に示される位置を前記指定位置として前記撮像装置により撮像される地物の前記地物情報を出力し、前記画像認識手段は、出力された前記地物情報を用いて、前記画像情報に含まれている前記地物についての画像認識を行う点にある。   The image recognition apparatus according to the present invention is characterized in that the image recognition apparatus includes the feature information output apparatus as described above, and acquires image information acquired by an image pickup apparatus mounted on the host vehicle. The feature information output device further comprises: means; own vehicle position information acquisition means for acquiring own vehicle position information indicating the current position of the own vehicle; and image recognition means for performing image recognition on the image information. The feature information of the feature imaged by the imaging device is output with the position indicated by the vehicle position information as the designated position, and the image recognition means uses the outputted feature information, The feature is that image recognition is performed on the feature included in the image information.

この特徴構成によれば、地物情報出力装置から出力された地物情報を用いて、自車両の周辺の地物の画像認識を良好に行うことができる。また、この特徴構成によれば、この画像認識に必要となる、地物の道路面上における配置及び形態を詳細に示す地物情報を生成するために、情報格納手段に格納するデータ量を小さく抑えることができる。   According to this feature configuration, it is possible to satisfactorily perform image recognition of features around the host vehicle using the feature information output from the feature information output device. Further, according to this feature configuration, in order to generate the feature information indicating the arrangement and form of the feature on the road surface, which is necessary for the image recognition, the amount of data stored in the information storage unit is reduced. Can be suppressed.

本発明に係る自車位置認識装置の特徴構成は、上記のような測定点情報出力手段を含む地物情報出力装置を備えた自車位置認識装置であって、自車両に搭載された撮像装置により撮像した画像情報を取得する画像情報取得手段と、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、前記地物情報出力装置の前記測定点情報生成手段から出力された前記測定点情報に基づいて、前記画像情報に含まれている地物についての前記複数箇所の測定点の画像認識を行う画像認識手段と、前記画像認識手段により認識された前記測定点の中の少なくとも一つの画像認識結果と、当該測定点の前記測定点情報とに基づいて前記自車位置情報を補正する自車位置補正手段と、を更に備える点にある。   A characteristic configuration of the vehicle position recognition device according to the present invention is a vehicle position recognition device including a feature information output device including the measurement point information output means as described above, and is an imaging device mounted on the vehicle. From the image information acquisition means for acquiring the image information captured by the vehicle, the own vehicle position information acquisition means for acquiring the own vehicle position information indicating the current position of the own vehicle, and the measurement point information generation means of the feature information output device Based on the output measurement point information, image recognition means for performing image recognition of the plurality of measurement points for the feature included in the image information, and the measurement points recognized by the image recognition means The vehicle position correction means for correcting the vehicle position information based on at least one of the image recognition results and the measurement point information of the measurement point.

この特徴構成によれば、各地物の地物種別に応じて予め定められた測定点を対象として画像認識を行うので、自車両と認識対象地物との間の距離の認識精度を高めることが可能となる。また、この際、測定点を複数箇所に設定しているので、一つの測定点が認識できなかった場合であっても他の測定点を認識できれば自車両と認識対象地物との間の距離を認識することができるので、認識率が低下することを防止できる。また、認識対象地物の中に設定された測定点を画像認識の対象とし、更には一つの認識対象地物の中に複数箇所の測定点を設定しているので、地物の全体が一つの画像情報の中に含まれていない場合であっても画像認識を比較的容易に行うことができる。   According to this feature configuration, image recognition is performed on measurement points determined in advance according to the feature type of each feature, so that the recognition accuracy of the distance between the host vehicle and the recognition target feature can be improved. It becomes possible. At this time, since multiple measurement points are set, even if one measurement point cannot be recognized, the distance between the vehicle and the recognition target feature can be recognized if another measurement point can be recognized. Can be recognized, so that the recognition rate can be prevented from decreasing. In addition, since the measurement points set in the recognition target feature are set as the object of image recognition, and more than one measurement point is set in one recognition target feature, the entire feature is unified. Even if it is not included in one piece of image information, image recognition can be performed relatively easily.

〔第一の実施形態〕
本発明の第一の実施形態について図面に基づいて説明する。図1は、本実施形態に係る自車位置認識装置1の全体構成を模式的に示すブロック図である。図2は、図1に示される地物形態データベースDB1、地物配置データベースDB2、測定点形態データベースDB3、及び測定点状態データベースDB4のそれぞれに格納される情報の内容を示す説明図である。本実施形態においては、自車位置認識のために取り扱う対象とする対象地物を、道路面上に配置されたいわゆる道路ペイント等の平面的な地物とし、特に横断歩道や停止線等の道路標示とする場合を例として説明する。
[First embodiment]
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram schematically showing the overall configuration of the vehicle position recognition device 1 according to the present embodiment. FIG. 2 is an explanatory diagram showing the contents of information stored in each of the feature form database DB1, feature arrangement database DB2, measurement point form database DB3, and measurement point state database DB4 shown in FIG. In the present embodiment, the target feature to be handled for vehicle position recognition is a planar feature such as a so-called road paint arranged on the road surface, particularly a road such as a pedestrian crossing or a stop line. A case where a sign is used will be described as an example.

この自車位置認識装置1の各機能部、具体的には、地物情報生成部3、測定点情報生成部4、自車位置演算部5、画像情報取得部6、画像認識部7、位置関係演算部8、及び自車位置補正部9は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア(プログラム)或いはその両方により実装されて構成されている。また、各データベースDB1、DB2、DB3、DB4、及びDBmは、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。以下、各部の構成について詳細に説明する。   Each functional unit of the vehicle position recognition device 1, specifically, a feature information generation unit 3, a measurement point information generation unit 4, a vehicle position calculation unit 5, an image information acquisition unit 6, an image recognition unit 7, a position The relation calculation unit 8 and the vehicle position correction unit 9 have a function unit for performing various processes on input data using a calculation processing device such as a CPU as a core member, or hardware or software (program). Or it is mounted and comprised by both. Each of the databases DB1, DB2, DB3, DB4, and DBm is a recording medium capable of storing information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, etc. And a device having the driving means thereof as a hardware configuration. Hereinafter, the configuration of each unit will be described in detail.

1.地物形態データベースDB1
まず、図2に基づいて各データベースの構成について説明する。地物形態情報格納手段としての地物形態データベースDB1には、一つの地物種別の地物が備える形態を規定した地物形態情報Faが、地物種別毎に複数格納されている。各地物種別についての地物形態情報Faは、地物種別を表す地物種別コードCfに関連付けられてそれぞれデータベースに格納されている。地物形態情報Faは、対象地物としての道路標示の形態を示す情報であり、各地物種別の地物の輪郭形状を示す輪郭情報を有して構成されている。図3(a)〜(f)は、複数の地物種別の地物の輪郭形状及び代表点Rの位置の例を示している。すなわち、(a)は「横断歩道」、(b)は「停止線」、(c)は「横断歩道予告(横断歩道あり)」、(d)は「進行方向別通行区分」、(e)は「転回禁止」、(f)は「最高速度」の各道路標示の輪郭形状を示している。このような各道路標示名に対応して地物種別コードCfが設定されている。そして、この図3(a)〜(f)に示されるような輪郭形状の情報が各道路標示を示す地物種別コードCfと関連付けられた状態で地物形態情報Faとして格納されている。なお、当然ながら図3に示す地物種別は対象地物の中の一部の例であり、この図に示す以外の地物種別の地物も対象地物となり得る。
1. Feature form database DB1
First, the configuration of each database will be described with reference to FIG. In the feature form database DB1 as the feature form information storage means, a plurality of feature form information Fa defining the form of a feature of one feature type is stored for each feature type. The feature form information Fa for each feature type is stored in the database in association with the feature type code Cf representing the feature type. The feature form information Fa is information indicating the form of the road marking as the target feature, and is configured to have contour information indicating the contour shape of the feature of each feature type. FIGS. 3A to 3F show examples of contour shapes and positions of representative points R of features of a plurality of feature types. That is, (a) is “pedestrian crossing”, (b) is “stop line”, (c) is “pedestrian crossing notice (with pedestrian crossing)”, (d) is “traffic classification according to traveling direction”, (e) Indicates the contour shape of each road marking of “maximum speed”. A feature type code Cf is set corresponding to each road marking name. The contour shape information as shown in FIGS. 3 (a) to 3 (f) is stored as the feature form information Fa in a state associated with the feature type code Cf indicating each road marking. Naturally, the feature type shown in FIG. 3 is an example of a part of the target feature, and a feature type other than that shown in FIG. 3 can also be the target feature.

また、各地物種別の地物の輪郭形状に関連付けて、各部の寸法のうち、法令によって規定されており変化しない箇所に関する情報も地物形態情報Faとして格納されている。すなわち、横断歩道や停止線の道路幅方向の長さ等は、配置場所の道路幅によって当然に変化するからである。例えば、図3(a)の「横断歩道」の場合であれば、各線の幅L1及び線間隔L2は法令によって規定されているが、各線の長さ(横断歩道の幅)L3及び横断歩道全体の長さL4は配置場所によって変化する。一方、例えば図3(d)の「進行方向別通行区分」の場合は各部の全ての寸法が法令によって規定されている。   Further, in relation to the contour shape of each feature type feature, information on a portion that is regulated by the law and does not change is stored as the feature form information Fa. That is, the length of the pedestrian crossing and the stop line in the road width direction naturally changes depending on the road width of the arrangement place. For example, in the case of “pedestrian crossing” in FIG. 3A, the width L1 and the line interval L2 of each line are prescribed by law, but the length of each line (width of the pedestrian crossing) L3 and the entire pedestrian crossing. The length L4 varies depending on the location. On the other hand, for example, in the case of “passage by direction of travel” in FIG. 3D, all dimensions of each part are prescribed by law.

2.地物配置データベースDB2
地物配置情報格納手段としての地物配置データベースDB2には、複数の地物について、各地物の地物種別を示す地物種別情報Fbと各地物の位置及び方向を示す地物配置情報Fcとが格納されている。各地物についての地物種別情報Fb及び地物配置情報Fcは、各地物に固有の地物識別符号IDfに関連付けられてそれぞれデータベースに格納されている。地物識別符号IDfは、各地物に重複することなく付される固有の符号である。地物種別情報Fbは、各地物の属する地物種別を示す情報であって、ここでは、各地物の属する地物種別を表す地物種別コードCfとしている。
2. Feature arrangement database DB2
The feature arrangement database DB2 as the feature arrangement information storage means includes, for a plurality of features, feature type information Fb indicating the feature type of each feature, and feature arrangement information Fc indicating the position and direction of each feature. Is stored. The feature type information Fb and the feature arrangement information Fc for each feature are stored in the database in association with the feature identification code IDf unique to each feature. The feature identification code IDf is a unique code given to each feature without overlapping. The feature type information Fb is information indicating the feature type to which each feature belongs, and here is a feature type code Cf representing the feature type to which each feature belongs.

地物配置情報Fcは、各地物の位置及び方向を示す情報である。ここでは、図3に示すように、地物配置情報Fcは、各地物の外形上に配置された複数個の代表点Rの位置情報により構成されている。本例では、代表点Rは、(1)図3(a)〜(d)に示されるように各地物の輪郭線上における最外部に位置するように設定される場合と、(2)図3(e)及び(f)に示されるように各地物をその輪郭線の最外部に沿って囲む矩形枠Frの角部に位置するように設定される場合とがある。前記(1)の場合、代表点Rの個数は地物種別によって適切に設定されている。例えば図3(a)の「横断歩道」のように、幅L3及び長さL4が配置場所によって変化する地物の場合には4箇所に設定されている。一方、例えば図3(d)の「進行方向別通行区分」の場合は各部の全ての寸法が法令によって規定されており、2箇所に設定しておけば道路上における地物の配置が定まる。前記(2)のような代表点Rの配置は、文字や複数個の組み合わせ等のような比較的複雑な輪郭形状を有する地物について行われる。   The feature arrangement information Fc is information indicating the position and direction of each feature. Here, as shown in FIG. 3, the feature arrangement information Fc is configured by position information of a plurality of representative points R arranged on the outer shape of each feature. In this example, the representative point R is (1) set to be positioned on the outermost part on the contour line of each feature as shown in FIGS. 3 (a) to 3 (d), and (2) FIG. As shown in (e) and (f), the feature may be set to be located at the corner of the rectangular frame Fr surrounding the feature along the outermost part of the outline. In the case of (1), the number of representative points R is appropriately set according to the feature type. For example, as in the case of a “crosswalk” in FIG. 3A, the width L3 and the length L4 are set to four locations in the case of a feature that varies depending on the arrangement location. On the other hand, for example, in the case of the “traveling direction classified by traveling direction” in FIG. 3D, all dimensions of each part are defined by laws and regulations, and if two places are set, the arrangement of the features on the road is determined. The arrangement of the representative points R as in the above (2) is performed on features having a relatively complicated contour shape such as characters and a plurality of combinations.

地物配置情報Fcを構成する代表点Rの位置情報は、各代表点Rの緯度及び経度で表現可能な地図上の位置を示す情報である。図1に示すように、本例では、地物配置データベースDB2は、地図データベースDBmの一部として構成されている。そして、代表点Rの位置情報は、地図データベースDBmに格納されている地図上の位置を示す情報とされている。そこで、以下に地図データベースDBmの構成について説明する。   The position information of the representative point R constituting the feature arrangement information Fc is information indicating a position on the map that can be expressed by the latitude and longitude of each representative point R. As shown in FIG. 1, in this example, the feature arrangement database DB2 is configured as a part of the map database DBm. The position information of the representative point R is information indicating the position on the map stored in the map database DBm. Therefore, the configuration of the map database DBm will be described below.

3.地図データベースDBm
地図情報格納手段としての地図データベースDBmは、地図情報Eを格納したデータベースである。図4は、地図データベースDBmに格納されている地図情報Eの内容を示す説明図である。この図に示すように、本実施形態に係る地図データベースDBmには、地図情報Eとして、道路ネットワークレイヤX1、道路形状レイヤX2、地物レイヤX3が格納されている。そして、本例では、この地物レイヤX3が、上述の地物配置データベースDB2を構成する。
3. Map database DBm
The map database DBm as map information storage means is a database storing map information E. FIG. 4 is an explanatory diagram showing the contents of the map information E stored in the map database DBm. As shown in this figure, the map database DBm according to the present embodiment stores a road network layer X1, a road shape layer X2, and a feature layer X3 as map information E. In this example, the feature layer X3 constitutes the above-described feature arrangement database DB2.

道路ネットワークレイヤX1は、道路間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。
道路形状レイヤX2は、道路ネットワークレイヤX1に関連付けられて格納され、道路の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Qの情報と、各道路形状補完点Qにおける道路幅Wの情報とを有して構成されている。
The road network layer X1 is a layer indicating connection information between roads. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L constituting the road by connecting the two nodes N. It is configured. Each link L includes information such as the type of road (type of highway, toll road, national road, prefectural road, etc.) and link length as link information.
The road shape layer X2 is stored in association with the road network layer X1 and indicates the shape of the road. Specifically, information on a number of road shape complementary points Q that are located between two nodes N (on the link L) and have position information on a map expressed by latitude and longitude, and each road shape complementary point Information of road width W in Q.

地物レイヤX3は、道路ネットワークレイヤX1及び道路形状レイヤX2に関連付けられて格納され、道路上及び道路の周辺に設けられた各種地物の情報を示すレイヤである。ここでは、対象地物に関して、地物識別符号IDfに関連付けて地物種別情報Fb及び地物配置情報Fcが格納されている(図2参照)。地物配置情報Fcは、図3に示されているように、各地物の代表点Rの地図上の位置を示す位置情報とされている。各代表点Rの位置情報は、ここでは、道路ネットワークレイヤX1及び道路形状レイヤX2に格納されているノードN又は道路形状補完点Qの位置情報を基準として、そこからのオフセット量により表されている。また、地物レイヤX3には、対象地物以外の区画線等の道路標示以外の道路ペイントや標識及び信号機等の立体物等に関する情報も格納されている。この各地物の代表点Rの位置情報を示す地物配置情報Fcに基づいて、後述する測定点情報生成部4において、各地物の測定点Pの位置情報が演算され導出される。   The feature layer X3 is a layer that is stored in association with the road network layer X1 and the road shape layer X2, and indicates information on various features provided on the road and in the vicinity of the road. Here, with respect to the target feature, feature type information Fb and feature arrangement information Fc are stored in association with the feature identification code IDf (see FIG. 2). The feature arrangement information Fc is position information indicating the position of the representative point R of each feature on the map, as shown in FIG. Here, the position information of each representative point R is expressed by an offset amount from the position information of the node N or the road shape complementing point Q stored in the road network layer X1 and the road shape layer X2. Yes. The feature layer X3 also stores information on road paint other than road markings such as lane markings other than the target feature, solid objects such as signs and traffic lights, and the like. Based on the feature arrangement information Fc indicating the position information of the representative point R of each feature, the position information of the measurement point P of each feature is calculated and derived in the measurement point information generating unit 4 described later.

4.測定点形態データベースDB3
図2に示すように、測定点形態情報格納手段としての測定点形態データベースDB3には、各地物種別の地物についての複数箇所の測定点P(図5及び図6参照)のそれぞれの形態を規定した測定点形態情報Maが格納されている。ここでは、各地物種別の地物にそれぞれ複数箇所の測定点Pが設定されており、その各地物種別の地物に設定された複数の測定点Pのそれぞれに重複しない測定点番号Mn(=1、2、・・・)が設定されている。そして、各地物種別コードCfに関連付けられて当該地物種別に設定された複数箇所の測定点Pの測定点番号Mnと、各測定点番号Mnの測定点Pについての測定点形態情報Maとが格納されている。
4). Measurement point form database DB3
As shown in FIG. 2, in the measurement point form database DB3 as the measurement point form information storage means, the form of each of a plurality of measurement points P (see FIGS. 5 and 6) for each feature type feature is stored. The specified measurement point form information Ma is stored. Here, a plurality of measurement points P are set for each feature type feature, and a measurement point number Mn (= not overlapping with each of the plurality of measurement points P set for the feature type feature. 1, 2, ...) are set. And the measurement point number Mn of the measurement points P at a plurality of locations set in the feature type in association with the feature type code Cf, and the measurement point form information Ma for the measurement points P of each measurement point number Mn. Stored.

測定点Pは、対象地物上に設定された特定の位置である。この測定点Pが、後述する画像認識部7における画像認識の対象となるとともに、位置関係演算部8における自車両Cと対象地物との位置関係の演算の際の基準となる。そして、測定点形態情報Maは、地物の全体形態の中での複数箇所の測定点Pの配置として規定されている。図5及び図6の(a)〜(f)は、複数の地物種別についての測定点Pの配置の例を示している。すなわち、(a)は「横断歩道」、(b)は「停止線」、(c)は「横断歩道予告(横断歩道あり)」、(d)は「進行方向別通行区分」、(e)は「転回禁止」、(f)は「最高速度」の各地物種別についての測定点Pの配置(すなわち測定点形態情報Ma)を示している。図5及び図6における括弧内の番号は、各測定点Pの測定点番号Mnを示している。これらの図に示すように、測定点Pは、一つの地物種別の地物について少なくとも2箇所以上に設定されている。そして、各測定点Pは、各地物種別の地物の輪郭形状に応じて、主として自車両Cの進行方向dに略直交する輪郭線上、又は輪郭形状が角部を有する場合には当該角部上に設定されている。また、測定点Pは、文字どおりの点には限定されず、測定点Pの位置を自車両Cの進行方向dに略直交する方向に延長した線としても設定される。これは、本例では、後述する自車位置補正部9において自車両Cの進行方向dの位置を補正することから、進行方向dに直交する方向の位置は問題とならないことによるものである。   The measurement point P is a specific position set on the target feature. This measurement point P is a target of image recognition in the image recognition unit 7 described later, and serves as a reference in the calculation of the positional relationship between the host vehicle C and the target feature in the positional relationship calculation unit 8. And the measurement point form information Ma is prescribed | regulated as arrangement | positioning of the several measurement point P in the whole form of the terrestrial feature. FIGS. 5 and 6 (a) to 6 (f) show examples of the arrangement of the measurement points P for a plurality of feature types. That is, (a) is “pedestrian crossing”, (b) is “stop line”, (c) is “pedestrian crossing notice (with pedestrian crossing)”, (d) is “traffic classification according to traveling direction”, (e) Indicates the arrangement of the measurement points P (that is, the measurement point form information Ma) for each feature type of “maximum speed”. The numbers in parentheses in FIGS. 5 and 6 indicate the measurement point numbers Mn of the respective measurement points P. As shown in these drawings, at least two measurement points P are set for a feature of one feature type. Then, each measurement point P is mainly on a contour line substantially orthogonal to the traveling direction d of the host vehicle C, or when the contour shape has a corner, depending on the contour shape of the feature of each feature type. Is set on. Further, the measurement point P is not limited to a literal point, and is also set as a line extending the position of the measurement point P in a direction substantially orthogonal to the traveling direction d of the host vehicle C. This is because in this example, the position of the host vehicle C in the direction of travel d is corrected by the host vehicle position correction unit 9 described later, and therefore the position in the direction orthogonal to the direction of travel d is not a problem.

また本例では、各測定点Pの測定点番号Mnが、各測定点Pの優先度を表している。すなわち、ここでは、測定点番号Mnの値が測定点Pの優先順位となっている。そして、図5及び図6の(a)〜(f)に示すように、測定点番号Mnは、一つの対象地物についての複数箇所の測定点Pに関して、自車両Cの進行方向dの最前方に位置する測定点Pから順に1、2、3・・・と測定点番号Mnを設定している。したがって、一つの対象地物についての複数箇所の測定点Pに関して、優先順位は自車両Cの進行方向dの最前方に位置する測定点Pから順に1、2、3・・・となる。すなわち、自車両Cの進行方向dの前方に位置する測定点Pの優先度は、進行方向dの後方に位置する測定点Pの優先度より高く設定されている。このように各測定点Pの優先度を設定することにより、自信度の高い状態で認識された測定点Pが自信度の低い状態で認識された測定点Pより優先されることになる。   In this example, the measurement point number Mn of each measurement point P represents the priority of each measurement point P. That is, here, the value of the measurement point number Mn is the priority of the measurement point P. And as shown to (a)-(f) of FIG.5 and FIG.6, the measurement point number Mn is the most in the advancing direction d of the own vehicle C regarding the several measurement points P about one target feature. The measurement point numbers Mn are set in order from the measurement point P located in front. Therefore, with respect to a plurality of measurement points P for one target feature, the priority order is 1, 2, 3,... In order from the measurement point P located at the forefront in the traveling direction d of the host vehicle C. That is, the priority of the measurement point P located in front of the traveling direction d of the host vehicle C is set higher than the priority of the measurement point P located behind in the traveling direction d. By setting the priority of each measurement point P in this manner, the measurement point P recognized with a high degree of confidence is given priority over the measurement point P recognized with a low degree of confidence.

ここで、自信度とは、少なくとも画像情報Gに含まれる地物の画像がそのとき対象としている対象地物であることの確実性を表す尺度であり、後述する自信度判定部16により判定される。この自信度は、自車両Cの進行に従って当該地物が画像認識可能な状態で撮像された画像情報Gのフレーム数が増えるに従って高まる。特に、例えば図7の(d)〜(f)に示すように、一フレームの画像情報G中に対象地物の全体が納まらない場合等には、複数フレームの画像情報Gを用いることにより、画像情報Gに含まれる地物の画像がそのとき対象としている対象地物であることの確実性が高まる。したがって、自車両Cの進行方向dの前方に位置する測定点Pの優先度を高く設定することにより、自信度の高い状態で認識された測定点Pがより優先されることになる。これにより、画像認識部7において測定点Pの誤認識が発生することを抑制できる。特に、自車両Cの進行方向dに大きい対象地物の画像認識を行う場合等のように、一フレームの画像情報G中に対象地物の全体が納まらない場合に、測定点Pの誤認識を効果的に抑制できる。なお、図5(b)の「停止線」のように、自車両Cの進行方向dに小さい対象地物については、進行方向dの後方に位置する測定点Pの優先度を高く設定してもよい。   Here, the confidence level is a scale representing the certainty that at least the image of the feature included in the image information G is the target feature at that time, and is determined by the confidence level determination unit 16 described later. The The degree of confidence increases as the number of frames of the image information G captured in a state where the feature can be recognized as the vehicle C progresses. In particular, as shown in FIGS. 7D to 7F, for example, when the entire target feature does not fit in the image information G of one frame, by using the image information G of a plurality of frames, The certainty that the image of the feature included in the image information G is the target feature at that time is increased. Therefore, by setting the priority of the measurement point P positioned in front of the traveling direction d of the host vehicle C, the measurement point P recognized with a high degree of confidence is given higher priority. Thereby, it is possible to suppress the erroneous recognition of the measurement point P in the image recognition unit 7. In particular, when the entire target feature does not fit in one frame of image information G, such as when performing image recognition of a large target feature in the traveling direction d of the host vehicle C, erroneous recognition of the measurement point P Can be effectively suppressed. For the target feature that is small in the traveling direction d of the host vehicle C as shown in the “stop line” in FIG. 5B, the priority of the measurement point P located behind the traveling direction d is set high. Also good.

次に、図5及び図6の(a)〜(f)に示す各地物種別の地物についての測定点Pの配置の具体例について順に説明する。これらの図において、測定点Pは太い破線で示している。図5(a)の「横断歩道」の場合、測定点Pは、自車両Cの進行方向dに長い複数の平行な帯状の輪郭線のそれぞれの前方及び後方の短辺をつないだ直線状の2箇所に設定されている。図5(b)の「停止線」の場合、測定点Pは、自車両Cの進行方向dに直交する前方及び後方の長辺上に配置された直線状の2箇所に設定されている。図5(c)の「横断歩道予告(横断歩道あり)」の場合、測定点Pは、外周側及び内周側のそれぞれの菱形における、自車両Cの進行方向dの最前方側の角部にそれぞれ点状の2箇所に設定されている。図6(d)の「進行方向別通行区分」の場合、測定点Pは、直進方向を示す矢印の最前方側の角部に点状の1箇所、及び当該矢印の首部の自車両Cの進行方向dに直交する線上に配置された直線状の1箇所の合計2箇所に設定されている。図6(e)の「転回禁止」の場合、測定点Pは、U字状の矢印の湾曲部の外周側及び内周側のそれぞれにおける自車両Cの進行方向dの最前方側の頂点を通る接線方向に延びる直線状の2箇所、及び当該矢印の首部の自車両Cの進行方向dに直交する線上に配置された直線状の1箇所の合計3箇所に設定されている。図6(f)の「最高速度」の場合、測定点Pは、「0」の字の湾曲部の外周側及び内周側のそれぞれにおける自車両Cの進行方向dの最前方側の頂点を通る接線方向に延びる直線状の2箇所に設定されている。   Next, specific examples of the arrangement of the measurement points P for the features of each feature type shown in FIGS. 5 and 6A to 6F will be described in order. In these drawings, the measurement point P is indicated by a thick broken line. In the case of the “pedestrian crossing” in FIG. 5A, the measurement point P is a straight line connecting the front and rear short sides of each of a plurality of parallel strip-shaped contour lines that are long in the traveling direction d of the host vehicle C. Two places are set. In the case of the “stop line” in FIG. 5B, the measurement points P are set at two straight lines arranged on the front and rear long sides orthogonal to the traveling direction d of the host vehicle C. In the case of “pedestrian crossing notice (with pedestrian crossing)” in FIG. 5C, the measurement point P is the frontmost corner of the traveling direction d of the vehicle C in each of the rhombuses on the outer peripheral side and the inner peripheral side. Are set at two points. In the case of the “direction of travel by traveling direction” in FIG. 6D, the measurement point P is one point in the forefront corner of the arrow indicating the straight traveling direction and the vehicle C at the neck of the arrow. It is set to two places in total, one straight line arranged on a line orthogonal to the traveling direction d. In the case of “prohibit turning” in FIG. 6E, the measurement point P is the frontmost apex in the traveling direction d of the host vehicle C on each of the outer peripheral side and the inner peripheral side of the curved portion of the U-shaped arrow. It is set to a total of three locations: two linear locations extending in the tangential direction that passes through and one linear location arranged on a line perpendicular to the traveling direction d of the vehicle C at the neck of the arrow. In the case of “maximum speed” in FIG. 6F, the measurement point P is the frontmost apex in the traveling direction d of the host vehicle C on each of the outer peripheral side and the inner peripheral side of the curved portion of “0”. It is set at two linear locations extending in the tangential direction.

以上のような各地物種別の地物についての測定点Pの配置の情報が、測定点形態情報Maとなる。なお、これらの各測定点Pは、走行中の自車両Cからの画像認識によりエッジを認識し易く、自車両Cと測定点Pとの距離の認識が比較的容易な位置に設定されている。なお、上記のように設定された各測定点Pのうち、直線状に設定された各測定点Pは、当該線上の中央等のいずれか一点の点状に設定しても好適である。また、点状に設定された各測定点Pは、進行方向dに略直交する直線状に設定しても好適である。   Information on the arrangement of the measurement points P for the features of each feature type as described above is the measurement point form information Ma. Each of these measurement points P is set at a position where it is easy to recognize an edge by image recognition from the traveling vehicle C, and the distance between the vehicle C and the measurement point P is relatively easy to recognize. . Of the measurement points P set as described above, each measurement point P set in a straight line may be set to any one point such as the center on the line. Each measurement point P set in a dot shape is preferably set in a straight line shape substantially orthogonal to the traveling direction d.

5.測定点状態データベースDB4
図2に示すように、測定点状態情報格納手段としての測定点状態データベースDB4には、複数の地物の各測定点Pについて、画像認識の困難性に関する状態を示す測定点状態情報Mbが格納されている。上記のとおり測定点形態データベースDB3に格納されている情報に従い、各地物にはその地物種別に応じて複数箇所の測定点Pが設定されており、各測定点Pに測定点番号Mn(=1、2、・・・)が設定されている。そして、各地物に固有の地物識別符号IDfに関連付けられて、当該地物に設定された複数箇所の測定点Pの測定点番号Mnと、各測定点番号Mnの測定点Pについての測定点状態情報Mbとが格納されている。なお、この地物識別符号IDfは、地物配置データベースDB2と共通の符号である。
5). Measurement point state database DB4
As shown in FIG. 2, the measurement point state database DB4 as the measurement point state information storage means stores measurement point state information Mb indicating a state relating to difficulty in image recognition for each measurement point P of a plurality of features. Has been. According to the information stored in the measurement point form database DB3 as described above, a plurality of measurement points P are set for each feature according to the feature type, and each measurement point P has a measurement point number Mn (= 1, 2, ...) are set. And the measurement point number Mn of the measurement points P at a plurality of locations set in the feature in association with the feature identification code IDf unique to each feature, and the measurement points for the measurement points P of each measurement point number Mn Status information Mb is stored. The feature identification code IDf is a code common to the feature arrangement database DB2.

測定点状態情報Mbは、後述する画像認識部7による画像認識の困難性に関する状態を示す情報である。したがって、測定点状態情報Mbには、例えば、対象地物における各測定点Pの周辺のかすれや汚れの情報等、測定点Pの画像認識に影響を与える各種の情報が含まれる。本例では、測定点状態情報Mbは、各測定点Pの周辺のかすれや汚れ等を考慮して画像認識の困難性を予め判断した結果を、画像認識が可能であることを示す「OK」又は画像認識が困難であることを示す「NG」のいずれかで表す情報としている。この測定点状態情報Mbを用いれば、画像認識部7において、対象地物のかすれや汚れの程度等を考慮して測定点Pの画像認識を行うことが可能となる。したがって、無駄な画像認識処理を省いて演算負荷を軽減できるとともに、測定点Pの位置の誤認識が生じることを抑制できる。   The measurement point state information Mb is information indicating a state relating to difficulty in image recognition by the image recognition unit 7 described later. Therefore, the measurement point state information Mb includes various types of information that affects the image recognition of the measurement point P, such as information on blurring and dirt around each measurement point P in the target feature. In this example, the measurement point state information Mb is “OK” indicating that image recognition is possible based on the result of determining in advance the difficulty of image recognition in consideration of blurring and dirt around each measurement point P. Alternatively, the information is represented by one of “NG” indicating that image recognition is difficult. By using the measurement point state information Mb, the image recognition unit 7 can perform image recognition of the measurement point P in consideration of blurring of the target feature, the degree of dirt, and the like. Therefore, it is possible to reduce a calculation load by omitting useless image recognition processing, and it is possible to suppress erroneous recognition of the position of the measurement point P.

6.地物情報生成部3
地物情報生成部3は、地物情報Fを生成する地物情報生成手段、及び地物情報Fを取得する地物情報取得手段として機能する。すなわち、地物情報生成部3は、自車位置演算部5から取得した自車位置情報Sを指定位置とし、その位置近傍の地物の地物配置情報Fc及び地物種別情報Fbを地物配置データベースDB2から取得する。また、地物情報生成部3は、取得された地物種別情報Fbに従って当該地物種別の地物形態情報Faを地物形態データベースDB1から取得する。そして、これらの地物配置情報Fc及び地物形態情報Faに基づいて、自車位置情報Sに示される位置近傍の地物の道路面上における配置及び形態を示す地物情報Fを生成して取得する。この地物情報生成部3により生成された地物情報Fは、図1に示すように、測定点情報生成部4及び画像認識部7に出力される。
6). Feature information generator 3
The feature information generation unit 3 functions as a feature information generation unit that generates the feature information F and a feature information acquisition unit that acquires the feature information F. That is, the feature information generation unit 3 uses the vehicle position information S acquired from the vehicle position calculation unit 5 as a designated position, and uses the feature arrangement information Fc and the feature type information Fb of the feature near the position as the feature. Obtained from the placement database DB2. Further, the feature information generation unit 3 acquires the feature form information Fa of the feature type from the feature form database DB1 in accordance with the acquired feature type information Fb. Then, based on the feature arrangement information Fc and the feature form information Fa, feature information F indicating the arrangement and form on the road surface of the feature in the vicinity of the position indicated by the vehicle position information S is generated. get. The feature information F generated by the feature information generation unit 3 is output to the measurement point information generation unit 4 and the image recognition unit 7 as shown in FIG.

ここでは、地物情報生成部3は、自車位置情報Sに基づいて、撮像装置14により撮像される対象地物についての地物情報Fを生成して取得する。本例では、地物情報生成部3は、自車両Cの進行方向dに存在し、自車両Cが進行することにより撮像装置14により撮像されることになる一つの対象地物についての地物情報Fを、撮像装置14により撮像される前に先行的に生成して取得することとしている。具体的には、地物情報生成部3は、自車位置情報Sに基づいて、自車両Cの進行方向dの所定距離内に存在し、自車両Cが進行することにより撮像装置14により撮像されることになる対象地物を一つ、地物配置情報Fcに基づいて地物配置データベースDB2から抽出する。ここで、自車両Cからの所定距離は、例えば、50〔m〕や100〔m〕等に設定することができる。また、抽出された対象地物についての地物種別情報Fb及び地物配置情報Fcを地物配置データベースDB2から取得する。次に、地物情報生成部3は、取得された地物種別情報Fbに従って当該地物種別の地物形態情報Faを地物形態データベースDB1から取得する。そして、本例では、抽出された対象地物の同じ地物識別符号IDfに、これらの地物形態情報Fa、地物種別情報Fb及び地物配置情報Fcを組み合わせて一つの地物情報Fを生成する。ここで、地物配置情報Fcは、上記のとおり複数個の代表点Rの地図上の位置情報である。そして、地物情報Fに含まれる地物形態情報Faは、法令によって規定されていない箇所の寸法を変化させることにより、対象地物の輪郭形状を、複数個の代表点Rの地図上の配置に合わせて変形させて調整した輪郭情報とされている。   Here, the feature information generation unit 3 generates and acquires feature information F about the target feature imaged by the imaging device 14 based on the own vehicle position information S. In this example, the feature information generation unit 3 exists in the traveling direction d of the host vehicle C, and the feature for one target feature that is to be imaged by the imaging device 14 as the host vehicle C travels. The information F is generated and acquired in advance before being imaged by the imaging device 14. Specifically, the feature information generation unit 3 is present within a predetermined distance in the traveling direction d of the host vehicle C based on the host vehicle position information S, and is captured by the imaging device 14 as the host vehicle C travels. One target feature to be processed is extracted from the feature arrangement database DB2 based on the feature arrangement information Fc. Here, the predetermined distance from the own vehicle C can be set to 50 [m], 100 [m], etc., for example. Further, the feature type information Fb and the feature arrangement information Fc for the extracted target feature are acquired from the feature arrangement database DB2. Next, the feature information generation unit 3 acquires the feature form information Fa of the feature type from the feature form database DB1 in accordance with the acquired feature type information Fb. In this example, the same feature identification code IDf of the extracted target feature is combined with the feature form information Fa, the feature type information Fb, and the feature arrangement information Fc to obtain one feature information F. Generate. Here, the feature arrangement information Fc is position information on the map of the plurality of representative points R as described above. Then, the feature form information Fa included in the feature information F is obtained by changing the dimensions of the portions not defined by laws and regulations, thereby arranging the contour shape of the target feature on the map of the plurality of representative points R. The contour information is adjusted to be deformed according to the contour information.

7.測定点情報生成部4
測定点情報生成部4は、測定点情報を生成する測定点情報生成手段、及び測定点情報を取得する測定点情報取得手段として機能する。すなわち、測定点情報生成部4は、地物情報生成部3から出力された地物情報Fに基づいて、当該地物情報Fに示される対象地物の複数箇所の測定点Pについて、その形態情報及び位置情報を含む測定点情報Mを生成して取得する。そのため、測定点情報生成部4は、まず、地物情報Fに含まれる地物種別情報Fbに示される地物種別に対応する測定点形態情報Maを、測定点形態データベースDB3から取得する。また、測定点情報生成部4は、取得した測定点形態情報Maと、地物情報Fとに基づいて測定点Pの位置情報を導出する。そして、測定点情報生成部4は、地物情報Fに示される対象地物の複数箇所の測定点Pの形態情報及び位置情報を含む測定点情報Mを生成して取得する。この測定点情報生成部4により生成された測定点情報Mは、図1に示すように、画像認識部7及び自車位置補正部9に出力される。
7). Measurement point information generator 4
The measurement point information generation unit 4 functions as a measurement point information generation unit that generates measurement point information and a measurement point information acquisition unit that acquires measurement point information. In other words, the measurement point information generation unit 4 forms the form of the measurement points P at a plurality of locations of the target feature indicated by the feature information F based on the feature information F output from the feature information generation unit 3. Measurement point information M including information and position information is generated and acquired. Therefore, the measurement point information generation unit 4 first acquires the measurement point form information Ma corresponding to the feature type indicated by the feature type information Fb included in the feature information F from the measurement point form database DB3. In addition, the measurement point information generation unit 4 derives position information of the measurement point P based on the acquired measurement point form information Ma and the feature information F. And the measurement point information generation part 4 produces | generates and acquires the measurement point information M containing the form information and position information of the measurement point P of the several location of the target feature shown by the feature information F. FIG. The measurement point information M generated by the measurement point information generation unit 4 is output to the image recognition unit 7 and the vehicle position correction unit 9 as shown in FIG.

測定点情報Mを構成する測定点Pの位置情報は、測定点形態データベースDB3から取得した測定点形態情報Maと、地物情報生成部3から出力された地物情報Fとに基づいて導出する。具体的には、地物情報Fに含まれている地物形態情報Fa及び地物配置情報Fcにより、当該地物情報Fに係る対象地物の複数個の代表点Rの地図上の位置、及び当該複数個の代表点Rの地図上の配置に合わせて変形させて調整した当該対象地物の輪郭形状が表されている。また、測定点形態情報Maは、地物の全体形態の中での複数箇所の測定点Pの配置として規定されている。したがって、これらの情報を組み合わせ、地物情報Fに係る対象地物の地図上の配置を基準として測定点形態情報Maに示される複数箇所の測定点Pのそれぞれの位置を導出することにより、地図上における各測定点Pの位置を示す位置情報を取得する。すなわち、対象地物についての地物配置情報Fcが示す代表点Rの地図上の位置と、地物形態情報Faが示す当該対象地物の輪郭形状とから、当該対象地物の地図上の輪郭形状の配置が導出される。また、対象地物の測定点形態情報Maは、当該対象地物の全体形態を表す輪郭形状の中の複数箇所の測定点Pの配置を示している。したがって、これらの情報を組み合わせることにより、双方の輪郭形状の情報を介して地図上における測定点Pの配置を示す位置情報を演算して導出することができる。なお、演算した結果、測定点Pの位置が、代表点Rの位置と一致し、又は代表点Rをつなぐ線上に一致する場合もあり得る。一方、測定点情報Mを構成する測定点Pの形態情報は、測定点形態データベースDB3から取得した測定点形態情報Maの内容と同一とすることができる。   The position information of the measurement point P constituting the measurement point information M is derived based on the measurement point form information Ma acquired from the measurement point form database DB3 and the feature information F output from the feature information generation unit 3. . Specifically, the position on the map of a plurality of representative points R of the target feature related to the feature information F based on the feature form information Fa and the feature arrangement information Fc included in the feature information F, In addition, the contour shape of the target feature that is deformed and adjusted in accordance with the arrangement of the plurality of representative points R on the map is shown. Moreover, the measurement point form information Ma is defined as the arrangement of the measurement points P at a plurality of places in the entire form of the feature. Accordingly, by combining these pieces of information and deriving the positions of the plurality of measurement points P indicated in the measurement point form information Ma with reference to the arrangement of the target features on the map related to the feature information F, the map Position information indicating the position of each measurement point P above is acquired. That is, the contour of the target feature on the map is calculated from the position of the representative point R indicated by the feature arrangement information Fc on the target feature on the map and the contour shape of the target feature indicated by the feature form information Fa. An arrangement of shapes is derived. Moreover, the measurement point form information Ma of the target feature indicates the arrangement of the measurement points P at a plurality of locations in the contour shape representing the entire form of the target feature. Therefore, by combining these pieces of information, it is possible to calculate and derive position information indicating the arrangement of the measurement points P on the map via the information on both contour shapes. As a result of the calculation, the position of the measurement point P may coincide with the position of the representative point R, or may coincide with a line connecting the representative points R. On the other hand, the form information of the measurement point P constituting the measurement point information M can be the same as the content of the measurement point form information Ma acquired from the measurement point form database DB3.

また、本例では、測定点情報生成部4は、地物情報生成部3から出力された地物情報Fの地物識別符号IDfに基づいて、同じ地物識別符号IDfの測定点状態情報Mbを測定点状態データベースDB4から抽出して取得する。よって、測定点情報生成部4は、測定点状態情報を取得する測定点状態情報取得手段としても機能する。測定点状態情報Mbは、上記のとおり、対象地物の複数箇所の測定点Pのそれぞれについての画像認識の困難性に関する状態を示す情報である。そして、測定点情報生成部4は、この地物識別符号IDfに、上記の測定点Pの位置情報及び形態情報、並びに測定点状態情報Mbを組み合わせて一つの測定点情報Mを生成する。   Moreover, in this example, the measurement point information generation unit 4 is based on the feature identification code IDf of the feature information F output from the feature information generation unit 3, and the measurement point state information Mb of the same feature identification code IDf. Is extracted from the measurement point state database DB4 and acquired. Therefore, the measurement point information generation unit 4 also functions as a measurement point state information acquisition unit that acquires measurement point state information. As described above, the measurement point state information Mb is information indicating a state regarding the difficulty of image recognition for each of the plurality of measurement points P of the target feature. And the measurement point information generation part 4 produces | generates one measurement point information M combining the position information and form information of said measurement point P, and measurement point state information Mb with this feature identification code IDf.

以上のとおり、地物形態データベースDB1、地物配置データベースDB2、及び地物情報生成部3、又はこれらに測定点形態データベースDB3、測定点状態データベースDB4、及び測定点情報生成部4を加えた構成が、地物情報F(及び測定点情報M)を生成して出力する地物情報出力装置2となる。   As described above, the feature form database DB1, the feature arrangement database DB2, and the feature information generation unit 3, or a configuration in which the measurement point form database DB3, the measurement point state database DB4, and the measurement point information generation unit 4 are added thereto. Is the feature information output device 2 that generates and outputs the feature information F (and the measurement point information M).

8.自車位置演算部5
自車位置演算部5は、自車両Cの現在位置を示す自車位置情報Sを取得する自車位置情報取得手段、及び地物情報生成部3に対して指定位置を入力する位置入力手段として機能する。ここでは、自車位置演算部5は、GPS受信機11、方位センサ12、及び距離センサ13と接続されている。ここで、GPS受信機11は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置演算部5へ出力される。自車位置演算部5では、GPS受信機11で受信されたGPS衛星からの信号を解析し、自車の位置(緯度及び経度)、進行方位、移動速度等の情報を取得することができる。方位センサ12は、自車両Cの進行方位又はその進行方位の変化を検出するセンサである。この方位センサ12は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。そして、方位センサ5は、その検出結果を自車位置演算部5へ出力する。距離センサ13は、自車両Cの移動距離や車速を検出するセンサである。この距離センサ13は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Cの加速度を検知するヨー・Gセンサ及び検知された加速度を2回積分する回路等により構成される。そして、距離センサ13は、その検出結果を自車位置演算部5へ出力する。
8). Own vehicle position calculation unit 5
The host vehicle position calculation unit 5 is a host vehicle position information acquisition unit that acquires host vehicle position information S indicating the current position of the host vehicle C, and a position input unit that inputs a specified position to the feature information generation unit 3. Function. Here, the vehicle position calculation unit 5 is connected to the GPS receiver 11, the direction sensor 12, and the distance sensor 13. Here, the GPS receiver 11 is a device that receives a GPS signal from a GPS (Global Positioning System) satellite. This GPS signal is normally received every second and is output to the vehicle position calculation unit 5. The own vehicle position calculation unit 5 can analyze the signal from the GPS satellite received by the GPS receiver 11 and acquire information such as the position (latitude and longitude) of the own vehicle, the traveling direction, and the moving speed. The direction sensor 12 is a sensor that detects the traveling direction of the host vehicle C or a change in the traveling direction. The azimuth sensor 12 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like. Then, the direction sensor 5 outputs the detection result to the vehicle position calculation unit 5. The distance sensor 13 is a sensor that detects the moving distance and vehicle speed of the host vehicle C. The distance sensor 13 includes, for example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft or wheel of the vehicle rotates by a certain amount, a yaw / G sensor that detects acceleration of the host vehicle C, and 2 detected accelerations. It consists of a circuit that integrates times. Then, the distance sensor 13 outputs the detection result to the own vehicle position calculation unit 5.

そして、自車位置演算部5は、これらのGPS受信機11、方位センサ12及び距離センサ13からの出力に基づいて、公知の方法により自車両Cの現在位置を特定する演算を行う。また、自車位置演算部5は、地図データベースDBmから自車位置周辺の地図情報Eを取得し、それに基づいて公知のマップマッチングを行うことにより自車両Cの現在位置を地図情報Eに示される道路上とする補正も行う。そして、この自車位置演算部5は、演算結果である自車両Cの現在位置の情報を自車位置情報Sとして地物情報生成部3及び自車位置補正部9へ出力する。この際、自車位置情報Sは、例えば、緯度及び経度で表された位置の情報として表される。   And the own vehicle position calculating part 5 performs the calculation which pinpoints the present position of the own vehicle C by a well-known method based on the output from these GPS receiver 11, the direction sensor 12, and the distance sensor 13. FIG. In addition, the host vehicle position calculation unit 5 acquires map information E around the host vehicle position from the map database DBm, and performs known map matching based on the map information E to indicate the current position of the host vehicle C in the map information E. Correction on the road is also performed. Then, the own vehicle position calculation unit 5 outputs information on the current position of the own vehicle C as the calculation result to the feature information generation unit 3 and the own vehicle position correction unit 9 as own vehicle position information S. At this time, the vehicle position information S is represented as position information represented by latitude and longitude, for example.

なお、自車位置演算部5により演算された自車位置情報Sの精度は、方位センサ12、車速センサ13及びGPS受信機11により受信したGPS信号の精度に大きく影響を受ける。このため、自車位置情報は数〔m〕から数十〔m〕程度の誤差を含んでいる可能性がある。   Note that the accuracy of the vehicle position information S calculated by the vehicle position calculation unit 5 is greatly affected by the accuracy of the GPS signals received by the direction sensor 12, the vehicle speed sensor 13, and the GPS receiver 11. For this reason, the own vehicle position information may include an error of about several [m] to several tens [m].

9.画像情報取得部6
画像情報取得部6は、自車両Cに搭載された撮像装置14により撮像した画像情報Gを取得する画像情報取得手段として機能する。撮像装置14は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置14は、自車両Cの前方や後方に向けて搭載され、少なくとも自車両Cが走行する道路の路面が撮影されるように設けられる。このような撮像装置14としては、自車両Cの前方や後方の映像を撮像するために既に設けられている車載カメラが好適に用いられる。
9. Image information acquisition unit 6
The image information acquisition unit 6 functions as an image information acquisition unit that acquires image information G captured by the imaging device 14 mounted on the host vehicle C. The imaging device 14 includes an imaging element such as a CCD sensor or a CMOS sensor, and a lens that constitutes an optical system for guiding light to the imaging element. The imaging device 14 is mounted toward the front or rear of the host vehicle C, and is provided so that at least the road surface of the road on which the host vehicle C travels is photographed. As such an imaging device 14, an in-vehicle camera that is already provided for capturing images of the front and rear of the host vehicle C is preferably used.

画像情報取得部6は、撮像装置14により撮像したアナログの撮像情報を所定の時間間隔で取り込み、デジタル信号の画像情報Gに変換して画像メモリ15に格納する。この際の画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部6は、自車両Cが走行中の道路面を撮像した複数フレームの画像情報Gをほぼ連続的に取得することができる。一旦画像メモリ15に格納された画像情報Gは、画像認識部7へ出力される。   The image information acquisition unit 6 captures analog imaging information captured by the imaging device 14 at a predetermined time interval, converts it into image information G of a digital signal, and stores it in the image memory 15. The time interval for capturing the image information G at this time can be set to, for example, about 10 to 50 ms. Thereby, the image information acquisition part 6 can acquire the image information G of the several frame which imaged the road surface where the own vehicle C is drive | working substantially continuously. The image information G once stored in the image memory 15 is output to the image recognition unit 7.

10.画像認識部7
画像認識部7は、画像情報Gに含まれている対象地物についての複数箇所の測定点Pの画像認識を行う画像認識手段として機能する。画像認識部7は、主として測定点情報Mに含まれる形態情報に基づいて測定点Pの画像認識を行う。本例では、上記のとおり、地物情報生成部3は、自車両Cの進行方向dに存在し、自車両Cが進行することにより撮像装置14により撮像されることになる一つの対象地物についての地物情報Fを先行的に生成して取得する。そこで、画像認識部7は、地物情報生成部3から地物情報Fが出力された後に画像情報取得部6によりほぼ連続的に取得される複数フレームの画像情報Gに対して、当該地物情報Fに示される対象地物の複数箇所の測定点Pの画像認識を行う。具体的には、画像認識部7は、まず、画像情報Gに対する二値化処理やエッジ抽出処理等により、地物情報Fに示される対象地物の輪郭形状を抽出する。その後、測定点情報生成部4から出力された当該対象地物についての測定点情報Mに含まれる形態情報に基づいて、パターン認識処理により、画像情報Gの中に含まれる複数箇所の測定点Pの画像認識を行う。
10. Image recognition unit 7
The image recognition unit 7 functions as an image recognition unit that performs image recognition of a plurality of measurement points P for a target feature included in the image information G. The image recognition unit 7 performs image recognition of the measurement point P mainly based on the form information included in the measurement point information M. In this example, as described above, the feature information generation unit 3 exists in the traveling direction d of the host vehicle C, and is one target feature that is captured by the imaging device 14 as the host vehicle C travels. The feature information F for is generated and acquired in advance. Therefore, the image recognition unit 7 applies the feature information to the image information G of a plurality of frames acquired almost continuously by the image information acquisition unit 6 after the feature information F is output from the feature information generation unit 3. Image recognition of a plurality of measurement points P of the target feature indicated by the information F is performed. Specifically, the image recognition unit 7 first extracts the contour shape of the target feature indicated by the feature information F by binarization processing, edge extraction processing, or the like on the image information G. Thereafter, based on the form information included in the measurement point information M for the target feature output from the measurement point information generation unit 4, a plurality of measurement points P included in the image information G are obtained by pattern recognition processing. Perform image recognition.

この際、本例では、画像認識部7は、測定点情報Mに含まれる測定点状態情報Mbに基づいて、画像認識が困難とされた測定点P以外の測定点Pについて画像認識を行う。すなわち、上記のとおり、本例では、測定点状態情報Mbは、各測定点Pの周辺のかすれや汚れ等を考慮して画像認識の困難性を予め判断した結果を、画像認識が可能であることを示す「OK」又は画像認識が困難であることを示す「NG」のいずれかで表す情報としている。したがって、画像認識部7は、対象地物の複数箇所の測定点Pの中から測定点状態情報Mbが「OK」となっている測定点Pのみを対象として画像認識を実行する。これにより、かすれや汚れ等により画像認識が困難な状態となっている測定点Pの画像認識処理を省くことができるので、画像認識部7による演算負荷を軽減できるとともに、測定点Pの位置の誤認識が生じることを抑制できる。   At this time, in this example, the image recognition unit 7 performs image recognition on the measurement points P other than the measurement points P for which image recognition is difficult based on the measurement point state information Mb included in the measurement point information M. That is, as described above, in this example, the measurement point state information Mb can be used for image recognition based on the result of determining in advance the difficulty of image recognition in consideration of blurring and dirt around each measurement point P. The information is represented by either “OK” indicating that the image is recognized or “NG” indicating that the image recognition is difficult. Therefore, the image recognition unit 7 performs image recognition only on the measurement point P whose measurement point state information Mb is “OK” among the plurality of measurement points P of the target feature. As a result, it is possible to omit the image recognition processing of the measurement point P that is in a state where image recognition is difficult due to blurring, dirt, or the like. It is possible to suppress erroneous recognition.

また、画像認識部7は、自信度判定手段としての自信度判定部16を備えている。自信度判定部16は、少なくとも画像情報Gに含まれている地物の画像が地物情報生成部3から出力された地物情報Fが示す対象地物の画像であることの確実性を表す自信度を判定する。また、本例では、自信度は、当該対象地物について設定された複数箇所の測定点Pの画像認識部7による認識率も表す尺度としている。そして、自信度判定部16により判定された自信度が所定の閾値以上のときに、後述する位置関係演算部8及び自車位置補正部9において、当該対象地物についての測定点Pの画像認識結果を用いて自車位置情報Sを補正する処理を実行する。本例では、自信度は、画像情報Gに含まれる地物の画像がそのとき対象としている対象地物であることの確実性、及び当該対象地物について設定された複数箇所の測定点Pの画像認識率を表す尺度である。この自信度は、自車両Cの進行に従って当該対象地物が画像認識可能な状態で撮像された画像情報Gのフレーム数が増えるに従って、また、それにより当該対象地物の測定点Pの画像が認識されるに従って高まる。   The image recognition unit 7 includes a confidence level determination unit 16 as a confidence level determination unit. The confidence level determination unit 16 represents the certainty that at least the image of the feature included in the image information G is the image of the target feature indicated by the feature information F output from the feature information generation unit 3. Determine confidence. In this example, the degree of confidence is a scale that also represents the recognition rate by the image recognition unit 7 of a plurality of measurement points P set for the target feature. Then, when the confidence level determined by the confidence level determination unit 16 is equal to or greater than a predetermined threshold, the positional relationship calculation unit 8 and the vehicle position correction unit 9 described later recognize the image of the measurement point P for the target feature. The process which correct | amends the own vehicle position information S using a result is performed. In this example, the degree of confidence is the certainty that the image of the feature included in the image information G is the target feature at that time, and the measurement points P of a plurality of locations set for the target feature. It is a scale representing the image recognition rate. The degree of confidence increases as the number of frames of the image information G captured in a state where the target feature is image recognizable as the host vehicle C progresses, and the image of the measurement point P of the target feature is thereby increased. It increases as it is recognized.

具体的には、自信度は、地物の全体が1フレーム内に撮像されているか否かに関わらず、当該地物の地物種別を確定できる特徴的な形状の部分の輪郭形状を画像認識可能な画像情報Gのフレーム数に応じて高くなる。また、自信度は、当該地物が対象地物であるとした場合に、測定点情報生成部4から出力された測定点情報Mに基づいて、当該対象地物について予め設定された複数箇所の測定点Pの内の画像認識できた測定点Pの数が増えるに従って高くなる。本例では、自信度判定部16は、画像情報Gに含まれている地物の画像が対象地物の画像であることの確実性に関しては、地物種別毎の特徴的な形状の部分についての輪郭形状の画像認識の可否と、そのような画像認識が可能な画像情報Gのフレーム数とに応じた、対象地物であることの確実性を示すパラメータを、地物種別毎にそれぞれ規定したテーブル(図示せず)に従って決定する。そして、自信度判定部16は、前記パラメータと、当該対象地物について設定された複数箇所の測定点Pの画像認識率とに基づいて、自信度を決定する。ここでは、一例として、自信度は0〜100〔%〕の値で表すこととし、当該対象地物についての測定点Pの画像認識結果を用いて自車位置情報Sを補正する処理を実行するか否か自信度の閾値を、例えば70〔%〕とする。なお、この自信度の閾値は、状況に応じて適切な値を任意に設定することが可能である。   Specifically, the degree of confidence is image recognition of the contour shape of a characteristic shape part that can determine the feature type of the feature regardless of whether or not the entire feature is captured within one frame. It becomes higher according to the number of frames of possible image information G. In addition, the confidence level is determined based on the measurement point information M output from the measurement point information generation unit 4 when the feature is the target feature. The number of measurement points P that can be recognized among the measurement points P increases as the number of measurement points P increases. In this example, the confidence level determination unit 16 has a characteristic shape portion for each feature type regarding the certainty that the feature image included in the image information G is an image of the target feature. Parameters indicating the certainty of the target feature according to whether or not the contour shape of the image can be recognized and the number of frames of the image information G capable of such image recognition are defined for each feature type. Determined according to the table (not shown). Then, the confidence level determination unit 16 determines the confidence level based on the parameters and the image recognition rates of the plurality of measurement points P set for the target feature. Here, as an example, the degree of confidence is represented by a value of 0 to 100 [%], and the process of correcting the vehicle position information S using the image recognition result of the measurement point P for the target feature is executed. For example, the confidence threshold is set to 70%. Note that an appropriate value can be arbitrarily set as the threshold value of the confidence level according to the situation.

そこで次に、図7を用いて、対象地物に対する自車両Cの各位置での自信度の変化と画像認識の実行の可否の具体例について説明する。図7は、「進行方向別通行区分」の道路標示が対象地物である場合における自車両Cの対象地物に対する各位置での画像情報Gの例を示す図である。図7の(a)と(d)、(b)と(e)、(c)と(f)はそれぞれ対応しており、(d)〜(f)は、(a)〜(c)に示される自車両Cの各位置における画像情報Gの例をそれぞれ示している。この例では、撮像装置14として、自車両Cの後方の道路面を撮像するバックカメラを用いている。図7(a)に示される自車位置での画像情報Gには、(d)に示されるように対象地物の特徴的な形状の部分がほとんど含まれていない。また、ここまでの画像情報Gの各フレームにも当然に対象地物の特徴的な形状の部分は含まれていない。更に、この対象地物について設定された測定点Pの画像も含まれておらず、測定点Pの画像認識もできない。したがって、自信度は閾値未満の低い状態(例えば30〔%〕)である。図7(b)に示される自車位置での画像情報Gには、(e)に示されるように対象地物の特徴的な形状部分が多く含まれている。また、ここまでの画像情報Gの相当数のフレームにも対象地物の特徴的な部分は含まれている。更に、この対象地物について設定された測定点Pの一つの画像が含まれており、この測定点Pの画像認識が行われる。ここでは、測定点Pの直進方向を示す矢印の首部に設定された測定点番号Mnが「2」(優先順位が「2」)の測定点Pの画像認識が行われる。したがって、自信度は閾値以上に高くなっている状態(例えば80〔%〕)である。図7(c)に示される自車位置での画像情報Gには、(f)に示されるように対象地物の特徴的な形状部分を含む対象地物の全体が含まれている。また、ここまでの画像情報Gの相当数のフレームにも対象地物の特徴的な部分は含まれている。更に、この対象地物について設定されたもう一つの測定点Pの画像が含まれており、この測定点Pの画像認識が行われる。ここでは、測定点Pの直進方向を示す矢印の最前方側の角部に設定された測定点番号Mnが「1」(優先順位が「1」)の測定点Pの画像認識が行われる。したがって、自信度は最も高くなっている状態(例えば100〔%〕)である。   Then, next, the specific example of the change of the confidence level in each position of the own vehicle C with respect to the target feature and whether or not the image recognition can be executed will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the image information G at each position with respect to the target feature of the host vehicle C when the road marking of “travel classification by traveling direction” is the target feature. (A) and (d), (b) and (e), (c) and (f) in FIG. 7 correspond to each other, and (d) to (f) correspond to (a) to (c). An example of image information G at each position of the host vehicle C shown is shown. In this example, a back camera that images the road surface behind the host vehicle C is used as the imaging device 14. The image information G at the position of the vehicle shown in FIG. 7A hardly includes the characteristic shape portion of the target feature as shown in FIG. Further, each frame of the image information G so far does not include a characteristic shape portion of the target feature. Furthermore, the image of the measurement point P set for the target feature is not included, and the image of the measurement point P cannot be recognized. Therefore, the confidence level is in a low state (for example, 30 [%]) below the threshold value. The image information G at the vehicle position shown in FIG. 7B includes many characteristic shape portions of the target feature as shown in FIG. In addition, a considerable number of frames of the image information G so far include characteristic portions of the target feature. Further, one image of the measurement point P set for the target feature is included, and image recognition of the measurement point P is performed. Here, the image recognition of the measurement point P having the measurement point number Mn set to “2” (priority order “2”) set at the neck of the arrow indicating the straight direction of the measurement point P is performed. Therefore, the confidence level is higher than the threshold (for example, 80 [%]). The image information G at the vehicle position shown in FIG. 7C includes the entire target feature including the characteristic shape portion of the target feature as shown in FIG. In addition, a considerable number of frames of the image information G so far include characteristic portions of the target feature. Furthermore, an image of another measurement point P set for the target feature is included, and image recognition of this measurement point P is performed. Here, the image recognition of the measurement point P with the measurement point number Mn set to the foremost corner of the arrow indicating the straight direction of the measurement point P is “1” (priority is “1”) is performed. Therefore, the degree of confidence is the highest (for example, 100 [%]).

なお、画像認識部7は、一つの測定点Pの画像認識は、当該測定点Pが含まれている複数フレームの画像情報Gの中で、当該測定点Pの画像認識に最も適したフレームの画像情報Gを用いて行う。通常は、画像認識部7は、当該測定点Pが自車両Cから最も近い位置に撮像されているフレームの画像情報Gを用いて画像認識を行う。   The image recognizing unit 7 recognizes an image of one measurement point P from among a plurality of frames of image information G including the measurement point P and selects the frame most suitable for image recognition of the measurement point P. This is performed using the image information G. Usually, the image recognition unit 7 performs image recognition using image information G of a frame in which the measurement point P is captured at a position closest to the host vehicle C.

11.位置関係演算部8
位置関係演算部8は、画像認識部7により認識された測定点Pの中の少なくとも一つの画像認識結果に基づいて自車両Cと当該測定点Pとの位置関係を演算する。また、位置関係演算部8は、画像認識部7により認識された1又は2以上の測定点Pの中の少なくとも一つを選択する選択手段としての測定点選択部17を備えている。ここでは、測定点選択部17は、一つの対象地物についての複数箇所の測定点Pのそれぞれに予め設定された優先度に基づいて、画像認識部7により認識された測定点Pの中から最も優先度の高い一つの測定点Pを選択する。本例では、各測定点Pの優先度は、上記のとおり、測定点番号Mnの値が示す測定点Pの優先順位により定まっている。したがって、例えば図7に示すように、優先順位が「1」の測定点Pと優先順位が「2」の測定点Pの両方が画像認識部7により認識された場合には、測定点選択部17は、優先順位が「1」の測定点Pを選択する。
11. Positional relation calculation unit 8
The positional relationship calculation unit 8 calculates the positional relationship between the host vehicle C and the measurement point P based on at least one image recognition result among the measurement points P recognized by the image recognition unit 7. Further, the positional relationship calculation unit 8 includes a measurement point selection unit 17 as selection means for selecting at least one of one or more measurement points P recognized by the image recognition unit 7. Here, the measurement point selection unit 17 selects the measurement points P recognized by the image recognition unit 7 based on the priorities set in advance for each of the plurality of measurement points P for one target feature. One measurement point P with the highest priority is selected. In this example, the priority of each measurement point P is determined by the priority of the measurement point P indicated by the value of the measurement point number Mn as described above. Therefore, for example, as shown in FIG. 7, when both the measurement point P with the priority “1” and the measurement point P with the priority “2” are recognized by the image recognition unit 7, the measurement point selection unit 17 selects the measurement point P with the priority “1”.

そして、位置関係演算部8は、測定点選択部17により選択された測定点P(以下単に「選択測定点P」という。)の画像認識結果に基づいて自車両Cと当該選択測定点Pとの位置関係を演算する。すなわち、撮像装置14の自車両Cへの搭載位置及び撮像方向に基づいて、画像情報Gの一つのフレームを構成する画像中の各位置と自車両Cとの位置関係は定まる。したがって、位置関係演算部8は、画像認識部7による選択測定点Pの画像認識結果としての画像情報Gの一つのフレーム中における当該選択測定点Pの配置に基づいて、当該フレームに係る画像情報Gの撮像時の自車両Cと選択測定点Pとの位置関係を導出する。また、距離センサ13等により当該フレームに係る画像情報Gの撮像時から現在時点までの自車両Cの移動距離を導出する。そして、これらに基づいて、位置関係演算部8は、現在の自車両Cと選択測定点Pとの位置関係を演算して導出する。なお、この位置関係演算部8による演算処理は、上記自信度判定部16による自信度の判定結果が所定の閾値以上(例えば、70〔%〕以上)のときに行われる。   Then, the positional relationship calculation unit 8 determines the own vehicle C and the selected measurement point P based on the image recognition result of the measurement point P selected by the measurement point selection unit 17 (hereinafter simply referred to as “selected measurement point P”). Is calculated. That is, the positional relationship between each position in the image constituting one frame of the image information G and the own vehicle C is determined based on the mounting position of the imaging device 14 on the own vehicle C and the imaging direction. Therefore, the positional relationship calculation unit 8 determines the image information related to the frame based on the arrangement of the selected measurement point P in one frame of the image information G as the image recognition result of the selected measurement point P by the image recognition unit 7. The positional relationship between the host vehicle C and the selected measurement point P when G is imaged is derived. Further, the distance sensor 13 or the like derives the moving distance of the host vehicle C from the time of capturing the image information G related to the frame to the current time point. Based on these, the positional relationship calculation unit 8 calculates and derives the current positional relationship between the host vehicle C and the selected measurement point P. The calculation process by the positional relationship calculation unit 8 is performed when the determination result of the confidence level by the confidence level determination unit 16 is a predetermined threshold value or more (for example, 70% or more).

12.自車位置補正部9
自車位置補正部9は、位置関係演算部8による演算結果としての現在の自車両Cと選択測定点Pとの位置関係と、測定点情報Mに含まれる選択測定点Pの位置情報とに基づいて自車位置情報Sを補正する。すなわち、位置関係演算部8による演算結果から、現在の自車両Cと選択測定点Pとの位置関係が定まる。また、当該選択測定点Pについての測定点情報Mに含まれる位置情報は、当該選択測定点Pの地図上の正確な位置(緯度及び経度)を示している。したがって、これらの情報に基づいて、選択測定点Pの地図上の正確な位置を基準とする自車両Cの詳細位置を演算して導出することができる。そして、自車位置補正部9は、この自車両Cの詳細位置の演算結果に基づいて、自車位置演算部5から出力された現在の自車位置情報Sを補正する。これにより、自車両Cの位置を高精度に特定することができる。この自車位置補正部9から出力される補正後の自車位置情報S´は、ナビゲーション装置における自車位置表示や走行案内等、又は車両制御装置による操舵や加減速等といった自車両Cの走行制御等に利用される。
12 Own vehicle position correction unit 9
The own vehicle position correction unit 9 uses the positional relationship between the current own vehicle C and the selected measurement point P as the calculation result by the positional relationship calculation unit 8 and the position information of the selected measurement point P included in the measurement point information M. Based on this, the vehicle position information S is corrected. That is, the positional relationship between the current host vehicle C and the selected measurement point P is determined from the calculation result by the positional relationship calculation unit 8. Further, the position information included in the measurement point information M for the selected measurement point P indicates an accurate position (latitude and longitude) of the selected measurement point P on the map. Therefore, based on these pieces of information, the detailed position of the host vehicle C can be calculated and derived based on the exact position of the selected measurement point P on the map. The host vehicle position correction unit 9 corrects the current host vehicle position information S output from the host vehicle position calculation unit 5 based on the calculation result of the detailed position of the host vehicle C. Thereby, the position of the own vehicle C can be specified with high accuracy. The corrected host vehicle position information S ′ output from the host vehicle position correcting unit 9 is the travel of the host vehicle C such as the host vehicle position display and travel guidance in the navigation device, or the steering and acceleration / deceleration by the vehicle control device. Used for control.

本例では、位置関係演算部8及び自車位置補正部9が、画像認識部7により認識された測定点Pの中の少なくとも一つの画像認識結果と、当該測定点Pの位置情報とに基づいて自車位置情報Sを補正する自車位置補正手段10として機能する。   In this example, the positional relationship calculation unit 8 and the vehicle position correction unit 9 are based on at least one image recognition result among the measurement points P recognized by the image recognition unit 7 and the position information of the measurement points P. Thus, the vehicle position correction means 10 that corrects the vehicle position information S functions.

13.自車位置認識方法
次に、本実施形態に係る自車位置認識装置1において実行される自車位置認識方法の具体例について、図8に示すフローチャートに従って説明する。まず、自車位置演算部5において、自車位置情報Sを取得する(ステップ#01)。次に、地物情報生成部3において、ステップ#01で取得した自車位置情報Sに基づいて、自車両Cの進行方向dの所定距離内に存在する対象地物を、地物配置情報Fcに基づいて地物配置データベースDB2から抽出する(ステップ#02)。自車両Cの進行方向dの所定距離内に対象地物が存在しない場合には(ステップ#03:NO)、処理はステップ#01へ戻り、新たな自車位置情報Sを取得する。一方、自車両Cの進行方向dの所定距離内に対象地物が存在する場合には(ステップ#03:YES)、地物情報生成部3において、当該対象地物についての地物情報Fを生成して取得する(ステップ#04)。次に、測定点情報生成部4において、ステップ#04で取得された地物情報Fに示される対象地物の複数箇所の測定点Pについての測定点情報Mを生成して取得する(ステップ#05)。
13. Next, a specific example of the vehicle position recognition method executed in the vehicle position recognition device 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. First, the vehicle position calculation unit 5 acquires the vehicle position information S (step # 01). Next, in the feature information generation unit 3, based on the own vehicle position information S acquired in step # 01, the target feature existing within a predetermined distance in the traveling direction d of the own vehicle C is selected as the feature arrangement information Fc. Is extracted from the feature arrangement database DB2 based on (step # 02). When the target feature does not exist within a predetermined distance in the traveling direction d of the host vehicle C (step # 03: NO), the process returns to step # 01, and new host vehicle position information S is acquired. On the other hand, when the target feature exists within a predetermined distance in the traveling direction d of the host vehicle C (step # 03: YES), the feature information generation unit 3 obtains the feature information F about the target feature. Generate and obtain (step # 04). Next, the measurement point information generation unit 4 generates and acquires measurement point information M for a plurality of measurement points P of the target feature indicated by the feature information F acquired in step # 04 (step #). 05).

次に、画像情報取得部6において、撮像装置14により撮像した画像情報Gを取得する(ステップ#06)。ここで取得された画像情報Gは画像認識部7へ送られる。そして、画像認識部7において、画像情報Gに含まれている対象地物についての複数箇所の測定点Pの画像認識を行う(ステップ#07)。その後、自信度判定部16において、ステップ#04で取得された地物情報Fが示す対象地物の画像であることの確実性、及び当該対象地物について設定された複数箇所の測定点Pの画像認識率を表す自信度を判定する(ステップ#08)。この自信度が所定の閾値未満である場合には(ステップ#09:NO)、処理はステップ#06へ戻る。すなわち、その時点では以後のステップ#10へは進まず、次のフレームの画像情報Gを更に取得する。   Next, the image information acquisition unit 6 acquires the image information G captured by the imaging device 14 (step # 06). The image information G acquired here is sent to the image recognition unit 7. Then, the image recognition unit 7 performs image recognition of a plurality of measurement points P for the target feature included in the image information G (step # 07). Thereafter, in the confidence level determination unit 16, the certainty that the image is the image of the target feature indicated by the feature information F acquired in step # 04, and the measurement points P of a plurality of locations set for the target feature. The degree of confidence representing the image recognition rate is determined (step # 08). If this confidence level is less than the predetermined threshold (step # 09: NO), the process returns to step # 06. That is, at that time, the process does not proceed to the subsequent step # 10, and the image information G of the next frame is further acquired.

一方、自信度が所定の閾値以上である場合には(ステップ#09:YES)、次に、測定点選択部17において、画像認識部7により認識された1又は2以上の測定点Pの中から最も優先度の高い一つの測定点Pを選択する(ステップ#10)。そして、位置関係演算部8において、ステップ#10で選択された選択測定点Pのステップ#09による画像認識結果に基づいて、自車両Cと当該選択測定点Pとの位置関係を演算する(ステップ#11)。次に、自車位置演算部5において、現在の自車位置情報Sを取得する(ステップ#12)。そして、自車位置補正部9において、ステップ#11による演算結果としての現在の自車両Cと選択測定点Pとの位置関係と、ステップ#05で取得された測定点情報Mに含まれる選択測定点Pの位置情報とに基づいて、ステップ#12で取得された現在の自車位置情報Sを補正し(ステップ#13)、補正後の自車位置情報S´が出力される。以上で、自車位置認識方法に係る処理は終了する。   On the other hand, when the degree of confidence is equal to or greater than a predetermined threshold (step # 09: YES), next, in the measurement point selection unit 17, one or more measurement points P recognized by the image recognition unit 7 are included. The one measurement point P with the highest priority is selected from (Step # 10). Then, the positional relationship calculation unit 8 calculates the positional relationship between the host vehicle C and the selected measurement point P based on the image recognition result of step # 09 of the selected measurement point P selected in step # 10 (step # 11). Next, the current vehicle position information S is acquired in the own vehicle position calculation unit 5 (step # 12). And in the own vehicle position correction | amendment part 9, the positional relationship of the present own vehicle C and the selection measurement point P as a calculation result by step # 11, and the selection measurement contained in the measurement point information M acquired at step # 05 Based on the position information of the point P, the current vehicle position information S acquired in step # 12 is corrected (step # 13), and the corrected vehicle position information S ′ is output. Above, the process which concerns on the own vehicle position recognition method is complete | finished.

〔第二の実施形態〕
次に、本発明の第二の実施形態について説明する。図9は、本実施形態に係るナビゲーション装置30及び車両制御装置31の両方を兼ねる装置の概略構成を示すブロック図である。この図に示すように、この装置は、上記第一の実施形態に係る自車位置認識装置1に加えて、地図情報格納手段としての地図データベースDBmから地図情報Eを取得する地図情報取得部21と、自車両Cの走行制御を行うための走行制御部22と、自車両Cの進路案内のための各種演算処理を行うナビゲーション用演算部23とを備えている。また更に、任意の情報を表示可能な表示手段としてのモニタ24と、任意の音声情報を出力可能な音声出力手段としてのスピーカ25とを備えている。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. FIG. 9 is a block diagram illustrating a schematic configuration of a device that serves as both the navigation device 30 and the vehicle control device 31 according to the present embodiment. As shown in this figure, this apparatus includes a map information acquisition unit 21 that acquires map information E from a map database DBm as map information storage means in addition to the vehicle position recognition apparatus 1 according to the first embodiment. And a traveling control unit 22 for performing traveling control of the host vehicle C, and a navigation computing unit 23 for performing various computing processes for route guidance of the host vehicle C. Furthermore, a monitor 24 as display means capable of displaying arbitrary information and a speaker 25 as sound output means capable of outputting arbitrary sound information are provided.

地図情報取得部21は、自車位置認識装置1の自車位置演算部5から出力される自車位置情報Sに基づいて、自車両Cの進行方向dを含む周辺の地図情報Eを地図データベースDBmから取得する。この地図情報取得部21により取得された自車両Cの周辺の地図情報Eは、走行制御部22及びナビゲーション用演算部23へ出力される。   The map information acquisition unit 21 obtains the map information E of the surrounding area including the traveling direction d of the host vehicle C based on the host vehicle position information S output from the host vehicle position calculation unit 5 of the host vehicle position recognition device 1. Obtain from DBm. The map information E around the host vehicle C acquired by the map information acquisition unit 21 is output to the travel control unit 22 and the navigation calculation unit 23.

また、自車位置認識装置1からは、自車位置補正部9による補正後の自車位置情報S´が、走行制御部22及びナビゲーション用演算部23へ出力される。走行制御部22は、地図情報取得部21から出力された自車両Cの進行方向dの地図情報Eと、自車位置認識装置1から出力された補正後の自車位置情報S´とに基づいて、自車両Cの走行制御のための演算処理を行い、車両各部に対する制御命令を出力する。具体的には、走行制御部22は、自車両Cの進行方向dの地図情報Eに含まれる道路形状、或いは停止線や信号機等の各種地物の情報等に基づいて、例えばレーンキープ、衝突防止、事故防止等のための操舵や加減速等といった自車両Cの走行制御を行う。   In addition, the vehicle position recognition device 1 outputs the vehicle position information S ′ corrected by the vehicle position correction unit 9 to the travel control unit 22 and the navigation calculation unit 23. The travel control unit 22 is based on the map information E in the traveling direction d of the host vehicle C output from the map information acquisition unit 21 and the corrected host vehicle position information S ′ output from the host vehicle position recognition device 1. Thus, calculation processing for traveling control of the host vehicle C is performed, and a control command for each part of the vehicle is output. Specifically, the traveling control unit 22 performs, for example, lane keeping, collision, etc. based on road shapes included in the map information E in the traveling direction d of the host vehicle C, or information on various features such as stop lines and traffic lights. Travel control of the host vehicle C, such as steering and acceleration / deceleration for preventing accidents and the like, is performed.

ナビゲーション用演算部23は、地図情報取得部21から出力された自車両Cの周辺の地図情報Eと、自車位置認識装置1から出力された補正後の自車位置情報S´とに基づいて、自車両Cの進路案内のための各種演算処理を行い、モニタ24及びスピーカ25の一方又は双方に対する制御命令を出力する。具体的には、ナビゲーション用演算部23は、自車両Cの周辺の地図情報Eに基づいて生成される地図画像上に、補正後の自車位置情報S´に基づく詳細な自車位置を示す画像を重ねてモニタ24に表示する。また、自車両Cの進行方向dの地図情報Eに含まれる道路形状等と、補正後の詳細な自車位置情報S´とに基づいて、正確なタイミングで進路案内のための運転者への報知を、モニタ24及びスピーカ25の一方又は双方を用いて行う。   The navigation calculation unit 23 is based on the map information E around the host vehicle C output from the map information acquisition unit 21 and the corrected host vehicle position information S ′ output from the host vehicle position recognition device 1. Then, various calculation processes for route guidance of the host vehicle C are performed, and a control command for one or both of the monitor 24 and the speaker 25 is output. Specifically, the navigation calculation unit 23 indicates the detailed vehicle position based on the corrected vehicle position information S ′ on the map image generated based on the map information E around the vehicle C. The images are superimposed and displayed on the monitor 24. Further, based on the road shape and the like included in the map information E of the traveling direction d of the host vehicle C and the corrected host vehicle position information S ′, the driver for the route guidance at an accurate timing is sent to the driver. The notification is performed using one or both of the monitor 24 and the speaker 25.

〔その他の実施形態〕
(1)上記の実施形態では、地物形態データベースDB1に格納する地物形態情報Faに、地物の輪郭形状を示す輪郭情報と、法令によって規定されており寸法が変化しない箇所に関する情報とが含まれる場合について説明した。しかし、地物形態情報Faとして格納する情報はこれらに限定されない。したがって、例えば各地物種別の地物の色彩情報や模様情報等を備える構成としても好適である。
[Other Embodiments]
(1) In the above-described embodiment, the feature form information Fa stored in the feature form database DB1 includes contour information indicating the contour shape of the feature and information related to a location that is prescribed by law and whose dimensions do not change. The case where it was included was explained. However, the information stored as the feature form information Fa is not limited to these. Therefore, for example, it is suitable as a configuration including color information, pattern information, and the like of features of each feature type.

(2)上記の実施形態では、地物配置データベースDB2に格納される地物配置情報Fcを、各地物の外形上に配置された複数個の代表点Rの位置情報により構成する場合について説明した。しかし、各地物の位置及び方向を示す地物配置情報Fcの構成は、これに限定されない。すなわち、各地物の位置及び方向を表すことが可能な情報であればよく、例えば、各地物の重心の位置情報と方向を示す単位ベクトルとにより構成することも好適な実施形態の一つである。 (2) In the above embodiment, the case where the feature arrangement information Fc stored in the feature arrangement database DB2 is configured by the position information of a plurality of representative points R arranged on the outer shape of each feature has been described. . However, the configuration of the feature arrangement information Fc indicating the position and direction of each feature is not limited to this. That is, any information that can represent the position and direction of each feature may be used. For example, it is one of the preferred embodiments that the information includes the position information of the center of gravity of each feature and the unit vector indicating the direction. .

(3)上記の実施形態では、地物情報生成部3は、自車両Cの進行方向dに存在する対象地物についての地物情報Fを、撮像装置14により撮像される前に先行的に生成して取得し、当該地物情報F及びそれに基づいて生成された測定点情報Mを用いて測定点Pの画像認識を行う場合を例として説明した。しかし、地物情報F及び測定点情報Mを取得するタイミングはこれに限定されない。すなわち、例えば、各フレームの画像情報Gが取得されるのと同時に、当該画像情報Gに係る撮像領域内に含まれる対象地物についての地物情報F及び測定点情報Mを生成して取得し、それらを用いて当該画像情報Gに対する測定点Pの画像認識を行う構成とすることも好適な実施形態の一つである。 (3) In the above embodiment, the feature information generation unit 3 precedes the feature information F about the target feature existing in the traveling direction d of the host vehicle C before the imaging device 14 captures the feature information. The case where the image recognition of the measurement point P is performed using the feature information F and the measurement point information M generated based on the feature information F has been described as an example. However, the timing for acquiring the feature information F and the measurement point information M is not limited to this. That is, for example, at the same time that the image information G of each frame is acquired, the feature information F and the measurement point information M about the target feature included in the imaging region related to the image information G are generated and acquired. In another preferred embodiment, the image recognition of the measurement point P with respect to the image information G is performed using them.

(4)上記の実施形態では、一つの対象地物についての複数箇所の測定点Pの優先度が、地物種別毎に予め定められた優先順位としての測定点番号Mnによって定まる場合を例として説明した。しかし、各測定点Pの優先度の決定方法はこれに限定されない。したがって、例えば、優先度を、画像認識の状態や自車両Cの走行状態等に応じて、条件の良い測定点の優先度が高くなるように、その都度演算して優先度を決定する構成とすることも好適な実施形態の一つである。 (4) In the above embodiment, as an example, the priority of a plurality of measurement points P for one target feature is determined by the measurement point number Mn as a priority order determined in advance for each feature type. explained. However, the method for determining the priority of each measurement point P is not limited to this. Therefore, for example, according to the state of image recognition, the traveling state of the host vehicle C, etc., the priority is calculated each time so that the priority of the measurement point with good conditions is increased, and the priority is determined. This is also a preferred embodiment.

(5)上記の実施形態では、測定点情報Mを構成する測定点Pの位置情報を、測定点形態情報Maと地物情報Fとに基づいて演算して導出する場合について説明した。しかし、測定点Pの位置情報を取得する方法はこれに限定されない。すなわち、例えば、測定点配置データベースを更に備え、複数の地物の各測定点Pについてその位置情報を格納する構成とすることも本発明の好適な実施形態の一つである。この場合、各地物に固有の地物識別符号IDfに関連付けられて、当該地物に設定された複数箇所の測定点Pの測定点番号Mnと、各測定点番号Mnの測定点Pについての位置情報とが格納された構成とすると好適である。 (5) In the above embodiment, the case has been described where the position information of the measurement point P constituting the measurement point information M is calculated and derived based on the measurement point form information Ma and the feature information F. However, the method for acquiring the position information of the measurement point P is not limited to this. That is, for example, it is also a preferred embodiment of the present invention to further include a measurement point arrangement database and to store the position information of each measurement point P of a plurality of features. In this case, the measurement point number Mn of a plurality of measurement points P set for the feature and the position of each measurement point number Mn with respect to the measurement point P in association with the feature identification code IDf unique to each feature. It is preferable that the information is stored.

(6)上記の実施形態では、測定点選択部17により、画像認識部7により認識された測定点Pの中の1つの測定点Pを選択し、当該測定点Pの情報を用いて詳細な自車位置を演算して自車位置情報Sを補正する場合について説明した。しかし、測定点選択部17により2個以上の測定点Pを選択し、複数の測定点Pの情報を用いて詳細な自車位置を演算して自車位置情報Sを補正する構成とすることも本発明の好適な実施形態の一つである。この場合、例えば、複数の測定点Pのそれぞれについて上記実施形態と同様に詳細な自車位置を演算し、複数の詳細な自車位置の平均を最終的な詳細自車位置とする構成とすると好適である。 (6) In the above embodiment, the measurement point selection unit 17 selects one measurement point P from among the measurement points P recognized by the image recognition unit 7 and uses the information of the measurement point P in detail. The case where the vehicle position is calculated by correcting the vehicle position information S has been described. However, the configuration is such that two or more measurement points P are selected by the measurement point selection unit 17 and the detailed vehicle position is calculated using the information of the plurality of measurement points P to correct the vehicle position information S. Is also one of the preferred embodiments of the present invention. In this case, for example, a detailed own vehicle position is calculated for each of a plurality of measurement points P in the same manner as in the above embodiment, and an average of the plurality of detailed own vehicle positions is set as a final detailed own vehicle position. Is preferred.

(7)上記の実施形態では、自信度判定部16により、少なくとも画像情報Gに含まれる地物の画像がそのとき対象としている対象地物であることの確実性を表す自信度を判定し、その自信度が所定の閾値以上であるときに、当該地物についての測定点Pの画像認識結果を用いて自車位置情報Sの補正を実行する例について説明した。しかし、このような自信度判定部16を備えず、自信度に関係なく測定点Pの画像認識結果を用いて自車位置情報Sの補正を行う構成とすることも当然に可能である。 (7) In the above embodiment, the confidence level determination unit 16 determines the confidence level that represents the certainty that at least the image of the feature included in the image information G is the target feature at that time, The example in which the correction of the vehicle position information S is executed using the image recognition result of the measurement point P for the feature when the degree of confidence is equal to or greater than a predetermined threshold has been described. However, it is naturally possible to employ a configuration in which the self-vehicle position information S is corrected by using the image recognition result of the measurement point P regardless of the confidence level without including the confidence level determination unit 16.

(8)上記第一の実施形態における位置関係演算部8及び自車位置補正部9を備えず、画像認識部7により、地物情報生成部3から出力される地物情報Fを用いて、画像情報Gに含まれている地物についての画像認識を行う画像認識装置も、本発明の好適な実施形態の一つである。また更に、測定点情報生成部4から出力される測定点情報Mも用いて、画像情報Gに含まれている地物についての測定点Pの画像認識を行う画像認識装置も、本発明の好適な実施形態の一つである。 (8) Without the positional relationship calculation unit 8 and the vehicle position correction unit 9 in the first embodiment, the image recognition unit 7 uses the feature information F output from the feature information generation unit 3, An image recognition apparatus that performs image recognition on a feature included in the image information G is also a preferred embodiment of the present invention. Furthermore, an image recognition apparatus that performs image recognition of the measurement point P for the feature included in the image information G using the measurement point information M output from the measurement point information generation unit 4 is also suitable for the present invention. This is one of the embodiments.

本発明によれば、指定位置の入力に従って、当該指定位置近傍の道路面上に配置された平面的な地物についての地物情報を出力することができるので、例えばナビゲーション装置や車両制御装置等における自車位置認識等に利用可能な地物情報を出力する地物情報出力装置を実現できる。   According to the present invention, according to the input of the designated position, the feature information about the planar features arranged on the road surface in the vicinity of the designated position can be output. For example, a navigation device, a vehicle control device, etc. It is possible to realize a feature information output device that outputs feature information that can be used for vehicle position recognition and the like.

本発明の第一の実施形態に係る自車位置認識装置の全体構成を模式的に示すブロック図The block diagram which shows typically the whole structure of the own vehicle position recognition apparatus which concerns on 1st embodiment of this invention. 図1に示される各データベースに格納される情報の内容を示す説明図Explanatory drawing which shows the content of the information stored in each database shown by FIG. 複数の地物種別の地物の輪郭形状及び代表点の位置の例を示す図The figure which shows the example of the outline shape of the feature of several feature types, and the position of a representative point 地図データベースに格納されている地図情報の内容を示す説明図Explanatory diagram showing the contents of the map information stored in the map database 複数の地物種別についての測定点の配置の例を示す図(1)The figure which shows the example of arrangement | positioning of the measurement point about several feature types (1) 複数の地物種別についての測定点の配置の例を示す図(2)Fig. 2 shows an example of the arrangement of measurement points for a plurality of feature types. 自車両の対象地物に対する各位置での画像情報の例を示す図The figure which shows the example of the image information in each position with respect to the target feature of the own vehicle 本発明の第一の実施形態に係る自車位置認識方法を示すフローチャートThe flowchart which shows the own vehicle position recognition method which concerns on 1st embodiment of this invention. 本発明の第二の実施形態に係るナビゲーション装置30及び車両制御装置31の両方を兼ねる装置の概略構成を示すブロック図The block diagram which shows schematic structure of the apparatus which serves as both the navigation apparatus 30 and the vehicle control apparatus 31 which concern on 2nd embodiment of this invention.

符号の説明Explanation of symbols

1:自車位置認識装置
2:地物情報出力装置
3:地物情報生成部(地物情報生成手段)
4:測定点情報生成部(測定点情報生成手段)
5:自車位置演算部(自車位置情報取得手段、位置入力手段)
6:画像情報取得部(画像情報取得手段)
7:画像認識部(画像認識手段)
8:位置関係演算部
9:自車位置補正部
10:自車位置補正手段
14:撮像装置
16:自信度判定部
17:測定点選択部
24:モニタ
25:スピーカ
30:ナビゲーション装置
31:車両制御装置
DB1:地物形態データベース(地物形態情報格納手段)
DB2:地物配置データベース(地物配置情報格納手段)
DB3:測定点形態データベース(測定点形態情報格納手段)
DB4:測定点状態データベース(測定点状態情報格納手段)
DBm:地図データベース
E:地図情報
F:地物情報
M:測定点情報
S:自車位置情報
S´:補正後の自車位置情報
G:画像情報
R:代表点
C:自車両
d:自車両の進行方向
Fa:地物形態情報
Fb:地物種別情報
Fc:地物配置情報
Ma:測定点形態情報
Mb:測定点状態情報
1: Vehicle position recognition device 2: Feature information output device 3: Feature information generation unit (feature information generation means)
4: Measurement point information generation unit (measurement point information generation means)
5: Own vehicle position calculation unit (own vehicle position information acquisition means, position input means)
6: Image information acquisition unit (image information acquisition means)
7: Image recognition unit (image recognition means)
8: Position relationship calculation unit 9: Own vehicle position correction unit 10: own vehicle position correction means 14: imaging device 16: confidence level determination unit 17: measurement point selection unit 24: monitor 25: speaker 30: navigation device 31: vehicle control Device DB1: Feature form database (feature form information storage means)
DB2: feature arrangement database (feature arrangement information storage means)
DB3: Measurement point form database (measurement point form information storage means)
DB4: Measurement point state database (measurement point state information storage means)
DBm: map database E: map information F: feature information M: measurement point information S: own vehicle position information S ′: corrected vehicle position information G: image information R: representative point C: own vehicle d: own vehicle Traveling direction Fa: feature form information Fb: feature type information Fc: feature arrangement information Ma: measurement point form information Mb: measurement point state information

Claims (8)

位置入力手段からの指定位置の入力に従って、当該指定位置近傍の道路面上に配置された平面的な地物についての地物情報を出力する地物情報出力装置であって、
一つの地物種別の地物が備える形態を規定した地物形態情報を、地物種別毎に格納した地物形態情報格納手段と、
道路面上に配置された複数の平面的な地物について、各地物の地物種別を示す地物種別情報と各地物の位置及び方向を示す地物配置情報とを格納した地物配置情報格納手段と、
前記指定位置近傍の地物の前記地物種別情報及び前記地物配置情報を前記地物配置情報格納手段から取得するとともに、取得された前記地物種別情報に従って当該地物種別の地物形態情報を前記地物形態情報格納手段から取得し、これらの前記地物配置情報及び前記地物形態情報に基づいて、前記指定位置近傍の地物の道路面上における配置及び形態を示す地物情報を生成して出力する地物情報生成手段と、
を備える地物情報出力装置。
According to the input of the designated position from the position input means, a feature information output device that outputs feature information about a planar feature placed on the road surface near the designated position
Feature form information storage means for storing, for each feature type, feature form information that defines the form of a feature of one feature type;
Feature arrangement information storage that stores feature type information indicating the feature type of each feature and feature arrangement information indicating the position and direction of each feature for a plurality of planar features arranged on the road surface Means,
The feature type information of the feature near the designated position and the feature arrangement information are acquired from the feature arrangement information storage means, and the feature form information of the feature type is acquired according to the acquired feature type information. From the feature form information storage means, and based on the feature arrangement information and the feature form information, feature information indicating the arrangement and form of the feature near the designated position on the road surface is obtained. Feature information generating means for generating and outputting;
A feature information output device comprising:
前記地物形態情報は、各地物種別の地物の輪郭形状を示す輪郭情報を少なくとも備えている請求項1に記載の地物情報出力装置。   The feature information output device according to claim 1, wherein the feature form information includes at least contour information indicating a contour shape of a feature of each feature type. 前記地物配置情報は、各地物の輪郭線上における最外部に位置する少なくとも2個の代表点の位置情報により構成されている請求項1又は2に記載の地物情報出力装置。   The feature information output device according to claim 1, wherein the feature arrangement information is configured by position information of at least two representative points located on the outermost part on the contour line of each feature. 前記地物配置情報は、各地物をその輪郭線の最外部に沿って囲む矩形枠の角部に位置する4個の代表点の位置情報により構成されている請求項1又は2に記載の地物情報出力装置。   The ground according to claim 1 or 2, wherein the feature arrangement information includes position information of four representative points located at corners of a rectangular frame that surrounds each feature along the outermost part of its outline. Item information output device. 各地物種別の地物についての画像認識の際の基準となる複数箇所の測定点の形態情報を、地物の全体形態の中での複数箇所の測定点の配置として規定し、地物種別毎に格納した測定点形態情報格納手段と、
前記指定位置近傍の地物の地物種別に対応する前記測定点の形態情報を、前記測定点形態情報格納手段から取得するとともに、取得した前記測定点の形態情報と前記地物情報生成手段により生成された前記地物情報とに基づいて前記測定点の位置情報を導出し、前記指定位置近傍の地物についての複数箇所の測定点の形態情報及び位置情報を含む測定点情報を生成して出力する測定点情報生成手段と、
を更に備える請求項1から4のいずれか一項に記載の地物情報出力装置。
For each feature type, the configuration information of the measurement points at multiple locations that serve as a reference for image recognition of features of each feature type is defined as the arrangement of the measurement points at multiple locations in the overall feature configuration. Measuring point form information storing means stored in
The measurement point configuration information corresponding to the feature type of the feature in the vicinity of the specified position is acquired from the measurement point configuration information storage means, and the acquired measurement point configuration information and the feature information generation means Based on the generated feature information, position information of the measurement point is derived, and measurement point information including form information and position information of a plurality of measurement points for the feature in the vicinity of the specified position is generated. Measuring point information generating means for outputting;
The feature information output device according to any one of claims 1 to 4, further comprising:
前記地物の各測定点について、画像認識の困難性に関する状態を示す測定点状態情報を格納する測定点状態情報格納手段を更に備え、
前記測定点情報生成手段は、前記測定点情報として、各測定点の測定点状態情報も出力する請求項5に記載の地物情報出力装置。
For each measurement point of the feature, further comprising measurement point state information storage means for storing measurement point state information indicating a state relating to difficulty of image recognition,
The feature information output device according to claim 5, wherein the measurement point information generation unit also outputs measurement point state information of each measurement point as the measurement point information.
請求項1から6のいずれか一項に記載の地物情報出力装置を備えた画像認識装置であって、
自車両に搭載された撮像装置により撮像した画像情報を取得する画像情報取得手段と、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、前記画像情報についての画像認識を行う画像認識手段と、を更に備え、
前記地物情報出力装置は、前記自車位置情報に示される位置を前記指定位置として前記撮像装置により撮像される地物の前記地物情報を出力し、
前記画像認識手段は、出力された前記地物情報を用いて、前記画像情報に含まれている前記地物についての画像認識を行う画像認識装置。
An image recognition device comprising the feature information output device according to any one of claims 1 to 6,
Image information acquisition means for acquiring image information captured by an imaging device mounted on the host vehicle, host vehicle position information acquisition means for acquiring host vehicle position information indicating the current position of the host vehicle, and an image about the image information Image recognition means for performing recognition,
The feature information output device outputs the feature information of the feature imaged by the imaging device with the position indicated in the vehicle position information as the designated position,
The image recognition device is an image recognition device that performs image recognition on the feature included in the image information using the output feature information.
請求項5又は6に記載の地物情報出力装置を備えた自車位置認識装置であって、
自車両に搭載された撮像装置により撮像した画像情報を取得する画像情報取得手段と、自車両の現在位置を示す自車位置情報を取得する自車位置情報取得手段と、前記地物情報出力装置の前記測定点情報生成手段から出力された前記測定点情報に基づいて、前記画像情報に含まれている地物についての前記複数箇所の測定点の画像認識を行う画像認識手段と、前記画像認識手段により認識された前記測定点の中の少なくとも一つの画像認識結果と、当該測定点の前記測定点情報とに基づいて前記自車位置情報を補正する自車位置補正手段と、を更に備える自車位置認識装置。
A vehicle position recognition device comprising the feature information output device according to claim 5,
Image information acquisition means for acquiring image information picked up by an imaging device mounted on the own vehicle, own vehicle position information acquisition means for acquiring own vehicle position information indicating the current position of the own vehicle, and the feature information output device Image recognition means for performing image recognition of the plurality of measurement points on the feature included in the image information based on the measurement point information output from the measurement point information generation means, and the image recognition Self-vehicle position correcting means for correcting the self-vehicle position information based on at least one image recognition result among the measurement points recognized by the means and the measurement point information of the measurement point. Car position recognition device.
JP2006100469A 2006-03-31 2006-03-31 Feature information output device, image recognition device, and own vehicle position recognition device Expired - Fee Related JP5010844B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006100469A JP5010844B2 (en) 2006-03-31 2006-03-31 Feature information output device, image recognition device, and own vehicle position recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006100469A JP5010844B2 (en) 2006-03-31 2006-03-31 Feature information output device, image recognition device, and own vehicle position recognition device

Publications (2)

Publication Number Publication Date
JP2007272119A true JP2007272119A (en) 2007-10-18
JP5010844B2 JP5010844B2 (en) 2012-08-29

Family

ID=38674941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006100469A Expired - Fee Related JP5010844B2 (en) 2006-03-31 2006-03-31 Feature information output device, image recognition device, and own vehicle position recognition device

Country Status (1)

Country Link
JP (1) JP5010844B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010107435A (en) * 2008-10-31 2010-05-13 Hitachi Automotive Systems Ltd Feature position recognition device
JP2012133132A (en) * 2010-12-22 2012-07-12 Geo Technical Laboratory Co Ltd Map data generation system
JP2014219683A (en) * 2014-06-24 2014-11-20 株式会社ジオ技術研究所 Map data generation system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0668391A (en) * 1992-08-20 1994-03-11 Honda Motor Co Ltd Vehicle travel guidance device
JPH09243389A (en) * 1996-03-08 1997-09-19 Alpine Electron Inc On-vehicle navigation system
JPH11194706A (en) * 1997-10-27 1999-07-21 Matsushita Electric Ind Co Ltd Display method of two-dimensional map and device thereof, and data generating device for model deformation
JP2001215129A (en) * 2000-02-02 2001-08-10 Matsushita Electric Ind Co Ltd Indication method of junction, its map display and recording medium
JP2003195744A (en) * 2001-12-27 2003-07-09 Geo Technical Laboratory Co Ltd Map display device
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0668391A (en) * 1992-08-20 1994-03-11 Honda Motor Co Ltd Vehicle travel guidance device
JPH09243389A (en) * 1996-03-08 1997-09-19 Alpine Electron Inc On-vehicle navigation system
JPH11194706A (en) * 1997-10-27 1999-07-21 Matsushita Electric Ind Co Ltd Display method of two-dimensional map and device thereof, and data generating device for model deformation
JP2001215129A (en) * 2000-02-02 2001-08-10 Matsushita Electric Ind Co Ltd Indication method of junction, its map display and recording medium
JP2003195744A (en) * 2001-12-27 2003-07-09 Geo Technical Laboratory Co Ltd Map display device
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010107435A (en) * 2008-10-31 2010-05-13 Hitachi Automotive Systems Ltd Feature position recognition device
JP2012133132A (en) * 2010-12-22 2012-07-12 Geo Technical Laboratory Co Ltd Map data generation system
JP2014219683A (en) * 2014-06-24 2014-11-20 株式会社ジオ技術研究所 Map data generation system

Also Published As

Publication number Publication date
JP5010844B2 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP4886597B2 (en) Lane determination device, lane determination method, and navigation device using the same
JP5168601B2 (en) Own vehicle position recognition system
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
JP5057183B2 (en) Reference data generation system and position positioning system for landscape matching
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP5057184B2 (en) Image processing system and vehicle control system
JP4321821B2 (en) Image recognition apparatus and image recognition method
JP5062497B2 (en) Vehicle position detection system using landscape image recognition
JP4831434B2 (en) Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP4953012B2 (en) Image recognition device, program for image recognition device, navigation device using the same, and program for navigation device
JP4731380B2 (en) Self-vehicle position recognition device and self-vehicle position recognition method
JP5141969B2 (en) Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP5182594B2 (en) Image processing system
JP2009205403A (en) Road sign recognition device and road sign recognition method
WO2020004231A1 (en) Lane estimation device, method, and program
JP2008298699A (en) Own vehicle position recognition device and own vehicle position recognition method
JP5010844B2 (en) Feature information output device, image recognition device, and own vehicle position recognition device
JP4831433B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP5177579B2 (en) Image processing system and positioning system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5010844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees