JP5679203B2 - Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method - Google Patents

Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method Download PDF

Info

Publication number
JP5679203B2
JP5679203B2 JP2011189362A JP2011189362A JP5679203B2 JP 5679203 B2 JP5679203 B2 JP 5679203B2 JP 2011189362 A JP2011189362 A JP 2011189362A JP 2011189362 A JP2011189362 A JP 2011189362A JP 5679203 B2 JP5679203 B2 JP 5679203B2
Authority
JP
Japan
Prior art keywords
recognition
feature
unit
recognized
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011189362A
Other languages
Japanese (ja)
Other versions
JP2013050412A (en
Inventor
豪 伊藤
豪 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011189362A priority Critical patent/JP5679203B2/en
Publication of JP2013050412A publication Critical patent/JP2013050412A/en
Application granted granted Critical
Publication of JP5679203B2 publication Critical patent/JP5679203B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自車両に備えられたカメラによる撮影画像を用いて自車位置を認識する自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法に関する。   The present invention relates to a host vehicle position recognition system, a host vehicle position recognition program, and a host vehicle position recognition method that recognize a host vehicle position using an image captured by a camera provided in the host vehicle.

上記のような自車位置認識システムの従来技術として、例えば特開2009−58429号公報(特許文献1)に記載された技術がある。特許文献1には、カメラによる撮影画像に含まれる地物の画像認識処理を行い、画像認識の結果と当該地物の位置情報とに基づき、推定自車位置を補正する技術が記載されている。この際、画像認識処理において認識対象とされる地物は、各地物の画像認識に成功する割合である認識率に基づいて決定される。具体的には、認識対象となり得る複数の地物が狭い間隔で配置されている場合に、認識率が高い地物を認識対象の地物として決定する。これにより、画像認識処理に係る演算負荷を軽減しつつ、一定距離あたりの地物の認識率を高めることが可能となっている。   As a conventional technique of the vehicle position recognition system as described above, there is a technique described in, for example, Japanese Unexamined Patent Application Publication No. 2009-58429 (Patent Document 1). Patent Document 1 describes a technique for performing image recognition processing of a feature included in a photographed image by a camera and correcting the estimated vehicle position based on the result of image recognition and position information of the feature. . At this time, the feature to be recognized in the image recognition process is determined based on the recognition rate, which is the rate of successful image recognition of each feature. Specifically, when a plurality of features that can be recognized are arranged at narrow intervals, a feature having a high recognition rate is determined as a feature to be recognized. Thereby, it is possible to increase the recognition rate of the feature per fixed distance while reducing the calculation load related to the image recognition processing.

ところで、例えば特開2009−109341号公報(特許文献2)に記載されているように、複数の地物(特許文献2の例では一対の横断歩道標示)で構成された地物群を画像認識処理における認識対象とする技術が知られている。しかしながら、特許文献1には、このような地物群を認識対象とする場合についての記載がなく、当然ながら、画像認識処理における認識対象を決定するための地物群に対する認識率の決定方法に言及した記載もない。   By the way, as described in, for example, Japanese Patent Application Laid-Open No. 2009-109341 (Patent Document 2), image recognition is performed on a feature group composed of a plurality of features (in the example of Patent Document 2, a pair of crosswalk signs). A technique to be recognized in processing is known. However, Patent Document 1 does not describe the case where such a feature group is set as a recognition target, and naturally, a method for determining the recognition rate for the feature group for determining the recognition target in the image recognition processing. There is no mention.

特開2009−58429号公報JP 2009-58429 A 特開2009−109341号公報JP 2009-109341 A

そこで、複数の地物で構成された地物群について、画像認識処理における認識対象を決定するための認識率を適切に決定することが可能な技術の実現が望まれる。   Therefore, it is desired to realize a technique that can appropriately determine a recognition rate for determining a recognition target in an image recognition process for a feature group including a plurality of features.

本発明に係る、自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理部と、地物の位置情報を含む道路情報を取得する道路情報取得部と、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正部と、を備えた自車位置認識システムの特徴構成は、単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得部と、画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定部と、前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択部と、を備え、前記認識率決定部は、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する点にある。   According to the present invention, an estimated own vehicle position acquisition unit that acquires an estimated own vehicle position, which is an estimated position of the own vehicle, and a captured image captured by a camera provided in the own vehicle are acquired and included in the captured image An image processing unit that performs image recognition processing of a feature to be obtained, a road information acquisition unit that acquires road information including position information of the feature, a recognition result of the feature by the image recognition processing, and a land included in the road information A feature configuration of the vehicle position recognition system including an estimated vehicle position correction unit that corrects the estimated vehicle position based on the position information of the object is a single feature or a plurality of predetermined features. A recognition request range acquisition unit that acquires a recognition request range set for each recognition feature unit along a road length direction as a range in which the image recognition processing is performed, with a feature group configured by And the percentage of successful image recognition A recognition rate determining unit that determines a rate for each recognized feature unit based on an expected recognition rate predetermined for each type of feature, and the recognition based on the recognition rate of each recognized feature unit A recognition target selecting unit that selects the recognized feature unit to be recognized in the image recognition process from a plurality of the recognized feature units whose request ranges overlap each other, and the recognition rate determining unit includes a road According to the image recognition result of each feature constituting the specific recognition feature unit at each time point for the specific recognition feature unit that is the recognition feature unit composed of the feature group divided in the length direction When a part of a plurality of features constituting the specific recognition feature unit is image-recognized, the recognition rate is determined based on the expected recognition rate of the remaining features constituting the specific recognition feature unit. Execute specific recognition rate determination process Located in.

上記の特徴構成によれば、特定認識率決定処理を実行することで、道路長さ方向に分かれて配置された地物群からなる特定認識地物単位の認識率を、各時点での画像認識結果を考慮して適切に決定することができる。補足説明すると、画像認識に成功する割合である認識率の決定に、既に画像認識された地物の予想認識率まで考慮すると、実際の成功率に対して低い値の認識率が決定されるおそれがある。これに対し、上記の特徴構成によれば、未だ画像認識されていない地物の予想認識率に基づき認識率が決定されるため、画像認識結果とは無関係に全ての地物の予想認識率に基づき認識率を決定する場合に比べ、各時点における現状に即した認識率を得ることができる。
このように、上記の特徴構成によれば、複数の地物で構成された地物群について、画像認識処理における認識対象を決定するための認識率を適切に決定することが可能となる。
According to the above feature configuration, by executing the specific recognition rate determination process, the recognition rate of the specific recognition feature unit composed of the feature group arranged separately in the road length direction is determined as the image recognition at each time point. It is possible to make an appropriate decision in consideration of the result. As a supplementary explanation, when the recognition rate, which is the rate of successful image recognition, is taken into consideration to the expected recognition rate of features that have already been image-recognized, there is a risk that a lower recognition rate will be determined than the actual success rate. There is. On the other hand, according to the above feature configuration, since the recognition rate is determined based on the expected recognition rate of the features that have not yet been image-recognized, the expected recognition rate of all the features is determined regardless of the image recognition result. Compared to the case where the recognition rate is determined based on the recognition rate, it is possible to obtain a recognition rate that matches the current state at each time point.
As described above, according to the feature configuration described above, it is possible to appropriately determine a recognition rate for determining a recognition target in the image recognition process for a feature group including a plurality of features.

ここで、前記認識要求範囲は、前記認識地物単位を構成する各地物毎に設定される地物毎要求範囲に基づいて設定され、前記認識率決定部は、前記特定認識地物単位の前記認識率の決定に際し、前記地物毎要求範囲における進行方向後方側の端部を含む第一判定領域内で当該地物毎要求範囲に対応する地物が画像認識された場合に特定認識率決定処理を実行し、前記地物毎要求範囲が構成する前記認識要求範囲における前記第一判定領域以外の第二判定領域内で当該地物毎要求範囲に対応する地物が画像認識された場合には前記特定認識率決定処理の実行を禁止する構成とすると好適である。   Here, the recognition request range is set based on a feature-specific request range that is set for each feature that constitutes the recognized feature unit, and the recognition rate determination unit, the recognition rate determination unit of the specific recognition feature unit When determining the recognition rate, the specific recognition rate is determined when the feature corresponding to the requested range for each feature is recognized in the first determination area including the end portion on the rear side in the traveling direction in the requested range for each feature. When the feature corresponding to the required range for each feature is recognized in the second determination area other than the first determination area in the recognition required range configured by the required range for each feature. Is preferably configured to prohibit the execution of the specific recognition rate determination process.

推定自車位置の誤差を考慮しても、地物毎要求範囲における進行方向後方側に設定された第一判定領域において、当該地物毎要求範囲に対応する地物に対して進行方向前方側に配置された他の地物が画像認識される可能性は低い。上記の構成では、このような第一判定領域で地物が画像認識された場合にのみ特定認識率決定処理が実行されるため、画像認識された地物が上記他の地物である可能性が低くない場合に、特定認識率決定処理の実行を禁止することができる。これにより、特定認識地物単位について実際の成功率よりも高い認識率が決定されて認識対象選択部が適切ではない選択をすることを抑制することができる。   Even in consideration of the error of the estimated vehicle position, in the first determination area set on the rear side in the traveling direction in the required range for each feature, the front side in the traveling direction with respect to the feature corresponding to the required range for each feature It is unlikely that other features placed in the image will be recognized. In the above configuration, since the specific recognition rate determination process is executed only when the feature is image-recognized in the first determination region, there is a possibility that the feature that has been image-recognized is the other feature. When the value is not low, execution of the specific recognition rate determination process can be prohibited. Thereby, it is possible to prevent the recognition target selection unit from selecting an appropriate recognition rate that is higher than the actual success rate for the specific recognition feature unit.

また、前記認識率決定部は、他の前記認識地物単位と前記認識要求範囲が互いに重複する前記特定認識地物単位であって、当該他の前記認識地物単位を構成する地物に対して進行方向後方側に配置された地物を有する前記特定認識地物単位についてのみ、前記特定認識率決定処理を実行する構成とすると好適である。   In addition, the recognition rate determination unit is the specific recognition feature unit in which the recognition requirement range overlaps with the other recognition feature unit, and for the features constituting the other recognition feature unit It is preferable that the specific recognition rate determination process is executed only for the specific recognition feature unit having the features arranged on the rear side in the traveling direction.

この構成によれば、特定認識率決定処理の実行対象となる特定認識地物単位が、他の認識地物単位と認識要求範囲が互いに重複する特定認識地物単位に限定されるため、認識地物単位の選択を行う必要がない場合に認識率の決定処理が実行されることを禁止することができる。また、特定認識率決定処理の実行対象となる特定認識地物単位が、認識要求範囲が互いに重複する他の認識地物単位を構成する地物に対して、進行方向後方側に配置された地物を有する特定認識地物単位に限定されるため、特定認識率決定処理の実行対象となる特定認識地物単位を、少なくとも最も進行方向後方側に位置する地物の画像認識結果に応じて、認識対象選択部による選択結果が変わり得るものに限定することが可能となる。これらにより、特定認識率決定処理が必要以上に実行されることを抑制して、演算負荷を抑制することが可能となっている。   According to this configuration, the specific recognition feature unit to be executed for the specific recognition rate determination process is limited to the specific recognition feature unit whose recognition request range overlaps with other recognition feature units. It is possible to prohibit the recognition rate determination process from being executed when it is not necessary to select an object unit. In addition, the specific recognition feature unit that is the target of executing the specific recognition rate determination process is a feature arranged on the rear side in the traveling direction with respect to the features that constitute other recognition feature units whose recognition request ranges overlap each other. Since it is limited to the specific recognition feature unit having an object, the specific recognition feature unit that is the execution target of the specific recognition rate determination process is at least according to the image recognition result of the feature located at the rearmost side in the traveling direction, It is possible to limit the selection result by the recognition target selection unit to change. Thus, it is possible to suppress the calculation load by suppressing the specific recognition rate determination process from being performed more than necessary.

また、前記認識率決定部は、前記特定認識率決定処理では、前記特定認識地物単位を構成する地物の内の画像認識された地物以外の残りの全ての地物の前記予想認識率を互いに乗算した値を当該特定認識地物単位の認識率に決定し、前記特定認識率決定処理以外の通常認識率決定処理では、前記特定認識地物単位を構成する全ての地物の前記予想認識率を互いに乗算した値を当該特定認識地物単位の認識率に決定する構成とすると好適である。   In the specific recognition rate determination process, the recognition rate determination unit determines the expected recognition rate of all remaining features other than the image-recognized features in the features constituting the specific recognition feature unit. Is determined as the recognition rate of the specific recognition feature unit, and in the normal recognition rate determination process other than the specific recognition rate determination process, the prediction of all the features constituting the specific recognition feature unit is determined. A value obtained by multiplying the recognition rates with each other is preferably determined as the recognition rate of the specific recognition feature unit.

この構成によれば、特定認識率決定処理及び通常認識率決定処理のいずれの処理においても、認識率を簡素な構成で導出することができるため、必要に応じてこれらを演算して導出する場合に、当該演算に係る負荷を低減することができる。また、認識率を予め演算して記憶装置に整備しておく場合には、当該整備に係るコストを低減することができる。   According to this configuration, since the recognition rate can be derived with a simple configuration in any of the specific recognition rate determination processing and the normal recognition rate determination processing, when these are calculated and derived as necessary In addition, the load related to the calculation can be reduced. Further, when the recognition rate is calculated in advance and stored in the storage device, the cost for the maintenance can be reduced.

以上の各構成を備えた本発明に係る自車位置認識システムの技術的特徴は、自車位置認識プログラムや自車位置認識方法にも適用可能であり、本発明はそのようなプログラムや方法も権利の対象とすることができる。   The technical features of the vehicle position recognition system according to the present invention having the above-described configurations can be applied to a vehicle position recognition program and a vehicle position recognition method, and the present invention also includes such a program and method. Can be subject to rights.

その場合における、自車位置認識プログラムの特徴構成は、自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理機能と、地物の位置情報を含む道路情報を取得する道路情報取得機能と、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正機能と、を実現させるための自車位置認識プログラムであって、単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得機能と、画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定機能と、前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択機能と、をコンピュータに実現させ、前記認識率決定機能は、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する機能である点にある。   In this case, the feature configuration of the host vehicle position recognition program includes an estimated host vehicle position acquisition function for acquiring an estimated host vehicle position that is an estimated position of the host vehicle, and a photographed image shot by a camera provided in the host vehicle. An image processing function for performing image recognition processing of a feature included in the captured image, a road information acquisition function for acquiring road information including positional information of the feature, and feature recognition by the image recognition processing A vehicle position recognition program for realizing an estimated vehicle position correction function for correcting the estimated vehicle position based on a result and position information of a feature included in the road information, Recognition set for each recognition feature unit along the road length direction as a range for performing the image recognition processing, with a feature group composed of a plurality of predetermined features or features as recognition feature units Get request range A recognition request range acquisition function, and a recognition rate determination function for determining a recognition rate, which is a rate of successful image recognition, for each recognition feature unit based on an expected recognition rate predetermined for each type of feature, Based on the recognition rate of each recognized feature unit, the recognized feature unit to be recognized in the image recognition process is selected from the plurality of recognized feature units whose recognition request ranges overlap each other. A recognition target selection function implemented by a computer, and the recognition rate determination function is configured for each specific recognition feature unit, which is a recognition feature unit composed of feature groups arranged separately in a road length direction, at each time point. When a part of a plurality of features constituting the specific recognition feature unit is image-recognized according to the image recognition result of each feature constituting the specific recognition feature unit at the specific recognition feature unit Configure units It lies in a function to perform a specific recognition rate determining process for determining the recognition rate based on the expected recognition rate of Rino feature.

また、自車位置認識方法の特徴構成は、自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理ステップと、地物の位置情報を含む道路情報を取得する道路情報取得ステップと、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正ステップと、を備えた自車位置認識方法であって、単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得ステップと、画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定ステップと、前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択ステップと、を備え、前記認識率決定ステップでは、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する点にある。   In addition, the characteristic configuration of the vehicle position recognition method includes an estimated vehicle position acquisition step for acquiring an estimated vehicle position that is an estimated position of the vehicle, and a captured image captured by a camera provided in the vehicle. An image processing step for performing image recognition processing of the feature included in the captured image, a road information acquisition step for acquiring road information including position information of the feature, and a recognition result of the feature by the image recognition processing, An estimated vehicle position correcting step for correcting the estimated vehicle position based on position information of the feature included in the road information, wherein the vehicle position recognition method comprises a single feature or a predetermined feature. A recognition request range set for each recognized feature unit along the road length direction is obtained as a range to be subjected to the image recognition processing, with a feature group composed of a plurality of specified features as a recognized feature unit. Recognition requirements A recognition rate determination step for determining a recognition rate, which is a rate of successful image recognition, for each recognized feature unit based on an expected recognition rate predetermined for each type of feature, and the recognized feature unit A recognition target selection step of selecting the recognition feature unit to be recognized in the image recognition process from the plurality of recognition feature units whose recognition request ranges overlap each other based on the respective recognition rates of In the recognition rate determination step, the specific recognition feature unit at each point in time for the specific recognition feature unit that is the recognition feature unit composed of the feature group arranged separately in the road length direction. If a part of a plurality of features constituting the specific recognition feature unit is image-recognized according to the image recognition result of each feature constituting the remaining features constituting the specific recognition feature unit Said In that it performs a specific recognition rate determining process for determining the recognition rate based on the recognition rate.

当然ながら、これらの自車位置認識プログラムや自車位置認識方法も上述した自車位置認識システムに係る作用効果を得ることができ、更に、その好適な構成の例として挙げたいくつかの付加的技術を組み込むことが可能である。   Naturally, these vehicle position recognition programs and vehicle position recognition methods can also obtain the effects of the vehicle position recognition system described above, and some additional examples given as examples of suitable configurations thereof. It is possible to incorporate technology.

本発明の実施形態に係るナビゲーション装置の概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of a navigation device concerning an embodiment of the present invention. 本発明の実施形態に係る車両の走行状況の一例を示す模式図であり、(a)はノードとリンクが表す道路ネットワークを示し、(b)は(a)に対応する道路及び当該道路に設けられた地物を示し、(c)は認識要求範囲及び重複領域を示し、(d)は(b)に対応する道路における車両側で認識されている自車位置を示す。It is a schematic diagram which shows an example of the running condition of the vehicle which concerns on embodiment of this invention, (a) shows the road network which a node and a link represent, (b) is provided in the road corresponding to (a), and the said road (C) shows a recognition request range and an overlapping area, and (d) shows a vehicle position recognized on the vehicle side on the road corresponding to (b). 本発明の実施形態に係る車両の走行状況の別の一例を示す模式図であり、(a)はノードとリンクが表す道路ネットワークを示し、(b)は(a)に対応する道路及び当該道路に設けられた地物を示し、(c)は認識要求範囲及び重複領域を示し、(d)は(b)に対応する道路における車両側で認識されている自車位置を示す。It is a schematic diagram which shows another example of the driving | running | working condition of the vehicle which concerns on embodiment of this invention, (a) shows the road network which a node and a link represent, (b) shows the road corresponding to (a), and the said road (C) shows a recognition request range and an overlapping area, and (d) shows the vehicle position recognized on the vehicle side on the road corresponding to (b). 本発明の実施形態に係る予想認識率記憶部に記憶されている情報の一例を示す概念図である。It is a conceptual diagram which shows an example of the information memorize | stored in the prediction recognition rate memory | storage part which concerns on embodiment of this invention. 本発明の実施形態に係る自車位置認識処理の全体手順の一例を示すフローチャートである。It is a flowchart which shows an example of the whole procedure of the own vehicle position recognition process which concerns on embodiment of this invention. 本発明の実施形態に係る推定自車位置補正処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the estimation own vehicle position correction process which concerns on embodiment of this invention. 本発明の実施形態に係る画像認識処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the image recognition process which concerns on embodiment of this invention.

本発明の実施形態について、図面を参照して説明する。ここでは、本発明に係る自車位置認識システムを、車載用のナビゲーション装置に適用した場合を例として説明する。本実施形態に係るナビゲーション装置1は、図1に示すように自車位置認識ユニット2を備え、この自車位置認識ユニット2を中核として自車位置認識システムが構築されている。   Embodiments of the present invention will be described with reference to the drawings. Here, the case where the vehicle position recognition system according to the present invention is applied to an in-vehicle navigation device will be described as an example. As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a host vehicle position recognition unit 2, and a host vehicle position recognition system is built around the host vehicle position recognition unit 2.

以下の説明における「進行方向前方D1」及び「進行方向後方D2」(図2参照)は、自車両3(以下、「車両3」という場合がある。)が道路長さ方向Lに沿って前進走行している状態を基準として定義している。よって、「進行方向前方D1」は車両3の前方へ向かう方向を指し、「進行方向後方D2」は車両3の後方へ向かう方向を指す。   In the following description, “traveling direction front D1” and “traveling direction rear D2” (see FIG. 2) indicate that the host vehicle 3 (hereinafter, also referred to as “vehicle 3”) advances along the road length direction L. It is defined based on the state of traveling. Therefore, “traveling direction front D1” indicates a direction toward the front of the vehicle 3, and “traveling direction rear D2” indicates a direction toward the rear of the vehicle 3.

1.ナビゲーション装置の概略構成
図1に示すように、ナビゲーション装置1は、自車位置認識ユニット2と、制御ユニット80と、推定自車位置導出部94と、道路情報記憶部10と、予想認識率記憶部11と、を備えている。自車位置認識ユニット2及び制御ユニット80は、複数の機能部を備えている。
1. Schematic Configuration of Navigation Device As shown in FIG. 1, the navigation device 1 includes a host vehicle position recognition unit 2, a control unit 80, an estimated host vehicle position deriving unit 94, a road information storage unit 10, and an expected recognition rate storage. Part 11. The own vehicle position recognition unit 2 and the control unit 80 include a plurality of functional units.

ナビゲーション装置1が備える各機能部は、互いに共通の或いはそれぞれ独立のCPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。また、これらの機能部は、通信線を介して互いに情報の受け渡しを行うことができるように構成されているとともに、各記憶部10,11からデータを抽出可能に構成されている。ここで、各機能部がソフトウェア(プログラム)により構成される場合には、当該ソフトウェアは、演算処理装置が参照可能な記憶装置に記憶される。   Each functional unit included in the navigation device 1 is a hardware or software (functional or functional unit for performing various processes on input data using a common arithmetic processing unit such as a CPU or the like as a core member. Program) or both. These functional units are configured to be able to exchange information with each other via a communication line, and are configured to be able to extract data from the storage units 10 and 11. Here, when each functional unit is configured by software (program), the software is stored in a storage device that can be referred to by the arithmetic processing device.

道路情報記憶部10及び予想認識率記憶部11は、記憶装置により構成されるデータベースである。この記憶装置は、例えば、ハードディスクドライブやフラッシュメモリ等のように、情報を記憶及び書き換え可能な記録媒体をハードウェア構成として備える。なお、各記憶部10,11は、それぞれ独立のハードウェアを有していても良いし、共通のハードウェアに備えられていても良い。   The road information storage unit 10 and the expected recognition rate storage unit 11 are databases configured by a storage device. This storage device includes, as a hardware configuration, a recording medium capable of storing and rewriting information, such as a hard disk drive and a flash memory. Each of the storage units 10 and 11 may have independent hardware, or may be provided in common hardware.

制御ユニット80は、経路設定部81、経路探索部82、及び経路案内部83を備えている。経路設定部81は、例えば自車位置等の出発地、入力された目的地、通過地点や走行条件(高速道路の使用有無など)を設定する機能部である。経路探索部82は、経路設定部81によって設定された条件に基づき、出発地から目的地までの案内経路を探索するための演算処理(経路探索処理)を行う機能部である。経路案内部83は、経路探索部82により探索された出発地から目的地までの経路に従って、モニタ(図示せず)の表示画面による案内標示やスピーカ(図示せず)による音声案内等により、運転者に対して適切な経路案内を行うための演算処理(経路案内処理)を行う機能部である。   The control unit 80 includes a route setting unit 81, a route search unit 82, and a route guide unit 83. The route setting unit 81 is a functional unit that sets, for example, a departure place such as the vehicle position, an input destination, a passing point, and traveling conditions (whether or not an expressway is used). The route search unit 82 is a functional unit that performs calculation processing (route search processing) for searching for a guide route from the departure point to the destination based on the conditions set by the route setting unit 81. The route guidance unit 83 operates according to the guidance from the display screen of a monitor (not shown) or voice guidance from a speaker (not shown) according to the route from the departure point to the destination searched by the route search unit 82. It is a functional part which performs the calculation process (route guidance process) for performing suitable route guidance with respect to a person.

道路情報記憶部10には、上記の経路探索処理や経路案内処理を実行する際や、モニタへの地図表示処理を実行する際等に参照される道路情報RD(道路地図データ)が記憶(格納)されている。本実施形態では、道路情報RDは、図2(a)に概念的に示すように、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路に対応する経路を構成する多数のリンクKの情報とを有して構成されている。ノードNは、例えば、道路の交差点、折曲点、分岐点等に設定される。   The road information storage unit 10 stores (stores) road information RD (road map data) that is referred to when the above-described route search processing or route guidance processing is executed, or when map display processing on a monitor is executed. ) In the present embodiment, the road information RD includes, as conceptually shown in FIG. 2A, information on a large number of nodes N having position information on a map expressed by latitude and longitude, and two nodes N. Information of a number of links K that are connected to form a route corresponding to a road. The node N is set at a road intersection, a turning point, a branch point, or the like, for example.

道路情報RDには、各リンクKのリンク情報(リンク属性)として、道路種別情報(高速道路、有料道路、国道、県道等の種別)やリンク長さ情報等が含まれている。また、道路情報RDには、2つのノードNの間(すなわちリンクK上)に配置されてリンクKの詳細形状を表す形状補間点の情報や、道路幅の情報も含まれている。   The road information RD includes road type information (types such as highways, toll roads, national roads, prefectural roads), link length information, and the like as link information (link attributes) of each link K. The road information RD also includes information on shape interpolation points that are arranged between the two nodes N (that is, on the link K) and indicate the detailed shape of the link K, and information on the road width.

また、道路情報RDには、道路上や道路周辺に設けられた各種の地物50の情報(地物情報)が含まれている。道路情報記憶部10に地物情報が格納される地物50には、道路標示が含まれるとともに、道路との相対位置が固定されている立体的な構造物も含まれる。ここで、道路標示とは、ペイント等により路面に設けられた規制や指示のための記号や文字である。道路標示には、例えば、横断歩道であることを示す標示(横断歩道標示51、図2(b)参照)、停止線を表す標示(停止線標示53、図3(b)参照)、区画線(中央線や車線境界線(レーンマーク)等)を表す標示(区画線標示)、前方に横断歩道があることを示す標示(横断歩道予告標示52、図2(b)参照)、交差点の形状を示す十字状やT字状の標示(交差点形状標示)等が含まれる。また、立体的な構造物には、例えば、分離帯、縁石、側溝等のような車線を形成するための立体物に加えて、信号機、標識、陸橋、トンネル等の各種立体物が含まれる。   In addition, the road information RD includes information (feature information) of various features 50 provided on or around the road. The feature 50 in which the feature information is stored in the road information storage unit 10 includes a road marking and a three-dimensional structure whose relative position with respect to the road is fixed. Here, the road marking is a symbol or character for regulation or instruction provided on the road surface by painting or the like. The road marking includes, for example, a sign indicating that it is a pedestrian crossing (see pedestrian crossing sign 51, FIG. 2B), a sign indicating a stop line (see stop line sign 53, FIG. 3B), lane marking Signs (division line markings) representing the center line and lane boundary lines (lane marks), signs indicating that there is a pedestrian crossing ahead (see pedestrian crossing warning sign 52, Fig. 2 (b)), intersection shape Or a T-shaped marking (intersection shape marking) or the like. The three-dimensional structure includes, for example, various three-dimensional objects such as traffic lights, signs, overpasses, and tunnels, in addition to three-dimensional objects for forming lanes such as separation bands, curbs, side grooves, and the like.

地物情報には、少なくとも地物50の位置情報と属性情報とが含まれる。ここで、位置情報は、地物50の地図上の位置(緯度及び経度)を表す情報であり、基本的に、地物50の代表点(例えば地物50の長さ方向及び幅方向の中心)の位置を表す情報とされる。また、属性情報は、地物50の属性を表す情報であり、本例では、属性情報には種別情報と形態情報とが含まれている。種別情報は、地物50の種別を表す情報であり、基本的に、同じ形状の地物50が1つの種別として規定されている。本実施形態では、地物50の種別には、図4に示すように、「横断歩道標示」、「横断歩道予告標示」、及び「停止線標示」が含まれる。また、形態情報は、地物50の形態を表す情報であり、地物50の形状や大きさ等の情報を有している。   The feature information includes at least position information and attribute information of the feature 50. Here, the position information is information representing the position (latitude and longitude) of the feature 50 on the map. Basically, the representative point of the feature 50 (for example, the center of the feature 50 in the length direction and the width direction). ). The attribute information is information representing the attribute of the feature 50. In this example, the attribute information includes type information and form information. The type information is information representing the type of the feature 50, and basically the feature 50 having the same shape is defined as one type. In the present embodiment, the types of the features 50 include “pedestrian crossing sign”, “pedestrian crossing notice sign”, and “stop line sign” as shown in FIG. The form information is information representing the form of the feature 50 and has information such as the shape and size of the feature 50.

上記のような道路情報RDは、データベース化され、道路情報記憶部10の仕様に応じた形態で格納されている。例えば、道路情報RDが、互いに関連付けられた複数のレイヤに分かれて道路情報記憶部10に格納された構成とすることができる。具体的には、ノードNとリンクKにより道路間の接続情報を示すレイヤ(道路ネットワークレイヤ)、形状補間点や道路幅の情報を示すレイヤ(道路形状レイヤ)、及び、道路に関する詳細な情報(道路上や道路周辺に設けられた各種地物50の情報等)を示すレイヤ(道路属性レイヤ)を含む少なくとも3つのレイヤに分かれて道路情報RDが備えられた構成とすることができる。   The road information RD as described above is made into a database and stored in a form according to the specifications of the road information storage unit 10. For example, the road information RD may be divided into a plurality of layers associated with each other and stored in the road information storage unit 10. Specifically, a layer (road network layer) indicating connection information between roads by the node N and the link K, a layer (road shape layer) indicating information on shape interpolation points and road widths, and detailed information on roads ( The road information RD can be divided into at least three layers including a layer (road attribute layer) indicating information on various features 50 provided on or around the road.

推定自車位置導出部94は、車両3に備えられたGPS測定ユニット91、距離センサ92、及び方位センサ93の出力に基づき、自車両3の推定位置である推定自車位置EPを導出する機能部である。具体的には、推定自車位置導出部94は、GPS測定ユニット91から取得したGPS(Global Positioning System)信号を解析し、自車両3の現在位置(緯度及び経度)を導出し、GPS位置データを得る。また、推定自車位置導出部94は、距離センサ92や方位センサ93から取得した移動距離情報と方位情報とに基づいて推測航法位置を導出し、推測航法位置データを得る。そして、推定自車位置導出部94は、GPS位置データと推測航法位置データとから公知の方法により自車両3の推定位置である推定自車位置EPを導出する演算を行い、導出した推定自車位置EPの情報を自車位置認識ユニット2へ出力する。   The estimated own vehicle position deriving unit 94 derives an estimated own vehicle position EP that is an estimated position of the own vehicle 3 based on outputs of the GPS measurement unit 91, the distance sensor 92, and the direction sensor 93 provided in the vehicle 3. Part. Specifically, the estimated own vehicle position deriving unit 94 analyzes a GPS (Global Positioning System) signal acquired from the GPS measurement unit 91, derives the current position (latitude and longitude) of the own vehicle 3, and obtains GPS position data. Get. The estimated vehicle position deriving unit 94 derives a dead reckoning position based on the moving distance information and the direction information acquired from the distance sensor 92 and the direction sensor 93, and obtains dead reckoning position data. Then, the estimated own vehicle position deriving unit 94 performs a calculation for deriving the estimated own vehicle position EP that is the estimated position of the own vehicle 3 from the GPS position data and the dead reckoning position data by a known method, and the derived estimated own vehicle Information on the position EP is output to the vehicle position recognition unit 2.

上記のように導出される推定自車位置EPは、測定誤差を含んだ情報となっており、場合によっては道路上から外れてしまう。本実施形態では、このような場合には道路情報記憶部10に記憶された道路地図データに基づき、推定自車位置導出部94が推定自車位置EPを道路地図に示される道路上に合わせるための補正(マップマッチング処理)を行い、当該補正後の推定自車位置EPの情報が自車位置認識ユニット2へ出力される。   The estimated vehicle position EP derived as described above is information including a measurement error, and may be off the road depending on the case. In this embodiment, in such a case, based on the road map data stored in the road information storage unit 10, the estimated vehicle position deriving unit 94 adjusts the estimated vehicle position EP on the road shown on the road map. (Map matching process) is performed, and information on the estimated vehicle position EP after the correction is output to the vehicle position recognition unit 2.

自車位置認識ユニット2は、推定自車位置導出部94から取得した推定自車位置EPを補正するための各機能部22〜27を備えている。自車位置認識ユニット2の構成については、後の「2.自車位置認識ユニットの構成」の項で詳細に説明するが、自車位置認識ユニット2は、車両3に備えられたカメラ90(図1、図2参照)による撮影画像PGを用いて推定自車位置EPを補正することで、推定自車位置EPよりも高精度に自車位置を認識することが可能となっている。   The own vehicle position recognition unit 2 includes functional units 22 to 27 for correcting the estimated own vehicle position EP acquired from the estimated own vehicle position deriving unit 94. The configuration of the host vehicle position recognition unit 2 will be described in detail in the section “2. Configuration of the host vehicle position recognition unit” later. The host vehicle position recognition unit 2 is a camera 90 ( By correcting the estimated vehicle position EP using the captured image PG according to FIGS. 1 and 2, it is possible to recognize the vehicle position with higher accuracy than the estimated vehicle position EP.

本実施形態では、図2(b)に示すように、カメラ90は車両3の後方を撮影するバックカメラ(リアカメラ)とされ、カメラ90による撮影画像PGには車両3の後方(進行方向後方D2側)の路面が含まれる。具体的には、本実施形態では、カメラ90は主に路面が撮影されるように光軸に俯角(例えば30度程度)を有して車両3に設置されており、推定自車位置EPの補正のための画像認識において対象となる地物50は、路面に設けられた道路標示とされる。   In this embodiment, as shown in FIG. 2B, the camera 90 is a back camera (rear camera) that captures the rear of the vehicle 3, and an image PG captured by the camera 90 is behind the vehicle 3 (rear in the traveling direction). D2 side) road surface is included. Specifically, in this embodiment, the camera 90 is installed in the vehicle 3 with a depression angle (for example, about 30 degrees) on the optical axis so that the road surface is mainly photographed, and the estimated vehicle position EP is The feature 50 as a target in the image recognition for correction is a road marking provided on the road surface.

2.自車位置認識ユニットの構成
次に、本発明の要部である自車位置認識ユニット2の構成について説明する。図1に示すように、自車位置認識ユニット2は、推定自車位置取得部21、画像処理部22、道路情報取得部23、推定自車位置補正部24、認識対象選択部25、認識率決定部26、及び認識要求範囲取得部27を備えている。
2. Next, the configuration of the vehicle position recognition unit 2, which is a main part of the present invention, will be described. As shown in FIG. 1, the vehicle position recognition unit 2 includes an estimated vehicle position acquisition unit 21, an image processing unit 22, a road information acquisition unit 23, an estimated vehicle position correction unit 24, a recognition target selection unit 25, a recognition rate. A determination unit 26 and a recognition request range acquisition unit 27 are provided.

2−1.推定自車位置取得部の構成
推定自車位置取得部21は、自車両3の推定位置である推定自車位置EPを取得する機能部である。本実施形態では、推定自車位置導出部94が導出した推定自車位置EPが推定自車位置取得部21に入力されることで、推定自車位置取得部21が推定自車位置EPを取得する。
2-1. Configuration of Estimated Own Vehicle Position Acquisition Unit The estimated own vehicle position acquisition unit 21 is a functional unit that acquires an estimated own vehicle position EP that is an estimated position of the own vehicle 3. In the present embodiment, the estimated own vehicle position obtaining unit 21 obtains the estimated own vehicle position EP by inputting the estimated own vehicle position EP derived by the estimated own vehicle position deriving unit 94 to the estimated own vehicle position obtaining unit 21. To do.

2−2.画像処理部の構成
画像処理部22は、車両3に備えられたカメラ90により撮影された撮影画像PGを取得し、当該撮影画像PGに含まれる地物50の画像認識処理を行う機能部である。すなわち、画像処理部22は、画像取得機能と画像認識機能とを有している。画像処理部22は、図2(d)及び図3(d)に一例を示すような認識地物単位60を認識対象として画像認識処理を行う。ここで、認識地物単位60は、単一の地物50、又は予め定められた複数の地物50で構成された地物群(地物セット)である。図2(d)及び図3(d)に示す例では、第一認識地物単位61が、単一の地物50で構成されている。一方、第二認識地物単位62及び第三認識地物単位63のそれぞれは、互いに異なる位置に配置された複数の地物50からなる地物群で構成されている。
2-2. Configuration of Image Processing Unit The image processing unit 22 is a functional unit that acquires a captured image PG captured by the camera 90 provided in the vehicle 3 and performs image recognition processing of the feature 50 included in the captured image PG. . That is, the image processing unit 22 has an image acquisition function and an image recognition function. The image processing unit 22 performs image recognition processing on the recognition feature unit 60 as shown in FIG. 2D and FIG. Here, the recognized feature unit 60 is a single feature 50 or a feature group (feature set) composed of a plurality of predetermined features 50. In the example shown in FIG. 2D and FIG. 3D, the first recognized feature unit 61 is composed of a single feature 50. On the other hand, each of the second recognized feature unit 62 and the third recognized feature unit 63 is configured by a feature group including a plurality of features 50 arranged at different positions.

具体的には、第一認識地物単位61は、単一の横断歩道標示51で構成されている。また、第二認識地物単位62及び第三認識地物単位63のそれぞれは、同一種別の複数(本例では2つ)の地物50からなる地物群で構成されており、具体的には、第二認識地物単位62は、2つの横断歩道予告標示52からなる地物群で構成され、第三認識地物単位63は、2つの停止線標示53からなる地物群で構成されている。   Specifically, the first recognized feature unit 61 is composed of a single pedestrian crossing sign 51. In addition, each of the second recognized feature unit 62 and the third recognized feature unit 63 is composed of a feature group including a plurality (two in this example) of features 50 of the same type. The second recognized feature unit 62 is composed of a feature group composed of two pedestrian crossing warning signs 52, and the third recognized feature unit 63 is composed of a feature group composed of two stop line signs 53. ing.

なお、認識地物単位60は、画像認識された場合(すなわち画像認識に成功した場合)に少なくとも道路長さ方向Lの位置を特定することが可能な形態の地物50により構成される。そのため、区画線標示(図示せず)のような道路長さ方向Lに沿って連続的に或いは断続的に設けられる地物50は、基本的に、認識地物単位60を構成しない。   Note that the recognized feature unit 60 is configured by the feature 50 in a form capable of specifying at least the position in the road length direction L when the image is recognized (that is, when the image recognition is successful). Therefore, the feature 50 that is continuously or intermittently provided along the road length direction L such as a lane marking (not shown) basically does not constitute the recognized feature unit 60.

また、各地物50は、基本的に単独で認識地物単位60を構成するが、図2(d)に示す2つの横断歩道予告標示52や図3(d)に示す2つの停止線標示53のように、道路長さ方向Lに近接して配置された同一種別の複数の地物50(地物群)については、誤認識を抑制すべく、当該複数の地物50をセットとして1つの認識地物単位60が構成されるように、認識地物単位60の形成規則が定められている。そして、このような地物群からなる認識地物単位60が、後述する特定認識地物単位60aとされる。ここで、「近接して配置」とは、道路長さ方向Lの間隔が所定距離以下であること、或いは、地物群が占める道路長さ方向Lの幅が所定距離以下であることを意味する。この所定距離は、推定自車位置EPに含まれ得る誤差の最大値に基づき設定することができ、例えば、10メートル以上であって100メートル以下の範囲内の値とすることができる。また、道路長さ方向Lの間隔に基づかず、「近接して配置」を、後述する地物毎要求範囲AF同士が互いに重複する位置関係とすることもできる。   In addition, each feature 50 basically constitutes a recognized feature unit 60 alone, but two pedestrian crossing warning signs 52 shown in FIG. 2 (d) and two stop line signs 53 shown in FIG. 3 (d). As described above, with respect to a plurality of features 50 (feature group) of the same type arranged close to the road length direction L, the plurality of features 50 are set as one set to suppress erroneous recognition. The formation rule of the recognized feature unit 60 is determined so that the recognized feature unit 60 is configured. And the recognition feature unit 60 which consists of such a feature group is made into the specific recognition feature unit 60a mentioned later. Here, “closely arranged” means that the distance in the road length direction L is equal to or smaller than a predetermined distance, or the width of the road length direction L occupied by the feature group is equal to or smaller than the predetermined distance. To do. This predetermined distance can be set based on the maximum value of an error that can be included in the estimated host vehicle position EP, and can be a value within a range of 10 meters or more and 100 meters or less, for example. Further, without being based on the interval in the road length direction L, “arranged in close proximity” can be a positional relationship in which the feature-specific required ranges AF described later overlap each other.

画像処理部22は、認識要求範囲A内の撮影画像PGを取得して、認識対象の認識地物単位60の画像認識を行う。なお、カメラ90による所定の時間間隔毎の撮影画像PGは図示しないバッファメモリに一時的に記憶されており。画像処理部22は、このバッファメモリから撮影画像PGを取得する。ここで、認識要求範囲Aは、画像認識処理を行う範囲として道路長さ方向Lに沿って(すなわちリンクKに沿って)設定される範囲であり、図2(c)及び図3(c)に示すように、認識地物単位60毎に設定される。そして、画像処理部22は、基本的に、認識要求範囲A内の撮影画像PGについて、当該認識要求範囲Aに対応する認識地物単位60を認識対象として、画像認識処理を実行する。但し、図2(c)及び図3(c)に示すように、認識要求範囲Aが他の認識要求範囲Aと重複する重複領域Bを有する場合には、当該重複領域B内の撮影画像PGについては、後述する認識対象選択部25により選択された認識地物単位60を認識対象として、画像認識処理を実行する。   The image processing unit 22 acquires the captured image PG within the recognition request range A and performs image recognition of the recognition feature unit 60 to be recognized. The captured images PG at predetermined time intervals by the camera 90 are temporarily stored in a buffer memory (not shown). The image processing unit 22 acquires the captured image PG from this buffer memory. Here, the recognition request range A is a range that is set along the road length direction L (that is, along the link K) as a range for performing image recognition processing, and is shown in FIGS. 2 (c) and 3 (c). Is set for each recognized feature unit 60 as shown in FIG. Then, the image processing unit 22 basically performs image recognition processing on the captured image PG in the recognition request range A with the recognition feature unit 60 corresponding to the recognition request range A as a recognition target. However, as shown in FIG. 2C and FIG. 3C, when the recognition request range A has an overlapping region B that overlaps with another recognition request range A, the captured image PG in the overlap region B Is performed with the recognition feature unit 60 selected by the recognition target selection unit 25 described later as a recognition target.

なお、本実施形態では、推定自車位置EPが認識要求範囲Aに含まれる状態でカメラ90により撮影された撮影画像PGを、当該認識要求範囲A内の撮影画像としている。なお、推定自車位置EPと車両3へのカメラ90の設置形態(取付位置、取付角度、画角等)とに基づき定まる位置(例えば、撮影画像PGにおける進行方向前方D1側の端部に相当する位置(すなわち、当該端部に写っている位置)や、カメラ90の位置)が、認識要求範囲Aに含まれる撮影画像PGを、当該認識要求範囲A内の撮影画像PGとすることもできる。   In the present embodiment, the captured image PG captured by the camera 90 in a state where the estimated host vehicle position EP is included in the recognition request range A is set as a captured image in the recognition request range A. A position (for example, an end on the forward direction D1 side in the traveling direction in the photographed image PG) determined based on the estimated own vehicle position EP and the installation form of the camera 90 on the vehicle 3 (attachment position, attachment angle, angle of view, etc.) The captured image PG that is included in the recognition request range A for the position (that is, the position shown in the end) or the position of the camera 90) can be used as the captured image PG in the recognition request range A. .

そして、画像処理部22は、認識対象の認識地物単位60を構成する全て(単一又は複数)の地物50が画像認識された場合に、当該認識地物単位60の画像認識に成功したと判定し、判定結果の情報を推定自車位置補正部24へ出力する。なお、画像処理部22による画像認識処理は、例えば、撮影画像PGから取得される輪郭情報と、道路情報RDに含まれる認識対象の地物50の形態情報とに基づくパターンマッチング(テンプレートマッチング)手法を用いて行う構成とすることができる。   Then, when all (single or plural) features 50 constituting the recognition feature unit 60 to be recognized are image-recognized, the image processing unit 22 has succeeded in image recognition of the recognition feature unit 60. And information of the determination result is output to the estimated own vehicle position correcting unit 24. Note that the image recognition processing by the image processing unit 22 is, for example, a pattern matching (template matching) method based on the contour information acquired from the captured image PG and the form information of the recognition target feature 50 included in the road information RD. It can be set as the structure performed using.

2−3.道路情報取得部の構成
道路情報取得部23は、地物50の位置情報を含む道路情報RDを取得する機能部である。本実施形態では、道路情報取得部23は、道路情報RDを道路情報記憶部10から抽出して取得し、道路情報取得部23が取得した道路情報RDは、認識対象選択部25による認識地物単位60の選択処理、認識率決定部26による認識率決定処理、推定自車位置補正部24による推定自車位置補正処理を含む、自車位置認識ユニット2で実行される各種処理において利用される。
2-3. Configuration of Road Information Acquisition Unit The road information acquisition unit 23 is a functional unit that acquires road information RD including position information of the feature 50. In the present embodiment, the road information acquisition unit 23 extracts and acquires road information RD from the road information storage unit 10, and the road information RD acquired by the road information acquisition unit 23 is recognized by the recognition target selection unit 25. It is used in various processes executed by the vehicle position recognition unit 2 including a unit 60 selection process, a recognition rate determination process by the recognition rate determination unit 26, and an estimated vehicle position correction process by the estimated vehicle position correction unit 24. .

道路情報取得部23は、道路情報記憶部10に位置情報が記憶されている複数の認識地物単位60の中から、画像処理部22による画像認識処理の対象となり得る認識地物単位60(すなわち、処理候補の認識地物単位60)を抽出し、当該認識地物単位60の地物情報(具体的には、当該認識地物単位60を構成する各地物50の地物情報)を取得する。本実施形態では、道路情報取得部23は、推定自車位置取得部21が取得した推定自車位置EPに基づき車両3に対して進行方向前方D1側に所定の探索範囲を設定し、当該探索範囲内に存在する処理候補の認識地物単位60の地物情報を取得する。この地物情報の取得は、少なくとも推定自車位置EPが当該処理候補の認識地物単位60についての認識要求範囲A内に進入するまでの間に行われる。   The road information acquisition unit 23 selects a recognized feature unit 60 (that is, a target of image recognition processing by the image processing unit 22 from among a plurality of recognized feature units 60 whose position information is stored in the road information storage unit 10 (that is, The recognition feature unit 60) of the processing candidate is extracted, and the feature information of the recognition feature unit 60 (specifically, feature information of each feature 50 constituting the recognition feature unit 60) is acquired. . In the present embodiment, the road information acquisition unit 23 sets a predetermined search range on the forward direction D1 side with respect to the vehicle 3 based on the estimated own vehicle position EP acquired by the estimated own vehicle position acquisition unit 21, and performs the search. The feature information of the recognized feature unit 60 of the processing candidate existing within the range is acquired. The acquisition of the feature information is performed until at least the estimated own vehicle position EP enters the recognition request range A for the recognized feature unit 60 of the processing candidate.

ここで、処理候補の認識地物単位60は、予め存在位置が把握されている認識地物単位60であって、将来的に撮影される撮影画像PGに画像認識が可能な状態で含まれ得る形態の認識地物単位60とされる。本実施形態では、上記のように、カメラ90は主に車両後方の路面を撮影するため、信号機のような立体的な地物50からなる認識地物単位60等は除外されて、処理候補の認識地物単位60が選択される。   Here, the recognized feature unit 60 of the processing candidate is a recognized feature unit 60 whose existence position has been grasped in advance, and can be included in a captured image PG photographed in the future in a state where image recognition is possible. The form is recognized feature unit 60. In the present embodiment, as described above, since the camera 90 mainly captures the road surface behind the vehicle, the recognized feature unit 60 or the like including the three-dimensional feature 50 such as a traffic light is excluded, and the processing candidate is selected. A recognized feature unit 60 is selected.

なお、本実施形態では、各地物50についての認識地物単位60の情報が予め道路情報記憶部10に記憶されているが、道路情報取得部23が、道路情報記憶部10に記憶されている各地物50の地物情報と認識地物単位60の形成規則とに基づき、上記探索範囲内に存在する地物50の地物情報を取得する毎に、当該地物50についての認識地物単位60を設定する構成とすることもできる。   In this embodiment, information of the recognized feature unit 60 for each feature 50 is stored in the road information storage unit 10 in advance, but the road information acquisition unit 23 is stored in the road information storage unit 10. Each time the feature information of the feature 50 existing within the search range is acquired based on the feature information of the feature 50 and the formation rule of the recognized feature unit 60, the recognized feature unit of the feature 50 is acquired. 60 may be set.

2−4.認識要求範囲取得部の構成
認識要求範囲取得部27は、画像認識処理を行う範囲として道路長さ方向Lに沿って認識地物単位60毎に設定される認識要求範囲Aを取得する機能部である。認識要求範囲取得部27は、道路情報取得部23が道路情報記憶部10から抽出した処理候補の認識地物単位60のそれぞれについて、認識要求範囲Aを取得する。具体的には、本実施形態では、認識要求範囲取得部27は、処理候補の認識地物単位60の地物情報(具体的には位置情報)と認識要求範囲Aの設定規則とに基づき、認識要求範囲Aを設定して取得する。すなわち、本実施形態では、認識要求範囲取得部27は、認識要求範囲設定機能と認識要求範囲取得機能とを有している。
2-4. Configuration of Recognition Request Range Acquisition Unit The recognition request range acquisition unit 27 is a functional unit that acquires a recognition request range A set for each recognition feature unit 60 along the road length direction L as a range for performing image recognition processing. is there. The recognition request range acquisition unit 27 acquires the recognition request range A for each recognition candidate unit 60 of the processing candidate extracted from the road information storage unit 10 by the road information acquisition unit 23. Specifically, in the present embodiment, the recognition request range acquisition unit 27 is based on the feature information (specifically position information) of the recognition feature unit 60 of the processing candidate and the setting rule for the recognition request range A, A recognition request range A is set and acquired. That is, in this embodiment, the recognition request range acquisition unit 27 has a recognition request range setting function and a recognition request range acquisition function.

本実施形態では、図2(c)及び図3(c)に示すように、認識要求範囲Aは、認識地物単位60を構成する各地物50毎に設定される地物毎要求範囲AFに基づいて設定される。このため、本実施形態では、認識要求範囲Aの設定規則は、地物毎要求範囲AFの大きさ(道路長さ方向Lの大きさ)、地物毎要求範囲AFと設定対象の地物50との位置関係、及び、地物毎要求範囲AFと認識要求範囲Aとの配置関係を規定している。   In the present embodiment, as shown in FIG. 2C and FIG. 3C, the recognition request range A is a feature-specific request range AF set for each feature 50 constituting the recognition feature unit 60. Set based on. For this reason, in the present embodiment, the setting rule for the recognition request range A includes the size of the feature-specific request range AF (the size in the road length direction L), the feature-specific request range AF, and the feature 50 to be set. And the positional relationship between the feature-specific required range AF and the recognition required range A.

認識要求範囲Aの設定規則が規定する各要素について具体的に説明すると、本実施形態では、地物毎要求範囲AFの大きさは、全ての地物種別に対して同じ値に設定される。なお、この値は、固定値とすることができ、また、車速や推定自車位置補正部24による前回の補正からの走行距離等に応じて可変に設定される構成とすることもできる。そして、この地物毎要求範囲AFの大きさを適切に設定することで、認識対象の地物50の現実の位置(道路長さ方向Lの位置)を、高い確率で地物毎要求範囲AF内に収めることが可能となる。この点については、後述する。   Specifically, each element defined by the setting rule for the recognition request range A will be described. In the present embodiment, the size of the feature-specific request range AF is set to the same value for all feature types. This value can be a fixed value, or can be set variably according to the vehicle speed, the travel distance from the previous correction by the estimated vehicle position correction unit 24, or the like. Then, by appropriately setting the size of the required range AF for each feature, the actual position of the recognition target feature 50 (the position in the road length direction L) can be determined with a high probability. It is possible to fit in. This point will be described later.

また、本実施形態では、地物毎要求範囲AFと設定対象の地物50との位置関係は、全ての地物種別に対して同じ位置関係とされる。具体的には、図2及び図3に示すように、地物毎要求範囲AF(図2(c)、図3(c))は、当該範囲の中央部に設定対象の地物50(図2(d)、図3(d))が位置するように、当該地物50に対して道路長さ方向Lの両側に同じ長さを有して設定される。   In the present embodiment, the positional relationship between the feature-specific required range AF and the setting target feature 50 is the same positional relationship for all the feature types. Specifically, as shown in FIG. 2 and FIG. 3, the feature-specific required range AF (FIG. 2C, FIG. 3C) is the setting target feature 50 (FIG. 2) in the center of the range. 2 (d) and FIG. 3 (d)) are set to have the same length on both sides in the road length direction L with respect to the feature 50.

そして、本実施形態では、地物毎要求範囲AFと認識要求範囲Aとの配置関係は、同一の認識地物単位60を構成する全ての地物50についての地物毎要求範囲AFが、当該認識地物単位60に対応する認識要求範囲Aに含まれるような配置関係とされる。具体的には、図2(c)及び図3(c)に示すように、認識要求範囲Aは、設定対象の認識地物単位60を構成する全ての地物50についての地物毎要求範囲AFを全て含む最小の範囲として設定される。そのため、第一認識地物単位61のように1つの地物50で構成される認識地物単位60については、認識要求範囲Aと地物毎要求範囲AFとは等しくなる。   In this embodiment, the arrangement relationship between the feature-specific required range AF and the recognition required range A is such that the feature-specific required range AF for all the features 50 constituting the same recognized feature unit 60 is The arrangement relation is included in the recognition request range A corresponding to the recognized feature unit 60. Specifically, as shown in FIG. 2C and FIG. 3C, the recognition request range A is a feature-specific request range for all the features 50 constituting the recognition feature unit 60 to be set. The minimum range including all AF is set. Therefore, for the recognized feature unit 60 composed of one feature 50 like the first recognized feature unit 61, the recognition required range A and the feature-specific required range AF are equal.

ここで、地物毎要求範囲AFの大きさを適切に設定することで、認識対象の地物50の現実の位置(道路長さ方向Lの位置)を、高い確率で地物毎要求範囲AF内に収めることが可能である理由について、図2を参照して説明する。なお、図3についても同様である。図2(b)は、道路の実際の状態を表す図であり、車両3の道路上の位置は現実の位置として表している。図2(a)は、図2(b)に示す道路に対応する道路情報RDを示している。一方、図2(d)は、図2(b)で示す道路において、推定自車位置EPに基づき車両3側で認識されている地図データ上の自車位置を示しており、この例では、推定自車位置EPに含まれる誤差により、推定自車位置EPが車両3の現実の位置(図2(b))に対して進行方向後方D2側にずれている。なお、図2(d)においては、説明の都合上、推定自車位置EPが図2(b)の車両3と同じ道路長さ方向Lの位置となるように、道路情報RDを進行方向前方D1側にずらして示している。   Here, by appropriately setting the size of the required range AF for each feature, the actual position of the recognition target feature 50 (the position in the road length direction L) can be determined with a high probability. The reason why it can be accommodated within will be described with reference to FIG. The same applies to FIG. FIG. 2B is a diagram showing the actual state of the road, and the position of the vehicle 3 on the road is shown as an actual position. FIG. 2A shows road information RD corresponding to the road shown in FIG. On the other hand, FIG. 2 (d) shows the vehicle position on the map data recognized on the vehicle 3 side based on the estimated vehicle position EP on the road shown in FIG. 2 (b). In this example, Due to the error included in the estimated host vehicle position EP, the estimated host vehicle position EP is shifted to the rear direction D2 side in the traveling direction with respect to the actual position of the vehicle 3 (FIG. 2B). In FIG. 2D, for the convenience of explanation, the road information RD is forward in the traveling direction so that the estimated own vehicle position EP is the same position in the road length direction L as the vehicle 3 in FIG. Shown shifted to the D1 side.

このような場合、推定自車位置EP及び道路情報RD(具体的には地物50の位置情報)に基づき車両3側で特定される各地物50の位置(図2(d))は、現実の位置(図2(b))に対して進行方向前方D1側にずれる。この際、地物毎要求範囲AFの大きさを適切に設定することで、すなわち、地物毎要求範囲AFの大きさを推定自車位置EPに含まれ得る誤差を考慮して設定することで、推定自車位置EPに基づき設定される地物毎要求範囲AF(図2(c))内に、対応する地物50の現実の位置(図2(b))が含まれるようにすることができる。地物毎要求範囲AFの大きさは、例えば、推定自車位置EPに含まれ得る誤差の最大値の2倍或いは2倍以上の値に設定することができる。   In such a case, the position of each feature 50 (FIG. 2D) specified on the vehicle 3 side based on the estimated own vehicle position EP and road information RD (specifically, position information of the feature 50) is actual. It shifts to the front direction D1 side in the traveling direction with respect to the position (FIG. 2B). At this time, by appropriately setting the size of the required range AF for each feature, that is, by setting the size of the required range AF for each feature in consideration of an error that may be included in the estimated vehicle position EP. The actual position (FIG. 2 (b)) of the corresponding feature 50 is included in the feature-specific required range AF (FIG. 2 (c)) set based on the estimated own vehicle position EP. Can do. The size of the required range AF for each feature can be set to, for example, a value that is twice or more than the maximum value of the error that can be included in the estimated vehicle position EP.

2−5.推定自車位置補正部の構成
推定自車位置補正部24は、画像処理部22の画像認識処理による地物50(認識地物単位60)の認識結果と道路情報RDに含まれる地物50の位置情報とに基づき、推定自車位置EPを補正する機能部である。すなわち、推定自車位置補正部24は、画像処理部22による認識地物単位60の画像認識が成功した場合に、当該認識地物単位60を構成する地物50の位置情報を用いて、推定自車位置EPを補正する。本例では、推定自車位置補正部24は、推定自車位置EPの補正を、少なくとも道路長さ方向Lにおいて行う。
2-5. Configuration of Estimated Own Vehicle Position Correction Unit The estimated own vehicle position correction unit 24 recognizes the recognition result of the feature 50 (recognized feature unit 60) by the image recognition processing of the image processing unit 22 and the feature 50 included in the road information RD. This is a functional unit that corrects the estimated vehicle position EP based on the position information. That is, when the image processing unit 22 succeeds in the image recognition of the recognized feature unit 60 by the image processing unit 22, the estimated vehicle position correcting unit 24 estimates using the position information of the feature 50 constituting the recognized feature unit 60. The own vehicle position EP is corrected. In this example, the estimated host vehicle position correcting unit 24 corrects the estimated host vehicle position EP at least in the road length direction L.

具体的には、推定自車位置補正部24は、車両3へのカメラ90の設置形態に基づき、認識地物単位60を構成する地物50が画像認識された撮影画像PGの取得時における、自車両3と当該認識地物単位60(画像認識された当該地物50)との位置関係を演算する。この際、撮影画像PG中における認識地物単位60の位置や大きさ等が考慮される。推定自車位置補正部24は、上記位置関係の演算結果と、道路情報取得部23が取得した道路情報RDに含まれる認識地物単位60の地物情報(具体的には位置情報)とに基づく演算により、当該地物情報に基づく高精度の自車位置(地物依拠自車位置)を取得する。なお、上記位置関係の演算を行わずに、予め定めた固定的な位置関係を用いることも可能である。   Specifically, the estimated own vehicle position correcting unit 24 is based on the installation form of the camera 90 on the vehicle 3 and at the time of acquiring the captured image PG in which the feature 50 constituting the recognized feature unit 60 is recognized. The positional relationship between the host vehicle 3 and the recognized feature unit 60 (the recognized feature 50) is calculated. At this time, the position and size of the recognized feature unit 60 in the captured image PG are taken into consideration. The estimated vehicle position correction unit 24 uses the calculation result of the positional relationship and the feature information (specifically, position information) of the recognized feature unit 60 included in the road information RD acquired by the road information acquisition unit 23. Based on the calculation based on the information, a highly accurate vehicle position (feature-dependent vehicle position) based on the feature information is acquired. It is also possible to use a predetermined fixed positional relationship without performing the calculation of the positional relationship.

カメラ90の設定形態によっては、認識地物単位60を構成する地物50が画像認識された撮影画像PGの取得時における自車両3の位置を、当該認識地物単位60の位置と同一視することも可能である。この場合、上記の地物依拠自車位置は、当該認識地物単位60の位置と同一とされる。また、画像認識に成功した認識地物単位60が複数の地物50の群で構成される場合(すなわち、画像認識された撮影画像PGが、認識地物単位60を構成する複数の地物50に対応して複数ある場合)には、例えば、最も進行方向前方D1側に位置する地物50が画像認識された撮影画像PGのみを用いて上記の地物依拠自車位置を取得する構成とすることができ、また、複数の地物50のそれぞれが画像認識された複数の撮影画像PGから導出される地物依拠自車位置の平均値を、最終的な地物依拠自車位置とすることもできる。   Depending on the setting form of the camera 90, the position of the host vehicle 3 at the time of acquiring the captured image PG in which the features 50 constituting the recognized feature unit 60 are recognized is identified with the position of the recognized feature unit 60. It is also possible. In this case, the feature-based vehicle position is the same as the position of the recognized feature unit 60. Further, when the recognized feature unit 60 that has succeeded in image recognition is configured by a group of a plurality of features 50 (that is, the captured image PG that has been image-recognized is a plurality of features 50 that constitute the recognized feature unit 60. For example, the feature-based vehicle position is acquired using only the photographed image PG in which the feature 50 located closest to the front side D1 in the traveling direction is image-recognized. In addition, an average value of the feature-dependent vehicle positions derived from the plurality of captured images PG in which each of the plurality of features 50 is image-recognized is set as the final feature-dependent vehicle position. You can also.

そして、推定自車位置補正部24は、取得した地物依拠自車位置を推定自車位置EPと置き換えることで、推定自車位置EPの補正を行う。なお、単に位置を置き換えるのではなく、認識地物単位60を構成する地物50が画像認識された撮影画像PGの撮影時からの走行距離(距離センサ92から取得可能)を考慮して自車位置の調整を行う構成とすることも可能である。   Then, the estimated vehicle position correction unit 24 corrects the estimated vehicle position EP by replacing the acquired feature-dependent vehicle position with the estimated vehicle position EP. In addition, the vehicle itself is not considered in place of the position, but considering the travel distance (capable of being acquired from the distance sensor 92) from the time of photographing of the photographed image PG in which the feature 50 constituting the recognized feature unit 60 is image-recognized. A configuration in which the position is adjusted is also possible.

2−6.認識対象選択部の構成
認識対象選択部25は、認識地物単位60のそれぞれの認識率Rに基づいて、認識要求範囲Aが互いに重複する複数の認識地物単位60の中から、画像処理部22による画像認識処理において認識対象とする認識地物単位60を選択する機能部である。なお、認識率Rは、認識地物単位60の画像認識に成功する割合(認識地物単位60が画像認識される割合)を表す指標(成功率の推定値)であり、後述する認識率決定部26により決定される。
2-6. Configuration of Recognition Target Selection Unit The recognition target selection unit 25 selects an image processing unit from among a plurality of recognition feature units 60 whose recognition request ranges A overlap each other based on the respective recognition rates R of the recognition feature units 60. 22 is a functional unit that selects a recognition feature unit 60 to be recognized in the image recognition processing by the image recognition process 22. Note that the recognition rate R is an index (estimated value of the success rate) indicating the rate of successful image recognition of the recognized feature unit 60 (the rate at which the recognized feature unit 60 is image-recognized). Determined by the unit 26.

上記のように、認識要求範囲A内の撮影画像PGについては、基本的に、当該認識要求範囲Aに対応する認識地物単位60を認識対象として、画像処理部22による画像認識処理が実行される。但し、図2(c)及び図3(c)に示すように、認識要求範囲Aが他の認識要求範囲Aと重複する重複領域Bを有する場合には、当該重複領域B内の撮影画像PGについては、認識対象選択部25が選択した認識地物単位60が認識対象とされる。この際、認識対象選択部25は、当該重複領域Bで認識要求範囲Aが互いに重複する複数の認識地物単位60の中で、認識率Rが最も高い認識地物単位60を選択する。認識率Rが最も高い認識地物単位60が複数ある場合には、その他の条件に基づき1つの認識地物単位60を選択する構成とすることができる。例えば、交差点に近い地物50ほど、車両3の速度変化が大きい状況下で撮影される可能性が高くなり、その結果画像認識が困難になるという一般的傾向を考慮して、交差点から遠い方の認識地物単位60を選択する構成とすることができる。   As described above, for the captured image PG in the recognition request range A, basically, the image recognition process by the image processing unit 22 is executed with the recognition feature unit 60 corresponding to the recognition request range A as a recognition target. The However, as shown in FIG. 2C and FIG. 3C, when the recognition request range A has an overlapping region B that overlaps with another recognition request range A, the captured image PG in the overlap region B As for the recognition feature unit 60 selected by the recognition target selection unit 25, the recognition target unit 60 is set as the recognition target. At this time, the recognition target selection unit 25 selects the recognized feature unit 60 having the highest recognition rate R from among the plurality of recognized feature units 60 in which the recognition request range A overlaps with each other in the overlapping region B. When there are a plurality of recognized feature units 60 having the highest recognition rate R, it is possible to select one recognized feature unit 60 based on other conditions. For example, the feature 50 closer to the intersection is more likely to be photographed under a situation where the speed change of the vehicle 3 is large, and as a result, it is more distant from the intersection in consideration of the general tendency that image recognition becomes difficult. The recognized feature unit 60 can be selected.

図2(c)を参照して具体的に説明すると、第一認識要求範囲A1における重複領域Bを除く非重複領域内の撮影画像PGについては、認識率Rによらず、第一認識地物単位61(横断歩道標示51)が認識対象とされる。一方、第二認識要求範囲A2における重複領域Bを除く非重複領域内の撮影画像PGについては、認識率Rによらず、第二認識地物単位62(横断歩道予告標示52)が認識対象とされる。   Specifically, with reference to FIG. 2C, the first recognized feature is not recognized for the captured image PG in the non-overlapping area excluding the overlapping area B in the first recognition request range A1 regardless of the recognition rate R. A unit 61 (pedestrian crossing sign 51) is a recognition target. On the other hand, for the captured image PG in the non-overlapping area excluding the overlapping area B in the second recognition request range A2, regardless of the recognition rate R, the second recognized feature unit 62 (pedestrian crossing warning sign 52) is the recognition target. Is done.

重複領域B内の撮影画像PGについては、第一認識地物単位61の認識率Rと、第二認識地物単位62の認識率Rとの大小関係に応じて、認識対象とされる認識地物単位60が選択される。具体的には、重複領域B内の撮影画像PGについては、第一認識地物単位61の認識率Rが第二認識地物単位62の認識率Rより高い場合には第一認識地物単位61(横断歩道標示51)が認識対象とされ、第二認識地物単位62の認識率Rが第一認識地物単位61の認識率Rより高い場合には第二認識地物単位62(横断歩道予告標示52)が認識対象とされる。   For the captured image PG in the overlapping area B, the recognition target to be recognized according to the magnitude relationship between the recognition rate R of the first recognition feature unit 61 and the recognition rate R of the second recognition feature unit 62. An object unit 60 is selected. Specifically, for the captured image PG in the overlapping region B, when the recognition rate R of the first recognized feature unit 61 is higher than the recognition rate R of the second recognized feature unit 62, the first recognized feature unit. When 61 (pedestrian crossing sign 51) is a recognition target and the recognition rate R of the second recognized feature unit 62 is higher than the recognition rate R of the first recognized feature unit 61, the second recognized feature unit 62 (crossing) The sidewalk notice sign 52) is the recognition target.

後述するように、特定の認識地物単位60である特定認識地物単位60aについては、一度認識率Rが決定された後に再度、認識率決定部26により認識率Rが決定(再決定)される場合がある。認識率Rが再決定された場合には、認識対象選択部25は、重複領域B内の撮影画像PGについて認識対象とする認識地物単位60を、再決定後の認識率Rに基づき再度選択するように構成されている。当然ながら、再選択処理によって、同じ認識地物単位60が再び選択される場合もあり得る。   As will be described later, for the specific recognition feature unit 60a that is the specific recognition feature unit 60, the recognition rate R is once again determined (re-determined) by the recognition rate determination unit 26 after the recognition rate R is once determined. There is a case. When the recognition rate R is redetermined, the recognition target selection unit 25 reselects the recognition feature unit 60 to be recognized for the captured image PG in the overlapping area B based on the recognition rate R after the redetermination. Is configured to do. Of course, the same recognized feature unit 60 may be selected again by the reselection process.

2−7.認識率決定部の構成
認識率決定部26は、画像認識に成功する割合である認識率Rを、地物50の種別毎に予め定められた予想認識率ERに基づき認識地物単位60毎に決定する機能部である。このような機能を実現すべく、認識率決定部26は、本例では、予想認識率取得部31、通常認識率決定処理部32、及び特定認識率決定処理部33を備えている。本実施形態では、認識要求範囲Aが重複領域Bを有する認識地物単位60についてのみ認識率Rを決定するように構成されている。
2-7. Configuration of Recognition Rate Determining Unit The recognition rate determining unit 26 determines a recognition rate R, which is a rate of successful image recognition, for each recognized feature unit 60 based on an expected recognition rate ER determined in advance for each type of the feature 50. It is a functional part to be determined. In order to realize such a function, the recognition rate determination unit 26 includes an expected recognition rate acquisition unit 31, a normal recognition rate determination processing unit 32, and a specific recognition rate determination processing unit 33 in this example. In the present embodiment, the recognition request range A is configured to determine the recognition rate R only for the recognized feature unit 60 having the overlapping region B.

2−7−1.予想認識率取得部の構成
予想認識率取得部31は、認識地物単位60を構成する各地物50の予想認識率ERを取得する機能部である。本実施形態では、予想認識率ERは、地物種別と関連付けられて予想認識率記憶部11に記憶されており、予想認識率取得部31は、予想認識率記憶部11から必要な予想認識率ERを抽出して取得する。
2-7-1. Configuration of Expected Recognition Rate Acquisition Unit The expected recognition rate acquisition unit 31 is a functional unit that acquires the expected recognition rate ER of each feature 50 constituting the recognized feature unit 60. In the present embodiment, the predicted recognition rate ER is associated with the feature type and stored in the predicted recognition rate storage unit 11, and the predicted recognition rate acquisition unit 31 receives the required predicted recognition rate from the predicted recognition rate storage unit 11. Extract and obtain ER.

ここで、予想認識率ERは、地物50の種別毎に予め定められた、画像認識の平均的な成功率(成功確率)を表し、0以上であって1以下の値に設定される。本実施形態では、予想認識率ERは、地物種別に応じた地物50の形態や配置傾向等によって、地物種別毎に一意に決定されている。図5に示す例では、横断歩道標示51、横断歩道予告標示52、及び停止線標示53のそれぞれの予想認識率ERが、「ER1」、「ER2」、及び「ER3」に設定されている。   Here, the expected recognition rate ER represents an average success rate (success probability) of image recognition, which is predetermined for each type of the feature 50, and is set to a value of 0 or more and 1 or less. In the present embodiment, the expected recognition rate ER is uniquely determined for each feature type according to the form of the feature 50 according to the feature type, the arrangement tendency, and the like. In the example illustrated in FIG. 5, the expected recognition rates ER of the pedestrian crossing sign 51, the pedestrian crossing notice sign 52, and the stop line sign 53 are set to “ER1”, “ER2”, and “ER3”.

2−7−2.通常認識率決定処理部の構成
通常認識率決定処理部32は、通常認識率決定処理を実行する機能部である。認識率決定部26による認識率決定処理は、基本的に、通常認識率決定処理とされる。そして、ある特定の場合にのみ、後述する特定認識率決定処理部33による特定認識率決定処理が実行され、通常認識率決定処理により決定される認識率Rとは別の認識率Rが決定される。すなわち、通常認識率決定処理は、特定認識率決定処理以外の認識率決定処理であるといえる。
2-7-2. Configuration of Normal Recognition Rate Determination Processing Unit The normal recognition rate determination processing unit 32 is a functional unit that executes normal recognition rate determination processing. The recognition rate determination process by the recognition rate determination unit 26 is basically a normal recognition rate determination process. Only in a specific case, the specific recognition rate determination processing by the specific recognition rate determination processing unit 33 described later is executed, and a recognition rate R different from the recognition rate R determined by the normal recognition rate determination processing is determined. The That is, it can be said that the normal recognition rate determination process is a recognition rate determination process other than the specific recognition rate determination process.

通常認識率決定処理では、後述する特定認識率決定処理とは異なり、決定対象の認識地物単位60を構成する地物50の各時点での画像認識結果とは無関係に、予想認識率ERに基づき認識率Rが決定される。本実施形態では、通常認識率決定処理部32は、予想認識率取得部31が取得した予想認識率ERに基づき演算を行い、認識地物単位60の認識率Rを決定する。   In the normal recognition rate determination process, unlike the specific recognition rate determination process described later, the expected recognition rate ER is set regardless of the image recognition result at each time point of the feature 50 constituting the recognition feature unit 60 to be determined. Based on this, the recognition rate R is determined. In the present embodiment, the normal recognition rate determination processing unit 32 performs a calculation based on the predicted recognition rate ER acquired by the predicted recognition rate acquisition unit 31 and determines the recognition rate R of the recognized feature unit 60.

具体的には、通常認識率決定処理部32は、認識地物単位60を構成する全ての地物50の予想認識率ERを互いに乗算することで、認識率Rを導出する。すなわち、特定認識率決定処理以外の通常認識率決定処理で決定される認識地物単位60の認識率Rは、当該認識地物単位60を構成する全ての地物50の予想認識率ERを互いに乗算した値とされ、当該認識地物単位60を構成する地物50の種別及び個数に基づき一意に定まる。なお、認識地物単位60が単一の地物50で構成される場合には、当該認識地物単位60の認識率Rは、当該地物50の予想認識率ERと等しくなる。   Specifically, the normal recognition rate determination processing unit 32 derives the recognition rate R by multiplying the expected recognition rates ER of all the features 50 constituting the recognized feature unit 60 with each other. That is, the recognition rate R of the recognized feature unit 60 determined in the normal recognition rate determination process other than the specific recognition rate determination process is equal to the expected recognition rate ER of all the features 50 constituting the recognized feature unit 60. A value obtained by multiplication is uniquely determined based on the type and number of the features 50 constituting the recognized feature unit 60. When the recognized feature unit 60 is composed of a single feature 50, the recognition rate R of the recognized feature unit 60 is equal to the expected recognition rate ER of the feature 50.

図2及び図3を参照して具体的に説明すると、通常認識率決定処理により決定される認識率Rは、1つの横断歩道標示51で構成される第一認識地物単位61については「ER1」、2つの横断歩道予告標示52で構成される第二認識地物単位62については「ER2×ER2」、2つの停止線標示53で構成される第三認識地物単位63については「ER3×ER3」となる。   Specifically, referring to FIG. 2 and FIG. 3, the recognition rate R determined by the normal recognition rate determination process is “ER1” for the first recognized feature unit 61 composed of one pedestrian crossing sign 51. “ER2 × ER2” for the second recognized feature unit 62 composed of two pedestrian crossing warning signs 52, and “ER3 × for the third recognized feature unit 63 composed of two stop line markings 53”. ER3 ".

2−7−3.特定認識率決定処理部の構成
特定認識率決定処理部33は、特定認識率決定処理を実行する機能部である。この特定認識率決定処理は、特定の認識地物単位60である特定認識地物単位60aの認識率Rを決定する処理である。そして、通常認識率決定処理部32により既に認識率Rが決定されている特定認識地物単位60aに対して特定認識率決定処理部33により認識率Rが決定(再決定)された場合には、特定認識率決定処理部33により決定された認識率Rが、通常認識率決定処理部32により決定されていた認識率Rに置き換えられて新たな認識率Rとされる。
2-7-3. Configuration of Specific Recognition Rate Determination Processing Unit The specific recognition rate determination processing unit 33 is a functional unit that executes specific recognition rate determination processing. The specific recognition rate determination process is a process of determining the recognition rate R of the specific recognition feature unit 60a that is the specific recognition feature unit 60. When the recognition rate R is determined (re-determined) by the specific recognition rate determination processing unit 33 for the specific recognition feature unit 60a for which the recognition rate R has already been determined by the normal recognition rate determination processing unit 32 The recognition rate R determined by the specific recognition rate determination processing unit 33 is replaced with the recognition rate R determined by the normal recognition rate determination processing unit 32 to obtain a new recognition rate R.

ここで、「特定認識地物単位60a」とは、道路長さ方向Lに分かれて配置された地物群からなる認識地物単位60である。具体的には、特定認識地物単位60aは、道路長さ方向Lに分かれて配置された同一種別の複数の地物50で構成され、より具体的には、上述したように、道路長さ方向Lに分かれて互いに近接して配置された同一種別の複数の地物50で構成される。   Here, the “specific recognition feature unit 60a” is a recognition feature unit 60 including a group of features arranged separately in the road length direction L. Specifically, the specific recognition feature unit 60a is composed of a plurality of features 50 of the same type arranged separately in the road length direction L. More specifically, as described above, the road length It is composed of a plurality of features 50 of the same type that are divided in the direction L and arranged close to each other.

図2に示す例では、第二認識地物単位62が、同一種別の2つの地物50(具体的には横断歩道予告標示52)で構成された特定認識地物単位60aであり、図3に示す例では、第三認識地物単位63が、同一種別の2つの地物50(具体的には停止線標示53)で構成された特定認識地物単位60aである。これらの具体例から分かるように、特定認識地物単位60aを構成する複数の地物50は、同一車線上に配置される場合(図2参照)もあれば、異なる車線(例えば隣接する車線)に分かれて配置される場合(図3参照)もある。また、特定認識地物単位60aを構成する複数の地物50が、道路長さ方向Lに連続して配置される場合(図2参照)もあれば、他の地物50や交差点(ノードN)を挟んだ道路長さ方向Lの両側に設けられる場合(図3参照)もある。   In the example shown in FIG. 2, the second recognized feature unit 62 is a specific recognized feature unit 60a composed of two features 50 of the same type (specifically, a pedestrian crossing warning sign 52). In the example shown in FIG. 3, the third recognized feature unit 63 is a specific recognized feature unit 60a composed of two features 50 (specifically, stop line markings 53) of the same type. As can be seen from these specific examples, the plurality of features 50 constituting the specific recognition feature unit 60a may be arranged on the same lane (see FIG. 2) or in different lanes (for example, adjacent lanes). In some cases (see FIG. 3). In addition, there are cases where a plurality of features 50 constituting the specific recognition feature unit 60a are continuously arranged in the road length direction L (see FIG. 2), and there are other features 50 and intersections (node N). ) May be provided on both sides of the road length direction L (see FIG. 3).

認識率決定部26を構成する特定認識率決定処理部33は、画像処理部22による認識結果に基づき、各時点での特定認識地物単位60aを構成する各地物50の画像認識結果を把握し、特定認識地物単位60aを構成する複数の地物50の一部が画像認識された場合に特定認識率決定処理を実行する。そして、特定認識率決定処理では、当該特定認識地物単位60aを構成する残りの地物50の予想認識率ERに基づき、認識率Rが決定される。本実施形態では、特定認識率決定処理部33は、予想認識率取得部31が取得した予想認識率ERに基づき演算を行い、特定認識地物単位60aの認識率Rを決定する。   The specific recognition rate determination processing unit 33 constituting the recognition rate determination unit 26 grasps the image recognition result of each feature 50 constituting the specific recognition feature unit 60a at each time point based on the recognition result by the image processing unit 22. When a part of the plurality of features 50 constituting the specific recognition feature unit 60a is image-recognized, the specific recognition rate determination process is executed. In the specific recognition rate determination process, the recognition rate R is determined based on the expected recognition rate ER of the remaining features 50 constituting the specific recognition feature unit 60a. In the present embodiment, the specific recognition rate determination processing unit 33 performs a calculation based on the predicted recognition rate ER acquired by the predicted recognition rate acquisition unit 31, and determines the recognition rate R of the specific recognition feature unit 60a.

具体的には、特定認識率決定処理部33は、特定認識地物単位60aを構成する地物50の内の画像認識された地物50を除く残りの全ての地物50の予想認識率ERを互いに乗算することで、認識率Rを導出する。すなわち、特定認識率決定処理で決定される特定認識地物単位60aの認識率Rは、当該残りの全ての地物50の予想認識率ERを互いに乗算した値とされ、当該残りの地物50の種別及び個数に基づき一意に定まる。言い換えれば、特定認識率決定処理において決定される認識率Rは、画像認識された地物50の予想認識率ERを「1.0」に置き換えた場合に通常認識率決定処理において決定される認識率Rと等しくなる。   Specifically, the specific recognition rate determination processing unit 33 predicts the recognition rates ER of all the remaining features 50 excluding the image-recognized features 50 among the features 50 constituting the specific recognition feature unit 60a. Is multiplied by each other to derive the recognition rate R. That is, the recognition rate R of the specific recognition feature unit 60a determined in the specific recognition rate determination process is a value obtained by multiplying the expected recognition rates ER of all the remaining features 50 by one another, and the remaining feature 50 It is uniquely determined based on the type and number. In other words, the recognition rate R determined in the specific recognition rate determination process is the recognition rate determined in the normal recognition rate determination process when the expected recognition rate ER of the image-recognized feature 50 is replaced with “1.0”. It becomes equal to the rate R.

特定認識率決定処理は、特定認識地物単位60aを構成する複数の地物50の一部が画像認識されて初めて実行されるため、当該特定認識率決定処理の実行前の状態では、基本的に、通常認識率決定処理により決定された認識率Rが当該特定認識地物単位60aの認識率Rとされている。そして、上述したように予想認識率ERは1以下の値に設定されるため、特定認識率決定処理により決定される認識率Rは、通常認識率決定処理により決定される認識率R以上の値となる。これにより、特定認識率決定処理部33による認識率Rの再決定後において認識対象選択部25により実行される認識対象選択処理により、認識率Rの再決定前に選択されていた認識地物単位60とは異なる認識地物単位60が選択される場合がある。   The specific recognition rate determination process is executed only after a part of the plurality of features 50 constituting the specific recognition feature unit 60a is image-recognized. Therefore, the specific recognition rate determination process is basically performed in a state before the specific recognition rate determination process is executed. Furthermore, the recognition rate R determined by the normal recognition rate determination process is set as the recognition rate R of the specific recognition feature unit 60a. Since the expected recognition rate ER is set to a value of 1 or less as described above, the recognition rate R determined by the specific recognition rate determination process is equal to or higher than the recognition rate R determined by the normal recognition rate determination process. It becomes. Thereby, the recognition feature unit selected before re-determination of the recognition rate R by the recognition target selection processing executed by the recognition target selection unit 25 after the re-determination of the recognition rate R by the specific recognition rate determination processing unit 33 A recognized feature unit 60 different from 60 may be selected.

図2に示す例を参照して具体的に説明する。ここでは、横断歩道標示51の予想認識率ERである第一予想認識率ER1が「0.7」であり、横断歩道予告標示52の予想認識率ERである第二予想認識率ER2が「0.8」である場合を例として説明する。推定自車位置EPが第一認識要求範囲A1及び第二認識要求範囲A2の何れにも進入していない状態では、通常認識率決定処理部32により決定された第一認識地物単位61の認識率Rである「0.7」と、通常認識率決定処理部32により決定された第二認識地物単位62の認識率Rである「0.64(=0.8×0.8)」との比較により、重複領域Bにおいて認識対象とする認識地物単位60として第一認識地物単位61が選択(暫定的に決定)される。   A specific description will be given with reference to the example shown in FIG. Here, the first expected recognition rate ER1 that is the expected recognition rate ER of the pedestrian crossing sign 51 is “0.7”, and the second expected recognition rate ER2 that is the expected recognition rate ER of the pedestrian crossing notice sign 52 is “0”. .8 ”will be described as an example. When the estimated vehicle position EP has not entered either the first recognition request range A1 or the second recognition request range A2, the recognition of the first recognition feature unit 61 determined by the normal recognition rate determination processing unit 32 is performed. The rate R is “0.7”, and the recognition rate R of the second recognition feature unit 62 determined by the normal recognition rate determination processing unit 32 is “0.64 (= 0.8 × 0.8)”. As a result, the first recognized feature unit 61 is selected (provisionally determined) as the recognized feature unit 60 to be recognized in the overlapping region B.

推定自車位置EPが第二認識要求範囲A2内に進入すると(図2(d)で示す状態)、重複領域B内に進入するまでの間は、第二認識地物単位62(横断歩道予告標示52)を認識対象として、継続的に取得される撮影画像PGに対して画像認識処理が実行される。推定自車位置EPが重複領域B内に進入する前に横断歩道予告標示52が画像認識された場合には、特定認識率決定処理部33により認識率Rが再決定され、第二認識地物単位62の認識率Rが「0.64」から「0.8(=1.0×0.8)」に変更される。そして、認識対象選択部25により認識地物単位60の再選択処理が実行され、重複領域Bにおいて認識対象とする認識地物単位60として第二認識地物単位62が選択される。この場合、推定自車位置EPが重複領域B内に進入した後も、引き続き第二認識地物単位62(横断歩道予告標示52)を認識対象として画像認識処理が実行される。よって、第一認識地物単位61を認識対象とする画像認識処理は、推定自車位置EPが第一認識要求範囲A1における重複領域Bを除く非重複領域内に位置する状態でのみ実行され得る。   When the estimated vehicle position EP enters the second recognition required range A2 (state shown in FIG. 2D), the second recognized feature unit 62 (crosswalk notice) until the vehicle enters the overlapping area B. Image recognition processing is performed on the continuously acquired captured image PG with the sign 52) as a recognition target. If the pedestrian crossing warning sign 52 is image-recognized before the estimated vehicle position EP enters the overlap area B, the recognition rate R is determined again by the specific recognition rate determination processing unit 33, and the second recognition feature The recognition rate R of the unit 62 is changed from “0.64” to “0.8 (= 1.0 × 0.8)”. Then, the re-selection processing of the recognized feature unit 60 is executed by the recognition target selecting unit 25, and the second recognized feature unit 62 is selected as the recognized feature unit 60 to be recognized in the overlapping region B. In this case, even after the estimated own vehicle position EP enters the overlapping area B, the image recognition process is continuously performed on the second recognized feature unit 62 (the pedestrian crossing notice sign 52) as a recognition target. Therefore, the image recognition process for which the first recognized feature unit 61 is a recognition target can be executed only in a state where the estimated own vehicle position EP is located in a non-overlapping area excluding the overlapping area B in the first recognition request range A1. .

一方、横断歩道予告標示52が画像認識されることなく推定自車位置EPが重複領域B内に進入した場合には、特定認識率決定処理部33による認識率Rの再決定処理や認識対象選択部25による認識地物単位60の再選択処理は実行されず、通常認識率決定処理部32が決定した認識率Rに基づく認識地物単位60の選択に従い、認識対象とする認識地物単位60が第二認識地物単位62(横断歩道予告標示52)から第一認識地物単位61(横断歩道標示51)に切り替えられる。そして、重複領域Bを含む第一認識要求範囲A1において、第一認識地物単位61を認識対象とする画像認識処理が実行される。   On the other hand, when the estimated own vehicle position EP enters the overlap area B without image recognition of the pedestrian crossing warning sign 52, the recognition rate R is re-determined by the specific recognition rate determination processing unit 33 and the recognition target is selected. The re-selection processing of the recognized feature unit 60 by the unit 25 is not executed, and the recognized feature unit 60 to be recognized is selected according to the selection of the recognized feature unit 60 based on the recognition rate R determined by the normal recognition rate determination processing unit 32. Is switched from the second recognized feature unit 62 (pedestrian crossing warning sign 52) to the first recognized feature unit 61 (pedestrian crossing sign 51). Then, in the first recognition request range A1 including the overlapping region B, the image recognition process is performed with the first recognition feature unit 61 as a recognition target.

なお、本実施形態では、認識要求範囲Aが重複する複数の認識地物単位60について、何れか1つの認識地物単位60の画像認識に成功した場合には、他の認識地物単位60を認識対象とする画像認識処理は行わないように構成されている。そのため、推定自車位置EPが重複領域B内に進入するまでの間に少なくとも1つの横断歩道予告標示52が画像認識されるとともに、推定自車位置EPが第一認識要求範囲A1内に位置する状態で2つの横断歩道予告標示52が画像認識された場合には、第一認識地物単位61を認識対象とする画像認識処理は実行されずに、第二認識地物単位62の地物情報に基づく推定自車位置EPの補正処理が実行される。   In the present embodiment, when the image recognition of any one recognized feature unit 60 is successful with respect to a plurality of recognized feature units 60 having overlapping recognition request ranges A, the other recognized feature units 60 are changed. It is configured not to perform image recognition processing as a recognition target. Therefore, at least one pedestrian crossing warning sign 52 is image-recognized until the estimated own vehicle position EP enters the overlapping area B, and the estimated own vehicle position EP is located within the first recognition request range A1. When the two pedestrian crossing warning signs 52 are image-recognized in the state, the feature recognition information of the second recognized feature unit 62 is not executed without executing the image recognition processing for the first recognized feature unit 61 as a recognition target. Correction processing of the estimated own vehicle position EP based on the above is executed.

図3に示す例についても同様であり、横断歩道標示51の予想認識率ERである第一予想認識率ER1が「0.7」であり、停止線標示53の予想認識率ERである第三予想認識率ER3が「0.8」である場合を想定すると、推定自車位置EPが重複領域B内に進入する前に第三認識地物単位63(停止線標示53)が画像認識された場合には、推定自車位置EPが重複領域B内に進入した後も、引き続き第三認識地物単位63を認識対象として画像認識処理が実行される。   The same applies to the example shown in FIG. 3. The first expected recognition rate ER1 that is the expected recognition rate ER of the pedestrian crossing sign 51 is “0.7”, and the third is the expected recognition rate ER of the stop line sign 53. Assuming that the predicted recognition rate ER3 is “0.8”, the third recognized feature unit 63 (stop line marking 53) is image-recognized before the estimated own vehicle position EP enters the overlapping area B. In this case, even after the estimated own vehicle position EP enters the overlapping area B, the image recognition process is continuously executed with the third recognized feature unit 63 as a recognition target.

一方、停止線標示53が画像認識されることなく推定自車位置EPが重複領域B内に進入した場合には、認識対象とする認識地物単位60が第三認識地物単位63(停止線標示53)から第一認識地物単位61(横断歩道標示51)に切り替えられ、当該重複領域Bにおいて第一認識地物単位61を認識対象とする画像認識処理が実行される。なお、図3に示す例では、第一認識要求範囲A1が第三認識要求範囲A3の一部の領域を成すため、重複領域B(第一認識要求範囲A1と同一)において横断歩道標示51が画像認識されなかった場合には、重複領域Bより進行方向前方D1側に位置する第三認識要求範囲A3において、再び第三認識地物単位63を認識対象とする画像認識処理が実行される。なお、この場合、第三認識地物単位63を構成する2つの停止線標示53を画像認識することは実質的に困難であるため、重複領域B(第一認識要求範囲A1と同一)において横断歩道標示51が画像認識されなかった時点で、これらの第一認識地物単位61及び第三認識地物単位63に対する画像認識処理を終了する構成としても良い。   On the other hand, when the estimated host vehicle position EP enters the overlap area B without the image of the stop line marking 53 being recognized, the recognized feature unit 60 to be recognized is the third recognized feature unit 63 (stop line). The sign recognition 53) is switched to the first recognition feature unit 61 (the pedestrian crossing sign 51), and the image recognition processing is performed in the overlap region B with the first recognition feature unit 61 as a recognition target. In the example shown in FIG. 3, since the first recognition request range A1 forms a part of the third recognition request range A3, the pedestrian crossing sign 51 is present in the overlapping region B (same as the first recognition request range A1). If the image is not recognized, the image recognition process is performed again with the third recognition feature unit 63 as the recognition target in the third recognition request range A3 located on the forward direction D1 side from the overlapping region B. In this case, since it is substantially difficult to recognize the two stop line markings 53 constituting the third recognized feature unit 63, the crossing is performed in the overlapping region B (same as the first recognition request range A1). It is good also as a structure which complete | finishes the image recognition process with respect to these 1st recognition feature units 61 and the 3rd recognition feature unit 63 at the time of the sidewalk marking 51 not being recognized.

ところで、本実施形態では特定認識地物単位60aが、同一種別の複数の地物50で構成されるため、1つの地物50が画像認識された状態で、当該1つの地物50が最も進行方向後方D2側に位置する地物50であるか否かを判定するのは容易ではない。例えば、図2に示す例では、第二認識要求範囲A2における重複領域Bより進行方向後方D2側において1つの横断歩道予告標示52が画像認識された場合に、画像認識された横断歩道予告標示52が実際は進行方向前方D1側に位置する横断歩道予告標示52であったとしても、この事実を認識するのは容易ではない。そして、画像認識された横断歩道予告標示52が進行方向前方D1側に位置する横断歩道予告標示52であった場合に特定認識率決定処理が実行されると、重複領域Bで別の横断歩道予告標示52が画像認識される可能性がないにもかかわらず、予想認識率ERの大きさによっては、重複領域Bにおける認識対象が第一認識地物単位61から第二認識地物単位62に切り替えられてしまう。   By the way, in this embodiment, since the specific recognition feature unit 60a is composed of a plurality of features 50 of the same type, the one feature 50 is most advanced in a state where one feature 50 is image-recognized. It is not easy to determine whether or not the feature 50 is located on the direction rear side D2. For example, in the example illustrated in FIG. 2, when one pedestrian crossing warning sign 52 is image-recognized on the rear direction D2 side from the overlapping region B in the second recognition request range A2, the image-recognized pedestrian crossing warning sign 52 is recognized. Even if it is actually the pedestrian crossing warning sign 52 located on the front side D1 in the traveling direction, it is not easy to recognize this fact. When the specific recognition rate determination process is executed when the image-recognized pedestrian crossing warning sign 52 is the pedestrian crossing warning sign 52 located on the front side D1 in the traveling direction, another pedestrian crossing warning is displayed in the overlap area B. The recognition target in the overlap region B is switched from the first recognized feature unit 61 to the second recognized feature unit 62 depending on the magnitude of the expected recognition rate ER, although the sign 52 is not likely to be image-recognized. It will be.

このように、特定認識地物単位60aを構成する複数の地物50の一部が画像認識されたことのみを条件として特定認識率決定処理を実行する構成とすると、他の認識地物単位60に比べて画像認識に成功する可能性が低い認識地物単位60が、重複領域Bにおける認識対象として選択されるおそれがある。   As described above, when the specific recognition rate determination process is executed only on the condition that a part of the plurality of features 50 constituting the specific recognition feature unit 60a is image-recognized, the other recognition feature units 60 are recognized. There is a possibility that the recognized feature unit 60 that is less likely to succeed in the image recognition than is selected as a recognition target in the overlapping region B.

そこで、本実施形態では、特定認識地物単位60aの認識要求範囲Aの内部に第一判定領域R1を設定し、当該特定認識地物単位60aを構成する認識対象の地物50が第一判定領域R1内で画像認識された場合に、特定認識率決定処理をそのまま実行し、認識要求範囲Aにおける第一判定領域R1以外の領域である第二判定領域R2内で認識対象の地物50が画像認識された場合には、特定認識率決定処理の実行を禁止する構成としている。この第一判定領域R1は、地物毎要求範囲AFにおける進行方向後方D2側の端部を含むように設定される。   Therefore, in the present embodiment, the first determination region R1 is set inside the recognition request range A of the specific recognition feature unit 60a, and the recognition target feature 50 constituting the specific recognition feature unit 60a is the first determination. When the image is recognized in the region R1, the specific recognition rate determination process is executed as it is, and the feature 50 to be recognized is recognized in the second determination region R2 that is a region other than the first determination region R1 in the recognition request range A. When the image is recognized, the specific recognition rate determination process is prohibited from being executed. The first determination region R1 is set so as to include an end portion on the rear direction D2 side in the traveling direction in the feature-specific required range AF.

本実施形態では、図2(c)及び図3(c)に示すように、第一判定領域R1は、最も進行方向後方D2側に位置する地物50についての地物毎要求範囲AFにおける進行方向後方D2側の端部を含むように設定されるとともに、第一判定領域R1の進行方向前方D1側の端部の位置が、当該地物毎要求範囲AFの進行方向前方D1側の端部と同じ位置又は当該位置より進行方向後方D2側の位置に設定される。このように第一判定領域R1を設定することで、最も進行方向後方D2側に位置する地物50以外の同一種別の地物50が、第一判定領域R1内において画像認識される可能性を低く抑えることができ、上述した問題の発生を抑制すること、すなわち、他の認識地物単位60に比べて画像認識に成功する可能性が低い認識地物単位60が、重複領域Bにおける認識対象として選択される事態の発生を抑制することが可能となっている。   In the present embodiment, as shown in FIG. 2C and FIG. 3C, the first determination region R1 travels in the feature-specific required range AF for the feature 50 that is located closest to the rearward direction D2 in the traveling direction. The position of the end of the first determination region R1 on the front direction D1 side is set to include the end of the first determination region R1, and the end of the first feature region required range AF on the front direction D1 side is set. Is set to the same position as or a position on the rear side D2 side in the traveling direction from the position. By setting the first determination region R1 in this way, there is a possibility that an image of the same type of feature 50 other than the feature 50 located closest to the rearward direction D2 in the traveling direction is recognized in the first determination region R1. The recognition feature unit 60 that can be suppressed to a low level and suppresses the occurrence of the above-described problem, that is, has a low possibility of succeeding in image recognition compared to other recognition feature units 60, is a recognition target in the overlapping region B. It is possible to suppress the occurrence of a situation selected as.

なお、図2及び図3に示す例では、第一判定領域R1の進行方向前方D1側の端部の位置は、当該第一判定領域R1が設定されている認識要求範囲Aの、道路長さ方向Lの中央部に設定されている。第一判定領域R1の進行方向前方D1側の端部の位置を、最も進行方向後方D2側に位置する地物50についての地物毎要求範囲AFの、道路長さ方向Lの中央部に設定することも可能である。   In the example shown in FIGS. 2 and 3, the position of the end portion of the first determination region R1 on the front direction D1 side is the road length of the recognition request range A in which the first determination region R1 is set. It is set at the center in the direction L. The position of the end portion on the front direction D1 side in the traveling direction in the first determination region R1 is set to the center portion in the road length direction L of the feature-specific required range AF for the feature 50 located on the most rearward direction D2 side. It is also possible to do.

また、本実施形態では、特定認識率決定処理は、図2の第二認識地物単位62や図3の第三認識地物単位63のように、他の認識地物単位60と認識要求範囲Aが互いに重複する特定認識地物単位60aであって、当該他の認識地物単位60を構成する地物50に対して進行方向後方D2側に配置された地物50を有する特定認識地物単位60aについてのみ実行されるように構成されている。これにより、認識率Rの決定処理が必要以上に実行されることを抑制して、演算負荷を抑制することが可能となっている。なぜなら、特定認識地物単位60aが上記のような要件を満たさない場合には、当該特定認識地物単位60aを構成する地物50が画像認識されるのは、実質的に、推定自車位置EPが認識要求範囲A内における進行方向前方D1側に重複領域Bが存在しない領域に位置する場合や、特定認識地物単位60aが認識対象の認識地物単位60として選択されることによって推定自車位置EPが重複領域B内に位置する場合に限定される。そして、このような場合には、認識地物単位60の選択を行う必要がないか、或いは、認識地物単位60の再選択処理を行っても再度同じ特定認識地物単位60aが選択されるからである。   Further, in the present embodiment, the specific recognition rate determination process is performed with other recognized feature units 60 and recognition request ranges, such as the second recognized feature unit 62 in FIG. 2 and the third recognized feature unit 63 in FIG. The specific recognition feature unit 60a in which A is a specific recognition feature unit 60a that overlaps each other, and has the feature 50 arranged on the rear direction D2 side with respect to the feature 50 constituting the other recognition feature unit 60 It is configured to be executed only for the unit 60a. Thereby, it is possible to suppress the calculation load by suppressing the determination process of the recognition rate R from being performed more than necessary. This is because when the specific recognition feature unit 60a does not satisfy the above-described requirements, the feature 50 constituting the specific recognition feature unit 60a is substantially image-recognized. When the EP is located in a region where the overlapping region B does not exist on the forward direction D1 side in the recognition request range A, or when the specific recognition feature unit 60a is selected as the recognition feature unit 60 to be recognized, This is limited to the case where the vehicle position EP is located within the overlap region B. In such a case, it is not necessary to select the recognized feature unit 60, or the same specific recognized feature unit 60a is selected again even if the re-selection processing of the recognized feature unit 60 is performed. Because.

特定認識率決定処理部33による認識率Rの決定処理が必要以上に実行されることを更に抑制すべく、特定認識地物単位60aを構成する地物50単体の予想認識率ERが、認識要求範囲Aが互いに重複する他の認識地物単位60の認識率Rよりも小さい場合に、特定認識率決定処理の実行を禁止する構成とすることが可能である。例えば、図2に示す例において、第一予想認識率ER1が「0.9」であり、第二予想認識率ER2が「0.8」である場合には、通常認識率決定処理及び特定認識率決定処理の何れの処理により決定された認識率Rを用いても、認識対象選択部25により選択される認識地物単位60は第一認識地物単位61となるため、特定認識率決定処理の実行を禁止する。すなわち、特定認識率決定処理の実行対象とする特定認識地物単位60aを、他の認識地物単位60と認識要求範囲Aが互いに重複する特定認識地物単位60aであって、当該他の認識地物単位60の認識率Rより予想認識率ERが大きい地物50を有する特定認識地物単位60aに限定することができる。   In order to further suppress that the determination process of the recognition rate R by the specific recognition rate determination processing unit 33 is performed more than necessary, the expected recognition rate ER of the feature 50 alone constituting the specific recognition feature unit 60a is a recognition request. When the range A is smaller than the recognition rate R of the other recognized feature units 60 that overlap each other, it is possible to prohibit the execution of the specific recognition rate determination process. For example, in the example shown in FIG. 2, when the first expected recognition rate ER1 is “0.9” and the second expected recognition rate ER2 is “0.8”, the normal recognition rate determination process and the specific recognition Even if the recognition rate R determined by any of the rate determination processes is used, the recognition feature unit 60 selected by the recognition target selection unit 25 becomes the first recognition feature unit 61, and therefore the specific recognition rate determination process Is prohibited. That is, the specific recognition feature unit 60a to be subjected to the specific recognition rate determination process is a specific recognition feature unit 60a in which the recognition request range A overlaps with another recognition feature unit 60, and the other recognition feature unit 60a. It can be limited to the specific recognition feature unit 60 a having the feature 50 having the predicted recognition rate ER larger than the recognition rate R of the feature unit 60.

また、特定認識地物単位60aについての通常認識率決定処理により決定される認識率Rが、認識要求範囲Aが互いに重複する他の認識地物単位60の認識率Rよりも大きい場合に、特定認識率決定処理の実行を禁止する構成とすることが可能である。例えば、図2に示す例において、横断歩道標示51の予想認識率ERである第一予想認識率ER1が「0.6」であり、横断歩道予告標示52の予想認識率ERである第二予想認識率ER2が「0.8」である場合には、通常認識率決定処理及び特定認識率決定処理の何れの処理により決定された認識率Rを用いても、認識対象選択部25により選択される認識地物単位60は第二認識地物単位62となるため、特定認識率決定処理の実行を禁止する。すなわち、特定認識率決定処理の実行対象とする特定認識地物単位60aを、他の認識地物単位60と認識要求範囲Aが互いに重複する特定認識地物単位60aであって、当該他の認識地物単位60の認識率Rより通常認識率決定処理で決定される認識率Rが小さい特定認識地物単位60aに限定することができる。   Further, when the recognition rate R determined by the normal recognition rate determination process for the specific recognition feature unit 60a is larger than the recognition rate R of other recognition feature units 60 whose recognition request ranges A overlap each other, It is possible to adopt a configuration that prohibits execution of the recognition rate determination process. For example, in the example illustrated in FIG. 2, the first predicted recognition rate ER1 that is the expected recognition rate ER of the pedestrian crossing sign 51 is “0.6”, and the second prediction that is the expected recognition rate ER of the pedestrian crossing notice sign 52. When the recognition rate ER2 is “0.8”, the recognition target selection unit 25 selects the recognition rate R determined by any of the normal recognition rate determination processing and the specific recognition rate determination processing. Since the recognized feature unit 60 becomes the second recognized feature unit 62, execution of the specific recognition rate determination process is prohibited. That is, the specific recognition feature unit 60a to be subjected to the specific recognition rate determination process is a specific recognition feature unit 60a in which the recognition request range A overlaps with another recognition feature unit 60, and the other recognition feature unit 60a. It can be limited to the specific recognition feature unit 60a whose recognition rate R determined by the normal recognition rate determination process is smaller than the recognition rate R of the feature unit 60.

3.動作処理の手順
次に、図5〜図7を参照して、本実施形態に係る自車位置認識ユニット2において実行される自車位置認識処理の手順、すなわち、自車位置認識方法について説明する。以下に説明する自車位置認識処理の手順は、上記のナビゲーション装置1(自車位置認識ユニット2)の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、ナビゲーション装置1が有する演算処理装置が、上記の各機能部を構成するプログラムを実行するコンピュータとして動作する。なお、図6は、図5のステップ#04の推定自車位置補正処理の手順を示すフローチャートであり、図7は、図6のステップ#17の画像認識処理の手順を示すフローチャートである。
3. Procedure of Operation Process Next, with reference to FIGS. 5 to 7, a procedure of the vehicle position recognition process executed in the vehicle position recognition unit 2 according to the present embodiment, that is, a vehicle position recognition method will be described. . The procedure of the vehicle position recognition process described below is executed by hardware and / or software (program) or both constituting each functional unit of the navigation device 1 (vehicle position recognition unit 2). When each of the above function units is configured by a program, the arithmetic processing device included in the navigation device 1 operates as a computer that executes the program that configures each of the above function units. FIG. 6 is a flowchart showing the procedure of the estimated host vehicle position correction process in step # 04 of FIG. 5, and FIG. 7 is a flowchart showing the procedure of the image recognition process in step # 17 of FIG.

3−1.自車位置認識処理の全体の手順
図5に示すように、推定自車位置取得部21が推定自車位置EPを取得すると(ステップ#01)、道路情報取得部23が、当該推定自車位置EPに基づき車両3の前方に設定される探索範囲内の道路情報RDを取得し、当該探索範囲内において認識地物単位60の探索を行って、画像処理部22による画像認識処理の対象となり得る処理候補の認識地物単位60を抽出する(ステップ#02)。そして、探索範囲内に処理候補の認識地物単位60があった場合には(ステップ#03:Yes)、図6に基づき以下で説明する推定自車位置補正処理が実行される(ステップ#04)。一方、探索範囲内に処理候補の認識地物単位60がなかった場合には(ステップ#03:No)、処理は終了する。なお、この自車位置認識処理は、所定のタイミングで繰り返し実行される。
3-1. Overall Procedure of Own Vehicle Position Recognition Processing As shown in FIG. 5, when the estimated own vehicle position acquisition unit 21 acquires the estimated own vehicle position EP (step # 01), the road information acquisition unit 23 displays the estimated own vehicle position. The road information RD within the search range set in front of the vehicle 3 based on the EP is acquired, and the recognition feature unit 60 is searched within the search range, and can be a target of image recognition processing by the image processing unit 22. A recognition feature unit 60 as a processing candidate is extracted (step # 02). If there is a recognized feature unit 60 as a processing candidate within the search range (step # 03: Yes), an estimated vehicle position correction process described below based on FIG. 6 is executed (step # 04). ). On the other hand, if there is no recognition feature unit 60 as a candidate for processing within the search range (step # 03: No), the processing ends. This own vehicle position recognition process is repeatedly executed at a predetermined timing.

3−2.推定自車位置補正処理の手順
次に、図6を参照して、図5のステップ#04における推定自車位置補正処理の手順について説明する。認識要求範囲取得部27が処理候補の認識地物単位60のそれぞれについての認識要求範囲Aを取得すると(ステップ#10)、取得した認識要求範囲Aのそれぞれについて、他の認識要求範囲Aと重複する重複領域Bがあるか否かの判定が行われる(ステップ#11)。いずれの認識要求範囲Aも重複領域Bを有さない場合には(ステップ#11:No)、処理はステップ#15に進む。
3-2. Procedure of Estimated Vehicle Position Correction Process Next, the procedure of the estimated vehicle position correction process in step # 04 of FIG. 5 will be described with reference to FIG. When the recognition request range acquisition unit 27 acquires the recognition request range A for each recognition feature unit 60 as a processing candidate (step # 10), each of the acquired recognition request ranges A overlaps with other recognition request ranges A. It is determined whether or not there is an overlapping area B to be performed (step # 11). If none of the recognition request ranges A has the overlapping area B (step # 11: No), the process proceeds to step # 15.

一方、少なくともいずれかの認識要求範囲Aが重複領域Bを有する場合には(ステップ#11:Yes)、単数又は複数の重複領域Bのそれぞれについて認識地物単位60の選択処理が実行される。具体的には、重複領域Bで認識要求範囲Aが互いに重複する認識地物単位60のそれぞれについて、構成要素の地物50についての予想認識率ERを予想認識率取得部31が取得し(ステップ#12)、取得された当該予想認識率ERに基づき、通常認識率決定処理部32が認識率Rを認識地物単位60毎に決定する(ステップ#13)。そして、決定された認識率Rに基づき、認識対象選択部25が、重複領域Bにおいて画像認識の対象とする認識地物単位60を選択する(ステップ#14)。全ての重複領域Bについてステップ#14の認識地物単位60の選択処理が終了すると、処理はステップ#15に進む。   On the other hand, when at least one of the recognition request ranges A includes the overlapping area B (step # 11: Yes), the recognition feature unit 60 selection process is executed for each of the single or plural overlapping areas B. Specifically, the predicted recognition rate acquisition unit 31 acquires the predicted recognition rate ER for the constituent feature 50 for each recognition feature unit 60 in which the recognition request range A overlaps with each other in the overlapping region B (step S31). # 12) Based on the acquired expected recognition rate ER, the normal recognition rate determination processing unit 32 determines the recognition rate R for each recognized feature unit 60 (step # 13). Then, based on the determined recognition rate R, the recognition target selection unit 25 selects a recognition feature unit 60 to be subjected to image recognition in the overlapping region B (step # 14). When the selection process of the recognized feature unit 60 in step # 14 is completed for all overlapping regions B, the process proceeds to step # 15.

推定自車位置取得部21が取得した推定自車位置EP(ステップ#15)が、ステップ#10で取得した認識要求範囲Aの中で最も進行方向後方D2側に位置する認識要求範囲A内に進入すると(ステップ#16:Yes)、図7に基づき以下で説明する画像認識処理が実行される(ステップ#17)。   The estimated own vehicle position EP (step # 15) acquired by the estimated own vehicle position acquisition unit 21 is within the recognition request range A that is located closest to the rearward direction D2 in the recognition request range A acquired in step # 10. When entering (step # 16: Yes), an image recognition process described below based on FIG. 7 is executed (step # 17).

3−3.画像認識処理の手順
次に、図7を参照して、図6のステップ#17における画像認識処理の手順について説明する。画像処理部22が撮影画像PGを取得すると(ステップ#20)、対象地物の画像認識処理が実行される(ステップ#21)。ここで、「対象地物」は、推定自車位置EPに応じて定まる認識地物単位60を構成する地物50であり、「推定自車位置EPに応じて定まる認識地物単位60」は、推定自車位置EPが重複領域B以外の認識要求範囲A内に位置する場合には、当該認識要求範囲Aに対応する認識地物単位60とされ、推定自車位置EPが重複領域B内に位置する場合には、図6のステップ#14の処理で選択された認識地物単位60、或いは、後に説明するステップ#28の処理が実行された場合には、当該処理で再選択された認識地物単位60とされる。
3-3. Image Recognition Processing Procedure Next, the image recognition processing procedure in step # 17 of FIG. 6 will be described with reference to FIG. When the image processing unit 22 acquires the captured image PG (step # 20), an image recognition process for the target feature is executed (step # 21). Here, the “target feature” is the feature 50 constituting the recognized feature unit 60 determined according to the estimated own vehicle position EP, and the “recognized feature unit 60 determined according to the estimated own vehicle position EP” is When the estimated own vehicle position EP is located within the recognition request range A other than the overlap region B, the recognition feature unit 60 corresponding to the recognition request range A is set, and the estimated own vehicle position EP is within the overlap region B. If the recognized feature unit 60 selected in step # 14 in FIG. 6 or the processing in step # 28 described later is executed, it is reselected in this processing. The recognition feature unit 60 is used.

画像処理部22による画像認識処理により対象地物が画像認識された場合には(ステップ#22:Yes)、当該対象地物が構成する認識地物単位60について、当該認識地物単位60を構成する全ての地物50が画像認識されたか否かの判定が実行される(ステップ#23)。そして、認識地物単位60を構成する全ての地物50が画像認識された場合には(ステップ#23:Yes)、当該認識地物単位60の地物情報に基づき推定自車位置補正部24が推定自車位置EPの補正処理を実行する(ステップ#24)。本実施形態では、何れかの認識地物単位60の地物情報に基づき推定自車位置EPの補正処理が実行されると、図5のステップ#02で抽出された他の認識地物単位60に基づく補正処理は実行されないため、ステップ#24の処理が実行されると処理は終了する。   When the target feature is image-recognized by the image recognition processing by the image processing unit 22 (step # 22: Yes), the recognized feature unit 60 is configured with respect to the recognized feature unit 60 formed by the target feature. A determination is made as to whether or not all the features 50 to be recognized have been recognized (step # 23). And when all the features 50 which comprise the recognition feature unit 60 are image-recognized (step # 23: Yes), the estimated own vehicle position correction | amendment part 24 based on the feature information of the said recognition feature unit 60 concerned. Executes a correction process for the estimated vehicle position EP (step # 24). In the present embodiment, when the correction process of the estimated vehicle position EP is executed based on the feature information of any recognized feature unit 60, the other recognized feature unit 60 extracted in step # 02 of FIG. Since the correction process based on is not executed, the process ends when the process of step # 24 is executed.

一方、ステップ#21の画像認識処理により対象地物が画像認識されなかった場合には(ステップ#22:No)、推定自車位置取得部21により取得される推定自車位置EP(ステップ#29)が、図6のステップ#10で取得された全ての認識要求範囲Aより進行方向前方D1側に位置しない間は(ステップ#30:No)、推定自車位置EPが認識要求範囲A内に位置することを条件に(ステップ#31:Yes)、ステップ#20からの処理が繰り返し実行される。なお、ステップ#30の処理から直接、図5で示す自車位置認識処理の一巡の処理が終了するのは(ステップ#30:Yes)、図5のステップ#02で抽出された全ての認識地物単位60が画像認識されなかった場合である。また、ステップ#31の処理からステップ#29の処理へ戻されるのは、推定自車位置EPが、道路長さ方向Lの両側にある2つの認識要求範囲Aの間に挟まれる位置にある場合である。   On the other hand, when the target feature has not been recognized by the image recognition process in step # 21 (step # 22: No), the estimated own vehicle position EP acquired by the estimated own vehicle position acquisition unit 21 (step # 29) ) Is not positioned on the forward direction D1 side from all the recognition request ranges A acquired in step # 10 of FIG. 6 (step # 30: No), the estimated own vehicle position EP is within the recognition request range A. On the condition that it is located (step # 31: Yes), the processing from step # 20 is repeatedly executed. It should be noted that the process of one round of the vehicle position recognition process shown in FIG. 5 ends directly from the process of step # 30 (step # 30: Yes), and all the recognition locations extracted in step # 02 of FIG. This is a case where the object unit 60 is not recognized. Further, the process returns from the process of step # 31 to the process of step # 29 when the estimated own vehicle position EP is at a position sandwiched between two recognition request ranges A on both sides in the road length direction L. It is.

ステップ#21の画像認識処理により対象地物が画像認識されたものの(ステップ#22:Yes)、認識地物単位60を構成する全ての地物50が画像認識されていない場合には(ステップ#23:No)、処理はステップ#25に進む。なお、ステップ#25に処理が進むのは、ステップ#22で画像認識された対象地物が、特定認識地物単位60aを構成する場合である。ステップ#25では、推定自車位置EPが現在位置する認識要求範囲Aにおいて、当該推定自車位置EPの前方に重複領域Bがあるか否かが判定され(ステップ#25)、重複領域Bがある場合には(ステップ#25:Yes)、第一判定領域R1内で対象地物が画像認識されたか否かの判定が行われる(ステップ#26)。そして、第一判定領域R1内で対象地物が画像認識された場合には(ステップ#26:Yes)、特定認識率決定処理部33が認識率Rの再決定処理を実行するとともに(ステップ#27)、認識対象選択部25が、当該重複領域Bにおいて認識対象とする認識地物単位60の再選択処理を実行し(ステップ#28)、処理はステップ#29に進む。   If the target feature has been image-recognized by the image recognition process of step # 21 (step # 22: Yes), but not all the features 50 constituting the recognized feature unit 60 have been image-recognized (step #) 23: No), the process proceeds to step # 25. The process proceeds to step # 25 when the target feature recognized in step # 22 constitutes the specific recognized feature unit 60a. In step # 25, it is determined whether or not there is an overlapping area B in front of the estimated own vehicle position EP in the recognition request range A where the estimated own vehicle position EP is currently located (step # 25). If there is (step # 25: Yes), it is determined whether or not the target feature has been recognized in the first determination region R1 (step # 26). When the target feature is image-recognized in the first determination region R1 (step # 26: Yes), the specific recognition rate determination processing unit 33 executes the recognition rate R redetermination processing (step #). 27) The recognition target selection unit 25 executes a reselection process of the recognized feature unit 60 to be recognized in the overlap region B (step # 28), and the process proceeds to step # 29.

一方、推定自車位置EPが現在位置する認識要求範囲Aにおいて、当該推定自車位置EPの前方に重複領域Bがない場合や(ステップ#25:No)、第一判定領域R1内で対象地物が画像認識されていない場合には(ステップ#26:No)、ステップ#27及びステップ#28の処理を経ずに処理はステップ#29に進む。   On the other hand, in the recognition request range A where the estimated vehicle position EP is currently located, when there is no overlap area B in front of the estimated vehicle position EP (step # 25: No), the target area is within the first determination area R1. If the object has not been recognized (step # 26: No), the process proceeds to step # 29 without passing through the processes of step # 27 and step # 28.

4.その他の実施形態
最後に、本発明に係る自車位置認識システムの、その他の実施形態について説明する。なお、以下のそれぞれの実施形態で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能である。
4). Other Embodiments Finally, other embodiments of the vehicle position recognition system according to the present invention will be described. Note that the configurations disclosed in the following embodiments can be applied in combination with the configurations disclosed in other embodiments as long as no contradiction arises.

(1)上記の実施形態では、認識要求範囲Aに他の認識要求範囲Aと重複する重複領域Bがある場合に、当該重複領域Bで互いに重複する認識要求範囲A内に推定自車位置EPが進入する前の状態で、通常認識率決定処理により決定される認識率Rに基づき、当該重複領域Bにおいて認識対象とする認識地物単位60が予め選択(暫定的に決定)される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、推定自車位置EPが重複領域B内に進入するタイミングに合わせて、認識対象選択部25による認識地物単位60の選択が初めて実行される構成とすることもできる。例えば図2に示す例では、第二認識要求範囲A2内における重複領域Bより進行方向後方D2側部分において、当該重複領域Bについての認識地物単位60の選択が初めて実行される構成とすることができる。この場合、当該選択の時点で横断歩道予告標示52が画像認識されている場合には、第二認識地物単位62の認識率Rは、通常認識率決定処理部32により決定されることなく、特定認識率決定処理部33により初めて決定される。 (1) In the above embodiment, when there is an overlapping area B that overlaps with another recognition request range A in the recognition request range A, the estimated host vehicle position EP is within the recognition request range A that overlaps with the overlap area B. In the state before entering, the recognition feature unit 60 to be recognized in the overlap area B is selected in advance (provisionally determined) based on the recognition rate R determined by the normal recognition rate determination process. Described as an example. However, the embodiment of the present invention is not limited to this, and the recognition target selection unit 25 selects the recognized feature unit 60 for the first time in accordance with the timing when the estimated host vehicle position EP enters the overlapping region B. It can also be configured to be executed. For example, in the example illustrated in FIG. 2, the recognition feature unit 60 is selected for the first time for the overlapping area B in the portion behind the overlapping area B in the second recognition request range A2 in the traveling direction rear D2 side. Can do. In this case, when the pedestrian crossing warning sign 52 is image-recognized at the time of the selection, the recognition rate R of the second recognized feature unit 62 is not determined by the normal recognition rate determination processing unit 32. The specific recognition rate determination processing unit 33 determines for the first time.

(2)上記の実施形態では、通常認識率決定処理により決定される認識率Rが、認識地物単位60を構成する地物50の種別及び個数に基づき一意に定まる値とされ、特定認識率決定処理により決定される認識率Rが、特定認識地物単位60aを構成する地物50の内の画像認識された地物50を除く残りの全ての地物50の種別及び個数に基づき一意に定まる値とされる構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、通常認識率決定処理部32や特定認識率決定処理部33が、地物50の種別及び個数に基づき一意に定まる値を補正して、認識率Rを決定する構成とすることもできる。このような構成では、画像認識の成功率に影響を与える各種の要因を考慮して補正を行うことができ、例えば、地物50のかすれの状態や、地物50に対する日照の状態(例えば日向と日陰のいずれに含まれるか等)、或いは気象条件や時刻等に応じて、補正を行う構成とすることができる。なお、各種要因はセンサ等により取得することができ、このような要因に応じた補正係数等の補正情報は、例えば、地物50の位置情報と同様に道路情報記憶部10に備えられ、当該道路情報記憶部10から取得される構成とすることができる。 (2) In the above embodiment, the recognition rate R determined by the normal recognition rate determination process is a value that is uniquely determined based on the type and number of the features 50 constituting the recognized feature unit 60, and the specific recognition rate. The recognition rate R determined by the determination process is uniquely based on the type and number of all the remaining features 50 excluding the image-recognized features 50 among the features 50 constituting the specific recognition feature unit 60a. The configuration having a fixed value has been described as an example. However, the embodiment of the present invention is not limited to this, and the normal recognition rate determination processing unit 32 and the specific recognition rate determination processing unit 33 correct the value uniquely determined based on the type and number of the features 50. Thus, the recognition rate R can be determined. In such a configuration, correction can be performed in consideration of various factors that affect the success rate of image recognition. For example, the state of fading of the feature 50 and the state of sunshine with respect to the feature 50 (for example, Hyuga) Or in the shade, etc.), or in accordance with weather conditions, time, and the like. Various factors can be acquired by a sensor or the like, and correction information such as a correction coefficient corresponding to such a factor is provided in the road information storage unit 10 as in the position information of the feature 50, for example. It can be set as the structure acquired from the road information storage part 10. FIG.

(3)上記の実施形態では、予想認識率取得部31が取得した予想認識率ERに基づく演算により、通常認識率決定処理部32や特定認識率決定処理部33が認識率Rを決定する構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、地物50の種別及び個数と認識率Rとの関係を規定した認識率マップが記憶装置に記憶されており、通常認識率決定処理部32や特定認識率決定処理部33が、地物50の種別及び個数に基づき、対応する認識率Rを取得する構成とすることもできる。 (3) In the above embodiment, a configuration in which the normal recognition rate determination processing unit 32 and the specific recognition rate determination processing unit 33 determine the recognition rate R by calculation based on the predicted recognition rate ER acquired by the predicted recognition rate acquisition unit 31. Was described as an example. However, the embodiment of the present invention is not limited to this, and a recognition rate map that defines the relationship between the type and number of the features 50 and the recognition rate R is stored in the storage device, and the normal recognition rate determination is performed. The processing unit 32 and the specific recognition rate determination processing unit 33 may be configured to acquire the corresponding recognition rate R based on the type and number of the features 50.

(4)上記の実施形態では、認識要求範囲Aが重複する複数の認識地物単位60について、何れか1つの認識地物単位60の画像認識に成功した場合には、他の認識地物単位60を認識対象とする画像認識処理は行わない構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、認識要求範囲Aが重複する複数の認識地物単位60について、何れか1つの認識地物単位60の画像認識に成功した後も他の認識地物単位60を認識対象とする画像認識処理を実行する構成とすることができる。この場合において、画像認識に成功していない認識地物単位60が複数ある場合には、何れか1つの認識地物単位60の画像認識に成功する前と同様の認識対象選択処理を、当該1つの認識地物単位60を除外して行うと良い。そして、複数の認識地物単位60の画像認識に成功した場合には、推定自車位置EPの補正処理が複数回実行される構成とすることができる。 (4) In the above embodiment, when the image recognition of any one recognized feature unit 60 is successful with respect to a plurality of recognized feature units 60 with the recognition request range A overlapping, other recognized feature units As an example, a configuration in which the image recognition process with 60 as a recognition target is not performed has been described. However, the embodiment of the present invention is not limited to this, and after a plurality of recognized feature units 60 having the same recognition request range A overlap after image recognition of any one recognized feature unit 60 is successful. It can be set as the structure which performs the image recognition process which makes another recognition feature unit 60 recognition object. In this case, when there are a plurality of recognized feature units 60 that have not been successfully image-recognized, the same recognition target selection process as that before the successful image recognition of any one recognized feature unit 60 is performed. It may be performed by excluding one recognized feature unit 60. And when the image recognition of the some recognition feature unit 60 succeeds, it can be set as the structure by which the correction process of the estimated own vehicle position EP is performed in multiple times.

(5)上記の実施形態では、認識要求範囲Aが重複領域Bを有する認識地物単位60についてのみ、認識率決定部26により認識率Rが決定される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、認識要求範囲Aが重複領域Bを有さない認識地物単位60についても認識率Rが決定される構成とし、当該認識率Rの大きさによって、当該認識地物単位60を認識対象とする画像認識処理の実行の有無が決定される構成とすることもできる。 (5) In the above embodiment, the configuration in which the recognition rate R is determined by the recognition rate determination unit 26 is described as an example only for the recognized feature unit 60 in which the recognition request range A has the overlapping region B. However, the embodiment of the present invention is not limited to this, and the recognition rate R is determined for the recognition feature unit 60 whose recognition request range A does not have the overlapping region B, and the recognition rate R Depending on the size, whether or not to execute the image recognition processing for the recognition feature unit 60 as a recognition target may be determined.

(6)上記の実施形態では、地物毎要求範囲AFの大きさが、全ての地物種別に対して同じ値に設定される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、地物毎要求範囲AFの道路長さ方向Lの大きさが、地物種別に応じて異なる値に設定される構成とすることもできる。また、同じ地物種別であっても、地物毎要求範囲AFの大きさが地物50の大きさに応じて異なる値に設定される構成とすることもできる。 (6) In the above-described embodiment, the configuration in which the size of the feature-specific required range AF is set to the same value for all feature types has been described as an example. However, the embodiment of the present invention is not limited to this, and the size of the required range AF for each feature in the road length direction L is set to a different value depending on the feature type. You can also. Moreover, even if it is the same feature type, the size of the required range AF for each feature may be set to a different value according to the size of the feature 50.

(7)上記の実施形態では、地物毎要求範囲AFと設定対象の地物50との位置関係が、全ての地物種別に対して同じ位置関係とされるとともに、地物毎要求範囲AFが、当該範囲の中央部に設定対象の地物50が位置するように、当該地物50に対して道路長さ方向Lの両側に同じ長さを有して設定される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、地物毎要求範囲AFが、当該範囲の中央部とは道路長さ方向Lに異なる位置に設定対象の地物50が配置されるように、当該地物50に対して道路長さ方向Lの両側に異なる長さを有して設定される構成とすることも可能である。この場合、例えば、設定対象の地物50が、地物毎要求範囲AFの中央部に対して進行方向前方D1側に位置する構成とすることができる。また、地物毎要求範囲AFと設定対象の地物50との位置関係が、地物種別に応じて異なる位置関係とされる構成とすることもできる。 (7) In the above embodiment, the positional relationship between the feature-based required range AF and the setting target feature 50 is the same positional relationship for all feature types, and the feature-specific required range AF. However, a description will be given by taking as an example a configuration that is set with the same length on both sides in the road length direction L with respect to the feature 50 so that the feature 50 to be set is located in the center of the range. did. However, the embodiment of the present invention is not limited to this, and the feature 50 to be set is arranged at a position where the required range AF for each feature is different from the central portion of the range in the road length direction L. Thus, it is also possible to adopt a configuration in which different lengths are set on both sides in the road length direction L with respect to the feature 50. In this case, for example, the setting target feature 50 can be configured to be located on the front side D1 in the traveling direction with respect to the center portion of the feature-specific required range AF. Moreover, it can also be set as the structure by which the positional relationship between the required range AF for every feature and the feature 50 to be set is different depending on the feature type.

(8)上記の実施形態では、認識要求範囲Aが、設定対象の認識地物単位60を構成する全ての地物50についての地物毎要求範囲AFを全て含む最小の範囲として設定される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、認識要求範囲Aが、上記最小の範囲よりも大きな範囲とされる構成、すなわち、何れの地物毎要求範囲AFにも含まれない領域を認識要求範囲Aが有する構成とすることも可能である。 (8) In the above embodiment, the recognition request range A is set as the minimum range including all the feature-specific request ranges AF for all the features 50 constituting the recognition feature unit 60 to be set. Was described as an example. However, the embodiment of the present invention is not limited to this, and the configuration in which the recognition requirement range A is larger than the minimum range, that is, the feature-specific requirement range AF is included. It is also possible to adopt a configuration in which the recognition request range A has no area.

(9)上記の実施形態では、認識要求範囲取得部27が、認識要求範囲Aの設定規則に基づき、認識要求範囲Aを設定して取得する構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、認識要求範囲Aが認識地物単位60と関連づけられて道路情報記憶部10に記憶されており、認識要求範囲取得部27が道路情報記憶部10を参照して認識要求範囲Aを取得する構成とすることもできる。第一判定領域R1や第二判定領域R2についても同様に、認識要求範囲取得部27が所定の設定規則に基づき設定して取得する構成とすることも、認識要求範囲Aに関連付けて記憶装置に記憶された情報を認識要求範囲取得部27が参照して取得する構成とすることもできる。 (9) In the above embodiment, the configuration in which the recognition request range acquisition unit 27 sets and acquires the recognition request range A based on the setting rule for the recognition request range A has been described as an example. However, the embodiment of the present invention is not limited to this. The recognition request range A is associated with the recognition feature unit 60 and stored in the road information storage unit 10, and the recognition request range acquisition unit 27 is connected to the road. A configuration in which the recognition request range A is acquired with reference to the information storage unit 10 may be employed. Similarly, for the first determination region R1 and the second determination region R2, the recognition request range acquisition unit 27 may be configured to acquire and set based on a predetermined setting rule. A configuration in which the recognition request range acquisition unit 27 refers to and acquires the stored information may be employed.

(10)上記の実施形態では、特定認識地物単位60aの認識要求範囲Aの内部に第一判定領域R1を設定し、当該特定認識地物単位60aを構成する認識対象の地物50が第一判定領域R1内で画像認識された場合にのみ、特定認識率決定処理が実行される構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、特定認識率決定処理を、認識要求範囲A内で認識対象の地物50が画像認識された場合には常に実行する構成とすることも可能である。 (10) In the above embodiment, the first determination region R1 is set within the recognition request range A of the specific recognition feature unit 60a, and the recognition target feature 50 constituting the specific recognition feature unit 60a is the first. The configuration in which the specific recognition rate determination process is executed only when an image is recognized within one determination region R1 has been described as an example. However, the embodiment of the present invention is not limited to this, and the specific recognition rate determination process is always executed when the recognition target feature 50 is image-recognized within the recognition request range A. It is also possible.

(11)上記の実施形態では、特定認識地物単位60aとして、横断歩道予告標示52からなる第二認識地物単位62と、停止線標示53からなる第三認識地物単位63とを例として挙げたが、その他の道路標示(例えば、前方に優先道路があることを示す前方優先道路標示)からなる特定認識地物単位60aを推定自車位置EPの補正のために利用することも可能である。また、上記の実施形態では、2つの地物50からなる特定認識地物単位60aを例として説明したが、当然ながら、3つ以上の地物50からなる特定認識地物単位60aを、推定自車位置EPの補正のために利用することも可能である。このような構成においては、特定認識地物単位60aを構成する2つ目以降の地物50が画像認識された場合に、既に当該特定認識地物単位60aが認識対象選択部25により選択されているならば、特定認識率決定処理の実行を禁止する構成とすることができる。なぜなら、特定認識率決定処理を実行しても現在の認識率R以上の値が決定されるため、認識地物単位60の再選択処理を行っても再度同じ特定認識地物単位60aが選択されるからである。 (11) In the above embodiment, as the specific recognition feature unit 60a, the second recognition feature unit 62 including the pedestrian crossing warning sign 52 and the third recognition feature unit 63 including the stop line marking 53 are taken as examples. As mentioned above, it is also possible to use the specific recognized feature unit 60a composed of other road markings (for example, a forward priority road marking indicating that there is a priority road ahead) for correcting the estimated vehicle position EP. is there. In the above embodiment, the specific recognition feature unit 60a including two features 50 has been described as an example. However, the specific recognition feature unit 60a including three or more features 50 is naturally estimated. It can also be used to correct the vehicle position EP. In such a configuration, when the second and subsequent features 50 constituting the specific recognition feature unit 60a are image-recognized, the specific recognition feature unit 60a has already been selected by the recognition target selection unit 25. If so, the configuration for prohibiting the execution of the specific recognition rate determination process can be adopted. This is because even if the specific recognition rate determination process is executed, a value equal to or higher than the current recognition rate R is determined, so that the same specific recognition feature unit 60a is selected again even if the recognition feature unit 60 is reselected. This is because that.

(12)上記の実施形態では、推定自車位置EPの補正のための画像認識において対象となる地物50が、路面に設けられた道路標示である構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、信号機のような立体的な地物50を、推定自車位置EPの補正のために利用することも可能である。この場合、車両3へのカメラ90の設置形態は、当該立体的な地物50の画像認識が可能となるように設定される。 (12) In the above embodiment, the configuration in which the target feature 50 in the image recognition for correcting the estimated host vehicle position EP is a road marking provided on the road surface has been described as an example. However, the embodiment of the present invention is not limited to this, and a three-dimensional feature 50 such as a traffic light can be used for correcting the estimated host vehicle position EP. In this case, the installation mode of the camera 90 on the vehicle 3 is set so that the image of the three-dimensional feature 50 can be recognized.

(13)上記の実施形態では、カメラ90が車両3の後方を撮影するバックカメラである構成を例として説明した。しかし、本発明の実施形態はこれに限定されるものではなく、カメラ90が車両3の前方を撮影するフロントカメラや、車両3の側方を撮影するサイドカメラとされた構成とすることも可能である。 (13) In the above embodiment, the configuration in which the camera 90 is a back camera that captures the rear of the vehicle 3 has been described as an example. However, the embodiment of the present invention is not limited to this, and the camera 90 may be configured as a front camera that captures the front of the vehicle 3 or a side camera that captures the side of the vehicle 3. It is.

(14)上記の実施形態では、本発明に係る自車位置認識システムを車載用のナビゲーション装置1に適用した場合を例として説明したが、このようなナビゲーション装置1は、車両3に固定的に搭載されたものに限らず、任意に移動可能なポータブルナビゲーション装置であって、使用時にのみ車両3に持ち込まれるようなものであっても良い。 (14) In the above embodiment, the case where the vehicle position recognition system according to the present invention is applied to the in-vehicle navigation device 1 has been described as an example. However, such a navigation device 1 is fixed to the vehicle 3. The portable navigation device is not limited to the one that is mounted, and may be a portable navigation device that can be arbitrarily moved, and may be brought into the vehicle 3 only at the time of use.

(15)上記の実施形態では、本発明に係る自車位置認識システムをナビゲーション装置1に適用した場合を例として説明したが、本発明に係る自車位置認識システムを、車両に備えられるその他の装置(走行制御装置等)に適用することも可能である。 (15) In the above-described embodiment, the case where the vehicle position recognition system according to the present invention is applied to the navigation device 1 has been described as an example. It is also possible to apply to a device (running control device or the like).

(16)上記の実施形態において説明した機能部の割り当ては単なる一例であり、複数の機能部を組み合わせたり、1つの機能部をさらに区分けしたりすることも可能である。また、上記の実施形態では、自車位置認識ユニット2を構成する各機能部、及び各記憶部10,11が車両3に備えられる構成を例として説明したが、自車位置認識ユニット2の少なくとも一部の機能部や、記憶部10,11の少なくとも一部が、車両3の外部(例えばサーバ装置等)に設けられ、インターネット等の通信ネットワークを介して情報や信号の送受信が行われる構成とすることもできる。 (16) The assignment of the functional units described in the above embodiment is merely an example, and a plurality of functional units can be combined or one functional unit can be further divided. Further, in the above-described embodiment, each functional unit constituting the own vehicle position recognition unit 2 and each storage unit 10 and 11 have been described as an example of a configuration provided in the vehicle 3, but at least the own vehicle position recognition unit 2 is included. A configuration in which some of the functional units and at least a part of the storage units 10 and 11 are provided outside the vehicle 3 (for example, a server device or the like), and information is transmitted and received via a communication network such as the Internet. You can also

(17)その他の構成に関しても、本明細書において開示された実施形態は全ての点で例示であって、本発明の実施形態はこれに限定されない。すなわち、本願の特許請求の範囲に記載されていない構成に関しては、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 (17) Regarding other configurations as well, the embodiments disclosed herein are illustrative in all respects, and embodiments of the present invention are not limited thereto. In other words, configurations that are not described in the claims of the present application can be modified as appropriate without departing from the object of the present invention.

本発明は、自車両に備えられたカメラによる撮影画像を用いて自車位置を認識する自車位置認識システム、自車位置認識プログラム、及び自車位置認識方法に好適に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be suitably used for a host vehicle position recognition system, a host vehicle position recognition program, and a host vehicle position recognition method for recognizing a host vehicle position using an image captured by a camera provided in the host vehicle.

3:車両(自車両)
21:推定自車位置取得部
22:画像処理部
23:道路情報取得部
24:推定自車位置補正部
25:認識対象選択部
26:認識率決定部
27:認識要求範囲取得部
50:地物
60:認識地物単位
60a:特定認識地物単位
90:カメラ
A:認識要求範囲
AF:地物毎要求範囲
D1:進行方向前方
D2:進行方向後方
EP:推定自車位置
ER:予想認識率
L:道路長さ方向
PG:撮影画像
R:認識率
R1:第一判定領域
R2:第二判定領域
RD:道路情報
3: Vehicle (own vehicle)
21: Estimated vehicle position acquisition unit 22: Image processing unit 23: Road information acquisition unit 24: Estimated vehicle position correction unit 25: Recognition target selection unit 26: Recognition rate determination unit 27: Recognition request range acquisition unit 50: Feature 60: recognized feature unit 60a: specific recognized feature unit 90: camera A: recognition required range AF: required range for each feature D1: forward direction D2: backward direction EP: estimated own vehicle position ER: expected recognition rate L : Road length direction PG: Captured image R: Recognition rate R1: First determination area R2: Second determination area RD: Road information

Claims (6)

自車両の推定位置である推定自車位置を取得する推定自車位置取得部と、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理部と、地物の位置情報を含む道路情報を取得する道路情報取得部と、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正部と、を備えた自車位置認識システムであって、
単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得部と、
画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定部と、
前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択部と、を備え、
前記認識率決定部は、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する自車位置認識システム。
An estimated host vehicle position acquisition unit that acquires an estimated host vehicle position that is an estimated position of the host vehicle, and a captured image captured by a camera provided in the host vehicle are acquired, and an image of a feature included in the captured image An image processing unit that performs a recognition process, a road information acquisition unit that acquires road information including position information of the feature, a recognition result of the feature by the image recognition process, and a position information of the feature included in the road information; An estimated vehicle position correcting unit that corrects the estimated vehicle position based on the vehicle position recognition system,
A feature group composed of a single feature or a plurality of predetermined features as a recognized feature unit, and for each recognized feature unit along the road length direction as a range for performing the image recognition processing A recognition request range acquisition unit for acquiring a set recognition request range;
A recognition rate determination unit that determines a recognition rate, which is a rate of successful image recognition, for each recognized feature unit based on an expected recognition rate predetermined for each type of feature;
Based on the recognition rate of each recognized feature unit, the recognized feature unit to be recognized in the image recognition process is selected from the plurality of recognized feature units whose recognition request ranges overlap each other. A recognition target selection unit,
The recognition rate determination unit, for the specific recognition feature unit that is the recognition feature unit consisting of the feature group arranged separately in the road length direction, each location constituting the specific recognition feature unit at each time point The predicted recognition of the remaining features constituting the specific recognition feature unit when a part of the plurality of features constituting the specific recognition feature unit is image-recognized according to the image recognition result of the feature A host vehicle position recognition system that executes a specific recognition rate determination process for determining the recognition rate based on a rate.
前記認識要求範囲は、前記認識地物単位を構成する各地物毎に設定される地物毎要求範囲に基づいて設定され、
前記認識率決定部は、前記特定認識地物単位の前記認識率の決定に際し、前記地物毎要求範囲における進行方向後方側の端部を含む第一判定領域内で当該地物毎要求範囲に対応する地物が画像認識された場合に特定認識率決定処理を実行し、前記地物毎要求範囲が構成する前記認識要求範囲における前記第一判定領域以外の第二判定領域内で当該地物毎要求範囲に対応する地物が画像認識された場合には前記特定認識率決定処理の実行を禁止する請求項1に記載の自車位置認識システム。
The recognition request range is set based on a feature-specific request range set for each feature constituting the recognition feature unit,
The recognition rate determination unit, when determining the recognition rate of the specific recognition feature unit, within the first determination region including the end portion of the feature-required range on the rear side in the traveling direction, When the corresponding feature is image-recognized, a specific recognition rate determination process is executed, and the feature in the second determination region other than the first determination region in the recognition request range formed by the feature-specific request range The vehicle position recognition system according to claim 1, wherein execution of the specific recognition rate determination process is prohibited when an image of a feature corresponding to each requested range is recognized.
前記認識率決定部は、他の前記認識地物単位と前記認識要求範囲が互いに重複する前記特定認識地物単位であって、当該他の前記認識地物単位を構成する地物に対して進行方向後方側に配置された地物を有する前記特定認識地物単位についてのみ、前記特定認識率決定処理を実行する請求項1又は2に記載の自車位置認識システム。   The recognition rate determination unit is the specific recognition feature unit in which the recognition request range overlaps with the other recognition feature unit, and proceeds with respect to the feature constituting the other recognition feature unit. The own vehicle position recognition system according to claim 1 or 2, wherein the specific recognition rate determination process is executed only for the specific recognition feature unit having a feature arranged on the rear side in the direction. 前記認識率決定部は、前記特定認識率決定処理では、前記特定認識地物単位を構成する地物の内の画像認識された地物以外の残りの全ての地物の前記予想認識率を互いに乗算した値を当該特定認識地物単位の認識率に決定し、前記特定認識率決定処理以外の通常認識率決定処理では、前記特定認識地物単位を構成する全ての地物の前記予想認識率を互いに乗算した値を当該特定認識地物単位の認識率に決定する請求項1から3のいずれか一項に記載の自車位置認識システム。   In the specific recognition rate determination process, the recognition rate determination unit sets the predicted recognition rates of all the remaining features other than the image-recognized features in the features constituting the specific recognition feature unit to each other. The multiplied value is determined as the recognition rate of the specific recognition feature unit, and in the normal recognition rate determination process other than the specific recognition rate determination process, the expected recognition rate of all the features constituting the specific recognition feature unit The own vehicle position recognition system according to any one of claims 1 to 3, wherein a value obtained by multiplying the two is determined as a recognition rate of the specific recognition feature unit. 自車両の推定位置である推定自車位置を取得する推定自車位置取得機能と、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理機能と、地物の位置情報を含む道路情報を取得する道路情報取得機能と、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正機能と、を実現させるための自車位置認識プログラムであって、
単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得機能と、
画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定機能と、
前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択機能と、をコンピュータに実現させ、
前記認識率決定機能は、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する機能である自車位置認識プログラム。
An estimated own vehicle position acquisition function for acquiring an estimated own vehicle position that is an estimated position of the own vehicle, and a photographed image taken by a camera provided in the own vehicle, and an image of a feature included in the photographed image An image processing function for performing recognition processing, a road information acquisition function for acquiring road information including position information of the features, a recognition result of the features by the image recognition processing, and position information of the features included in the road information; An estimated vehicle position correcting function for correcting the estimated vehicle position based on the vehicle position recognition program,
A feature group composed of a single feature or a plurality of predetermined features as a recognized feature unit, and for each recognized feature unit along the road length direction as a range for performing the image recognition processing A recognition request range acquisition function for acquiring a set recognition request range;
A recognition rate determination function for determining a recognition rate, which is a rate of successful image recognition, for each recognition feature unit based on an expected recognition rate predetermined for each type of feature;
Based on the recognition rate of each recognized feature unit, the recognized feature unit to be recognized in the image recognition process is selected from the plurality of recognized feature units whose recognition request ranges overlap each other. Realize recognition target selection function on computer,
The recognition rate determination function is configured so that the specific recognition feature unit at each time point constitutes the specific recognition feature unit with respect to the specific recognition feature unit that is the recognition feature unit including the feature group arranged separately in the road length direction. The predicted recognition of the remaining features constituting the specific recognition feature unit when a part of the plurality of features constituting the specific recognition feature unit is image-recognized according to the image recognition result of the feature A vehicle position recognition program which is a function for executing a specific recognition rate determination process for determining the recognition rate based on a rate.
自車両の推定位置である推定自車位置を取得する推定自車位置取得ステップと、前記自車両に備えられたカメラにより撮影された撮影画像を取得し、当該撮影画像に含まれる地物の画像認識処理を行う画像処理ステップと、地物の位置情報を含む道路情報を取得する道路情報取得ステップと、前記画像認識処理による地物の認識結果と前記道路情報に含まれる地物の位置情報とに基づき前記推定自車位置を補正する推定自車位置補正ステップと、を備えた自車位置認識方法であって、
単一の地物又は予め定められた複数の地物で構成された地物群を認識地物単位として、前記画像認識処理を行う範囲として道路長さ方向に沿って前記認識地物単位毎に設定される認識要求範囲を取得する認識要求範囲取得ステップと、
画像認識に成功する割合である認識率を、地物の種別毎に予め定められた予想認識率に基づき前記認識地物単位毎に決定する認識率決定ステップと、
前記認識地物単位のそれぞれの前記認識率に基づいて、前記認識要求範囲が互いに重複する複数の前記認識地物単位の中から前記画像認識処理において認識対象とする前記認識地物単位を選択する認識対象選択ステップと、を備え、
前記認識率決定ステップでは、道路長さ方向に分かれて配置された地物群からなる前記認識地物単位である特定認識地物単位について、各時点での前記特定認識地物単位を構成する各地物の画像認識結果に応じて、当該特定認識地物単位を構成する複数の地物の一部が画像認識された場合には当該特定認識地物単位を構成する残りの地物の前記予想認識率に基づき前記認識率を決定する特定認識率決定処理を実行する自車位置認識方法。
An estimated vehicle position acquisition step for acquiring an estimated vehicle position that is an estimated position of the vehicle, a captured image captured by a camera provided in the vehicle, and an image of a feature included in the captured image An image processing step for performing recognition processing, a road information acquisition step for acquiring road information including position information of the features, a recognition result of the features by the image recognition processing, and position information of the features included in the road information; An estimated vehicle position correcting step for correcting the estimated vehicle position based on the vehicle position recognition method,
A feature group composed of a single feature or a plurality of predetermined features as a recognized feature unit, and for each recognized feature unit along the road length direction as a range for performing the image recognition processing A recognition request range acquisition step for acquiring a set recognition request range;
A recognition rate determination step for determining a recognition rate, which is a rate of successful image recognition, for each recognized feature unit based on an expected recognition rate predetermined for each type of feature;
Based on the recognition rate of each recognized feature unit, the recognized feature unit to be recognized in the image recognition process is selected from the plurality of recognized feature units whose recognition request ranges overlap each other. A recognition object selection step,
In the recognition rate determining step, for each specific recognition feature unit that is the recognition feature unit composed of a group of features arranged separately in the road length direction, various locations constituting the specific recognition feature unit at each time point The predicted recognition of the remaining features constituting the specific recognition feature unit when a part of the plurality of features constituting the specific recognition feature unit is image-recognized according to the image recognition result of the feature A vehicle position recognition method for executing a specific recognition rate determination process for determining the recognition rate based on a rate.
JP2011189362A 2011-08-31 2011-08-31 Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method Expired - Fee Related JP5679203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011189362A JP5679203B2 (en) 2011-08-31 2011-08-31 Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011189362A JP5679203B2 (en) 2011-08-31 2011-08-31 Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method

Publications (2)

Publication Number Publication Date
JP2013050412A JP2013050412A (en) 2013-03-14
JP5679203B2 true JP5679203B2 (en) 2015-03-04

Family

ID=48012552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011189362A Expired - Fee Related JP5679203B2 (en) 2011-08-31 2011-08-31 Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method

Country Status (1)

Country Link
JP (1) JP5679203B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6325806B2 (en) 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 Vehicle position estimation system
JP2015114126A (en) * 2013-12-09 2015-06-22 株式会社デンソー Vehicle location detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4680131B2 (en) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 Own vehicle position measuring device
JP4703605B2 (en) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 Feature extraction method, image recognition method and feature database creation method using the same
JP4789868B2 (en) * 2007-06-01 2011-10-12 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and image recognition method, and self-position recognition apparatus and navigation apparatus using the same
JP4984152B2 (en) * 2007-08-31 2012-07-25 アイシン・エィ・ダブリュ株式会社 Image recognition system, server device, and image recognition device

Also Published As

Publication number Publication date
JP2013050412A (en) 2013-03-14

Similar Documents

Publication Publication Date Title
US10576976B2 (en) Drivable area setting device and drivable area setting method
JP4446201B2 (en) Image recognition apparatus and image recognition method
JP4437556B2 (en) Feature information collecting apparatus and feature information collecting method
JP4703605B2 (en) Feature extraction method, image recognition method and feature database creation method using the same
KR102595897B1 (en) Method and apparatus of determining road line
JP4366664B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP6280409B2 (en) Self-vehicle position correction method, landmark data update method, in-vehicle device, server, and self-vehicle position data correction system
US20070050133A1 (en) Navigation systems, methods, and programs
JP6777151B2 (en) Route search method and route search device
US20180149488A1 (en) Guide route setting apparatus and guide route setting method
US20170225681A1 (en) Driving support apparatus, server, and non-transitory computer-readable medium
JP5790224B2 (en) Map display system, method and program
US8219313B2 (en) Navigation device and program
CN111664856B (en) Vehicle initial positioning system and vehicle initial positioning method
JP5656067B2 (en) Road node position management system, road node position management method, and road node position management program
JP2013019849A (en) Route search system, route search method and route search program
JP5679203B2 (en) Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method
JP2012133132A (en) Map data generation system
JP5637381B2 (en) Road node position management system, road node position management method, and road node position management program
JP5847891B2 (en) Map data generation system
JP6912859B2 (en) Map update device, map update method, computer program, and recording medium on which the computer program is recorded.
JP2013050411A (en) Vehicle itself position recognition system, vehicle itself position recognition program, and vehicle itself position recognition method
JP5679207B2 (en) Own vehicle position recognition system, own vehicle position recognition program, and own vehicle position recognition method
JP2019100924A (en) Vehicle trajectory correction device
JP2018206071A (en) Lane marking recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140314

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R150 Certificate of patent or registration of utility model

Ref document number: 5679203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees