JP2016126613A - Road boundary line recognizing device, and road boundary line recognizing method - Google Patents

Road boundary line recognizing device, and road boundary line recognizing method Download PDF

Info

Publication number
JP2016126613A
JP2016126613A JP2015000962A JP2015000962A JP2016126613A JP 2016126613 A JP2016126613 A JP 2016126613A JP 2015000962 A JP2015000962 A JP 2015000962A JP 2015000962 A JP2015000962 A JP 2015000962A JP 2016126613 A JP2016126613 A JP 2016126613A
Authority
JP
Japan
Prior art keywords
boundary line
captured image
line candidate
candidate
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015000962A
Other languages
Japanese (ja)
Other versions
JP6314843B2 (en
Inventor
瑠衣子 宮野
Ruiko Miyano
瑠衣子 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015000962A priority Critical patent/JP6314843B2/en
Publication of JP2016126613A publication Critical patent/JP2016126613A/en
Application granted granted Critical
Publication of JP6314843B2 publication Critical patent/JP6314843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce the possibility of mistaking boundary line candidates markedly deviating from a real boundary line as boundary lines even when the real boundary line cannot be extracted as a boundary line candidate.SOLUTION: A virtual boundary line candidate V2 lying along the real boundary line candidate R2 of an n-th picked-up image Fnwithout duplication is set by a virtual boundary line candidate setting unit. Where a position predicting unit supposes that the virtual boundary line candidate V2 and the like to be boundary lines, an n-th picked-up image of an n-th marker M (Tn) recognized by a predicted position m(Tn) of the n-th picked-up image Fnand the like are predicted, and a boundary line recognizing unit recognizes some of the virtual boundary line candidate V2 and the like as the boundary line B on the basis of comparison of a predicted position m(Tn) of the n-th marker M (Tn) and an extracted position M(Tn) of the n-th marker M(Tn) extracted from the n-th picked-up image.SELECTED DRAWING: Figure 8

Description

本発明の一側面は、道路境界線認識装置及び道路境界線認識方法に関する。   One aspect of the present invention relates to a road boundary line recognition apparatus and a road boundary line recognition method.

走行車線からの車両の逸脱を防止するシステム等への適用を目的として、車載カメラによる撮像画像に基づいて、車両が走行する道路の路端を形成するガードレール等の立体構造物と道路の路面との境界線を認識する技術が提案されている。例えば、特許文献1の装置では、車両前方の撮像時間t1の撮像画像において消失点に向かって伸びる複数の線分が検出され、これらの線分はガードレールと路面との境界線候補に設定される。特許文献1の装置では、これらの境界線候補をガードレールと路面との境界線であると仮定したそれぞれの場合において、撮像時間t1の後の撮像時間t2の撮像画像におけるガードレールのポストの予測位置と、撮像時間t2の撮像画像における当該ポストの実際の位置との比較に基づいて、境界線が認識される。   For the purpose of application to a system or the like that prevents the vehicle from deviating from the traveling lane, a three-dimensional structure such as a guard rail that forms the road edge of the road on which the vehicle travels and the road surface A technique for recognizing the boundary line is proposed. For example, in the apparatus of Patent Document 1, a plurality of line segments extending toward the vanishing point are detected in the captured image at the imaging time t1 in front of the vehicle, and these line segments are set as boundary line candidates between the guardrail and the road surface. . In the apparatus of Patent Document 1, in each case where these boundary line candidates are assumed to be boundary lines between the guard rail and the road surface, the predicted position of the guard rail post in the captured image at the imaging time t2 after the imaging time t1 The boundary line is recognized based on the comparison with the actual position of the post in the captured image at the imaging time t2.

米国特許出願公開第2012/0069185号明細書US Patent Application Publication No. 2012/0069185

ところで、上記特許文献1の装置においては、ガードレール等の立体構造物と道路の路面との境界線が、植木、自生植物及び土等の遮蔽物によって遮蔽されているために、現実の境界線を境界線候補として抽出することができない場合がある。このような場合は、現実の境界線から大きく乖離した境界線候補が誤って境界線と認識される恐れがある。   By the way, in the apparatus of the above-mentioned patent document 1, since the boundary line between the three-dimensional structure such as the guard rail and the road surface of the road is shielded by the shielding objects such as the planted trees, the native plants, and the soil, In some cases, the boundary line candidate cannot be extracted. In such a case, there is a possibility that a boundary line candidate greatly deviating from the actual boundary line is erroneously recognized as a boundary line.

そこで本発明は、現実の境界線を境界線候補として抽出することができない場合であっても、現実の境界線から大幅に乖離した境界線候補を誤って境界線と認識する可能性を低減させることができる道路境界線認識装置及び道路境界線認識方法を提供することを目的とする。   Therefore, the present invention reduces the possibility of erroneously recognizing a boundary line candidate that deviates significantly from the actual boundary line as a boundary line even when the actual boundary line cannot be extracted as a boundary line candidate. An object of the present invention is to provide a road boundary line recognition device and a road boundary line recognition method capable of performing the above.

本発明の一側面は、車載カメラによる撮像画像に基づいて、車両が走行する道路の路端を形成する立体構造物と道路の路面との境界線を認識する道路境界線認識装置であって、道路を走行中の車両の前方における第n時点の第n撮像画像について境界線の候補である実境界線候補を抽出する実境界線候補抽出部と、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補を設定する仮想境界線候補設定部と、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、第n撮像画像で認識される第nマーカーについて、車両の移動情報に基づいて、第n時点よりも後の第n時点の第n撮像画像における予測位置を予測する位置予測部と、位置予測部により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置との比較に基づいて、実境界線候補及び仮想境界線候補のいずれかを境界線として認識する境界線認識部とを備えた道路境界線認識装置である。 One aspect of the present invention is a road boundary line recognition device for recognizing a boundary line between a three-dimensional structure forming a road edge of a road on which a vehicle travels and a road surface of the road, based on an image captured by an in-vehicle camera, A real boundary line candidate extraction unit that extracts a real boundary line candidate that is a candidate for the boundary line for the n 1st captured image at the n 1st time point in front of the vehicle traveling on the road; and an actual boundary line of the n 1st captured image In each case where the virtual boundary line candidate setting unit that sets virtual boundary line candidates that do not overlap with the candidates and the actual boundary line candidates and the virtual boundary line candidates of the n 1st captured image are assumed to be boundary lines , for the n 1 marker recognized by the n 1 captured image, based on the movement information of the vehicle, the position prediction for predicting a predicted position in the n 2 captured image of the n 2 time points later than the n 1 time And the position prediction unit The predicted position of the n 1 marker, based on a comparison of the extraction position of the n 1 markers extracted from the n 2 captured image, recognizes one of the actual boundary line candidate and the imaginary boundary line candidate as a boundary line A road boundary line recognition apparatus including a boundary line recognition unit.

この構成によれば、仮想境界線候補設定部により、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補が設定される。また、位置予測部により、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、第n撮像画像で認識される第nマーカーについて、車両の移動情報に基づいて、第n撮像画像における予測位置が予測され、境界線認識部により、予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置との比較に基づいて、実境界線候補及び仮想境界線候補のいずれかが境界線として認識される。そのため、立体構造物と道路の路面との現実の境界線が遮蔽物によって遮蔽されているために、現実の境界線そのものを撮像画像から直接に認識できず、実境界線候補上に現実の境界線が含まれていない場合であっても、仮想境界線候補が実境界線候補を補うことができるため、現実の境界線から大幅に乖離した境界線候補を誤って境界線と認識する可能性を低減させることができる。 According to this configuration, by the virtual boundary line candidate setting unit, a virtual boundary line candidate along without overlapping actual boundary line candidate of the n 1 captured image is set. Moreover, the position prediction section, in each case where the actual boundary line candidate and the imaginary boundary line candidate of the n 1 captured image is assumed to be a boundary line, the first n 1 marker recognized by the n 1 captured image, based on the movement information of the vehicle, the predicted position in the n 2 captured image is predicted, by the boundary line recognizing portion, and a predicted position of the predicted second n 1 marker, the n 1 extracted from the n 2 captured image Based on the comparison with the marker extraction position, either the real boundary line candidate or the virtual boundary line candidate is recognized as the boundary line. Therefore, since the actual boundary line between the three-dimensional structure and the road surface is blocked by the shielding object, the actual boundary line itself cannot be directly recognized from the captured image, and the actual boundary line cannot be recognized on the actual boundary line candidate. Even if the line is not included, the virtual boundary line candidate can supplement the actual boundary line candidate, so the boundary line candidate that is greatly deviated from the actual boundary line may be erroneously recognized as a boundary line Can be reduced.

この場合、実境界線候補抽出部は、第n時点よりも前の第n−1時点の第n−1撮像画像について境界線の候補である実境界線候補を抽出し、位置予測部は、第n−1撮像画像の実境界線候補を境界線であると仮定した場合において、第n−1撮像画像で認識される第n−1マーカーについて、車両の移動情報に基づいて、第n−1時点と第n時点との間の第n時点の第n撮像画像における予測位置を予測し、仮想境界線候補設定部は、位置予測部により予測された第n−1マーカーの予測位置と、第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量が第1閾値を超えている場合に、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補を設定することができる。 In this case, the actual boundary line candidate extraction unit, for the n -1 captured image of the n -1 time earlier than the n 1 time to extract the actual boundary line candidate which is a candidate for the boundary line, position prediction section , in the case where the actual boundary line candidate of the n -1 captured image is assumed to be a boundary line, the first n -1 marker recognized by the n -1 captured image, based on the movement information of the vehicle, the n A predicted position in the n 0th captured image at the n 0 time point between the −1 time point and the n 1 time point is predicted, and the virtual boundary line candidate setting unit determines the n −1 marker predicted by the position prediction unit. and predicted position, if the shift amount between the extraction position of the n -1 markers extracted from the n 0 captured image exceeds the first threshold value, it does not overlap the actual boundary line candidate of the n 1 captured image The virtual boundary line candidate along can be set.

この構成によれば、第n−1マーカーの予測位置と、第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量が第1閾値を超えている場合に、仮想境界線候補設定部によって、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補が設定される。このため、常に仮想境界線候補が設定される場合に比べて、道路境界線認識装置の演算負荷を低減することができる。 According to this configuration, if the shift amount between the extraction position of the n -1 and the predicted position of the marker, the n -1 markers extracted from the n 0 captured image exceeds the first threshold value, the imaginary boundary The line candidate setting unit sets virtual boundary line candidates that do not overlap with the actual boundary line candidates of the n 1st captured image. For this reason, compared with the case where a virtual boundary line candidate is always set, the calculation load of a road boundary line recognition apparatus can be reduced.

また、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量が第2閾値以下の実境界線候補又は仮想境界線候補が無い場合は、仮想境界線候補設定部は、第n時点よりも後の第n時点の第n撮像画像について実境界線候補抽出部により抽出された実境界線候補に重複せずに沿い、第n撮像画像に設定した仮想境界線候補よりも数が多い仮想境界線候補を設定することができる。 Further, in each case where the real boundary candidate and the virtual boundary line candidate of the n 1st captured image are assumed to be boundary lines, the predicted position of the n 1 marker predicted by the position prediction unit and the n 2nd imaging When there is no real boundary line candidate or virtual boundary line candidate whose deviation from the extracted position of the n 1st marker extracted from the image is equal to or smaller than the second threshold, the virtual boundary line candidate setting unit is more than the n 2 time point. The n 3rd captured image at the later n 3 time point does not overlap the actual boundary line candidate extracted by the real boundary line candidate extraction unit, and the number is larger than the virtual boundary line candidates set in the n 1st captured image. Many virtual boundary line candidates can be set.

この構成によれば、第nマーカーの予測位置と抽出位置とのずれ量が第2閾値以下である現実の境界線に十分に近い実境界線候補又は仮想境界線候補を認識できない場合には、設定される仮想境界線候補の数を多くするので、第n時点の後の第n時点において現実の境界線に十分に近い仮想境界線候補を認識することができる可能性を増大させることができる。 According to this configuration, when the actual boundary line candidate or the virtual boundary line candidate that is sufficiently close to the actual boundary line whose deviation amount between the predicted position of the n 1st marker and the extraction position is equal to or smaller than the second threshold value cannot be recognized. since increasing the number of the virtual boundary line candidate set, it increases the possibility of being able to recognize a sufficiently close imaginary boundary line candidate to the real border in the first n 3 time points after the first n 2 time be able to.

また、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量が第3閾値以下の実境界線候補又は仮想境界線候補が無い場合は、仮想境界線候補設定部は、第n時点よりも後の第n時点の第n撮像画像について実境界線候補抽出部により抽出された実境界線候補に重複せずに沿い、第n撮像画像に設定した仮想境界線候補とは位置が異なる仮想境界線候補を設定することができる。 Further, in each case where the real boundary candidate and the virtual boundary line candidate of the n 1st captured image are assumed to be boundary lines, the predicted position of the n 1 marker predicted by the position prediction unit and the n 2nd imaging When there is no actual boundary line candidate or virtual boundary line candidate whose deviation from the extracted position of the n 1st marker extracted from the image is equal to or smaller than the third threshold, the virtual boundary line candidate setting unit is more than the n 2 time point. the n for the n 3 captured image of a three point along without overlapping actual boundary line candidate extracted by the actual boundary line candidate extraction unit, and the imaginary boundary line candidate set to the n 1 captured image position after the Different virtual boundary line candidates can be set.

この構成によれば、第nマーカーの予測位置と抽出位置とのずれ量が第3閾値以下である現実の境界線に十分に近い実境界線候補又は仮想境界線候補を認識できない場合には、設定される仮想境界線候補の位置を変更するので、第n時点の後の第n時点において現実の境界線に十分に近い仮想境界線候補を認識することができる可能性を増大させることができる。 According to this configuration, when the real boundary line candidate or the virtual boundary line candidate that is sufficiently close to the actual boundary line whose deviation amount between the predicted position and the extraction position of the n 1st marker is equal to or smaller than the third threshold value cannot be recognized. since changing the position of the imaginary boundary line candidate set, it increases the possibility of being able to recognize a sufficiently close imaginary boundary line candidate to the real border in the first n 3 time points after the first n 2 time be able to.

また、本発明の他の側面は、車載カメラによる撮像画像に基づいて、車両が走行する道路の路端を形成する立体構造物と道路の路面との境界線を認識する道路境界線認識方法であって、道路を走行中の車両の前方における第n時点の第n撮像画像について境界線の候補である実境界線候補を抽出する実境界線候補抽出工程と、第n撮像画像の実境界線候補に重複せずに沿って隣接するように仮想境界線候補を設定する仮想境界線候補設定工程と、第n撮像画像で第nマーカーを認識するマーカー認識工程と、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、車両の移動情報に基づいて、第n時点より後の第n時点の第n撮像画像における第nマーカーの予測位置を予測する位置予測工程と、第n撮像画像から第nマーカーの抽出位置を抽出する位置抽出工程と、予測位置と抽出位置との比較に基づいて、実境界線候補及び仮想境界線候補のいずれかを境界線として認識する境界線認識工程とを含む道路境界線認識方法である。 Another aspect of the present invention is a road boundary line recognition method for recognizing a boundary line between a three-dimensional structure forming a road edge of a road on which a vehicle travels and a road surface based on an image captured by an in-vehicle camera. An actual boundary line candidate extracting step of extracting an actual boundary line candidate that is a boundary line candidate for the n 1st captured image at the n 1st time point in front of the vehicle traveling on the road, and the n 1st captured image a virtual boundary line candidate setting step of setting a virtual boundary line candidate to be adjacent along without overlapping actual boundary line candidate, and recognizing the marker recognition step the first n 1 marker at the n 1 captured image, the n In each case where the real boundary line candidate and the virtual boundary line candidate of one captured image are assumed to be boundary lines, the n 2nd imaging at the n 2 time point after the n 1 time point is based on the movement information of the vehicle. Predicted position of the n 1st marker in the image Based on the comparison between the predicted position and the extracted position, the position extracting process of extracting the n 1st marker from the n 2nd captured image, and the predicted position and the extracted position, A road boundary line recognition method including a boundary line recognition step of recognizing any one of candidates as a boundary line.

本発明の一側面及び他の側面によれば、現実の境界線を境界線候補として抽出することができない場合であっても、現実の境界線から大幅に乖離した境界線候補を誤って境界線と認識する可能性を低減させることができる。   According to one aspect and another aspect of the present invention, even if a real boundary line cannot be extracted as a boundary line candidate, a boundary line candidate that is greatly deviated from the actual boundary line is erroneously detected as a boundary line. Can be reduced.

第1実施形態の道路境界線認識装置を示すブロック図である。It is a block diagram which shows the road boundary line recognition apparatus of 1st Embodiment. 図1の道路境界線認識装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the road boundary line recognition apparatus of FIG. 第n時点Tnの第n撮像画像Fnを示す図である。It is a diagram showing a first n 1 captured image Fn 1 of the n 1 time Tn 1. 図3の第n撮像画像Fnにエッジ処理により実境界線候補R1〜R4を抽出した状態を示す図である。Is a diagram showing a state obtained by extracting the actual boundary line candidate R1~R4 by edge processing to the n 1 captured image Fn 1 of FIG. 図4の第n撮像画像Fnに仮想境界線候補V1〜V3を設定した状態を示す図である。It is a diagram showing a state of setting a virtual boundary line candidate V1~V3 to the n 1 captured image Fn 1 of FIG. 図4の第n撮像画像Fnについて抽出された第nマーカーM(Tn)を示す図である。It is a diagram showing a first n 1 marker M, which is extracted (Tn 1) About n 1 captured image Fn 1 of FIG. 実境界線候補R2を境界線Bであると仮定した場合において、図6の第nマーカーM(Tn)の第n時点Tnの第n撮像画像Fnでの予測位置mR2(Tn)を予測した状態を示す図である。When it is assumed that the actual boundary line candidate R2 is the boundary line B, the predicted position m R2 of the n 1 marker M (Tn 1 ) in FIG. 6 at the n 2 time point Tn 2 in the n 2 captured image Fn 2 (Tn 2) is a diagram showing a state in which predicted. 仮想境界線候補V2を境界線Bであると仮定した場合において、図6の第nマーカーM(Tn)の第n時点Tnの第n撮像画像Fnでの予測位置mV2(Tn)を予測した状態を示す図である。When it is assumed that the virtual boundary line candidate V2 is the boundary line B, the predicted position m V2 in the n 2 captured image Fn 2 at the n 2 time point Tn 2 of the n 1 marker M (Tn 1 ) in FIG. (Tn 2) is a diagram showing a state in which predicted. 実境界線候補R3を境界線Bであると仮定した場合において、図6の第nマーカーM(Tn)の第n時点Tnの第n撮像画像Fnでの予測位置mR3(Tn)を予測した状態を示す図である。In the case where the actual boundary line candidate R3 was assumed to be the boundary line B, predicted position m R3 in the n 2 captured image Fn 2 of the n 2 time Tn 2 of the n 1 marker M in FIG. 6 (Tn 1) (Tn 2) is a diagram showing a state in which predicted. 第n時点Tnの第n撮像画像Fnを示す図である。It is a diagram illustrating a second n 2 captured image Fn 2 of the n 2 time Tn 2. 図12の第n撮像画像Fnにおける第nマーカーM(Tn)の抽出位置M(Tn)を示す図である。Is a diagram showing an extracted position M (Tn 2) of the n 1 marker M (Tn 1) in the n 2 captured image Fn 2 in FIG. 予測位置mR2(Tn)と抽出位置M(Tn)との比較を示す図である。It shows a comparison of the predicted position m R2 (Tn 2) and the extraction position M (Tn 2). 予測位置mV2(Tn)と抽出位置M(Tn)との比較を示す図である。It shows a comparison of the predicted position m V2 (Tn 2) and the extraction position M (Tn 2). 予測位置mR3(Tn)と抽出位置M(Tn)との比較を示す図である。It shows a comparison of the predicted position m R3 (Tn 2) and the extraction position M (Tn 2). 第2実施形態の道路境界線認識装置のメインフローを示すフローチャートである。It is a flowchart which shows the main flow of the road boundary line recognition apparatus of 2nd Embodiment. 図15において予測位置と抽出位置とのずれ量が第1閾値を超えている場合の動作を示すフローチャートである。FIG. 16 is a flowchart illustrating an operation when a deviation amount between a predicted position and an extraction position in FIG. 15 exceeds a first threshold value. 第3実施形態の道路境界線認識装置のメインフローを示すフローチャートである。It is a flowchart which shows the main flow of the road boundary line recognition apparatus of 3rd Embodiment. 図17において予測位置と抽出位置とのずれ量が第2閾値を超えている場合の動作を示すフローチャートである。FIG. 18 is a flowchart illustrating an operation when a deviation amount between a predicted position and an extraction position in FIG. 17 exceeds a second threshold value. 第4実施形態の道路境界線認識装置のメインフローを示すフローチャートである。It is a flowchart which shows the main flow of the road boundary line recognition apparatus of 4th Embodiment. 図19において予測位置と抽出位置とのずれ量が第3閾値を超えている場合の動作を示すフローチャートである。It is a flowchart which shows operation | movement when the deviation | shift amount of an estimated position and the extraction position in FIG. 19 exceeds the 3rd threshold value.

以下、図面を参照して、本発明の実施形態に係る道路境界線認識装置及び道路境界線認識方法について説明する。   Hereinafter, a road boundary line recognition apparatus and a road boundary line recognition method according to an embodiment of the present invention will be described with reference to the drawings.

(第1実施形態)
図1に示すように、第1実施形態に係る道路境界線認識装置1は、車載カメラ11、車速センサ12、ヨーレートセンサ13、ECU20、ディスプレイ31及びスピーカ32を備えている。道路境界線認識装置1は、車載カメラ11による撮像画像に基づいて車両が走行する道路の路端を形成するガードレール、縁石、中央分離帯及び壁等の立体構造物と道路の路面との境界線を認識する。
(First embodiment)
As shown in FIG. 1, the road boundary line recognition device 1 according to the first embodiment includes an in-vehicle camera 11, a vehicle speed sensor 12, a yaw rate sensor 13, an ECU 20, a display 31, and a speaker 32. The road boundary line recognition apparatus 1 is a boundary line between a three-dimensional structure such as a guard rail, a curbstone, a median strip, and a wall that forms the end of a road on which a vehicle travels based on an image captured by an in-vehicle camera 11 and the road surface of the road. Recognize

以下、境界線とは、車両が走行する道路の路端を形成するガードレール、縁石、中央分離帯及び壁等の立体構造物と道路の路面とを区画する線を意味する。境界線は、必ずしも塗装された線でなくともよい。境界線は、立体構造物の表面と道路の路面との交差によって、撮像画像中に線状或いは略線状に現れる形状である。境界線は、厳密な直線部でなくとも、凹部等の立体構造物と道路の路面と境界部であればよい。例えば、境界線は、立体構造物が複数のポストにより支持されたガードレールである場合は、ポストが設置された位置を繋げた線である。   Hereinafter, the boundary line means a line that divides a three-dimensional structure such as a guard rail, a curb, a median strip, and a wall that form the road edge of the road on which the vehicle travels and a road surface of the road. The boundary line is not necessarily a painted line. The boundary line is a shape that appears linearly or substantially linearly in the captured image due to the intersection of the surface of the three-dimensional structure and the road surface of the road. The boundary line may be a three-dimensional structure such as a recess, a road surface of a road, and a boundary part, instead of a strict straight line part. For example, in the case where the three-dimensional structure is a guard rail supported by a plurality of posts, the boundary line is a line connecting positions where the posts are installed.

道路境界線認識装置1は、例えば、走行車線からの車両の逸脱を防止するために、境界線と車両との距離を検出し、車両のドライバーに当該距離を表示する。また、道路境界線認識装置1は、認識した境界線と車両との距離が予め設定された閾値未満になったときに、車両のドライバーに必要な警報を報知する。なお、本実施形態においては、路面の走行車線を区画する白線の検出が主目的ではないが、境界線の検出後に、検出された境界線を利用して白線を検出してもよい。或いは、本実施形態においては、検出された境界線から所定量だけ車両の側に近接した白線を模擬した仮想的な区画線を設定し、当該区画線と車両との距離が予め設定された閾値未満となったときに、車両のドライバーに必要な警報を報知してもよい。   For example, the road boundary line recognition apparatus 1 detects the distance between the boundary line and the vehicle and displays the distance to the driver of the vehicle in order to prevent the vehicle from departing from the traveling lane. Moreover, the road boundary line recognition apparatus 1 notifies a necessary warning to the driver of the vehicle when the distance between the recognized boundary line and the vehicle is less than a preset threshold value. In the present embodiment, the detection of the white line that divides the road lane on the road surface is not the main purpose, but the white line may be detected using the detected boundary line after the detection of the boundary line. Alternatively, in the present embodiment, a virtual lane line that simulates a white line that is close to the vehicle side by a predetermined amount from the detected boundary line is set, and a distance between the lane line and the vehicle is set in advance. When it becomes less than, a warning necessary for the vehicle driver may be notified.

車載カメラ11は、例えば、車両のフロントガラスの裏面に設けられた一つの撮像部を有する単眼カメラである。撮像部は、車両の前方を撮像する。車載カメラ11は、車両の前方を任意の第n時点において第n撮像画像として撮像し、車両の前方を第n時点より後の任意の第n時点において第n撮像画像として撮像する。第n時点と第n時点との間隔は、例えば、50msecとすることができる。 The in-vehicle camera 11 is, for example, a monocular camera having one image pickup unit provided on the back surface of a vehicle windshield. The imaging unit images the front of the vehicle. The in-vehicle camera 11 captures the front of the vehicle as an n 1st captured image at an arbitrary n 1 time point, and captures the front of the vehicle as an n 2 captured image at an arbitrary n 2 time point after the n 1 time point. To do. The n 1 point and the distance between the n 2 times, for example, be 50 msec.

車載カメラ11は、同様にして、第n時点より前の第n−1時点の第n−1撮像画像を撮像し、第n−1時点と第n時点との間の第n時点の第n撮像画像を撮像する。車載カメラ11は、同様にして、第n時点より後の第n時点の第n撮像画像を撮像する。このようにして、車載カメラ11は、任意の自然数kについて、第n−k時点,第n−k+1時点,…第n−1時点,第n時点,第n時点,第n時点,第n時点,…,第nk−1時点,第n時点それぞれにおける第n−k撮像画像,第n−k+1撮像画像,…第n−1撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,…,第nk−1撮像画像,第n撮像画像を例えば、50msecの周期で撮像する。車載カメラ11は、車両前方の撮像画像に関する情報をECU20へ送信する。車載カメラ11は、モノクロカメラ及びカラーカメラのいずれでもよい。また、車載カメラ11は、ステレオカメラでもよい。 Vehicle camera 11, similarly, the first n -1 captured image of the n -1 time before the first n 1 time captured, the n 0 time point between the first n -1 time and the n 1 time The n 0th captured image is captured. Vehicle camera 11, similarly, to image the second n 3 captured image of the n 3 time points later than the n 2 times. In this way, the vehicle-mounted camera 11, for any natural number k, the n -k time, the n -k + 1 point, ... the n -1 time, the n 0 time point, the n 1 time, the n 2 time, the n 3 times, ..., the n k-1 times, the n -k captured image in the n k point respectively, the n -k + 1 captured image, ... a n -1 captured image, the n 0 captured image, the n 1 captured image, the n 2 captured image, the n 3 captured image, ..., the n k-1 captured image, a first n k captured image for example, for imaging at a period of 50 msec. The in-vehicle camera 11 transmits information related to the captured image ahead of the vehicle to the ECU 20. The in-vehicle camera 11 may be either a monochrome camera or a color camera. The in-vehicle camera 11 may be a stereo camera.

車速センサ12は、車両の速度を検出するためのセンサである。車速センサ12としては、例えば、車両の車輪又は車輪と一体に回転する車軸等に対して設けられ、車輪の回転速度を信号として検出する車輪速センサが用いられる。車速センサ12は、車輪の回転速度に応じた信号をECU20に送信する。   The vehicle speed sensor 12 is a sensor for detecting the speed of the vehicle. As the vehicle speed sensor 12, for example, a wheel speed sensor that is provided for a vehicle wheel or an axle that rotates integrally with the wheel and detects the rotation speed of the wheel as a signal is used. The vehicle speed sensor 12 transmits a signal corresponding to the rotational speed of the wheel to the ECU 20.

ヨーレートセンサ13は、車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出することにより、車両の向きを検出するためのセンサである。ヨーレートセンサ13としては、例えばジャイロセンサを用いることができる。ヨーレートセンサ13は、検出した車両のヨーレートに応じた信号を運転支援ECU2へ出力する。   The yaw rate sensor 13 is a sensor for detecting the direction of the vehicle by detecting the yaw rate (rotational angular velocity) around the vertical axis of the center of gravity of the vehicle. As the yaw rate sensor 13, for example, a gyro sensor can be used. The yaw rate sensor 13 outputs a signal corresponding to the detected yaw rate of the vehicle to the driving support ECU 2.

ECU20は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。ECU20では、ROMに記憶されているプログラムをRAMにロードし、CPUで実行することで、ECU20のハードウェアが実境界線候補抽出部21、仮想境界線候補設定部22、位置予測部23及び境界線認識部24として機能する。ECU20は、複数のECUから構成されていてもよい。   The ECU 20 is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. In the ECU 20, the program stored in the ROM is loaded into the RAM and executed by the CPU, so that the hardware of the ECU 20 causes the real boundary line candidate extraction unit 21, the virtual boundary line candidate setting unit 22, the position prediction unit 23, and the boundary It functions as the line recognition unit 24. ECU20 may be comprised from several ECU.

実境界線候補抽出部21は、道路を走行中の車両の前方における任意の第n時点の第n撮像画像について境界線の候補である実境界線候補を抽出する。実境界線候補とは、第n撮像画像について、画像処理を行うことにより、第n撮像画像から直接に抽出される境界線の候補である。上述したように、第n時点の第n撮像画像は、車載カメラ11により撮像された撮像画像である。実境界線候補抽出部21は、第n撮像画像について、例えばエッジ処理等の画像処理を行うことによって実境界線候補を抽出する。また、実境界線候補抽出部21は、他の手法により実境界線候補を抽出してもよい。 The actual boundary line candidate extraction unit 21 extracts an actual boundary line candidate that is a boundary line candidate for an n 1 -th captured image at an arbitrary n 1 time point in front of a vehicle traveling on a road. The actual boundary line candidate, for the n 1 captured image, by performing image processing, a candidate of the n 1 boundary is directly extracted from the captured image. As described above, the n 1 captured image of the n 1 point is an image captured by the onboard camera 11. The actual boundary line candidate extraction unit 21 extracts an actual boundary line candidate by performing image processing such as edge processing on the n 1st captured image. In addition, the actual boundary line candidate extraction unit 21 may extract actual boundary line candidates by other methods.

仮想境界線候補設定部22は、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補を設定する。仮想境界線候補とは、第n撮像画像から抽出された実境界線候補に沿って、例えば、予め設定された1〜数個のピクセル数毎に実境界線候補から距離をおいて位置するように設定された境界線の候補である。本実施形態では、後述する第2実施形態と異なり、常に第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補が設定される。本実施形態では、全ての実境界線候補に仮想境界線候補が設定されなくともよい。また、一つの実境界線候補に複数の仮想境界線候補が設定されてもよい。 Imaginary boundary line candidate setting unit 22 sets a virtual boundary line candidate along without overlapping actual boundary line candidate of the n 1 captured image. The virtual boundary line candidate is located at a distance from the actual boundary line candidate, for example, for every one to several pixels set in advance along the actual boundary line candidate extracted from the n 1st captured image. This is a candidate for the boundary line set as follows. In the present embodiment, unlike the second embodiment described later, always imaginary boundary line candidate along without overlapping actual boundary line candidate of the n 1 captured image is set. In the present embodiment, virtual boundary line candidates do not have to be set for all real boundary line candidates. Further, a plurality of virtual boundary line candidates may be set for one real boundary line candidate.

位置予測部23は、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、第n撮像画像で認識される第nマーカーについて、車両の移動情報に基づいて、第n時点よりも後の第n時点の第n撮像画像における予測位置を予測する。移動情報とは、車両の移動に関する情報であり、例えば、車両の速度、向き及びヨーレート等を意味する。本実施形態では、車両の速度は車速センサ12により検出され、車両のヨーレートはヨーレートセンサ13により検出される。実境界線候補及び仮想境界線候補を境界線であると仮定するとは、例えば、境界線であると仮定した実境界線候補又は仮想境界線候補で区画される第n撮像画像の領域の内で、車両から近い側の領域が道路の路面であると仮定し、車両から遠い側の領域が道路の路面から垂直或いは略垂直な面であると仮定することを意味する。 Position prediction unit 23, in each case where the actual boundary line candidate and the imaginary boundary line candidate of the n 1 captured image is assumed to be a boundary line, the first n 1 marker recognized by the n 1 captured image, vehicle based on the movement information, it predicts the predicted position in the n 2 captured image of the n 2 time points later than the n 1 time. The movement information is information related to the movement of the vehicle and means, for example, the speed, direction, yaw rate, and the like of the vehicle. In the present embodiment, the vehicle speed is detected by the vehicle speed sensor 12, and the vehicle yaw rate is detected by the yaw rate sensor 13. Assuming that the real boundary line candidate and the virtual boundary line candidate are boundary lines is, for example, within the area of the n 1st captured image divided by the real boundary line candidate or the virtual boundary line candidate assumed to be a boundary line. Thus, it is assumed that the region closer to the vehicle is the road surface of the road, and the region far from the vehicle is assumed to be a surface that is perpendicular or substantially perpendicular to the road surface of the road.

第nマーカーとは、例えば、第n撮像画像中の任意の位置を特定するための任意の画素群を意味する。第nマーカーには、例えば、ガードレールのポスト等から認識される第n撮像画像の縦方向に伸びる線分と、実境界線候補との交点の画素群を適用することができる。或いは、第nマーカーには、第n撮像画像中で認識が容易な任意の画素群を適用してもよい。第nマーカーの画素群には、例えば、縦4ピクセル×横4ピクセル、縦8ピクセル×横8ピクセル及び縦16ピクセル×横16ピクセルの正方配置された画素群等を適用することができる。画素群の特定には画素群に含まれる画素の輝度、明度、彩度、色相等を用いることができる。予測位置とは、第n時点の第n撮像画像で認識される第nマーカーについて、第n時点よりも後の第n時点の第n撮像画像中において予測される位置である。 The n 1st marker means, for example, an arbitrary pixel group for specifying an arbitrary position in the n 1st captured image. As the n 1st marker, for example, a pixel group at the intersection of a line segment extending in the vertical direction of the n 1st captured image recognized from a guard rail post and the actual boundary line candidate can be applied. Alternatively, any pixel group that can be easily recognized in the n 1st captured image may be applied to the n 1st marker. For example, a pixel group of 4 pixels × 4 pixels, 8 pixels × 8 pixels, 16 pixels × 16 pixels, and the like can be applied to the pixel group of the n 1st marker. For specifying the pixel group, the luminance, brightness, saturation, hue, and the like of the pixels included in the pixel group can be used. The predicted position, the first n 1 marker recognized by the n 1 captured image of the n 1 point at a position that is expected in the first n 2 captured in the image of the n 2 time points later than the n 1 time is there.

位置予測部23が第nマーカーの予測位置を予測する際には、位置予測部23は、例えば、車両に対する車載カメラ11の位置、角度等のパラメータから、第n撮像画像の実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、第n時点の第n撮像画像中の第nマーカーの三次元空間上の車両に対する位置を算出する。次に、位置予測部23は、車両の移動情報に基づいて、第n時点より後の第n時点における第nマーカーの三次元空間上の車両に対する位置を算出する。最後に、位置予測部23は、車両に対する車載カメラ11の位置、角度等のパラメータに基づいて、第n時点における当該第nマーカーの三次元空間上の車両に対する位置から、第n時点の第n撮像画像中の第nマーカーの予測位置を予測する。これにより、位置予測部23は、マーカーの予測位置を予測することができる。 When the position predicting unit 23 predicts the predicted position of the n 1st marker, the position predicting unit 23 determines the actual boundary line of the n 1st captured image from parameters such as the position and angle of the in-vehicle camera 11 with respect to the vehicle, for example. in the case of the candidate and each of the imaginary boundary line candidate assumed to be a boundary line, and calculates the position for the vehicle on a three-dimensional space of the n 1 first n 1 marker in the captured image of the n 1 time. Next, the position prediction unit 23 calculates the position of the n 1 marker in the three-dimensional space at the n 2 time point after the n 1 time point based on the vehicle movement information. Finally, the position predicting unit 23 calculates the n 2 time point from the position of the n 1 marker at the n 2 time point with respect to the vehicle in the three-dimensional space based on parameters such as the position and angle of the in-vehicle camera 11 with respect to the vehicle. The predicted position of the n 1st marker in the n 2nd captured image is predicted. Thereby, the position prediction unit 23 can predict the predicted position of the marker.

境界線認識部24は、後述するように、位置予測部23により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置との比較に基づいて、実境界線候補及び仮想境界線候補のいずれかを境界線として認識する。抽出位置とは、第n撮像画像において、第n撮像画像で認識された第nマーカーに対応する画素群として抽出される第nマーカーの位置を意味する。 As will be described later, the boundary line recognition unit 24 is based on a comparison between the predicted position of the n 1st marker predicted by the position prediction unit 23 and the extracted position of the n 1st marker extracted from the n 2nd captured image. Then, either the real boundary line candidate or the virtual boundary line candidate is recognized as a boundary line. The extraction position means the position of the n 1 marker extracted as a pixel group corresponding to the n 1 marker recognized in the n 1 captured image in the n 2 captured image.

予測位置と抽出位置との比較に基づいて実境界線候補及び仮想境界線候補のいずれかを境界線として認識するとは、例えば、第nマーカーの予測位置と抽出位置とのずれ量が最小である実境界線候補及び仮想境界線候補のいずれかを境界線として認識することを意味する。或いは、予測位置と抽出位置との比較に基づいて実境界線候補及び仮想境界線候補のいずれかを境界線として認識するとは、例えば、第nマーカーの予測位置と抽出位置とのずれ量が予め設定された境界線を認識するための閾値以下の実境界線候補及び仮想境界線候補のいずれかを境界線として認識することを意味する。ずれ量とは、例えば、予測位置と抽出位置との最短距離、水平方向距離、垂直方向距離等を意味する。境界線を認識するための閾値は、固定値でも変動値でもよい。 Recognizing either a real boundary line candidate or a virtual boundary line candidate as a boundary line based on the comparison between the predicted position and the extracted position is, for example, that the amount of deviation between the predicted position and the extracted position of the n 1st marker is the smallest. This means that either a certain real boundary line candidate or a virtual boundary line candidate is recognized as a boundary line. Alternatively, recognizing either the actual boundary line candidate or the virtual boundary line candidate as a boundary line based on the comparison between the predicted position and the extracted position means, for example, that the amount of deviation between the predicted position of the n 1st marker and the extracted position is This means that either a real boundary line candidate or a virtual boundary line candidate equal to or less than a threshold value for recognizing a preset boundary line is recognized as a boundary line. The deviation amount means, for example, the shortest distance between the predicted position and the extraction position, the horizontal distance, the vertical distance, and the like. The threshold value for recognizing the boundary line may be a fixed value or a fluctuation value.

境界線認識部24は、認識した境界線の位置、境界線と車両との距離等の情報をディスプレイ31により車両のドライバーに表示する。また、境界線認識部24は、境界線と車両との距離が予め設定された閾値未満となったときは、スピーカ32により車両のドライバーに警報を報知する。   The boundary line recognition unit 24 displays information such as the position of the recognized boundary line and the distance between the boundary line and the vehicle on the driver of the vehicle on the display 31. In addition, the boundary line recognition unit 24 notifies the vehicle driver of an alarm through the speaker 32 when the distance between the boundary line and the vehicle is less than a preset threshold value.

本実施形態では、実境界線候補抽出部21、仮想境界線候補設定部22、位置予測部23及び境界線認識部24は、任意の自然数kについて、第n−k時点,第n−k+1時点,…,第n−1時点,第n時点,第n時点,第n時点,第n時点,…,第nk−1時点,第n時点それぞれにおける第n−k撮像画像,第n−k+1撮像画像,…,第n−1撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,…,第nk−1撮像画像,第n撮像画像それぞれについての処理を繰り返し実行する。 In the present embodiment, the real boundary line candidate extraction unit 21, the virtual boundary line candidate setting unit 22, the position prediction unit 23, and the boundary line recognition unit 24 perform the n- k time point and the n- k + 1 time point for an arbitrary natural number k. , ..., a n -1 time, the n 0 time point, the n 1 time, the n 2 time, the n 3 times, ..., the n k-1 times, the n -k captured image in the n k point, respectively , the n -k + 1 captured image, ..., the n -1 captured image, the n 0 captured image, the n 1 captured image, the n 2 captured image, the n 3 captured image, ..., the n k-1 captured image , The process for each of the nk captured images is repeatedly executed.

尚、実境界線候補抽出部21、仮想境界線候補設定部22、位置予測部23は、任意の自然数jについて、第n−2j+1時点,…,第n−1時点,第n時点,第n時点,…,第n2j+1時点それぞれにおける第n−2j+1撮像画像,…,第n−1撮像画像,第n撮像画像,第n撮像画像,…,第n2j+1撮像画像それぞれについての処理をおこなえばよく、必ずしも、第n−2j時点,…,第n時点,第n時点,…,第n2j時点それぞれにおける第n−2j撮像画像,…,第n撮像画像,第n撮像画像,…,第n2j撮像画像それぞれについての処理を行う必要は無い。 The actual boundary line candidate extraction unit 21, a virtual boundary line candidate setting unit 22, the position prediction unit 23, for any natural number j, the n -2j + 1 point, ..., the n -1 time, the n 1 times, the n 3 point, ..., the n -2j + 1 captured image in the n 2j + 1 point each, ..., the n -1 captured image, the n 1 captured image, the n 3 captured image, ..., for the first n 2j + 1 captured image, respectively may be carried out a process, necessarily, the n -2J point, ..., the n 0 time point, the n 2 times, ..., the n -2J captured image in the n 2j point respectively, ..., the n 0 captured image, the It is not necessary to perform processing for each of the n 2 captured images,..., the n 2j captured image.

ディスプレイ31は、ECU20の境界線認識部24からの指令信号により、境界線認識部24が認識した境界線の位置、境界線と車両との距離等の情報を車両のドライバーに表示する。スピーカ32は、境界線と車両との距離が予め設定された閾値未満となったときは、境界線認識部24からの指令信号により、車両のドライバーに警報を報知する。   The display 31 displays information such as the position of the boundary line recognized by the boundary line recognition unit 24 and the distance between the boundary line and the vehicle to the driver of the vehicle in response to a command signal from the boundary line recognition unit 24 of the ECU 20. When the distance between the boundary line and the vehicle is less than a preset threshold, the speaker 32 notifies the vehicle driver of an alarm by a command signal from the boundary line recognition unit 24.

以下、本実施形態の道路境界線認識装置1の動作について説明する。図2に示すように、第n撮像画像取得工程として、道路境界線認識装置1の車載カメラ11により、道路を走行中の車両の前方における任意の第n時点の第n撮像画像が取得される(S101)。 Hereinafter, the operation of the road boundary line recognition apparatus 1 of the present embodiment will be described. As shown in FIG. 2, as the n 1st captured image acquisition step, an in-vehicle camera 11 of the road boundary line recognition apparatus 1 determines an n 1st captured image at an arbitrary n 1 point in front of a vehicle traveling on the road. Obtained (S101).

第n撮像画像取得工程では、例えば、図3に示すような第n撮像画像Fnが取得される。第n撮像画像Fnには、車両が走行する道路100の路面101と、道路100の路端を形成する立体構造物であるガードレール104とが写っている。路面101には、道路100の走行車線を区画する白線102が設けられている。ガードレール104は、路面101から垂直方向に直立した複数のポスト106により、支持されている。 In the n 1st captured image acquisition step, for example, an n 1st captured image Fn 1 as illustrated in FIG. 3 is acquired. The n 1st captured image Fn 1 shows the road surface 101 of the road 100 on which the vehicle travels and the guard rail 104 that is a three-dimensional structure that forms the road edge of the road 100. The road surface 101 is provided with a white line 102 that divides the traveling lane of the road 100. The guard rail 104 is supported by a plurality of posts 106 standing upright from the road surface 101 in the vertical direction.

第n撮像画像Fnには、ガードレール104と路面101との境界線Bが写っている。境界線Bの一部は、植木、自生植物及び土等の遮蔽物120により遮蔽されている。第n撮像画像Fnにおいて、境界線B、白線102及びガードレール104の道路100の進行方向に沿った輪郭線は、消失点VPに向かって伸びている。消失点VPとは、第n撮像画像Fnにおいて、遠近法により、現実の物体の輪郭線等では平行線になっている線が第n撮像画像Fn内では平行ではない線であるように写される場合に、その線が交わる点である。 The boundary line B between the guard rail 104 and the road surface 101 is shown in the n 1st captured image Fn 1 . A part of the boundary line B is shielded by a shield 120 such as a plant, a native plant, and soil. In the n 1st captured image Fn 1 , the boundary line B, the white line 102, and the contour line along the traveling direction of the road 100 of the guard rail 104 extend toward the vanishing point VP. The vanishing point VP, in the n 1 captured image Fn 1, the perspective is the not parallel lines with a line which is parallel to line the n 1 captured image Fn within 1 in outline or the like of the real objects This is the point where the lines intersect.

図2に示すように、第n実境界線候補抽出工程として、道路境界線認識装置1の実境界線候補抽出部21により、道路100を走行中の車両の前方における第n時点の第n撮像画像Fnについて、境界線Bの候補である実境界線候補が抽出される(S102)。 As shown in FIG. 2, as the n 1st actual boundary line candidate extraction step, the actual boundary line candidate extraction unit 21 of the road boundary line recognition apparatus 1 performs the n 1st time point in front of the vehicle traveling on the road 100. For the n 1 captured image Fn 1 , actual boundary line candidates that are candidates for the boundary line B are extracted (S102).

第n実境界線候補抽出工程では、例えば、図4に示すように、境界線B、ガードレール104及び白線102の輪郭線であって、道路100の進行方向に沿い、消失点VPに向かって伸びる線分がエッジ処理により複数の実境界線候補R1〜R4として抽出される。エッジ処理においては、各線分について複数のエッジ点eが検出され、当該エッジ点eを通り、消失点VPに向かって伸びる線分が実境界線候補R1〜R4として抽出される。消失点VPを抽出する手法は、オプティカルフロー等の既知の種々の手法を適用することができる。 In the n 1st actual boundary line candidate extraction step, for example, as shown in FIG. 4, the boundary line B, the guard rail 104, and the white line 102 are contour lines along the traveling direction of the road 100 toward the vanishing point VP. The extending line segment is extracted as a plurality of real boundary line candidates R1 to R4 by edge processing. In the edge processing, a plurality of edge points e are detected for each line segment, and line segments passing through the edge point e and extending toward the vanishing point VP are extracted as actual boundary line candidates R1 to R4. As a method for extracting the vanishing point VP, various known methods such as an optical flow can be applied.

図4の例では、境界線Bは遮蔽物120により遮蔽されているために検出されるエッジ点eが少ない。そのため、境界線Bについては、実境界線候補は抽出されない。そこで、このように境界線Bが遮蔽物120により遮蔽されている場合を考慮し、本実施形態の道路境界線認識装置1では、常に以下の処理がなされる。   In the example of FIG. 4, the boundary line B is shielded by the shielding object 120, so that there are few edge points e detected. Therefore, for boundary line B, no actual boundary line candidate is extracted. Therefore, in consideration of the case where the boundary line B is shielded by the shielding object 120 in this way, the road boundary line recognition device 1 of the present embodiment always performs the following processing.

図2に示すように、第n仮想境界線候補設定工程として、道路境界線認識装置1の仮想境界線候補設定部22により、第n撮像画像Fnの実境界線候補R1〜R4に重複せずに沿った仮想境界線候補が設定される(S103)。 As shown in FIG. 2, the virtual boundary line candidate setting unit 22 of the road boundary line recognition apparatus 1 sets the real boundary line candidates R1 to R4 of the n 1 captured image Fn 1 as the n 1st virtual boundary line candidate setting step. Virtual boundary line candidates that are not overlapped are set (S103).

第n仮想境界線候補設定工程では、例えば、図5に示すように、実境界線候補R1〜R4から第n撮像画像Fnの周縁で1〜数ピクセルずつ距離を隔てて互いに重複せずに隣接し、且つ消失点VPに向かって伸びる複数の仮想境界線候補V1〜V3が設定される。実境界線候補R1〜R4からの仮想境界線候補V1〜V3の距離は任意に変更することができる。図3の例では、仮想境界線候補V2は、境界線Bにほぼ一致する位置に設定される。 In the first n 1 imaginary boundary line candidate setting step, for example, as shown in FIG. 5, the actual boundary line candidate R1~R4 at a distance by one to several pixels in the n 1 periphery of the captured image Fn 1 overlap allowed each other A plurality of virtual boundary line candidates V1 to V3 that are adjacent to each other and extend toward the vanishing point VP are set. The distances of the virtual boundary line candidates V1 to V3 from the real boundary line candidates R1 to R4 can be arbitrarily changed. In the example of FIG. 3, the virtual boundary line candidate V2 is set at a position that substantially matches the boundary line B.

図2に示すように、マーカー認識工程として、道路境界線認識装置1の位置予測部23により、第n撮像画像Fnで第nマーカーが認識される(S104)。マーカー認識工程では、例えば、図6に示すように、第n時点Tnの第n撮像画像Fnにおける第nマーカーM(Tn)として、ポスト106の垂直方向の輪郭線を含む線分と実境界線候補R1との交点にその中心が位置する正方形の領域の画素群が認識される。 As shown in FIG. 2, as a marker recognition step, the position prediction unit 23 of the road boundary line recognition system 1, the n 1 marker is recognized by the n 1 captured image Fn 1 (S104). The marker recognizing step comprises for example, as shown in FIG. 6, as the n 1 marker M in the n 1 captured image Fn 1 of the n 1 time Tn 1 (Tn 1), the vertical contour of the posts 106 A pixel group of a square region whose center is located at the intersection of the line segment and the actual boundary line candidate R1 is recognized.

このように、位置予測部23は、第n撮像画像Fnにおいて認識し易く、第n撮像画像Fnにおける位置を特定し易い任意の画素群を第nマーカーM(Tn)として認識することができる。第n撮像画像Fnにおいて、第nマーカーM(Tn)は、実境界線候補R1〜R4又は仮想境界線候補V1〜V3の位置で認識されてもよく、実境界線候補R1〜R4又は仮想境界線候補V1〜V3以外の位置で認識されてもよい。 Thus, the position prediction unit 23, easily recognized in the n 1 captured image Fn 1, any pixel group is easy to identify the position in the n 1 captured image Fn 1 as the n 1 marker M (Tn 1) Can be recognized. In the n 1st captured image Fn 1 , the n 1st marker M (Tn 1 ) may be recognized at the positions of the real boundary line candidates R1 to R4 or the virtual boundary line candidates V1 to V3, and the real boundary line candidates R1 to R1. You may recognize in positions other than R4 or virtual boundary line candidates V1-V3.

後述するように、第n撮像画像Fnにおいて第nマーカーM(Tn)が現実の路面101の位置で認識された場合には、実境界線候補R1〜R4及び仮想境界線候補V1〜V3が境界線であるとの仮定が実際には正しくなくとも、第nマーカーM(Tn)の予測位置と抽出位置とが一致し、当該仮定が正しいか否かが判定できない場合がある。そのため、位置予測部23は、例えば、第n撮像画像Fnにおいて可能な限り車両(路面101)から距離が遠いと思われる位置で第nマーカーM(Tn)を認識することができる。或いは、例えば、図6の例に示すように、位置予測部23は、第n撮像画像Fnにおいて車両(路面101)から距離が最も遠いと思われる位置にある実境界線候補R1上で第nマーカーM(Tn)を認識することができる。 As described later, when the first n 1 captured image Fn 1 second n 1 marker M (Tn 1) is recognized at the position of the real road surface 101, the actual boundary line candidate R1~R4 and imaginary boundary line candidate V1 Even if the assumption that ~ V3 is a boundary line is not actually correct, the predicted position of the n 1st marker M (Tn 1 ) matches the extracted position, and it may not be possible to determine whether the assumption is correct. is there. Therefore, for example, the position prediction unit 23 can recognize the n 1st marker M (Tn 1 ) at a position that is considered as far as possible from the vehicle (road surface 101) in the n 1st captured image Fn 1 . . Alternatively, for example, as shown in the example of FIG. 6, the position prediction unit 23, on the actual boundary line candidate R1 in the position where the distance from the vehicle (road 101) In the n 1 captured image Fn 1 appears to farthest The n 1st marker M (Tn 1 ) can be recognized.

図2に示すように、位置予測工程として、道路境界線認識装置1の位置予測部23により、第n撮像画像Fnの実境界線候補R1〜R4及び仮想境界線候補V1〜V3を境界線であると仮定したそれぞれの場合において、車両の移動情報に基づいて、第n時点Tnより後の第n時点Tnの第n撮像画像における第nマーカーM(Tn)の予測位置が予測される(S105)。 As illustrated in FIG. 2, as the position prediction step, the position prediction unit 23 of the road boundary line recognition apparatus 1 uses the boundary candidates of the real boundary line candidates R1 to R4 and the virtual boundary line candidates V1 to V3 of the n 1st captured image Fn 1 as boundaries. In each case assumed to be a line, based on vehicle movement information, the n 1st marker M (Tn 1 ) in the n 2 captured image at the n 2 time point Tn 2 after the n 1 time point Tn 1. Is predicted (S105).

位置予測工程では、例えば、図7に示すように、第n撮像画像Fnの実境界線候補R2を境界線であると仮定した場合において、車両に対する車載カメラ11の位置、角度等のパラメータから第n時点Tnの第n撮像画像Fn中の第nマーカーM(Tn)の三次元空間上の車両に対する位置が算出される。 In the position prediction step, for example, as shown in FIG. 7, parameters such as the position and angle of the in-vehicle camera 11 with respect to the vehicle are assumed when the real boundary line candidate R2 of the n 1st captured image Fn 1 is assumed to be a boundary line. To the position of the n 1 marker M (Tn 1 ) in the n 1 captured image Fn 1 at the n 1 time point Tn 1 relative to the vehicle in the three-dimensional space.

この場合、例えば、実境界線候補R2で区画される第n撮像画像Fnの車両から近い側の領域は、路面101であると仮定される。一方、例えば、実境界線候補R2で区画される第n撮像画像Fnの車両から遠い側の領域は、実境界線候補R2を交線として路面101と垂直に交差する平面であると仮定される。図7の例では、第nマーカーM(Tn)は、実境界線候補R2を交線としつつ路面101と垂直に交差する平面上に存在すると仮定される。車両に対する車載カメラ11の位置、角度等のパラメータから、実境界線候補R2を交線としつつ路面101と垂直に交差する平面及び当該平面上における第nマーカーM(Tn)の三次元空間上の車両に対する位置を算出することができる。 In this case, for example, it is assumed that the area closer to the vehicle in the n 1st captured image Fn 1 divided by the actual boundary line candidate R2 is the road surface 101. On the other hand, for example, an area far from the vehicle in the n 1st captured image Fn 1 divided by the actual boundary line candidate R2 is assumed to be a plane that intersects the road surface 101 perpendicularly with the actual boundary line candidate R2 as an intersection line. Is done. In the example of FIG. 7, it is assumed that the n 1st marker M (Tn 1 ) exists on a plane that intersects the road surface 101 perpendicularly with the actual boundary line candidate R2 as an intersection line. From a parameter such as the position and angle of the in-vehicle camera 11 with respect to the vehicle, a plane that intersects the road surface 101 perpendicularly with the actual boundary line candidate R2 as an intersection, and a three-dimensional space of the n 1st marker M (Tn 1 ) on the plane The position relative to the upper vehicle can be calculated.

次に、車速センサ12及びヨーレートセンサ13により検出された車両の移動情報に基づいて、位置予測部23により、第n時点Tnより後の第n時点Tnにおける第nマーカーM(Tn)の三次元空間上の車両に対する位置が算出される。最後に、位置予測部23により、車両に対する車載カメラ11の位置、角度等のパラメータに基づいて、第n時点Tnにおける第nマーカーM(Tn)の三次元空間上の車両に対する位置から、第n時点Tnの第n撮像画像中の第nマーカーM(Tn)の予測位置mR2(Tn)が予測される。これにより、位置予測部23は、第n撮像画像Fnの実境界線候補R2を境界線であると仮定した場合において、第nマーカーMR2(Tn)の予測位置mR2(Tn)を予測することができる。 Next, based on the vehicle movement information detected by the vehicle speed sensor 12 and the yaw rate sensor 13, the position prediction unit 23 performs the n 1st marker M ((n) at the n 2 time point Tn 2 after the n 1 time point Tn 1. The position of Tn 1 ) relative to the vehicle in the three-dimensional space is calculated. Finally, the position predicting unit 23 determines the position of the n 1 marker M (Tn 1 ) in the three-dimensional space at the n 2 time point Tn 2 based on parameters such as the position and angle of the in-vehicle camera 11 with respect to the vehicle. Thus, the predicted position m R2 (Tn 2 ) of the n 1 marker M (Tn 1 ) in the n 2 captured image at the n 2 time point Tn 2 is predicted. Thereby, the position prediction unit 23 assumes that the real boundary line candidate R2 of the n 1st captured image Fn 1 is a boundary line, and the predicted position m R2 (Tn) of the n 1st marker M R2 (Tn 1 ). 2 ) can be predicted.

同様にして、図8に示すように、第n撮像画像Fnの仮想境界線候補V2を境界線であると仮定した場合において、第n時点Tnの第n撮像画像における第nマーカーM(Tn)の予測位置mV2(Tn)が予測される。また、同様にして、図9に示すように、第n撮像画像Fnの実境界線候補R3を境界線であると仮定した場合において、第n時点Tnの第n撮像画像における第nマーカーM(Tn)の予測位置mR3(Tn)が予測される。 Similarly, as shown in FIG. 8, in the case where the imaginary boundary line candidate V2 of the n 1 captured image Fn 1 assumed to be a boundary line, the n in the n 2 time Tn 2 of the n 2 captured image A predicted position m V2 (Tn 2 ) of one marker M (Tn 1 ) is predicted. Similarly, as illustrated in FIG. 9, when it is assumed that the actual boundary line candidate R3 of the n 1st captured image Fn 1 is a boundary line, in the n 2nd captured image at the n 2 time point Tn 2 . A predicted position m R3 (Tn 2 ) of the n 1st marker M (Tn 1 ) is predicted.

図7に示すように、第n撮像画像Fnにおいて、現実の境界線Bよりも車両から遠い実境界線候補R2がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mR2(Tn)までの移動距離は現実の移動距離よりも長くなる。また、図8に示すように、第n撮像画像Fnにおいて、現実の境界線Bとほぼ一致する仮想境界線候補V2がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mV2(Tn)までの移動距離は現実の移動距離とほぼ一致する。また、図9に示すように、第n撮像画像Fnにおいて、現実の境界線Bよりも車両から近い実境界線候補R3がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mR3(Tn)までの移動距離は現実の移動距離よりも短くなる。 As shown in FIG. 7, in the n 1st captured image Fn 1 , assuming that the actual boundary line candidate R2 farther from the vehicle than the actual boundary line B is the boundary line between the guardrail 104 and the road surface 101, The moving distance of the n 1st marker M (Tn 1 ) to the predicted position m R2 (Tn 2 ) is longer than the actual moving distance. Further, as shown in FIG. 8, when the first n 1 captured image Fn 1, the imaginary boundary line candidate substantially coincide with the real border B V2 is assumed to be a boundary line between the guardrail 104 and the road surface 101 The moving distance of the n 1st marker M (Tn 1 ) to the predicted position m V2 (Tn 2 ) is substantially the same as the actual moving distance. As shown in FIG. 9, when it is assumed that in the n 1st captured image Fn 1 , the actual boundary line candidate R3 closer to the vehicle than the actual boundary line B is the boundary line between the guardrail 104 and the road surface 101. The moving distance of the n 1st marker M (Tn 1 ) to the predicted position m R3 (Tn 2 ) is shorter than the actual moving distance.

図2に示すように、第n撮像画像取得工程として、道路境界線認識装置1の車載カメラ11により、道路を走行中の車両の前方における第n時点Tnより後の任意の第n時点Tnの第n撮像画像が取得される(S106)。第n撮像画像取得工程では、例えば、図10に示すような第n撮像画像Fnが取得される。図10に示すように、第n時点Tnの第n撮像画像Fnでは、第n時点Tnの第n撮像画像Fnに比べて、ポスト106や遮蔽物120が車両の手前側の位置に写っている。 As shown in FIG. 2, as the n 2nd captured image acquisition step, an arbitrary nth time point after the n 1 time point Tn 1 ahead of the vehicle traveling on the road is detected by the in-vehicle camera 11 of the road boundary recognition device 1. The n 2nd captured image at the second time point Tn 2 is acquired (S106). In the n 2nd captured image acquisition step, for example, an n 2 captured image Fn 2 as illustrated in FIG. 10 is acquired. As shown in FIG. 10, in the n 2 captured image Fn 2 at the n 2 time point Tn 2 , the post 106 and the shielding object 120 are compared to the n 1 captured image Fn 1 at the n 1 time point Tn 1 . It is reflected in the position on the near side.

図2及び図11に示すように、第n実境界線候補抽出工程として、道路境界線認識装置1の実境界線候補抽出部21により、道路100を走行中の車両の前方における第n時点Tnの第n撮像画像Fnについて、境界線Bの候補である実境界線候補R1〜R4が、上述した第n実境界線候補抽出工程と同様にして抽出される(S107)。第n仮想境界線候補設定工程として、道路境界線認識装置1の仮想境界線候補設定部22により、第n撮像画像Fnの実境界線候補R1〜R4に沿って仮想境界線候補V1〜V3が、上述した第n仮想境界線候補設定工程と同様にして設定される(S108)。尚、上述したように、第n実境界線候補抽出工程及び第n仮想境界線候補設定工程は必須ではなく、省略することができる。 As shown in FIGS. 2 and 11, as the n 2nd real boundary line candidate extraction step, the real boundary line candidate extraction unit 21 of the road boundary line recognition apparatus 1 performs the n 2nd in front of the vehicle traveling on the road 100. For the n 2 captured image Fn 2 at the time point Tn 2 , actual boundary line candidates R1 to R4 that are candidates for the boundary line B are extracted in the same manner as the above-described n 1 actual boundary line candidate extraction step (S107). . As the n 2nd virtual boundary line candidate setting step, the virtual boundary line candidate V1 along the real boundary line candidates R1 to R4 of the n 2 captured image Fn 2 by the virtual boundary line candidate setting unit 22 of the road boundary line recognition apparatus 1. To V3 are set in the same manner as in the above-described nth first virtual boundary line candidate setting step (S108). Note that, as described above, the n 2nd real boundary line candidate extraction step and the n 2nd virtual boundary line candidate setting step are not essential and can be omitted.

図2及び図11に示すように、位置抽出工程として、道路境界線認識装置1の境界線認識部24により、第n撮像画像Fnから第nマーカーM(Tn)の抽出位置M(Tn)が抽出される(S109)。抽出位置M(Tn)の抽出は、第nマーカーM(Tn)の画素群に対応する画素群を第n撮像画像Fnから抽出することにより行われる。 As shown in FIG. 2 and FIG. 11, as the position extraction step, the boundary line recognition unit 24 of the road boundary line recognition system 1, the extraction position from the n 2 captured image Fn 2 first n 1 marker M (Tn 1) M (Tn 2 ) is extracted (S109). Extraction extraction position M (Tn 2) is carried out by extracting the pixel group corresponding to the n 1 pixel group marker M (Tn 1) from the n 2 captured image Fn 2.

第nマーカーM(Tn)は、第n撮像画像Fnの実境界線候補R1上で認識されているため、第n撮像画像Fn上の抽出位置M(Tn)も実境界線候補R1上になると考えられる。そこで、第nマーカーM(Tn)の画素群に対応する画素群を第n撮像画像Fnから抽出するために、例えば、第n撮像画像Fn上に実境界線候補R1に沿った領域が設定される。当該領域内において、マッチング処理により、第nマーカーM(Tn)の画素群に対応する画素群を位置をずらしながら、当該位置における当該第nマーカーM(Tn)の画素群に対応する画素群と第n撮像画像Fnの画素群との相関値が算出される。当該相関値が最大となる第n撮像画像Fn上の位置が、第nマーカーM(Tn)の抽出位置M(Tn)に決定される。 Since the n 1st marker M (Tn 1 ) is recognized on the real boundary line candidate R1 of the n 1st captured image Fn 1 , the extraction position M (Tn 2 ) on the n 2nd captured image Fn 2 is also actual. It is considered to be on the boundary line candidate R1. Therefore, in order to extract the pixel group corresponding to the pixel group of the n 1st marker M (Tn 1 ) from the n 2nd captured image Fn 2 , for example, the actual boundary line candidate R 1 is placed on the n 2 captured image Fn 2. Along the area is set. In the region by the matching processing, while shifting the position of the pixel group corresponding to the n 1 pixel group marker M (Tn 1), corresponding to the pixel group of the at the position first n 1 marker M (Tn 1) The correlation value between the pixel group to be processed and the pixel group of the n 2nd captured image Fn 2 is calculated. The position on the n 2 -th captured image Fn 2 where the correlation value is maximized is determined as the extraction position M (Tn 2 ) of the n 1 marker M (Tn 1 ).

図2に示すように、境界線認識工程として、道路境界線認識装置1の境界線認識部24により、予測位置mR2(Tn),mV2(Tn),mR3(Tn)等と、抽出位置M(Tn)との比較に基づいて、実境界線候補R1〜R4及び仮想境界線候補V1〜V3のいずれかが境界線Bとして認識される(S110)。 As shown in FIG. 2, as the boundary line recognition process, the boundary line recognition unit 24 of the road boundary line recognition apparatus 1 performs prediction positions m R2 (Tn 2 ), m V2 (Tn 2 ), m R3 (Tn 2 ), and the like. Based on the comparison with the extraction position M (Tn 2 ), any of the real boundary line candidates R1 to R4 and the virtual boundary line candidates V1 to V3 is recognized as the boundary line B (S110).

境界線認識工程では、例えば、図12に示すように、実境界線候補R2が境界線であると仮定した場合における第nマーカーM(Tn)の予測位置mR2(Tn)と抽出位置M(Tn)とが比較される。上述したように、現実の境界線Bよりも車両から遠い実境界線候補R2がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mR2(Tn)までの移動距離は現実よりも長くなる。そのため、予測位置mR2(Tn)は抽出位置M(Tn)よりも、ずれ量gだけ車両の手前側となり、予測位置mR2(Tn)と抽出位置M(Tn)とは一致しない。 In the boundary line recognition step, for example, as shown in FIG. 12, the predicted position m R2 (Tn 2 ) of the n 1st marker M (Tn 1 ) when the actual boundary line candidate R2 is assumed to be a boundary line is extracted. The position M (Tn 2 ) is compared. As described above, when it is assumed that the actual boundary line candidate R2 farther from the vehicle than the actual boundary line B is the boundary line between the guardrail 104 and the road surface 101, the prediction of the n 1st marker M (Tn 1 ) is performed. The moving distance to the position m R2 (Tn 2 ) becomes longer than the actual distance. Therefore, the predicted position m R2 (Tn 2 ) is closer to the vehicle than the extracted position M (Tn 2 ) by the amount of deviation g, and the predicted position m R2 (Tn 2 ) and the extracted position M (Tn 2 ) match. do not do.

また、境界線認識工程では、例えば、図13に示すように、仮想境界線候補V2が境界線であると仮定した場合における第nマーカーM(Tn)の予測位置mV2(Tn)と抽出位置M(Tn)とが比較される。上述したように、現実の境界線Bとほぼ一致する仮想境界線候補V2がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mV2(Tn)までの移動距離は現実とほぼ一致する。そのため、予測位置mV2(Tn)は抽出位置M(Tn)とはほぼ一致する。 In the boundary line recognition step, for example, as shown in FIG. 13, the predicted position m V2 (Tn 2 ) of the n 1st marker M (Tn 1 ) when the virtual boundary line candidate V2 is assumed to be a boundary line. And the extraction position M (Tn 2 ) are compared. As described above, when it is assumed that the virtual boundary line candidate V2 that substantially matches the actual boundary line B is the boundary line between the guardrail 104 and the road surface 101, the predicted position of the n 1st marker M (Tn 1 ) The moving distance to m V2 (Tn 2 ) is almost the same as the actual distance. Therefore, the predicted position m V2 (Tn 2 ) substantially matches the extraction position M (Tn 2 ).

また、境界線認識工程では、例えば、図14に示すように、実境界線候補R3が境界線であると仮定した場合における第nマーカーM(Tn)の予測位置mR3(Tn)と抽出位置M(Tn)とが比較される。上述したように、現実の境界線Bよりも車両から近い実境界線候補R3がガードレール104と路面101との境界線であると仮定した場合には、第nマーカーM(Tn)の予測位置mR3(Tn)までの移動距離は現実よりも短くなる。そのため、予測位置mR3(Tn)は抽出位置M(Tn)よりも、ずれ量gだけ車両の奥側となり、予測位置mR3(Tn)と抽出位置M(Tn)とは一致しない。 In the boundary line recognition step, for example, as shown in FIG. 14, the predicted position m R3 (Tn 2 ) of the n 1st marker M (Tn 1 ) when the real boundary line candidate R3 is assumed to be a boundary line. And the extraction position M (Tn 2 ) are compared. As described above, when it is assumed that the actual boundary line candidate R3 closer to the vehicle than the actual boundary line B is the boundary line between the guardrail 104 and the road surface 101, the prediction of the n 1st marker M (Tn 1 ) is performed. The moving distance to the position m R3 (Tn 2 ) is shorter than the actual distance. Therefore, the predicted position m R3 (Tn 2 ) is located behind the vehicle by the shift amount g from the extraction position M (Tn 2 ), and the predicted position m R3 (Tn 2 ) matches the extraction position M (Tn 2 ). do not do.

境界線認識工程では、境界線認識部24は、例えば、実境界線候補R1〜R4及び仮想境界線候補V1〜V3を境界線であると仮定したそれぞれの場合において、予測位置mV2(Tn)と抽出位置M(Tn)とのずれ量gが最小である仮想境界線候補V2を境界線Bとして認識する。 In the boundary line recognition step, the boundary line recognition unit 24, for example, in each case where the real boundary line candidates R1 to R4 and the virtual boundary line candidates V1 to V3 are assumed to be boundary lines, the predicted position m V2 (Tn 2 ) And the extraction position M (Tn 2 ), the virtual boundary line candidate V2 having the smallest deviation amount g is recognized as the boundary line B.

尚、第nマーカーM(Tn)が現実の路面101において認識された場合には、実境界線候補R1〜R4及び仮想境界線候補V1〜V3の中で第nマーカーM(Tn)よりも車両から遠い側に位置する実境界線候補及び仮想境界線候補それぞれについては、それらの実境界線候補及び仮想境界線候補が境界線であるとの仮定が正しいか否かに関わらず、第nマーカーM(Tn)の予測位置と抽出位置M(Tn)とが一致し、ずれ量gが0となり、当該仮定が正しいか否かが判定できない。 In the case where the n 1 marker M (Tn 1) is recognized in the real road surface 101, the n 1 marker M in the actual boundary line candidate R1~R4 and imaginary boundary line candidate V1 to V3 (Tn 1 For each of the real boundary line candidate and the virtual boundary line candidate located on the far side from the vehicle, whether or not the assumption that the real boundary line candidate and the virtual boundary line candidate are boundary lines is correct. The predicted position of the n 1st marker M (Tn 1 ) matches the extraction position M (Tn 2 ), the deviation g is 0, and it cannot be determined whether or not the assumption is correct.

このような場合には、境界線認識部24は、例えば、実境界線候補及び仮想境界線候補のそれぞれが境界線であると仮定した場合にずれ量gが0となる実境界線候補及び仮想境界線候補のいずれかの中で、車両から最も近い実境界線候補又は仮想境界線候補を境界線Bとして認識することができる。   In such a case, the boundary line recognition unit 24, for example, assumes that each of the real boundary line candidate and the virtual boundary line candidate is a boundary line. The real boundary line candidate or virtual boundary line candidate closest to the vehicle among any of the boundary line candidates can be recognized as the boundary line B.

また、上記のように実境界線候補及び仮想境界線候補のそれぞれが境界線であると仮定した場合にずれ量gが0となる実境界線候補又は仮想境界線候補が複数ある場合や、ずれ量gが予め設定された境界線を認識するための閾値を超えている場合は、境界線認識部24は、境界線Bを認識することが不可能である旨又は境界線Bの認識を保留する旨を出力してもよい。   In addition, as described above, when it is assumed that each of the real boundary line candidate and the virtual boundary line candidate is a boundary line, when there are a plurality of real boundary line candidates or virtual boundary line candidates whose deviation amount g is 0, If the amount g exceeds a preset threshold value for recognizing the boundary line, the boundary line recognition unit 24 suspends recognition that the boundary line B cannot be recognized or the boundary line B is recognized. May be output.

上記のS101〜S110の処理は、道路境界線認識装置1により所定の周期で繰り返し実行される。そのため、任意の自然数kについて、第n−k時点,第n−k+1時点,…,第n−1時点,第n時点,第n時点,第n時点,第n時点,…,第nk−1時点,第n時点それぞれにおける第n−k撮像画像,第n−k+1撮像画像,…,第n−1撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,…,第nk−1撮像画像,第n撮像画像それぞれについての処理が繰り返し実行される。 The processes of S101 to S110 are repeatedly executed at a predetermined cycle by the road boundary line recognition apparatus 1. Therefore, for any natural number k, the n -k time, the n -k + 1 point, ..., the n -1 time, the n 0 time point, the n 1 time, the n 2 time, the n 3 times, ..., the n k-1 times, the n k time the n -k captured images in each, the n -k + 1 captured image, ..., the n -1 captured image, the n 0 captured image, the n 1 captured image, the n 2 captured image, the n 3 captured image, ..., the n k-1 captured image, processing for the n k captured image, respectively, are repeatedly performed.

例えば、任意の自然数jについて、第n−2j+1時点,…,第n−1時点,第n時点,第n時点,…,第n2j+1時点それぞれにおける第n−2j+1撮像画像,…,第n−1撮像画像,第n撮像画像,第n撮像画像,…,第n2j+1撮像画像それぞれについて、上述した第n撮像画像取得工程、第n実境界線候補抽出工程、第n仮想境界線候補抽出工程、マーカー認識工程及び位置予測工程と同様の処理が実行され、第n−2j時点,…,第n時点,第n時点,…,第n2j時点それぞれにおける第n−2j撮像画像,…,第n撮像画像,第n撮像画像,…,第n2j撮像画像それぞれについて、上述した第n撮像画像取得工程、第n実境界線候補抽出工程、第n仮想境界線候補抽出工程、位置抽出工程及び境界線認識工程と同様の処理が実行されてもよい。 For example, for any natural number j, the n -2j + 1 point, ..., the n -1 time, the n 1 time, the n 3 times, ..., the n -2j + 1 captured image in the n 2j + 1 point each, ..., a n -1 captured image, the n 1 captured image, the n 3 captured image, ... for the n 2j + 1 captured image, respectively, the n 1 captured image acquisition process described above, the n 1 actual boundary line candidate extraction step, the n 1 imaginary boundary line candidate extraction process, the same process as the marker recognition step and the position prediction step is performed, the n -2J point, ..., the n 0 time point, the n 2 times, ..., the in the n 2j point respectively n -2J captured image, ..., the n 0 captured image, the n 2 captured image, ..., for the n 2j captured image, respectively, the n 2 captured image acquisition process described above, the n 2 actual boundary line candidate extraction process, the n 2 imaginary boundary line candidate extraction Degree, the same processing as the position extraction step and boundary recognition process may be performed.

また、任意の自然数kについて、第n−k時点,第n−k+1時点,…,第n−1時点,第n時点,第n時点,第n時点,第n時点,…,第nk−1時点,第n時点それぞれにおける第n−k撮像画像,第n−k+1撮像画像,…,第n−1撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,…,第nk−1撮像画像,第n撮像画像それぞれについて、上述した第n撮像画像取得工程、第n実境界線候補抽出工程、第n仮想境界線候補抽出工程、マーカー認識工程及び位置予測工程と同様の処理が実行されるとともに、これらの前の時点である第n−k−1時点,第n−k時点,…,第n−2時点,第n−1時点,第n時点,第n時点,第n時点,…,第nk−2時点,第nk−1時点それぞれにおける第n−k−1撮像画像,第n−k撮像画像,…,第n−2撮像画像,第n−1撮像画像,第n撮像画像,第n撮像画像,第n撮像画像,…,第nk−2撮像画像,第nk−1撮像画像それぞれについて実行されたマーカー認識工程及び位置予測工程の結果に基づいて、上述した第n撮像画像取得工程、第n実境界線候補抽出工程、第n仮想境界線候補抽出工程、位置抽出工程及び境界線認識工程と同様の処理が実行されてもよい。 Also, for any natural number k, the n -k time, the n -k + 1 point, ..., the n -1 time, the n 0 time point, the n 1 time, the n 2 time, the n 3 times, ..., the n k-1 times, the n k time the n -k captured images in each, the n -k + 1 captured image, ..., the n -1 captured image, the n 0 captured image, the n 1 captured image, the n 2 captured image, the n 3 captured image, ..., the n k-1 captured image, for the n k captured image, respectively, the n 1 captured image acquisition process described above, the n 1 actual boundary line candidate extraction step, the n The same processing as the one virtual boundary line candidate extraction step, the marker recognition step, and the position prediction step is executed, and the n −k−1 time point, the n −k time point ,. -2 point, the n -1 time, the n 0 time point, the n 1 time, the n 2 times, ..., the n k- Point, the n -k-1 captured image in the n k-1 times, respectively, the n -k captured image, ..., n-th -2 captured image, the n -1 captured image, the n 0 captured image, the n 1 captured image, the n 2 captured image, ..., the n k-2 captured image, based on the results of the n k-1 marker recognized is executed for the captured image each step and the position prediction step, the n 2 described above Processes similar to the captured image acquisition process, the n 2nd real boundary line candidate extraction process, the n 2nd virtual boundary line candidate extraction process, the position extraction process, and the boundary line recognition process may be executed.

本実施形態では、仮想境界線候補設定部22により、第n撮像画像Fnの実境界線候補R2等に重複せずに沿った仮想境界線候補V2等が設定される。また、位置予測部23により、第n撮像画像Fnの実境界線候補R2等及び仮想境界線候補V2等を境界線であると仮定したそれぞれの場合において、第n撮像画像Fnで認識される第nマーカーM(Tn)について、車両の移動情報に基づいて、第n撮像画像Fnにおける予測位置mV2(Tn)が予測され、境界線認識部24により、予測された第nマーカーM(Tn)の予測位置mV2(Tn)等と、第n撮像画像から抽出された第nマーカーM(Tn)の抽出位置M(Tn)との比較に基づいて、実境界線候補R2等及び仮想境界線候補V2等のいずれかが境界線Bとして認識される。そのため、立体構造物と道路の路面との現実の境界線が遮蔽物によって遮蔽されているために、現実の境界線そのものを撮像画像から直接に認識できず、実境界線候補上に現実の境界線が含まれていない場合であっても、仮想境界線候補が実境界線候補を補うことができるため、現実の境界線から大幅に乖離した境界線候補を誤って境界線と認識する可能性を低減させることができる。 In the present embodiment, the virtual boundary line candidate setting unit 22 sets the virtual boundary line candidate V2 and the like that do not overlap the actual boundary line candidate R2 and the like of the n 1st captured image Fn 1 . Moreover, the position prediction unit 23, in each case where such first n 1 actual boundary line candidate of the captured image Fn 1 R2 and imaginary boundary line candidate V2, etc. were assumed to be the boundary line, in the n 1 captured image Fn 1 With respect to the recognized first marker M (Tn 1 ), the predicted position m V2 (Tn 2 ) in the n 2nd captured image Fn 2 is predicted based on the movement information of the vehicle, and is predicted by the boundary line recognition unit 24. and the n 1 predicted position m V2 of the marker M (Tn 1) (Tn 2 ) or the like which is, the n 1 extraction position of the marker M (Tn 1) M extracted from the n 2 captured image and (Tn 2) Based on the comparison, either the real boundary line candidate R2 or the like or the virtual boundary line candidate V2 or the like is recognized as the boundary line B. Therefore, since the actual boundary line between the three-dimensional structure and the road surface is blocked by the shielding object, the actual boundary line itself cannot be directly recognized from the captured image, and the actual boundary line cannot be recognized on the actual boundary line candidate. Even if the line is not included, the virtual boundary line candidate can supplement the actual boundary line candidate, so the boundary line candidate that is greatly deviated from the actual boundary line may be erroneously recognized as a boundary line Can be reduced.

(第2実施形態)
以下、本発明の第2実施形態について説明する。本実施形態では、上記第1実施形態のように常に仮想境界線候補が設定されるのではなく、仮想境界線候補を設定する条件が規定されている。図15に示すように、上記第1実施形態の第n撮像画像取得工程と同様に、第n−1撮像画像取得工程として、道路境界線認識装置1の車載カメラ11により、道路を走行中の車両の前方における第n時点よりも前の第n−1時点の第n−1撮像画像が取得される(S201)。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the present embodiment, virtual boundary line candidates are not always set as in the first embodiment, but conditions for setting virtual boundary line candidates are defined. As shown in FIG. 15, as in the n- 1 captured image acquisition process of the first embodiment, the vehicle-mounted camera 11 of the road boundary line recognition device 1 is running on the road as the n- 1 captured image acquisition process. The (n− 1 ) th captured image at the (n− 1 ) th time point before the n1th time point in front of the vehicle is acquired (S201).

上記第1実施形態の第n実境界線候補抽出工程と同様に、第n−1実境界線候補抽出工程として、道路境界線認識装置1の実境界線候補抽出部21により、道路100を走行中の車両の前方における第n時点よりも前の第n−1時点の第n−1撮像画像について、境界線Bの候補である実境界線候補が抽出される(S202)。 As with the n 1 actual boundary line candidate extraction process in the first embodiment, as the n -1 actual boundary line candidate extraction step, the actual boundary line candidate extraction unit 21 of the road boundary line recognition system 1, the road 100 About n -1 captured image of the n -1 time earlier than the n 1 point in front of the traveling vehicle, actual boundary line candidate which is a candidate of the border line B is extracted (S202).

上記第1実施形態と同様に、マーカー認識工程として、道路境界線認識装置1の位置予測部23により、第n−1撮像画像で第n−1マーカーが認識される(S203)。上記第1実施形態と同様に、位置予測工程として、道路境界線認識装置1の位置予測部23により、第n−1撮像画像の実境界線候補を境界線であると仮定した場合において、車両の移動情報に基づいて、第n−1撮像画像で認識される第n−1マーカーの第n−1時点と第n時点との間の第n時点の第n撮像画像における予測位置が予測される(S204)。本実施形態では、この時点では、まだ仮想境界線候補は設定されていないため、第n−1撮像画像の仮想境界線候補を境界線であると仮定した場合における第n−1マーカーの第n撮像画像における予測位置の予測は行われない。 Similar to the first embodiment, as a marker recognition step, the position prediction unit 23 of the road boundary line recognition system 1, the n -1 marker is recognized by the n -1 captured image (S203). As in the first embodiment, as the position prediction step, the position prediction unit 23 of the road boundary line recognition apparatus 1 assumes that the actual boundary line candidate of the (n− 1) -th captured image is a boundary line. based on the movement information, the predicted position in the n 0 captured image of the n 0 time point between the first n -1 time and the n 1 time of the n -1 marker recognized by the n -1 captured image Is predicted (S204). In this embodiment, since no virtual boundary line candidate has been set yet at this time, the n - th marker of the (n- 1) -th marker when it is assumed that the virtual boundary line candidate of the (n- 1) -th captured image is a boundary line. The prediction position in the 0 captured image is not predicted.

上記第1実施形態の第n撮像画像取得工程と同様に、第n撮像画像取得工程として、道路境界線認識装置1の車載カメラ11により、道路を走行中の車両の前方における第n時点の第n撮像画像が取得される(S205)。上記第1実施形態の第n実境界線候補抽出工程と同様に、第n実境界線候補抽出工程として、道路境界線認識装置1の実境界線候補抽出部21により、道路100を走行中の車両の前方における第n時点の第n撮像画像について、境界線Bの候補である実境界線候補が抽出される(S206)。尚、上記第1実施形態と同様に、第n実境界線候補抽出工程は必須ではなく、省略することができる。 As with the n 2 captured image acquisition step of the first embodiment, as the n 0 captured image acquisition process, the vehicle-mounted camera 11 of the road boundary line recognition system 1, the n 0 in the front of a vehicle traveling on a road The n 0th captured image at the time is acquired (S205). Similar to the n 2nd real boundary line candidate extraction step of the first embodiment, the actual boundary line candidate extraction unit 21 of the road boundary line recognition apparatus 1 travels on the road 100 as the n 0th real boundary line candidate extraction step. A real boundary line candidate that is a candidate for the boundary line B is extracted from the n 0th captured image at the n 0 time point in front of the middle vehicle (S206). Incidentally, as in the first embodiment, the n 0 actual boundary line candidate extraction process is not essential and can be omitted.

上記第1実施形態と同様に、位置抽出工程として、道路境界線認識装置1の境界線認識部24により、第n撮像画像の第n−1マーカーの抽出位置が抽出される(S207)。本実施形態では、第n−1マーカーの予測位置と第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量gが第1閾値以下である場合は(S208)、境界線認識工程として、道路境界線認識装置1の境界線認識部24により、実境界線候補を境界線であると仮定した場合において、ずれ量gが第1閾値以下である実境界線候補の中で、ずれ量gが最小である実境界線候補が境界線として認識される(S209)。第1閾値は、固定値でも変動値でもよい。また、第1閾値は、上述した境界線を認識するための閾値と同じ値であっても、異なる値でもよい。 Similar to the first embodiment, as the position extraction step, the boundary line recognition unit 24 of the road boundary line recognition system 1, the extraction position of the n -1 marker of the n 0 captured image is extracted (S207). In the present embodiment, when the deviation amount g of the extraction position of the n -1 markers extracted from the predicted position and the n 0 captured image of the n -1 marker is equal to or less than the first threshold value (S208), the boundary In the line recognition process, when the boundary line recognition unit 24 of the road boundary line recognition apparatus 1 assumes that the actual boundary line candidate is a boundary line, among the actual boundary line candidates whose deviation amount g is equal to or smaller than the first threshold value, Thus, the actual boundary line candidate having the smallest deviation amount g is recognized as the boundary line (S209). The first threshold value may be a fixed value or a variable value. Further, the first threshold value may be the same value as or different from the threshold value for recognizing the boundary line described above.

一方、本実施形態では、第n−1マーカーの予測位置と第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量gが第1閾値を超えている場合は(S208)、図16に示すように、上記第1実施形態の図2のS101〜S110と同様の第n撮像画像取得工程(S210)、第n実境界線候補抽出工程(S211)、第n仮想境界線候補抽出工程(S212)、マーカー認識工程(S213)、位置予測工程(S214)、第n撮像画像取得工程(S215)、第n実境界線候補抽出工程(S216)、第n仮想境界線候補抽出工程(S217)、位置抽出工程(S218)及び境界線認識工程(S219)が実行される。すなわち、仮想境界線候補設定部22は、第n−1マーカーの予測位置と第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量gが第1閾値を超えている場合に、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補を設定する。 On the other hand, in this embodiment, when the shift amount g of the extraction position of the n -1 markers predicted position of the n -1 marker and extracted from the n 0 captured image exceeds the first threshold value (S208 ), As shown in FIG. 16, the n 1st captured image acquisition step (S210), the n 1st real boundary line candidate extraction step (S211), and the n th 1 virtual boundary line candidate extraction step (S212), marker recognition step (S213), position prediction step (S214), n 2nd captured image acquisition step (S215), n 2nd real boundary line candidate extraction step (S216), An n 2 virtual boundary line candidate extraction step (S217), a position extraction step (S218), and a boundary line recognition step (S219) are executed. That is, the virtual boundary line candidate setting unit 22, the deviation amount g of the extraction position of the n -1 markers extracted from the predicted position and the n 0 captured image of the n -1 marker exceeds a first threshold value In this case, a virtual boundary line candidate that does not overlap with the actual boundary line candidate of the n 1st captured image is set.

本実施形態によれば、第n−1マーカーの予測位置と、第n撮像画像から抽出された第n−1マーカーの抽出位置とのずれ量gが第1閾値を超えている場合に、仮想境界線候補設定部22によって、第n撮像画像の実境界線候補に重複せずに沿った仮想境界線候補が設定される。このため、常に仮想境界線候補が設定される場合に比べて、道路境界線認識装置1の演算負荷を低減することができる。 According to this embodiment, when the predicted position of the n -1 marker, shift amount g of the extraction position of the n -1 markers extracted from the n 0 captured image exceeds the first threshold value, The virtual boundary line candidate setting unit 22 sets virtual boundary line candidates that do not overlap the actual boundary line candidates of the n-th first captured image. For this reason, compared with the case where a virtual boundary line candidate is always set, the calculation load of the road boundary line recognition apparatus 1 can be reduced.

(第3実施形態)
以下、本発明の第3実施形態について説明する。本実施形態では、ずれ量gが予め設定された第2閾値を超えている場合には、設定される仮想境界線候補の数が増加させられる。図17に示すように、上記第1実施形態の図2のS101〜S109と同様の第n撮像画像取得工程(S301)、第n実境界線候補抽出工程(S302)、第n仮想境界線候補抽出工程(S303)、マーカー認識工程(S304)、位置予測工程(S305)、第n撮像画像取得工程(S306)、第n実境界線候補抽出工程(S307)、第n仮想境界線候補抽出工程(S308)及び位置抽出工程(S309)が実行される。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described. In the present embodiment, when the deviation amount g exceeds a preset second threshold value, the number of virtual boundary line candidates to be set is increased. As shown in FIG. 17, the first embodiment of the same first n 1 captured image acquisition step and S101~S109 of FIG. 2 (S301), the n 1 actual boundary line candidate extraction step (S302), the n 1 virtual boundary line candidate extraction step (S303), a marker recognition step (S304), the position prediction step (S305), the n 2 captured image acquisition step (S306), the n 2 actual boundary line candidate extraction step (S307), the n 2 A virtual boundary line candidate extraction step (S308) and a position extraction step (S309) are executed.

実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部23により予測された第nマーカーの抽出位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが第2閾値以下の実境界線候補又は仮想境界線候補が有る場合には(S310)、境界線認識工程として、道路境界線認識装置1の境界線認識部24により、第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが境界線を認識するための閾値以下の実境界線候補及び仮想境界線候補のいずれかが境界線として認識される(S311)。尚、本実施形態では、第2閾値を上述した境界線を認識するための閾値と同じ値としているが、第2閾値は境界線を認識するための閾値と異なる値であってもよい。また、第2閾値は、固定値でも変動値でもよい。 In each case where the real boundary line candidate and the virtual boundary line candidate are assumed to be boundary lines, the extraction position of the n 1st marker predicted by the position prediction unit 23 and the nth extracted from the n 2nd captured image When there is a real boundary line candidate or a virtual boundary line candidate whose deviation amount g from the extraction position of one marker is equal to or smaller than the second threshold (S310), the boundary line recognition of the road boundary line recognition apparatus 1 is performed as a boundary line recognition step. the parts 24, the predicted position of the n 1 marker, the n 1 marker following actual boundary line candidate and the threshold for the deviation amount g recognizes the boundaries of the extraction position of the extracted from the n 2 captured image Any of the virtual boundary line candidates is recognized as a boundary line (S311). In the present embodiment, the second threshold value is set to the same value as the threshold value for recognizing the boundary line, but the second threshold value may be different from the threshold value for recognizing the boundary line. The second threshold value may be a fixed value or a variable value.

一方、実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部23により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが第2閾値以下の実境界線候補又は仮想境界線候補が無い場合には(S310)、図18に示すように、第n時点よりも後の第n時点の第n撮像画像について、上記第1実施形態の図2のS101及びS102と同様の第n撮像画像取得工程(S312)及び第n実境界線候補抽出工程(S313)が実行される。 On the other hand, in each case where the real boundary line candidate and the virtual boundary line candidate are assumed to be boundary lines, the predicted position of the n 1st marker predicted by the position prediction unit 23 and the n 2nd captured image are extracted. When there is no real boundary candidate or virtual boundary line candidate whose deviation amount g with respect to the extraction position of the n 1st marker is equal to or smaller than the second threshold (S310), as shown in FIG. 18, it is after the n 2 time point. for the second n 3 captured image of the n 3 time, the first 1 S101 of FIG. 2 embodiment and S102 similar of the n 3 captured image acquisition step (S312) and the n 3 actual boundary line candidate extraction process (S313 ) Is executed.

第n仮想境界線候補設定工程として、仮想境界線候補設定部22により、第n時点よりも後の第n時点の第n撮像画像について実境界線候補抽出部21により抽出された実境界線候補に重複せずに沿い、第n仮想境界線候補抽出工程(S303)で第n撮像画像に設定した仮想境界線候補よりも数が多い仮想境界線候補が設定される(S314)。 As the n 3rd virtual boundary line candidate setting step, the virtual boundary line candidate setting unit 22 extracts the n 3 captured image at the n 3 time point after the n 2 time point by the real boundary line candidate extracting unit 21. Along with not overlapping with the actual boundary line candidates, virtual boundary line candidates having a larger number than the virtual boundary line candidates set in the n 1st captured image in the n 1st virtual boundary line candidate extracting step (S303) are set ( S314).

その後は、第n撮像画像について、上記第1実施形態の図2のS104及びS105と同様のマーカー認識工程(S315)及び位置予測工程(S316)が実行される。また、第n時点よりも後の第n時点の第n撮像画像について、上記第1実施形態の図2のS106〜S110と同様の第n撮像画像取得工程(S317)、第n実境界線候補抽出工程(S318)、第n仮想境界線候補抽出工程(S319)、位置抽出工程(S320)及び境界線認識工程(S321)が実行される。 Then, for the n 3 captured image, the same marker recognizing step and S104 and S105 of FIG. 2 in the first embodiment (S315) and the position prediction step (S316) is executed. Further, for the n 4 captured image of the n 4 time points later than the n 3 point, the first embodiment of S106~S110 the same first n 4 captured image acquisition step of FIG. 2 (S317), the n A four real boundary line candidate extraction step (S318), an nth fourth virtual boundary line candidate extraction step (S319), a position extraction step (S320), and a boundary line recognition step (S321) are executed.

尚、本実施形態では、仮想境界線候補設定部22は、任意の自然数mについて、第n時点、第n時点、第n10時点、…、第n3(m−1)+4時点、第n3m+4時点の第n撮像画像、第n撮像画像、第n10撮像画像、…、第n3(m−1)+4撮像画像、第n3m+4撮像画像について、上記の第n仮想境界線候補設定工程と同様の処理を行ない、設定する仮想境界線候補の数が任意の上限数に達するまでは、設定する仮想境界線候補の数を段階的に増加させてもよい。 In the present embodiment, the virtual boundary line candidate setting unit 22 performs the n 3 time point, the n 7 time point, the n 10 time point,..., The n 3 (m−1) +4 time point for an arbitrary natural number m. the n 3m + 4 time of the n 3 captured image, the n 7 captured image, the n 10 captured images, ..., the n 3 (m-1) +4 captured image, for the n 3m + 4 captured image, said first n 3 virtual The number of virtual boundary line candidates to be set may be increased in stages until the number of virtual boundary line candidates to be set reaches an arbitrary upper limit number by performing the same process as the boundary line candidate setting step.

本実施形態によれば、第nマーカーの予測位置と抽出位置とのずれ量gが第2閾値以下である現実の境界線に十分に近い実境界線候補又は仮想境界線候補を認識できない場合には、設定される仮想境界線候補の数を多くするので、第n時点の後の第n時点において現実の境界線に十分に近い仮想境界線候補を認識することができる可能性を増大させることができる。 According to the present embodiment, a real boundary line candidate or a virtual boundary line candidate that is sufficiently close to an actual boundary line whose deviation amount g between the predicted position of the n 1st marker and the extraction position is not more than the second threshold value cannot be recognized. the so increasing the number of the virtual boundary line candidate set, the possibility of being able to recognize a sufficiently close imaginary boundary line candidate to the real border in the first n 3 time points after the first n 2 time Can be increased.

(第4実施形態)
以下、本発明の第4実施形態について説明する。本実施形態では、ずれ量gが予め設定された第3閾値を超えている場合には、設定される仮想境界線候補の位置が変更させられる。図19に示すように、上記第1実施形態の図2のS101〜S109と同様の第n撮像画像取得工程(S401)、第n実境界線候補抽出工程(S402)、第n仮想境界線候補抽出工程(S403)、マーカー認識工程(S404)、位置予測工程(S405)、第n撮像画像取得工程(S406)、第n実境界線候補抽出工程(S407)、第n仮想境界線候補抽出工程(S408)及び位置抽出工程(S409)が実行される。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below. In the present embodiment, when the deviation amount g exceeds a preset third threshold value, the position of the set virtual boundary line candidate is changed. As shown in FIG. 19, the n 1 first captured image acquisition step (S 401), the n 1 real boundary line candidate extraction step (S 402), and the n 1 virtual boundary line candidate extraction step (S403), a marker recognition step (S404), the position prediction step (S405), the n 2 captured image acquisition step (S406), the n 2 actual boundary line candidate extraction step (S407), the n 2 A virtual boundary line candidate extraction step (S408) and a position extraction step (S409) are executed.

実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部23により予測された第nマーカーの抽出位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが第3閾値以下の実境界線候補又は仮想境界線候補が有る場合には(S410)、境界線認識工程として、道路境界線認識装置1の境界線認識部24により、第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが第3閾値以下の実境界線候補及び仮想境界線候補のいずれかが境界線として認識される(S411)。尚、本実施形態では、第3閾値を上述した境界線を認識するための閾値と同じ値としているが、第3閾値は境界線を認識するための閾値と異なる値であってもよい。また、第3閾値は、固定値でも変動値でもよい。 In each case where the real boundary line candidate and the virtual boundary line candidate are assumed to be boundary lines, the extraction position of the n 1st marker predicted by the position prediction unit 23 and the nth extracted from the n 2nd captured image When there is a real boundary line candidate or a virtual boundary line candidate whose deviation amount g from the extraction position of one marker is equal to or less than the third threshold (S410), the boundary line recognition of the road boundary line recognition apparatus 1 is performed as a boundary line recognition step. the parts 24, the predicted position of the n 1 marker, the n 1 of the extraction position of the marker shift amount g is the third threshold value or less of the actual boundary line candidate and the imaginary boundary line candidates extracted from the n 2 captured image One of them is recognized as a boundary line (S411). In the present embodiment, the third threshold value is set to the same value as the threshold value for recognizing the boundary line described above, but the third threshold value may be different from the threshold value for recognizing the boundary line. The third threshold value may be a fixed value or a variable value.

一方、実境界線候補及び仮想境界線候補を境界線であると仮定したそれぞれの場合において、位置予測部23により予測された第nマーカーの予測位置と、第n撮像画像から抽出された第nマーカーの抽出位置とのずれ量gが第3閾値以下の実境界線候補又は仮想境界線候補が無い場合には(S410)、図20に示すように、第n時点よりも後の第n時点の第n撮像画像について、上記第1実施形態の図2のS101及びS102と同様の第n撮像画像取得工程(S412)及び第n実境界線候補抽出工程(S413)が実行される。 On the other hand, in each case where the real boundary line candidate and the virtual boundary line candidate are assumed to be boundary lines, the predicted position of the n 1st marker predicted by the position prediction unit 23 and the n 2nd captured image are extracted. When there is no real boundary candidate or virtual boundary line candidate whose deviation g from the n 1st marker extraction position is equal to or smaller than the third threshold value (S410), as shown in FIG. 20, after the n 2 time point. for the second n 3 captured image of the n 3 time, the first 1 S101 of FIG. 2 embodiment and S102 similar of the n 3 captured image acquisition step (S412) and the n 3 actual boundary line candidate extraction process (S413 ) Is executed.

第n仮想境界線候補設定工程として、仮想境界線候補設定部22により、第n時点よりも後の第n時点の第n撮像画像について実境界線候補抽出部21により抽出された実境界線候補に重複せずに沿い、第n仮想境界線候補抽出工程(S403)で第n撮像画像に設定した仮想境界線候補とは位置が異なる仮想境界線候補が設定される(S414)。 As the n 3rd virtual boundary line candidate setting step, the virtual boundary line candidate setting unit 22 extracts the n 3 captured image at the n 3 time point after the n 2 time point by the real boundary line candidate extracting unit 21. along without overlapping actual boundary line candidate, imaginary boundary line candidate positions are different are set with the virtual boundary line candidate set to the n 1 captured image at the n 1 imaginary boundary line candidate extraction step (S403) ( S414).

その後は、第n撮像画像について、上記第1実施形態の図2のS104及びS105と同様のマーカー認識工程(S415)及び位置予測工程(S416)が実行される。また、第n時点よりも後の第n時点の第n撮像画像について、上記第1実施形態の図2のS106〜S110と同様の第n撮像画像取得工程(S417)、第n実境界線候補抽出工程(S418)、第n仮想境界線候補抽出工程(S419)、位置抽出工程(S420)及び境界線認識工程(S421)が実行される。 Then, for the n 3 captured image, the same marker recognizing step and S104 and S105 of FIG. 2 in the first embodiment (S415) and the position prediction step (S416) is executed. Further, for the n 4 captured image of the n 4 time points later than the n 3 point, the first embodiment of S106~S110 the same first n 4 captured image acquisition step of FIG. 2 (S417), the n 4 actual boundary line candidate extraction step (S418), the n 4 imaginary boundary line candidate extraction step (S419), position extraction step (S420) and the boundary line recognizing step (S421) is executed.

本実施形態によれば、第nマーカーの予測位置と抽出位置とのずれ量gが第3閾値以下である現実の境界線に十分に近い実境界線候補又は仮想境界線候補を認識できない場合には、設定される仮想境界線候補の位置を変更するので、第n時点の後の第n時点において現実の境界線に十分に近い仮想境界線候補を認識することができる可能性を増大させることができる。 According to the present embodiment, a real boundary line candidate or a virtual boundary line candidate that is sufficiently close to an actual boundary line whose deviation amount g between the predicted position of the n 1st marker and the extraction position is not more than the third threshold value cannot be recognized. the so it changes the position of the imaginary boundary line candidate set, the possibility of being able to recognize a sufficiently close imaginary boundary line candidate to the real border in the first n 3 time points after the first n 2 time Can be increased.

尚、本発明の実施形態の道路境界線認識装置及び道路境界線認識方法は、上記した実施の形態に限定されるものではなく、本発明の実施形態の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上述した第2〜第4実施形態の中の2つの実施形態又は3つの実施形態は互いに組み合わせた態様で実施されてもよい。この場合において、上記第1閾値〜第3閾値はそれぞれ同じ値であっても異なる値であってもよい。   The road boundary line recognition apparatus and the road boundary line recognition method according to the embodiment of the present invention are not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the embodiment of the present invention. Of course, it can be added. For example, two or three of the second to fourth embodiments described above may be implemented in a manner combined with each other. In this case, the first threshold value to the third threshold value may be the same value or different values.

1…道路境界線認識装置、11…車載カメラ、12…車速センサ、13…ヨーレートセンサ、20…ECU、21…実境界線候補抽出部、22…仮想境界線候補設定部、23…位置予測部、24…境界線認識部、31…ディスプレイ、32…スピーカ、100…道路、101…路面、102…白線、104…ガードレール、106…ポスト、120…遮蔽物、Fn…第n撮像画像、Fn…第n撮像画像、VP…消失点、B…境界線、e…エッジ点、R1,R2,R3,R4…実境界線候補、V1,V2,V3…仮想境界線候補、M(Tn)…第nマーカー,mR2(Tn),mV2(Tn),mR3(Tn)…予測位置、M(Tn)…抽出位置、g…ずれ量。 DESCRIPTION OF SYMBOLS 1 ... Road boundary line recognition apparatus, 11 ... Car-mounted camera, 12 ... Vehicle speed sensor, 13 ... Yaw rate sensor, 20 ... ECU, 21 ... Real boundary line candidate extraction part, 22 ... Virtual boundary line candidate setting part, 23 ... Position prediction part , 24 ... boundary line recognition unit, 31 ... display, 32 ... speaker, 100 ... road, 101 ... road, 102 ... white line, 104 ... guardrail, 106 ... post, 120 ... shield, Fn 1 ... the n 1 captured image, Fn 2 ... n 2nd captured image, VP ... vanishing point, B ... boundary line, e ... edge point, R1, R2, R3, R4 ... real boundary line candidate, V1, V2, V3 ... virtual boundary line candidate, M ( Tn 1 ) ... n 1st marker, m R2 (Tn 2 ), m V2 (Tn 2 ), m R3 (Tn 2 ) ... predicted position, M (Tn 2 ) ... extracted position, g ... shift amount.

Claims (5)

車載カメラによる撮像画像に基づいて、車両が走行する道路の路端を形成する立体構造物と前記道路の路面との境界線を認識する道路境界線認識装置であって、
前記道路を走行中の前記車両の前方における第n時点の第n撮像画像について前記境界線の候補である実境界線候補を抽出する実境界線候補抽出部と、
前記第n撮像画像の前記実境界線候補に重複せずに沿った仮想境界線候補を設定する仮想境界線候補設定部と、
前記第n撮像画像の前記実境界線候補及び前記仮想境界線候補を前記境界線であると仮定したそれぞれの場合において、前記第n撮像画像で認識される第nマーカーについて、前記車両の移動情報に基づいて、前記第n時点よりも後の第n時点の第n撮像画像における予測位置を予測する位置予測部と、
前記位置予測部により予測された前記第nマーカーの予測位置と、前記第n撮像画像から抽出された前記第nマーカーの抽出位置との比較に基づいて、前記実境界線候補及び前記仮想境界線候補のいずれかを前記境界線として認識する境界線認識部と、
を備えた道路境界線認識装置。
A road boundary line recognition device for recognizing a boundary line between a three-dimensional structure forming a road edge of a road on which a vehicle travels and a road surface of the road, based on an image captured by an in-vehicle camera,
An actual boundary line candidate extraction unit that extracts an actual boundary line candidate that is a candidate for the boundary line with respect to the n 1st captured image at the n 1 time point in front of the vehicle traveling on the road;
A virtual boundary line candidate setting unit that sets a virtual boundary line candidate that does not overlap the actual boundary line candidate of the n 1st captured image;
In each case where the actual boundary line candidate and the imaginary boundary line candidate of the first n 1 captured image is assumed to be the boundary line, the first n 1 marker recognized by the first n 1 captured image, the vehicle A position prediction unit that predicts a predicted position in the n 2 captured image at the n 2 time point after the n 1 time point based on the movement information of
Based on the comparison between the predicted position of the n 1 marker predicted by the position prediction unit and the extracted position of the n 1 marker extracted from the n 2 captured image, the actual boundary line candidate and the A boundary line recognition unit for recognizing any of the virtual boundary line candidates as the boundary line;
Road boundary line recognition device equipped with.
前記実境界線候補抽出部は、第n時点よりも前の第n−1時点の第n−1撮像画像について前記境界線の候補である実境界線候補を抽出し、
前記位置予測部は、前記第n−1撮像画像の前記実境界線候補を前記境界線であると仮定した場合において、前記第n−1撮像画像で認識される第n−1マーカーについて、前記車両の前記移動情報に基づいて、前記第n−1時点と前記第n時点との間の第n時点の第n撮像画像における予測位置を予測し、
前記仮想境界線候補設定部は、前記位置予測部により予測された前記第n−1マーカーの予測位置と、前記第n撮像画像から抽出された前記第n−1マーカーの抽出位置とのずれ量が第1閾値を超えている場合に、前記第n撮像画像の前記実境界線候補に重複せずに沿った前記仮想境界線候補を設定する、請求項1に記載の道路境界線認識装置。
The actual boundary line candidate extraction unit extracts the actual boundary line candidate which is a candidate of the boundary line for the first n -1 captured image of the n -1 time earlier than the n 1 time,
The position prediction unit, in a case where the actual boundary line candidate of the first n -1 captured image is assumed to be the boundary line, the first n -1 marker recognized by the first n -1 captured image, wherein Based on the movement information of the vehicle, predicting a predicted position in the n 0th captured image at the n 0 time point between the n −1 time point and the n 1 time point;
Deviation of the imaginary boundary line candidate setting unit, a predicted position of the first n -1 markers predicted by the position prediction unit, an extraction position of the first n 0 the first n -1 markers extracted from the captured image 2. The road boundary line recognition according to claim 1, wherein, when the amount exceeds a first threshold value, the virtual boundary line candidate is set along the actual boundary line candidate of the n 1st captured image without overlapping. apparatus.
前記第n撮像画像の前記実境界線候補及び前記仮想境界線候補を前記境界線であると仮定したそれぞれの場合において、前記位置予測部により予測された前記第nマーカーの予測位置と、前記第n撮像画像から抽出された前記第nマーカーの抽出位置とのずれ量が第2閾値以下の前記実境界線候補又は前記仮想境界線候補が無い場合は、
前記仮想境界線候補設定部は、前記第n時点よりも後の第n時点の第n撮像画像について前記実境界線候補抽出部により抽出された前記実境界線候補に重複せずに沿い、前記第n撮像画像に設定した前記仮想境界線候補よりも数が多い前記仮想境界線候補を設定する、請求項1又は2に記載の道路境界線認識装置。
In each case where the real boundary line candidate and the virtual boundary line candidate of the n 1 captured image are assumed to be the boundary line, the predicted position of the n 1 marker predicted by the position prediction unit; When there is no real boundary line candidate or virtual boundary line candidate whose deviation from the extraction position of the n 1st marker extracted from the n 2nd captured image is equal to or less than a second threshold value,
The imaginary boundary line candidate setting unit, without overlapping the first n of the n 3 time points later than the second time point the n 3 captured images for said actual boundary line candidate extracted by the actual boundary line candidate extraction unit The road boundary line recognition apparatus according to claim 1, wherein the virtual boundary line candidates are set in a larger number than the virtual boundary line candidates set in the n-th first captured image.
前記第n撮像画像の前記実境界線候補及び前記仮想境界線候補を前記境界線であると仮定したそれぞれの場合において、前記位置予測部により予測された前記第nマーカーの予測位置と、前記第n撮像画像から抽出された前記第nマーカーの抽出位置とのずれ量が第3閾値以下の前記実境界線候補又は前記仮想境界線候補が無い場合は、
前記仮想境界線候補設定部は、前記第n時点よりも後の第n時点の第n撮像画像について前記実境界線候補抽出部により抽出された前記実境界線候補に重複せずに沿い、前記第n撮像画像に設定した前記仮想境界線候補とは位置が異なる前記仮想境界線候補を設定する、請求項1〜3のいずれか1項に記載の道路境界線認識装置。
In each case where the real boundary line candidate and the virtual boundary line candidate of the n 1 captured image are assumed to be the boundary line, the predicted position of the n 1 marker predicted by the position prediction unit; When there is no real boundary line candidate or virtual boundary line candidate whose deviation from the extraction position of the n 1st marker extracted from the n 2nd captured image is a third threshold value or less,
The imaginary boundary line candidate setting unit, without overlapping the first n of the n 3 time points later than the second time point the n 3 captured images for said actual boundary line candidate extracted by the actual boundary line candidate extraction unit 4. The road boundary line recognition apparatus according to claim 1, wherein the virtual boundary line candidate having a position different from the virtual boundary line candidate set in the n-th first captured image is set.
車載カメラによる撮像画像に基づいて、車両が走行する道路の路端を形成する立体構造物と前記道路の路面との境界線を認識する道路境界線認識方法であって、
前記道路を走行中の前記車両の前方における第n時点の第n撮像画像について前記境界線の候補である実境界線候補を抽出する実境界線候補抽出工程と、
前記第n撮像画像の前記実境界線候補に重複せずに沿って隣接するように仮想境界線候補を設定する仮想境界線候補設定工程と、
前記第n撮像画像で第nマーカーを認識するマーカー認識工程と、
前記第n撮像画像の前記実境界線候補及び前記仮想境界線候補を前記境界線であると仮定したそれぞれの場合において、前記車両の移動情報に基づいて、前記第n時点より後の第n時点の第n撮像画像における前記第nマーカーの予測位置を予測する位置予測工程と、
前記第n撮像画像から前記第nマーカーの抽出位置を抽出する位置抽出工程と、
前記予測位置と前記抽出位置との比較に基づいて、前記実境界線候補及び前記仮想境界線候補のいずれかを前記境界線として認識する境界線認識工程と、
を含む道路境界線認識方法。
A road boundary line recognition method for recognizing a boundary line between a three-dimensional structure forming a road edge of a road on which a vehicle travels and a road surface of the road, based on an image captured by an in-vehicle camera,
An actual boundary line candidate extracting step of extracting an actual boundary line candidate that is a candidate for the boundary line for an n 1 th captured image at the n 1 time point in front of the vehicle traveling on the road;
A virtual boundary line candidate setting step of setting virtual boundary line candidates so as to be adjacent to each other without overlapping the actual boundary line candidates of the n 1st captured image;
Recognizing marker recognizing step to the n 1 marker by the first n 1 captured image,
In each case where the actual boundary line candidate and the imaginary boundary line candidate of the first n 1 captured image is assumed to be the boundary line, on the basis of the movement information of the vehicle, the post than the first n 1 time a position prediction step of predicting the predicted position of the n 1 marker in the n 2 captured image at the time point n 2 ;
A position extracting step of extracting an extraction position of the n 1st marker from the n 2nd captured image;
Based on the comparison between the predicted position and the extracted position, a boundary line recognition step for recognizing either the real boundary line candidate or the virtual boundary line candidate as the boundary line;
Road boundary line recognition method.
JP2015000962A 2015-01-06 2015-01-06 Road boundary line recognition apparatus and road boundary line recognition method Active JP6314843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015000962A JP6314843B2 (en) 2015-01-06 2015-01-06 Road boundary line recognition apparatus and road boundary line recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015000962A JP6314843B2 (en) 2015-01-06 2015-01-06 Road boundary line recognition apparatus and road boundary line recognition method

Publications (2)

Publication Number Publication Date
JP2016126613A true JP2016126613A (en) 2016-07-11
JP6314843B2 JP6314843B2 (en) 2018-04-25

Family

ID=56359454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015000962A Active JP6314843B2 (en) 2015-01-06 2015-01-06 Road boundary line recognition apparatus and road boundary line recognition method

Country Status (1)

Country Link
JP (1) JP6314843B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200115705A (en) * 2019-03-08 2020-10-08 현대모비스 주식회사 Class labeling apparatus for autonomous driving
CN116342604A (en) * 2023-05-30 2023-06-27 长沙泛一参数信息技术有限公司 Method and system for achieving contour similarity matching based on shear wall appearance
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7196819B2 (en) 2019-11-06 2022-12-27 株式会社豊田自動織機 nozzle vane

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069185A1 (en) * 2010-09-21 2012-03-22 Mobileye Technologies Limited Barrier and guardrail detection using a single camera
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069185A1 (en) * 2010-09-21 2012-03-22 Mobileye Technologies Limited Barrier and guardrail detection using a single camera
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200115705A (en) * 2019-03-08 2020-10-08 현대모비스 주식회사 Class labeling apparatus for autonomous driving
KR102177880B1 (en) * 2019-03-08 2020-11-12 현대모비스 주식회사 Class labeling apparatus for autonomous driving
US11386674B2 (en) 2019-03-08 2022-07-12 Hyundai Mobis Co., Ltd. Class labeling system for autonomous driving
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
CN116342604A (en) * 2023-05-30 2023-06-27 长沙泛一参数信息技术有限公司 Method and system for achieving contour similarity matching based on shear wall appearance
CN116342604B (en) * 2023-05-30 2023-08-08 长沙泛一参数信息技术有限公司 Method and system for achieving contour similarity matching based on shear wall appearance

Also Published As

Publication number Publication date
JP6314843B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
US11854272B2 (en) Hazard detection from a camera in a scene with moving shadows
CN106170828B (en) External recognition device
JP6314843B2 (en) Road boundary line recognition apparatus and road boundary line recognition method
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US9679196B2 (en) Object sensing device
JP4426535B2 (en) Vehicle periphery monitoring device
CN104246821B (en) Three-dimensional body detection device and three-dimensional body detection method
JP5503728B2 (en) Vehicle periphery monitoring device
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
RU2639851C1 (en) Traffic-light recognizer and traffic-light recognizing method
EP2884476A1 (en) Object detection apparatus and driving assistance apparatus
US8050460B2 (en) Method for recognition of an object
JP5894201B2 (en) Boundary line recognition device
JP2018036796A (en) Environment information processing device
CN111091037A (en) Method and device for determining driving information
CN103577790B (en) road turn type detection method and device
JP2013142972A (en) Travel path recognition device
JP4823753B2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
CN114677658A (en) Billion-pixel dynamic large-scene image acquisition and multi-target detection method and device
JP6453571B2 (en) 3D object recognition device
JP2019012496A (en) Detection program, method and device
KR101608359B1 (en) Apparatus and method of processing the shadow portion in image
CN117576661A (en) Pedestrian detection method, device, electronic equipment and storage medium
JP2021128672A (en) Three-dimensional object detection apparatus, in-vehicle system, and three-dimensional object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R151 Written notification of patent or utility model registration

Ref document number: 6314843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151