JP5538098B2 - Vehicle white line recognition device - Google Patents

Vehicle white line recognition device Download PDF

Info

Publication number
JP5538098B2
JP5538098B2 JP2010149896A JP2010149896A JP5538098B2 JP 5538098 B2 JP5538098 B2 JP 5538098B2 JP 2010149896 A JP2010149896 A JP 2010149896A JP 2010149896 A JP2010149896 A JP 2010149896A JP 5538098 B2 JP5538098 B2 JP 5538098B2
Authority
JP
Japan
Prior art keywords
point
line
edge
edge point
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010149896A
Other languages
Japanese (ja)
Other versions
JP2012014398A (en
Inventor
悠一郎 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2010149896A priority Critical patent/JP5538098B2/en
Publication of JP2012014398A publication Critical patent/JP2012014398A/en
Application granted granted Critical
Publication of JP5538098B2 publication Critical patent/JP5538098B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車載カメラで撮像した画像に基づいて白線を認識する車両用白線認識装置に関する。   The present invention relates to a vehicle white line recognition device that recognizes a white line based on an image captured by an in-vehicle camera.

近年、車両の安全性の向上を図るため、積極的にドライバの運転操作を支援する運転支援装置が開発されている。この運転支援装置では、一般に、車線逸脱防止機能等を実現するため、自車前方の撮像画像等に基づいて白線の認識が行われ、この白線に基づいて自車走行レーンの推定が行われる。   In recent years, in order to improve the safety of vehicles, driving support devices that actively support driving operations of drivers have been developed. In general, in order to realize a lane departure prevention function and the like in this driving support device, a white line is recognized based on a captured image or the like ahead of the host vehicle, and the own vehicle traveling lane is estimated based on the white line.

ところで、実際の道路上の白線には、単一の車線区画線で構成される白線の他に、車線区画線の内側に破線等からなる視線誘導線(補助線)が併設された二重白線等の各種バリエーションが存在する。   By the way, the white line on the actual road is a double white line in which a sight line (auxiliary line) made up of a broken line is provided inside the lane line in addition to the white line composed of a single lane line. There are various variations.

そこで、この種の白線認識では、車線区画線のみならず補助線等の存在を十分に考慮する必要がある。このような白線認識についての技術として、例えば、特許文献1には、撮像画像上に設定された検索領域に対し、水平方向に延在する複数の検索ライン毎に、車幅方向内側から外側に向けて輝度変化を調べ、輝度が暗から明へと所定以上変化する最初のエッジ点を検出し、検出した点群に対してハフ変換等を用いたノイズ除去を行うことにより、白線開始点の検出精度を向上する技術が開示されている。   Therefore, in this type of white line recognition, it is necessary to fully consider the presence of auxiliary lines as well as lane markings. As a technique for such white line recognition, for example, in Patent Document 1, a plurality of search lines extending in the horizontal direction from the inner side to the outer side in the vehicle width direction with respect to the search area set on the captured image. The first edge point where the luminance changes more than a predetermined value from dark to bright is detected, and noise detection using the Hough transform is performed on the detected point group to obtain the white line start point. A technique for improving detection accuracy is disclosed.

このような技術によれば、白線が車線区画線のみからなる単線である場合には当該車線区画線に基づいて白線が認識され、白線が二重白線等である場合には主として内側に位置する補助線等に基づいて白線が認識される。   According to such a technique, when the white line is a single line composed only of a lane line, the white line is recognized based on the lane line, and when the white line is a double white line or the like, it is mainly located inside. A white line is recognized based on an auxiliary line or the like.

特開2007−264955号公報JP 2007-264955 A

ところで、上述の特許文献1に開示された技術のように二重白線等に対して内側の補助線に基づく白線認識が行われると、例えば、車線逸脱防止機能において、自車が補助線を逸脱しただけで警報が発せられる等、実際のドライバの感覚とは若干かけ離れたタイミングで制御が行われる虞がある。   By the way, when the white line recognition based on the inner auxiliary line is performed on the double white line or the like as in the technique disclosed in Patent Document 1 described above, for example, in the lane departure prevention function, the own vehicle deviates from the auxiliary line. There is a risk that control will be performed at a timing slightly different from the actual driver's feeling, such as an alarm being issued just by doing.

これに対処し、各検索ライン上に2点目のエッジ点が存在する場合には、当該2点目のエッジ点も検出して車線区画線及び補助線を認識することも考えられる。   To cope with this, if there is a second edge point on each search line, the second edge point may also be detected to recognize the lane marking and the auxiliary line.

しかしながら、二重白線等に対してエッジ点の検出を行った場合、必ずしも、1点目のエッジ点が補助線に対応し、2点目のエッジ点が車線区画線に対応するとは限らない。すなわち、例えば、補助線が破線等で構成された二重白線等に対してエッジ点の検出を行った場合、1点目のエッジ点は補助線及び車線区画線の何れからも検出される。従って、各検索ラインに対して2点目のエッジ点を検出する場合、各エッジ点が二重白線の何れの線に属するものであるか等を精度良く分類する必要がある。   However, when edge points are detected for a double white line or the like, the first edge point does not necessarily correspond to the auxiliary line, and the second edge point does not necessarily correspond to the lane marking. That is, for example, when an edge point is detected for a double white line or the like in which the auxiliary line is composed of a broken line or the like, the first edge point is detected from both the auxiliary line and the lane marking. Therefore, when the second edge point is detected for each search line, it is necessary to classify with high accuracy whether each edge point belongs to a double white line.

なお、このようなエッジ点の分類について、ハフ変換を利用した公知の曲線検出技術を使用することも考えられるが、このような技術は、直線を規定する位置、傾きのパラメータの他に曲率パラメータも同定しなければならないため、処理時間が膨大となり、リアルタイム性を必要とする運転支援装置等への適用は困難となる。   For such edge point classification, it is conceivable to use a known curve detection technique using the Hough transform. However, such a technique uses a curvature parameter in addition to the position and inclination parameters that define a straight line. Therefore, the processing time becomes enormous, and it becomes difficult to apply to a driving support device or the like that requires real-time performance.

本発明は上記事情に鑑みてなされたもので、車線区画線の内側に補助線が存在する場合にも、各線に対応するエッジ点を短時間で且つ精度良く分類することができる車両用白線認識装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and even when an auxiliary line exists inside a lane marking line, a white line recognition for a vehicle that can classify edge points corresponding to each line in a short time and with high accuracy. An object is to provide an apparatus.

本発明の一態様による車両用白線認識装置は、自車走行路を撮像した画像上の白線検出領域内で水平方向に延在する検索ライン毎に車幅方向内側から外側に向けて輝度変化を調べ、輝度が暗から明に所定以上変化する最初のエッジ点を第1エッジ点として検出するとともに、前記第1エッジ点よりも車幅方向外側にエッジ点が存在する場合には当該エッジ点を第2エッジ点として検出する候補点検出手段と、前記第1エッジ点または、前記第2エッジ点の何れか一方、または、前記第1エッジ点、前記第2エッジ点双方からなる点群の近似直線を演算する直線近似手段と、前記近似直線を基準とする帯状の候補点分類領域を設定し、当該候補点分類領域内に占める前記第2エッジ点の割合が設定未満であるとき第1のパターンを判定し、前記第2エッジ点の割合が設定以上であるとき第2のパターンを判定するパターン判定手段と、前記第1のパターンが判定されているとき、前記候補点分類領域内に存在する前記各エッジ点を第1候補点として登録するとともに、前記候補点分類領域よりも車幅方向外側に存在する前記各エッジ点を第2候補点として登録し、前記第2のパターンが判定されているとき、前記候補点分類領域内に存在する前記各エッジ点を第2候補点として登録するとともに、前記候補点分類領域よりも車幅方向内側に存在する前記各エッジ点を第1候補点として登録するエッジ点分類手段と、を備えたものである。 A vehicle white line recognition device according to an aspect of the present invention changes luminance from the inside to the outside in the vehicle width direction for each search line extending in the horizontal direction within a white line detection region on an image obtained by capturing an image of the own vehicle traveling path. The first edge point whose luminance changes from dark to bright over a predetermined level is detected as the first edge point. If an edge point exists outside the first edge point in the vehicle width direction, the edge point is determined. Candidate point detection means for detecting as a second edge point, and approximation of a point group consisting of either the first edge point or the second edge point, or both the first edge point and the second edge point A straight line approximating means for calculating a straight line, and a band-like candidate point classification area based on the approximate straight line are set, and when the ratio of the second edge points in the candidate point classification area is less than the setting, the first Determine the pattern, and When the proportion of the second edge point is equal to or greater than a set and determining the pattern determining means of the second pattern, when the first pattern is determined, the respective edge points present the candidate point classification region first When registering as one candidate point and registering each of the edge points existing outside the candidate point classification area as a second candidate point and determining the second pattern, the candidate point Edge point classification means for registering each edge point existing in the classification area as a second candidate point and registering each edge point present inside the vehicle width direction from the candidate point classification area as a first candidate point And .

本発明の車両用白線認識装置によれば、車線区画線の内側に補助線が存在する場合にも、各線に対応するエッジ点を短時間で且つ精度良く分類することができる。   According to the vehicular white line recognition device of the present invention, edge points corresponding to each line can be classified in a short time and with high accuracy even when an auxiliary line exists inside the lane marking.

車両用運転支援装置の概略構成図Schematic configuration diagram of a vehicle driving support device 白線認識ルーチンを示すフローチャートFlow chart showing white line recognition routine 車外環境の撮像画像の一例を模式的に示す説明図Explanatory drawing which shows typically an example of the captured image of the environment outside the vehicle 図3の画像から検出される第1エッジ点及び第2エッジ点を示す説明図Explanatory drawing which shows the 1st edge point and 2nd edge point which are detected from the image of FIG. 検索ライン上における輝度の変化の一例を示す説明図Explanatory drawing which shows an example of the change of the brightness | luminance on a search line ハフ変換の演算方法示す説明図Explanatory drawing showing the calculation method of Hough transform ハフ空間を示す説明図Explanatory drawing showing Hough space 第1の領域内におけるエッジ点分類サブルーチンを示すフローチャートFlowchart showing an edge point classification subroutine in the first region 第2の領域内におけるエッジ点分類サブルーチンを示すフローチャートFlowchart showing an edge point classification subroutine in the second region 各パターンにおけるハフ直線とエッジ点との関係の一例を示す説明図Explanatory drawing which shows an example of the relationship between the Hough straight line and edge point in each pattern 各パターンにおいて第1の領域内に設定された候補点分類領域を示す説明図Explanatory drawing which shows the candidate point classification | category area | region set in the 1st area | region in each pattern 各パターンにおける第1の領域内での処理結果の一例を示す説明図Explanatory drawing which shows an example of the process result in the 1st area | region in each pattern. 各パターンにおける第2の領域内での処理結果の一例を示す説明図Explanatory drawing which shows an example of the processing result in the 2nd field in each pattern 認識した白線に基づいて設定される白線検出領域を示す説明図Explanatory drawing which shows the white line detection area | region set based on the recognized white line

以下、図面を参照して本発明の形態を説明する。図面は本発明の一実施形態に係わり、図1は車両用運転支援装置の概略構成図、図2は白線認識ルーチンを示すフローチャート、図3は車外環境の撮像画像の一例を模式的に示す説明図、図4は図3の画像から検出される第1エッジ点及び第2エッジ点を示す説明図、図5は検索ライン上における輝度の変化の一例を示す説明図、図6はハフ変換の演算方法示す説明図、図7はハフ空間を示す説明図、図8は第1の領域内におけるエッジ点分類サブルーチンを示すフローチャート、図9は第2の領域内におけるエッジ点分類サブルーチンを示すフローチャート、図10は各パターンにおけるハフ直線とエッジ点との関係の一例を示す説明図、図11は各パターンにおいて第1の領域内に設定された候補点分類領域を示す説明図、図12は各パターンにおける第1の領域内での処理結果の一例を示す説明図、図13は各パターンにおける第2の領域内での処理結果の一例を示す説明図、図14は認識した白線に基づいて設定される白線検出領域を示す説明図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to an embodiment of the present invention, FIG. 1 is a schematic configuration diagram of a vehicle driving support device, FIG. 2 is a flowchart showing a white line recognition routine, and FIG. 3 is a schematic diagram showing an example of a captured image of an environment outside the vehicle. FIG. 4, FIG. 4 is an explanatory diagram showing the first edge point and the second edge point detected from the image of FIG. 3, FIG. 5 is an explanatory diagram showing an example of a change in luminance on the search line, and FIG. FIG. 7 is an explanatory diagram showing a calculation method, FIG. 7 is an explanatory diagram showing a Hough space, FIG. 8 is a flowchart showing an edge point classification subroutine in the first area, and FIG. 9 is a flowchart showing an edge point classification subroutine in the second area, FIG. 10 is an explanatory diagram showing an example of the relationship between the Hough line and edge points in each pattern, FIG. 11 is an explanatory diagram showing candidate point classification areas set in the first area in each pattern, and FIG. FIG. 13 is an explanatory diagram showing an example of the processing result in the second area in each pattern, and FIG. 14 is based on the recognized white line. It is explanatory drawing which shows the white line detection area | region set.

図1において、符号1は自動車等の車両(自車両)であり、この車両1には運転支援装置2が搭載されている。この運転支援装置2は、例えば、ステレオカメラ3、ステレオ画像認識装置4、制御ユニット5等を有して要部が構成されている。   In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile (own vehicle), and a driving support device 2 is mounted on the vehicle 1. The driving support device 2 includes, for example, a stereo camera 3, a stereo image recognition device 4, a control unit 5, and the like, and a main part is configured.

また、自車両1には、自車速Vを検出する車速センサ11、ヨーレートγを検出するヨーレートセンサ12、運転支援制御の各機能のON−OFF切換等を行うメインスイッチ13、ステアリングホイールに連結するステアリング軸に対設されて舵角θstを検出する舵角センサ14、ドライバによるアクセルペダル踏込量(アクセル開度)θaccを検出するアクセル開度センサ15等が設けられている。   The host vehicle 1 is connected to a vehicle speed sensor 11 that detects the host vehicle speed V, a yaw rate sensor 12 that detects the yaw rate γ, a main switch 13 that performs ON / OFF switching of each function of the driving support control, and the like, and a steering wheel. A steering angle sensor 14 that detects the steering angle θst that is opposed to the steering shaft, an accelerator opening sensor 15 that detects an accelerator pedal depression amount (accelerator opening) θacc by the driver, and the like are provided.

ステレオカメラ3は、ステレオ光学系として、例えば電荷結合素子(CCD)等の固体撮像素子を用いた1組のCCDカメラで構成されている。これら左右のCCDカメラは、それぞれ車室内の天井前方に一定の間隔を持って取り付けられ、車外の対象を異なる視点からステレオ撮像し、画像データをステレオ画像認識装置4に出力する。なお、以下の説明において、ステレオ撮像された画像のうち一方の画像(例えば、右側の画像)を基準画像と称し、他方の画像(例えば、左側の画像)を比較画像と称する。   The stereo camera 3 is constituted by a set of CCD cameras using a solid-state imaging device such as a charge coupled device (CCD) as a stereo optical system. These left and right CCD cameras are each mounted at a certain distance in front of the ceiling in the vehicle interior, take a stereo image of an object outside the vehicle from different viewpoints, and output image data to the stereo image recognition device 4. In the following description, one image (for example, the right image) of the stereo images is referred to as a reference image, and the other image (for example, the left image) is referred to as a comparative image.

ステレオ画像認識装置4は、先ず、基準画像を例えば4×4画素の小領域に分割し、それぞれの小領域の輝度或いは色のパターンを比較画像と比較して対応する領域を見つけ出し、基準画像全体に渡る距離分布を求める。さらに、ステレオ画像認識装置4は、基準画像上の各画素について隣接する画素との輝度差を調べ、これらの輝度差が閾値を超えているものをエッジ点として抽出するとともに、抽出した画素(エッジ点)に距離情報を付与することで、距離画像(距離情報を備えたエッジ点の分布画像)を生成する。そして、ステレオ画像認識装置4は、生成した距離画像に対して周知のグルーピング処理を行い、予め記憶しておいた3次元的な枠(ウインドウ)と比較することで、自車前方の白線、側壁、立体物等を認識する。   First, the stereo image recognition device 4 divides the reference image into small areas of 4 × 4 pixels, for example, compares the luminance or color pattern of each small area with the comparison image, finds a corresponding area, and performs the entire reference image. Find the distance distribution over. Further, the stereo image recognition device 4 examines the luminance difference between each pixel on the reference image and an adjacent pixel, extracts those whose luminance difference exceeds a threshold value as an edge point, and extracts the extracted pixel (edge A distance image (a distribution image of edge points having distance information) is generated by giving distance information to (point). Then, the stereo image recognition device 4 performs a well-known grouping process on the generated distance image and compares it with a pre-stored three-dimensional frame (window), so that a white line and a side wall in front of the vehicle Recognize three-dimensional objects.

ここで、本実施形態において認識対象となる白線とは、例えば、単一の車線区画線や車線区画線の内側に視線誘導線等が併設された多重線(二重白線等)のように、道路上に延在して自車走行レーンを区画する線を総称するものであり、各線の形態としては、実線、破線等を問わず、更に、黄色線等をも含む。   Here, the white line to be recognized in the present embodiment is, for example, a single lane line or a multiple line (double white line or the like) in which a line of sight guide line is provided inside the lane line, Lines that extend on the road and divide the vehicle lane are collectively referred to, and the form of each line includes a solid line, a broken line, and the like, and further includes a yellow line and the like.

ところで、実際の道路上に敷設された白線には上述のように各種バリエーションが存在する他、白線の形態は走行路の分岐や合流等に伴って変化する。加えて、道路上には路面補修跡や、水溜まり、雪等の各種ノイズが存在する。従って、画一的な処理によって、全ての場面で精度良く白線を認識することは困難である。そこで、ステレオ画像認識装置4は、上述の距離画像に基づく白線認識のみに頼ることなく、各種方式を用いた白線認識を補完的に行い、これらの認識結果を複合的に判断して最終的な白線を認識する。   By the way, the white line laid on the actual road has various variations as described above, and the form of the white line changes with the branching or merging of the traveling road. In addition, there are various noises such as road surface repair marks, water pools and snow on the road. Therefore, it is difficult to accurately recognize white lines in all scenes by uniform processing. Therefore, the stereo image recognition device 4 complementarily performs white line recognition using various methods without relying only on the white line recognition based on the above-described distance image, and finally judges these recognition results in a composite manner. Recognize white lines.

このような白線認識の一つとして、ステレオ画像認識装置4は、自車前方を撮像した一方の画像(例えば、図3に示す基準画像)上の水平方向の輝度変化に基づいて白線認識を行う。なお、以下に説明する白線認識は、特に、二重白線の認識に有効なものである。   As one example of such white line recognition, the stereo image recognition device 4 performs white line recognition based on a change in luminance in the horizontal direction on one image (for example, a reference image shown in FIG. 3) captured in front of the host vehicle. . Note that the white line recognition described below is particularly effective for recognizing double white lines.

具体的に説明すると、例えば、図4に示すように、ステレオ画像認識装置4は、画像上に左右の白線検出領域Al,Arを設定し、各白線検出領域Al,Ar内で水平方向に延在する複数の検索ラインLに対し、検索ラインL毎に車幅方向内側から外側に向けて輝度変化を調べる。そして、ステレオ画像認識装置4は、各白線検出領域Al,Ar内の各検索ラインL上において、輝度が暗から明へと所定以上変化する最初のエッジ点を第1エッジ点Pe1として検出するとともに、第1エッジ点Pe1よりも車幅方向外側にエッジ点が存在する場合には当該エッジ点を第2エッジ点Pe2として検出する。   Specifically, for example, as shown in FIG. 4, the stereo image recognition device 4 sets left and right white line detection areas Al and Ar on the image, and extends horizontally in each of the white line detection areas Al and Ar. For a plurality of existing search lines L, a change in luminance is examined from the inner side to the outer side in the vehicle width direction for each search line L. Then, the stereo image recognition device 4 detects, as the first edge point Pe1, the first edge point at which the luminance changes from dark to bright over a predetermined amount on each search line L in each white line detection area Al, Ar. When an edge point exists outside the first edge point Pe1 in the vehicle width direction, the edge point is detected as the second edge point Pe2.

また、ステレオ画像認識装置4は、自車前方の左右に検出した各エッジ点Peの点群(第1エッジ点Pe1及び第2エッジ点Pe2の点群)に対する近似直線Hを演算する。そして、ステレオ画像認識装置4は、近似直線Hを基準とする帯状の候補点分類領域αを設定し、当該候補点分類領域α内に占める第2エッジ点の割合Rate2が設定閾値未満であるとき第1のパターンを判定し、第2エッジ点の割合Rate2が設定閾値以上であるとき第2のパターンを判定する。   Further, the stereo image recognition device 4 calculates an approximate straight line H with respect to a point group (point group of the first edge point Pe1 and the second edge point Pe2) of each edge point Pe detected on the left and right in front of the host vehicle. Then, the stereo image recognition device 4 sets a band-like candidate point classification region α with the approximate straight line H as a reference, and the ratio 2 of the second edge points in the candidate point classification region α is less than the set threshold value. The first pattern is determined, and the second pattern is determined when the rate 2 of the second edge points is equal to or greater than the set threshold value.

そして、ステレオ画像認識装置4は、第1のパターンが判定されているとき、候補点分類領域α内に存在する各エッジ点Peを第1候補点Pc1として登録するとともに、候補点分類領域αよりも車幅方向外側に存在する各エッジ点Peを第2候補点として登録する。一方、ステレオ画像認識装置4は、第2のパターンが判定されているとき、候補点分類領域α内に存在する各エッジ点Peを第2候補点Pc2として登録するとともに、候補点分類領域よりも車幅方向内側に存在する各エッジ点Peを第1候補点Pc1として登録する。これにより、白線が二重白線である場合において、基本的には、第1候補点Pcは視線誘導線等の補助線に対応して抽出され、第2候補点Pc2は車線区画線等に対応して抽出される。   Then, when the first pattern is determined, the stereo image recognition device 4 registers each edge point Pe existing in the candidate point classification region α as the first candidate point Pc1, and from the candidate point classification region α. Also, each edge point Pe existing outside in the vehicle width direction is registered as a second candidate point. On the other hand, when the second pattern is determined, the stereo image recognition device 4 registers each edge point Pe existing in the candidate point classification region α as the second candidate point Pc2, and more than the candidate point classification region. Each edge point Pe existing inside the vehicle width direction is registered as the first candidate point Pc1. Thereby, when the white line is a double white line, basically, the first candidate point Pc is extracted corresponding to an auxiliary line such as a line of sight guide line, and the second candidate point Pc2 corresponds to a lane line or the like. And extracted.

ここで、ステレオ画像認識装置4は、第1のパターンが判定されている場合には、候補点分類領域αよりも車幅方向内側に存在する各エッジ点Peをノイズとして消去し、第2のパターンが判定されている場合には、候補点分類領域αよりも車幅方向外側に存在する各エッジ点Peをノイズとして消去する。   Here, when the first pattern is determined, the stereo image recognition device 4 deletes each edge point Pe existing in the vehicle width direction inside the candidate point classification region α as noise, and the second pattern When the pattern is determined, each edge point Pe existing outside the candidate point classification region α in the vehicle width direction is erased as noise.

ところで、自車走行路が遠方でカーブしている場合、例えば、二重白線の内側の補助線と外側の車線区画線とが画像上で一部同化する等して各エッジ点Peを精度良く分類することが困難となる場合がある。そこで、本実施形態のステレオ画像認識装置4は、画像上の領域を、自車1側に位置する第1の領域と、自車1から遠方に位置する第2の領域とに区画し、第1の領域については上述の各処理に基づいて各エッジ点Peの分類を行い、第2の領域については別途の処理に基づいて各エッジ点Peの分類を行う。   By the way, when the own vehicle traveling path is curved far away, for example, the auxiliary line inside the double white line and the outside lane line are partially assimilated on the image so that each edge point Pe is accurately determined. It may be difficult to classify. Therefore, the stereo image recognition device 4 of the present embodiment divides the region on the image into a first region located on the own vehicle 1 side and a second region located far from the own vehicle 1, For the first area, the edge points Pe are classified based on the above-described processes, and for the second area, the edge points Pe are classified based on a separate process.

この場合において、ステレオ画像認識装置4は、例えば、近似直線H上に存在するエッジ点Peの総数に対し、エッジ点Peの数が閾値割合(例えば、9割程度)を占めるまでの領域を第1の領域として設定し、それ以遠の領域を第2の領域として設定する。すなわち、自車1側において白線(すなわち、エッジ点Peの点群)を単一の直線で所定に直線近似できる領域(第1の領域)においては近似直線Hを基準とした上述の処理に基づいて各エッジ点Peの分類を行い、単一の近似直線Hでは近似が困難となる遠方の領域(第2の領域)においては、別途の処理に基づいて各エッジ点Peの分類を行う。   In this case, for example, the stereo image recognizing device 4 determines the region until the number of edge points Pe occupies a threshold ratio (for example, about 90%) with respect to the total number of edge points Pe existing on the approximate straight line H. The first area is set, and the area farther than that is set as the second area. That is, in the area where the white line (that is, the point group of the edge points Pe) can be linearly approximated with a single straight line on the side of the own vehicle 1 (first area), the above process based on the approximate straight line H is used. Then, each edge point Pe is classified, and in a far region (second region) where approximation is difficult with a single approximate line H, each edge point Pe is classified based on a separate process.

そして、ステレオ画像認識装置4は、第1のパターンが判定されているとき、第2の領域内に存在するエッジ点Peのうち、同一検索ラインL上に単独で存在する第1エッジ点Pe1を削除すると共に他の第1エッジ点Pe1を第1候補点Pc1として設定し、第2エッジ点Pe2を第2候補点Pc2として設定する。一方、ステレオ画像認識装置4は、第2のパターンが判定されているとき、第2の領域内に存在するエッジ点Peのうち、同一検索ラインL上に単独で存在する第1エッジ点Pe1を第2候補点Pc2として設定すると共に他の第1エッジ点Pe1を第1候補点Pc1として設定し、第2エッジ点Pe2を第2候補点Pc2として設定する。   Then, when the first pattern is determined, the stereo image recognition device 4 selects the first edge point Pe1 that exists alone on the same search line L among the edge points Pe that exist in the second region. While deleting, other 1st edge point Pe1 is set as 1st candidate point Pc1, and 2nd edge point Pe2 is set as 2nd candidate point Pc2. On the other hand, when the second pattern is determined, the stereo image recognition device 4 selects the first edge point Pe1 that exists alone on the same search line L among the edge points Pe that exist in the second region. The second candidate point Pc2 is set, the other first edge point Pe1 is set as the first candidate point Pc1, and the second edge point Pe2 is set as the second candidate point Pc2.

そして、ステレオ画像認識装置4は、このようにして分類した第1候補点Pc1の点群に対して最小自乗法を用いた白線の近似線(第1の近似線)を演算し、各第1候補点Pc1に対する第1の近似線の近似誤差を演算する。同様に、ステレオ画像認識装置4は、第2候補点Pc2の点群に対して最小自乗法を用いた白線の近似線(第2の近似線)を演算し、各第2候補点Pc2に対する第2の近似線の近似誤差を演算する。そして、ステレオ画像認識装置4は、近似誤差が小さい何れか一方の近似線のパラメータに基づいて最終的な近似線のパラメータを設定する。この場合において、ステレオ画像認識装置4は、第1の近似線の近似誤差が小さい場合、当該第1の近似線を第2の近似線までオフセットさせることにより、最終的な近似線のパラメータを設定することが望ましい。   Then, the stereo image recognition device 4 calculates an approximate line (first approximate line) of the white line using the least square method for the point group of the first candidate points Pc1 classified in this way, and each first An approximation error of the first approximate line with respect to the candidate point Pc1 is calculated. Similarly, the stereo image recognition device 4 calculates a white line approximation line (second approximation line) using the least square method for the point group of the second candidate points Pc2, and obtains the second candidate point Pc2 for each second candidate point Pc2. The approximation error of the approximate line of 2 is calculated. Then, the stereo image recognition device 4 sets the final approximate line parameter based on the parameter of one of the approximate lines having a small approximate error. In this case, when the approximation error of the first approximate line is small, the stereo image recognition device 4 sets the final approximate line parameters by offsetting the first approximate line to the second approximate line. It is desirable to do.

このように、本実施形態において、ステレオ画像認識装置4は、候補点検出手段、直線近似手段、パターン判定手段、エッジ点分類手段、領域設定手段、第2のエッジ点分類手段、及び、近似線演算手段としての各機能を実現する。   Thus, in this embodiment, the stereo image recognition device 4 includes candidate point detection means, straight line approximation means, pattern determination means, edge point classification means, region setting means, second edge point classification means, and approximation line. Each function as a calculation means is realized.

なお、ステレオ画像認識装置4は、その他の種々の方法によって白線認識を行うことが可能となっている。そして、ステレオ画像認識装置4は、例えば、各白線認識において認識した白線の近似線と当該認識に用いられたエッジ点等の白線候補点との関係(例えば、近似線に対する白線候補点の分散等)に基づき、認識した各近似線の中から最も適切な近似線を選択し、当該近似線を最終的な白線の近似線として制御ユニット5に出力する。   Note that the stereo image recognition device 4 can perform white line recognition by various other methods. Then, for example, the stereo image recognition apparatus 4 has a relationship between an approximate line of a white line recognized in each white line recognition and a white line candidate point such as an edge point used for the recognition (for example, dispersion of white line candidate points with respect to the approximate line, etc.) ) Is selected from the recognized approximate lines, and the approximate line is output to the control unit 5 as the final approximate line of the white line.

制御ユニット5には、ステレオ画像認識装置4で認識された自車両1前方の走行環境情報が入力される。さらに、制御ユニット5には、自車両1の走行情報として、車速センサ11からの車速V、ヨーレートセンサ12からのヨーレートγ等が入力されると共に、ドライバによる操作入力情報として、メインスイッチ13からの操作信号、舵角センサ14からの舵角θst、アクセル開度センサ15からのアクセル開度θacc等が入力される。   The control unit 5 receives driving environment information in front of the host vehicle 1 recognized by the stereo image recognition device 4. Further, the vehicle speed V from the vehicle speed sensor 11, the yaw rate γ from the yaw rate sensor 12, and the like are input to the control unit 5 as travel information of the host vehicle 1, and operation input information by the driver from the main switch 13. An operation signal, a steering angle θst from the steering angle sensor 14, an accelerator opening θacc from the accelerator opening sensor 15, and the like are input.

そして、例えば、ドライバによるメインスイッチ13の操作を通じて、運転支援制御の機能の1つであるACC(Adaptive Cruise Control)機能の実行が指示されると、制御ユニット5は、ステレオ画像認識装置4で認識した先行車方向を読み込み、自車走行路上に追従対象の先行車が走行しているか否かを識別する。   For example, when an execution of an ACC (Adaptive Cruise Control) function which is one of the functions of the driving support control is instructed through the operation of the main switch 13 by the driver, the control unit 5 recognizes the stereo image recognition device 4. The direction of the preceding vehicle is read, and it is identified whether or not the preceding vehicle to be followed is traveling on the own vehicle traveling path.

その結果、追従対象の先行車が検出されていない場合は、スロットル弁16の開閉制御(エンジンの出力制御)を通じて、ドライバが設定したセット車速に自車両1の車速Vを維持させる定速走行制御を実行する。   As a result, when the preceding vehicle to be tracked is not detected, the constant speed traveling control for maintaining the vehicle speed V of the host vehicle 1 at the set vehicle speed set by the driver through the opening / closing control (engine output control) of the throttle valve 16. Execute.

一方、追従対象車両である先行車が検出され、且つ、当該先行車の車速がセット車速以下の場合は、先行車との車間距離を目標車間距離に収束させた状態で追従する追従走行制御が実行される。この追従走行制御時において、制御ユニット5は、基本的にはスロットル弁16の開閉制御(エンジンの出力制御)を通じて、先行車との車間距離を目標車間距離に収束させる。さらに、先行車の急な減速等によりスロットル弁16の制御のみでは十分な減速度が得られないと判断した場合、制御ユニット5は、アクティブブースタ17からの出力液圧の制御(ブレーキの自動介入制御)を併用し、車間距離を目標車間距離に収束させる。   On the other hand, when a preceding vehicle that is a tracking target vehicle is detected and the vehicle speed of the preceding vehicle is equal to or lower than the set vehicle speed, the following traveling control is performed in which the following distance is converged to the target inter-vehicle distance. Executed. During this follow-up running control, the control unit 5 basically converges the inter-vehicle distance to the target inter-vehicle distance through the opening / closing control of the throttle valve 16 (engine output control). Furthermore, when it is determined that sufficient deceleration cannot be obtained only by controlling the throttle valve 16 due to sudden deceleration of the preceding vehicle, the control unit 5 controls the output hydraulic pressure from the active booster 17 (automatic braking intervention). Control) to converge the inter-vehicle distance to the target inter-vehicle distance.

また、ドライバによるメインスイッチ13の操作を通じて、運転支援制御の機能の1つである車線逸脱防止機能の実行が指示されると、制御ユニット5は、例えば、自車走行レーンを規定する左右の白線(ステレオ画像認識装置4で認識した白線の近似線)に基づいて警報判定用ラインを設定するとともに、自車両1の車速Vとヨーレートγとに基づいて自車進行経路を推定する。そして、制御ユニット5は、例えば、自車前方の設定距離(例えば、10〜16[m])内において、自車進行経路が左右何れかの警報判定用ラインを横切っていると判定した場合、自車両1が現在の自車走行車線を逸脱する可能性が高いと判定し、車線逸脱警報を行う。   Further, when execution of the lane departure prevention function, which is one of the functions of the driving support control, is instructed through the operation of the main switch 13 by the driver, the control unit 5 will, for example, the left and right white lines that define the own vehicle traveling lane. A warning determination line is set based on (approximate white line recognized by the stereo image recognition device 4), and the own vehicle traveling path is estimated based on the vehicle speed V and the yaw rate γ of the own vehicle 1. Then, for example, when the control unit 5 determines that the host vehicle travel route crosses either the left or right alarm determination line within a set distance (for example, 10 to 16 [m]) ahead of the host vehicle, It is determined that the host vehicle 1 is likely to depart from the current host vehicle lane, and a lane departure warning is issued.

次に、ステレオ画像認識装置4において実行される、基準画像上の輝度変化に基づく白線認識について、図2に示す白線認識ルーチンのフローチャートに従って説明する。なお、本ルーチンによる処理は、左右の白線検出領域Al,Arそれぞれに対して同様の処理が個別に行われるものであるが、説明を簡略化するため、以下の説明において特に必要な場合を除き、例えば白線検出領域Al,Arを総称して白線検出領域Aと標記する等、左右の属性を示す添字”l”及び”r”を適宜省略して説明する。   Next, white line recognition based on the luminance change on the reference image, which is executed in the stereo image recognition device 4, will be described with reference to the white line recognition routine shown in FIG. In this routine, the same processing is performed separately for the left and right white line detection areas Al and Ar. However, to simplify the description, unless otherwise required in the following description. For example, the white line detection areas Al and Ar are collectively referred to as the white line detection area A, and the subscripts “l” and “r” indicating the left and right attributes are omitted as appropriate.

このルーチンがスタートすると、ステレオ画像認識装置4は、先ず、ステップS101において、例えば、前フレームの画像に対するステップS107の処理で設定された白線検出領域A内の各検索ラインL毎に、第1エッジ点Pe1及び第2エッジ点Pe2の検出を行う。具体的には、例えば、図5に示すように、ステレオ画像認識装置4は、車幅方向内側から外側に向けて、各検索ラインL上でのエッジ検出を行い、車幅方向外側の画素の輝度が内側の画素の輝度に対して相対的に高く、且つ、その変化量を示す輝度の微分値がプラス側の設定閾値以上となる点(エッジ点Pe(+))を検出するとともに、車幅方向外側の画素の輝度が内側の画素の輝度に対して相対的に低く、且つ、その変化量を示す輝度の微分値がマイナス側の設定閾値以下となる点(エッジ点Pe(−))を検出する。そして、ステレオ画像認識装置4は、エッジ点Pe(−)と対をなすエッジ点Pe(+)のうち、白線検出領域A内で最も車幅方向内側に位置するエッジ点Pe(+)を第1エッジ点Pe1として抽出すると共に、次に車幅方向内側に位置するエッジ点Pe(+)を第2エッジ点Pe2として抽出する(図4参照)。なお、図4等においては、説明を簡略化するため、検索ラインL及び各エッジ点等が所定に間引かれて表示されている。   When this routine is started, the stereo image recognition device 4 first, in step S101, for example, for each search line L in the white line detection area A set in the processing of step S107 for the image of the previous frame, the first edge. The point Pe1 and the second edge point Pe2 are detected. Specifically, for example, as illustrated in FIG. 5, the stereo image recognition device 4 performs edge detection on each search line L from the inner side to the outer side in the vehicle width direction, and detects pixels on the outer side in the vehicle width direction. While detecting a point (edge point Pe (+)) where the luminance is relatively high with respect to the luminance of the inner pixel and the differential value of the luminance indicating the amount of change is equal to or greater than the set threshold on the plus side, A point where the luminance of the pixel on the outer side in the width direction is relatively low with respect to the luminance of the inner pixel, and the differential value of the luminance indicating the amount of change is equal to or smaller than the set threshold value on the negative side (edge point Pe (−)) Is detected. Then, the stereo image recognizing device 4 selects the edge point Pe (+) located at the innermost side in the vehicle width direction in the white line detection area A among the edge points Pe (+) paired with the edge point Pe (−). While extracting as 1 edge point Pe1, next, edge point Pe (+) located inside a vehicle width direction is extracted as 2nd edge point Pe2 (refer FIG. 4). In FIG. 4 and the like, the search line L, each edge point, and the like are thinned out and displayed in a predetermined manner in order to simplify the description.

続くステップS102において、ステレオ画像認識装置4は、抽出したエッジ点Pe(第1エッジ点Pe1及び第2エッジ点Pe2)または、(第1エッジ点Pe1、第2エッジ点Pe2の何れか)に基づいて白線の近似直線を演算する(近似直線演算において、第1エッジ点Pe1と第2エッジ点Pe2の双方を使用する場合に比べ、どちらか一方のみを使用する場合では、演算時間の高速化が可能になる。)。すなわち、ステレオ画像認識装置4は、例えば、図6に示すように、点群を構成する各エッジ点Peそれぞれに対し、点Pe(x,z)を通る直線hの傾きθを0°から180°まで所定の角度Δθ毎変化させ、以下の(1)式に基づいて、各θにおける原点Oから直線hまでの距離(垂線の長さ)ρを求める。
ρ=x・cosθ+z・sinθ … (1)
そして、ステレオ画像認識装置4は、各点Peについて求めたθとρの関係を、例えば、図7に示すハフ平面(θ,ρ)上の該当箇所に度数として投票(投影)する。さらに、ステレオ画像認識装置4は、ハフ平面(θ,ρ)上の度数が最も大きくなるθとρの組合せを抽出し、当該θとρを用いて(1)式で規定される近似直線(ハフ直線)Hを点群の近似式として設定する(図10(a),(b)参照)。
In subsequent step S102, the stereo image recognition device 4 is based on the extracted edge point Pe (first edge point Pe1 and second edge point Pe2) or (any one of the first edge point Pe1 and the second edge point Pe2). The approximate straight line of the white line is calculated (in the approximate straight line calculation, when only one of the first edge point Pe1 and the second edge point Pe2 is used, the calculation time is increased. Possible). That is, for example, as shown in FIG. 6, the stereo image recognition device 4 sets the slope θ of the straight line h passing through the point Pe (x, z) to 0 ° to 180 ° for each edge point Pe constituting the point group. The distance from the origin O to the straight line h at each θ (perpendicular length) ρ is obtained based on the following equation (1).
ρ = x · cos θ + z · sin θ (1)
Then, the stereo image recognition device 4 votes (projects) the relationship between θ and ρ obtained for each point Pe as a frequency on a corresponding location on the Hough plane (θ, ρ) shown in FIG. Further, the stereo image recognition device 4 extracts a combination of θ and ρ that has the largest frequency on the Hough plane (θ, ρ), and uses the θ and ρ to approximate the straight line defined by the equation (1) ( A Hough straight line) H is set as an approximate expression of the point group (see FIGS. 10A and 10B).

ステップS102からステップS103に進むと、ステレオ画像認識装置4は、近似直線H上に存在するエッジ点Peをカウントし、画像下側からエッジ点Peの数が閾値割合(例えば、9割程度)を占めるまでの領域を第1の領域として設定し、それ以遠の領域を第2の領域として設定する(図11(a),(b)参照)。   When the process proceeds from step S102 to step S103, the stereo image recognition device 4 counts the edge points Pe existing on the approximate straight line H, and the number of edge points Pe from the lower side of the image indicates a threshold ratio (for example, about 90%). The area up to occupying is set as the first area, and the area farther than that is set as the second area (see FIGS. 11A and 11B).

そして、ステップS104に進むと、ステレオ画像認識装置4は、第1の領域内のエッジ点Peの分類処理を行う。この処理は、例えば、図8に示すエッジ点分類サブルーチンのフローチャートに従って実行されるもので、サブルーチンがスタートすると、ステレオ画像認識装置4は、先ず、ステップS201において、近似直線Hを基準とする帯状の領域を候補点分類領域αとして設定する。すなわち、ステレオ画像認識装置4は、近似直線Hを車幅方向内側及び外側にα1,α2だけ平行移動して形成された領域を候補点分類領域αとして設定する(図11(a),(b)参照)。ここで、α1,α2としては、例えば、前フレームで検出した白線の幅の半分の長さを画面上の画素数に変換して用いることが望ましい。   In step S104, the stereo image recognition device 4 performs a classification process of the edge points Pe in the first region. This process is executed, for example, according to the flowchart of the edge point classification subroutine shown in FIG. 8. When the subroutine starts, the stereo image recognition device 4 first has a belt-like shape with the approximate straight line H as a reference in step S201. The region is set as the candidate point classification region α. That is, the stereo image recognition device 4 sets an area formed by translating the approximate straight line H inward and outward in the vehicle width direction by α1 and α2 as the candidate point classification area α (FIGS. 11A and 11B). )reference). Here, as α1 and α2, for example, it is desirable to use a half length of the width of the white line detected in the previous frame converted to the number of pixels on the screen.

続くステップS202において、ステレオ画像認識装置4は、候補点分類領域α内に存在するエッジ点Peの総数に対して第2エッジ点Pe2が占める割合Rate2を、以下の(2)式に基づいて算出する。
Rate2=(Num2/(Num1+Num2))×100 … (2)
ここで、(2)式において、Num1は候補点分類領域αに存在する第1エッジ点Pe1の総数を示し、Num2は候補点分類領域αに存在する第2エッジ点Pe2の総数を示す。
In subsequent step S202, the stereo image recognition device 4 calculates the rate Rate2 occupied by the second edge point Pe2 with respect to the total number of edge points Pe existing in the candidate point classification region α based on the following equation (2). To do.
Rate2 = (Num2 / (Num1 + Num2)) × 100 (2)
In Equation (2), Num1 indicates the total number of first edge points Pe1 existing in the candidate point classification region α, and Num2 indicates the total number of second edge points Pe2 existing in the candidate point classification region α.

そして、ステレオ画像認識装置4は、割合Rate2が予め設定された閾値未満である場合には、エッジ点Peの分類処理のパターンとして第1のパターンを選択し、割合Rate2が閾値以上である場合には、第2のパターンを選択する。なお、二重白線においては外側の車線区画線が実線であることが一般的であるため、第1のパターンは、例えば、二重白線の内側の補助線が実線である場合、或いは、補助線が破線で構成される場合であっても破線の線分が比較的長く線分の間隔が比較的短い場合等に多く選択される。また、第1のパターンは、例えば、二重白線の外側の車線区画線が破線である場合等にも希に選択される。一方、第2のパターンは、例えば、補助線が破線で構成される場合であって且つ破線の線分が比較的短く線分の間隔が比較的長い場合等に多く選択される。   Then, when the rate Rate2 is less than a preset threshold, the stereo image recognition device 4 selects the first pattern as the pattern of the edge point Pe classification process, and the rate Rate2 is equal to or greater than the threshold. Selects the second pattern. In the double white line, since the outer lane line is generally a solid line, the first pattern is, for example, when the auxiliary line inside the double white line is a solid line, or the auxiliary line Is selected when the line segment of the broken line is relatively long and the interval between the line segments is relatively short. The first pattern is also rarely selected, for example, when the lane marking outside the double white line is a broken line. On the other hand, the second pattern is often selected, for example, when the auxiliary line is constituted by a broken line and the broken line segment is relatively short and the interval between the line segments is relatively long.

続くステップS203において、ステレオ画像認識装置4は、ステップS202で判定したパターンが第1のパターンか否かを調べ、第1のパターンである場合にはステップS204に進み、第2のパターンである場合にはステップS207に進む。   In subsequent step S203, the stereo image recognition device 4 checks whether or not the pattern determined in step S202 is the first pattern. If the pattern is the first pattern, the process proceeds to step S204, and if the pattern is the second pattern. Then, the process proceeds to step S207.

ステップS203からステップS204に進むと、ステレオ画像認識装置4は、候補点分類領域α内に存在するエッジ点Peを第1候補点Pc1として登録し、続くステップS205において、候補点分類領域αよりも車幅方向内側のエッジ点Peを全て削除し、さらにステップS206において、候補点分類領域αよりも車幅方向外側のエッジ点Peを第2候補点Pc2として登録した後(図12(a)参照)、サブルーチンを抜ける。   When the process proceeds from step S203 to step S204, the stereo image recognition device 4 registers the edge point Pe existing in the candidate point classification region α as the first candidate point Pc1, and in the subsequent step S205, more than the candidate point classification region α. After all the edge points Pe on the inner side in the vehicle width direction are deleted, and in step S206, the edge points Pe on the outer side in the vehicle width direction than the candidate point classification region α are registered as the second candidate points Pc2 (see FIG. 12A). ) Exit the subroutine.

一方、ステップS203からステップS207に進むと、ステレオ画像認識装置4は、候補点分類領域α内に存在するエッジ点Peを第2候補点Pc2として登録し、続くステップS208において、候補点分類領域αよりも車幅方向内側のエッジ点Peを第1候補点Pc1として登録し、さらにステップS209において、候補点分類領域αよりも車幅方向外側に存在するエッジ点Peを全て削除した後(図12(b)参照)、サブルーチンを抜ける。   On the other hand, when the process proceeds from step S203 to step S207, the stereo image recognition device 4 registers the edge point Pe existing in the candidate point classification region α as the second candidate point Pc2, and in the subsequent step S208, the candidate point classification region α. The edge point Pe on the inner side in the vehicle width direction is registered as the first candidate point Pc1, and all the edge points Pe existing outside the candidate point classification region α in the vehicle width direction are deleted in step S209 (FIG. 12). (Refer to (b)), and the subroutine is exited.

図2のメインルーチンにおいて、ステップS104からステップS105に進むと、ステレオ画像認識装置4は、第2の領域内のエッジ点Peの分類処理を行う。この処理は、例えば、図9に示すエッジ点分類サブルーチンのフローチャートに従って実行されるもので、サブルーチンがスタートすると、ステレオ画像認識装置4は、先ず、ステップS301において検索ラインL上に単独で存在する第1エッジ点Pe1(すなわち、同一検索ラインL上に第2エッジ点Pe2が存在せず第1エッジ点Pe1のみが単独で存在するもの)があるか否かを調べる。   In the main routine of FIG. 2, when the process proceeds from step S104 to step S105, the stereo image recognition device 4 performs a process of classifying the edge points Pe in the second region. This process is executed, for example, according to the flowchart of the edge point classification subroutine shown in FIG. 9. When the subroutine is started, the stereo image recognition device 4 first has a first that exists on the search line L alone in step S301. It is checked whether or not there is one edge point Pe1 (that is, the second edge point Pe2 does not exist on the same search line L and only the first edge point Pe1 exists).

そして、ステップS301において、ステレオ画像認識装置4は、検索ラインL上に単独で存在する第1エッジ点Pe1があると判定した場合はステップS302に進み、検索ラインL上に単独で存在する第1エッジ点Pe1がない(すなわち、第1エッジ点Pe1が存在しない、或いは、第1,第2エッジ点Pe1,Pe2がペアで併存する)と判定した場合はステップS305に進む。   In step S301, when the stereo image recognition device 4 determines that there is the first edge point Pe1 that exists solely on the search line L, the process proceeds to step S302, and the first image that exists alone on the search line L exists. If it is determined that there is no edge point Pe1 (that is, the first edge point Pe1 does not exist or the first and second edge points Pe1 and Pe2 coexist in pairs), the process proceeds to step S305.

ステップS301からステップS302に進むと、ステレオ画像認識装置4は、上述のステップS202の処理で判定したパターンが第1のパターンか否かを調べ、第1のパターンである場合にはステップS303に進み、第2のパターンである場合にはステップS304に進む。   When the process proceeds from step S301 to step S302, the stereo image recognition device 4 checks whether or not the pattern determined in the process of step S202 described above is the first pattern. If the pattern is the first pattern, the process proceeds to step S303. If it is the second pattern, the process proceeds to step S304.

そして、ステップS302からステップS303に進むと、ステレオ画像認識装置4は、検索ラインL上に単独で存在する第1エッジ点Pe1を全て削除した後、ステップS305に進む(図13(a)参照)。ここで、上述のように、白線が二重白線である場合においては外側の車線区画線が実線である可能性が高いことを考慮すると、第1のパターンが判定される場合とは、内側の補助線が実線或いは実線に準ずる破線等である可能性が高い。従って、遠方で第2エッジ点Pe2が検出されない場合には、画像上で補助線と車線区画線とが一部同化して見えている可能性が高いと考えられる。そして、このような場合において、検索ラインL上に単独で存在する第1エッジ点Pe1は、車線区画線によるものであるか補助線によるものであるを判定すること困難である。そこで、このような第1エッジ点Pe1は、ノイズとして削除される。   Then, when the process proceeds from step S302 to step S303, the stereo image recognition device 4 deletes all the first edge points Pe1 that exist independently on the search line L, and then proceeds to step S305 (see FIG. 13A). . Here, as described above, when the white line is a double white line, it is highly possible that the outer lane line is a solid line. There is a high possibility that the auxiliary line is a solid line or a broken line similar to the solid line. Therefore, when the second edge point Pe2 is not detected in the distance, it is highly likely that the auxiliary line and the lane marking are partially assimilated on the image. In such a case, it is difficult to determine whether the first edge point Pe1 existing alone on the search line L is due to a lane line or an auxiliary line. Therefore, such first edge point Pe1 is deleted as noise.

一方、ステップS302からステップS304に進むと、ステレオ画像認識装置4は、検索ラインL上に単独で存在する第1エッジ点Pe1を第2候補点Pc2として登録した後、ステップS305に進む(図13(b)参照)。すなわち、上述のように、白線が二重白線である場合において、第2のパターンが判定されている場合とは、内側の補助線が比較的疎な破線等である可能性が高い。従って、遠方で第2エッジ点Pe2が検出されない場合には、仮に画像上で補助線と車線区画線とが一部同化して見えている場合であっても、検索ラインL上に単独で存在する第1エッジ点Pe1は車線区画線によるものである可能性が高い。そこで、このような第1エッジ点Pe1は、第2候補点Pc2として登録される。   On the other hand, when the process proceeds from step S302 to step S304, the stereo image recognition device 4 registers the first edge point Pe1 that exists alone on the search line L as the second candidate point Pc2, and then proceeds to step S305 (FIG. 13). (See (b)). That is, as described above, when the white line is a double white line, there is a high possibility that the inner auxiliary line is a relatively sparse broken line or the like when the second pattern is determined. Therefore, when the second edge point Pe2 is not detected in the distance, even if the auxiliary line and the lane marking are partially assimilated on the image, they exist alone on the search line L. There is a high possibility that the first edge point Pe1 is due to a lane marking. Therefore, such a first edge point Pe1 is registered as a second candidate point Pc2.

ステップS301、ステップS303、或いは、ステップS304からステップS305に進むと、ステレオ画像認識装置4は、同一検索ラインL上に第2エッジ点Pe2とペアで併存する第1エッジ点Pe1を第1候補点Pc1として登録した後(図13(a),(b)参照)、ステップS306に進む。   When the process proceeds from step S301, step S303, or step S304 to step S305, the stereo image recognition device 4 selects the first edge point Pe1 that exists in a pair with the second edge point Pe2 on the same search line L as the first candidate point. After registering as Pc1 (see FIGS. 13A and 13B), the process proceeds to step S306.

そしてステップS305からステップS306に進むと、ステレオ画像認識装置4は、同一検索ラインL上に第1エッジ点Pe1とペアで併存する第2エッジ点Pe2を第2候補点Pc2として登録した後(図13(a),(b)参照)、サブルーチンを抜ける。   When the process proceeds from step S305 to step S306, the stereo image recognition device 4 registers the second edge point Pe2 coexisting with the first edge point Pe1 on the same search line L as the second candidate point Pc2 (FIG. 13 (a) and (b)), the subroutine is exited.

図2のメインルーチンにおいて、ステップS105からステップS106に進むと、ステレオ画像認識装置4は、例えば、第1候補点Pc1の点群に基づいて、(3)式に示す最小自乗法を用いた第1の近似線を演算するとともに、第2候補点Pc2の点群に基づいて、(4)式に示す最小自乗法を用いた第2の近似線を演算する。
X1=a1・Z+b1・Z+c1 … (3)
X2=a2・Z+b2・Z+c2 … (4)
ここで、白線が二重白線である場合、基本的には、(3)式に示す第1の近似線は補助線の近似線を示し、(4)式に示す第2の近似線は車線区画線を示す。また、(3)、(4)式において、a1,a2、b1,b2、及び、c1,c2は最小自乗法によって求められるパラメータを示す。
In the main routine of FIG. 2, when the process proceeds from step S105 to step S106, the stereo image recognition device 4 uses, for example, a least square method represented by the equation (3) based on the point group of the first candidate point Pc1. While calculating one approximate line, a second approximate line using the least square method shown in the equation (4) is calculated based on the point group of the second candidate points Pc2.
X1 = a1 · Z 2 + b1 · Z + c1 (3)
X2 = a2 · Z 2 + b2 · Z + c2 (4)
Here, when the white line is a double white line, basically, the first approximate line shown in the equation (3) indicates the approximate line of the auxiliary line, and the second approximate line shown in the equation (4) indicates the lane. Indicates a lot line. In the expressions (3) and (4), a1, a2, b1, b2, and c1, c2 indicate parameters obtained by the method of least squares.

さらに、ステレオ画像認識装置4は、各第1候補点Pc1に対する第1の近似線の近似誤差を演算するとともに、各第2候補点Pc2に対する第2近似線の近似誤差を演算する。そして、ステレオ画像認識装置4は、第1の近似線或いは第2の近似線のうち近似誤差が小さい何れか一方の近似線のパラメータに基づいて、最終的な近似線Xのパラメータを設定する。すなわち、本実施形態では、例えば、白線が二重白線であっても、当該白線の近似線は単一の近似線が設定される。この場合において、例えば、各種の運転支援制御(特に、車線逸脱警報等)を画一的に行うため、最終的な近似線Xのパラメータは、車線区画線に倣ったものであることが望ましい。そこで、ステレオ画像認識装置4は、第1の近似線X1の近似誤差が小さい場合、当該第1の近似線X1を第2の近似線X2までオフセットさせることにより、最終的な近似線Xのパラメータを設定する。一方、ステレオ画像認識装置4は、第2の近似線X2の近似誤差が小さい場合、当該第2の近似線X2をそのまま用いて、最終的な近似線Xのパラメータを設定する。   Furthermore, the stereo image recognition device 4 calculates the approximate error of the first approximate line for each first candidate point Pc1, and calculates the approximate error of the second approximate line for each second candidate point Pc2. Then, the stereo image recognition device 4 sets the parameters of the final approximate line X based on the parameters of either the first approximate line or the second approximate line and the approximate line with the small approximate error. That is, in the present embodiment, for example, even if the white line is a double white line, a single approximate line is set as the approximate line of the white line. In this case, for example, in order to uniformly perform various types of driving support control (particularly, lane departure warning, etc.), it is desirable that the final approximate line X parameters follow the lane markings. Therefore, when the approximation error of the first approximate line X1 is small, the stereo image recognition device 4 offsets the first approximate line X1 to the second approximate line X2, thereby setting the final approximate line X parameters. Set. On the other hand, when the approximation error of the second approximate line X2 is small, the stereo image recognition device 4 sets the parameters of the final approximate line X using the second approximate line X2 as it is.

ステップS106からステップS107に進むと、ステレオ画像認識装置4は、ステップS106で演算した白線の近似線に基づき、次フレームで使用する白線検索領域Aを設定した後、ルーチンを抜ける。すなわち、ステップS108において、ステレオ画像認識装置4は、例えば、図14に示すように、ステップS106で演算した左右の白線近似線Xl,Xrに対し、(5)〜(8)式に示すように、それぞれ実空間上で、lin_ws[m]だけ車幅方向にオフセットした線Xsl,Xsrと、lin_wr[m]だけ車幅方向外側にオフセットした線Xel,Xerを設定する。   When the process proceeds from step S106 to step S107, the stereo image recognition apparatus 4 sets the white line search area A to be used in the next frame based on the approximate white line calculated in step S106, and then exits the routine. That is, in step S108, as shown in FIG. 14, for example, as shown in FIG. 14, the stereo image recognition apparatus 4 has the left and right white line approximate lines Xl and Xr calculated in step S106 as shown in equations (5) to (8). In each real space, lines Xsl and Xsr offset in the vehicle width direction by lin_ws [m] and lines Xel and Xer offset in the vehicle width direction by lin_wr [m] are set.

すなわち、ステレオ画像認識装置4は、左側の白線近似線X1に対し、
Xsl=al・Zl+bl・Zl+cl+lin_Wsl … (5)
を設定すると共に、右側の白線近似線Xrに対し、
Xsr=ar・Zr+br・Zr+cr−lin_Wsr … (6)
を設定する。
また、ステレオ画像認識装置4は、左側の白線近似線Xlに対し、
Xel=al・Zl+bl・Zl+cl−lin_Wel … (7)
を設定すると共に、右側の白線近似線Xrに対し、
Xer=ar・Zr+br・Zr+cr+lin_Wer … (8)
を設定する。そして、ステレオ画像認識装置4は、実空間上において(5)式と(7)式とで囲まれた領域を画像上の座標系へ座標変換することで、左側の白線検出領域Alとして設定し、(6)式と(8)式とで囲まれた領域を同様に画像上の座標系へ座標変換することで、右側の白線検出領域Arとして設定する。
That is, the stereo image recognition device 4 performs the white line approximate line X1 on the left side.
Xsl = al · Zl 2 + bl · Zl + cl + lin_Wsl (5)
And for the white line approximation line Xr on the right side,
Xsr = ar · Zr 2 + br · Zr + cr−lin_Wsr (6)
Set.
In addition, the stereo image recognition device 4 performs the white line approximate line Xl on the left side.
Xel = al · Zl 2 + bl · Zl + cl-lin_Wel (7)
And for the white line approximation line Xr on the right side,
Xer = ar · Zr 2 + br · Zr + cr + lin_Wer (8)
Set. Then, the stereo image recognition device 4 sets the area surrounded by the equations (5) and (7) in the real space as the white line detection region Al on the left side by performing coordinate conversion to the coordinate system on the image. , (6) and (8) are similarly transformed into the coordinate system on the image to set the right white line detection area Ar.

このような実施形態によれば、画像上の白線検出領域A内で水平方向に延在する検索ラインL毎に車幅方向内側から外側に向けての輝度変化に基づいて検出した第1,第2エッジ点Pe1,Pe2からなる点群、または、第1エッジ点Pe1,または、第2エッジ点,Pe2の何れか一方からなる点群の近似直線Hを演算し、近似直線Hを基準とする候補点分類領域α内に占める第2エッジ点Pe2の割合が設定未満であるとき第1のパターンを判定して、候補点分類領域α内に存在するエッジ点Peを第1候補点Pc1として登録すると共に、候補点分類領域αよりも車幅方向外側に存在するエッジ点Peを第2候補点Pc2として登録し、一方、候補点分類領域α内に占める第2エッジ点Pe2の割合が設定以上であるとき第2のパターンを判定して、候補点分類領域α内に存在する各エッジ点Peを第2候補点Pc2として登録すると共に、候補点分類領域αよりも車幅方向内側に存在する各エッジ点Peを第1候補点Pc1として登録することにより、車線区画線の内側に補助線が存在する場合にも、各線に対応するエッジ点を短時間で且つ精度良く分類することができる。   According to such an embodiment, the first and first detected based on the luminance change from the inner side toward the outer side in the vehicle width direction for each search line L extending in the horizontal direction in the white line detection region A on the image. An approximate straight line H of a point group consisting of two edge points Pe1, Pe2 or a point group consisting of either the first edge point Pe1, or the second edge point, Pe2 is calculated, and the approximate straight line H is used as a reference. When the ratio of the second edge point Pe2 in the candidate point classification region α is less than the setting, the first pattern is determined, and the edge point Pe existing in the candidate point classification region α is registered as the first candidate point Pc1 At the same time, the edge point Pe existing outside the candidate point classification area α in the vehicle width direction is registered as the second candidate point Pc2, while the ratio of the second edge point Pe2 occupying the candidate point classification area α is greater than or equal to the set value. The second pattern when Each edge point Pe existing in the candidate point classification area α is registered as the second candidate point Pc2, and each edge point Pe existing inside the candidate point classification area α in the vehicle width direction is determined as the first candidate. By registering as the point Pc1, the edge point corresponding to each line can be classified with high accuracy in a short time even when an auxiliary line exists inside the lane marking.

この場合において、近似直線H上に存在するエッジ点Peの総数に対し、当該近似直線H上でエッジ点Peが設定割合を占めるまでの領域(すなわち、近似直線Hにエッジ点Peが追従すると見なすことができる領域)を第1の領域として設定し、上述の処理を、第1の領域に対して限定的に行うことにより、第1候補点Pc1と第2候補点Pc2との分類を精度良く実現することができる。   In this case, with respect to the total number of edge points Pe existing on the approximate straight line H, it is considered that the area until the edge point Pe occupies a set ratio on the approximate straight line H (that is, the edge point Pe follows the approximate straight line H). Area) is set as the first area, and the above process is limited to the first area, so that the classification of the first candidate point Pc1 and the second candidate point Pc2 can be performed with high accuracy. Can be realized.

また、第1領域以遠の第2領域については、第1のパターンが判定されているときは、単独で存在する第1エッジ点Pe1を削除すると共に他の第1エッジ点Pe1を第1候補点Pc1として設定し、第2エッジ点Pe2を第2候補点として設定する一方、第2のパターンが判定されているときは、単独で存在する第1エッジ点Pe1を第2候補点Pc2として設定するとともに他の第1エッジ点Pe1を第1候補点Pc1として設定し、第2エッジ点Pe2を第2候補点Pc2として設定することにより、不確定なエッジ点を排除しつつ、第1,第2候補点Pc1,Pc2への分類を精度良く行うことができる。   For the second area farther than the first area, when the first pattern is determined, the first edge point Pe1 that exists alone is deleted and the other first edge point Pe1 is used as the first candidate point. While setting as Pc1 and setting the second edge point Pe2 as the second candidate point, when the second pattern is determined, the first edge point Pe1 that exists alone is set as the second candidate point Pc2. In addition, the other first edge point Pe1 is set as the first candidate point Pc1, and the second edge point Pe2 is set as the second candidate point Pc2, thereby eliminating the uncertain edge point, Classification into candidate points Pc1 and Pc2 can be performed with high accuracy.

なお、本実施例はステレオカメラについて記載したが、白線を認識可能なそうちであれば、モノラルカメラを含め、これに限定されるものではない。   Although the present embodiment has been described with respect to a stereo camera, the present invention is not limited to this, including a monaural camera, as long as the white line can be recognized.

1 …車両(自車両)
2 … 運転支援装置
3 … ステレオカメラ
4 … ステレオ画像認識装置(候補点検出手段、直線近似手段、パターン判定手段、エッジ点分類手段、領域設定手段、第2のエッジ点分類手段、近似線演算手段)
5 … 制御ユニット
11 … 車速センサ
12 … ヨーレートセンサ
13 … メインスイッチ
14 … 舵角センサ
15 … アクセル開度センサ
16 … スロットル弁
17 … アクティブブースタ
1 ... Vehicle (own vehicle)
2 ... Driving support device 3 ... Stereo camera 4 ... Stereo image recognition device (candidate point detection means, straight line approximation means, pattern determination means, edge point classification means, region setting means, second edge point classification means, approximate line calculation means )
DESCRIPTION OF SYMBOLS 5 ... Control unit 11 ... Vehicle speed sensor 12 ... Yaw rate sensor 13 ... Main switch 14 ... Steering angle sensor 15 ... Accelerator opening sensor 16 ... Throttle valve 17 ... Active booster

Claims (6)

自車走行路を撮像した画像上の白線検出領域内で水平方向に延在する検索ライン毎に車幅方向内側から外側に向けて輝度変化を調べ、輝度が暗から明に所定以上変化する最初のエッジ点を第1エッジ点として検出するとともに、前記第1エッジ点よりも車幅方向外側にエッジ点が存在する場合には当該エッジ点を第2エッジ点として検出する候補点検出手段と、
前記第1エッジ点または、前記第2エッジ点の何れか一方、または、前記第1エッジ点、前記第2エッジ点双方からなる点群の近似直線を演算する直線近似手段と、
前記近似直線を基準とする帯状の候補点分類領域を設定し、当該候補点分類領域内に占める前記第2エッジ点の割合が設定未満であるとき第1のパターンを判定し、前記第2エッジ点の割合が設定以上であるとき第2のパターンを判定するパターン判定手段と、
前記第1のパターンが判定されているとき、前記候補点分類領域内に存在する前記各エッジ点を第1候補点として登録するとともに、前記候補点分類領域よりも車幅方向外側に存在する前記各エッジ点を第2候補点として登録し、前記第2のパターンが判定されているとき、前記候補点分類領域内に存在する前記各エッジ点を第2候補点として登録するとともに、前記候補点分類領域よりも車幅方向内側に存在する前記各エッジ点を第1候補点として登録するエッジ点分類手段と、を備えたことを特徴とする車両用白線認識装置。
First, the luminance changes from dark to bright over a predetermined level for each search line that extends in the horizontal direction within the white line detection area on the image of the host vehicle's travel path. Candidate point detecting means for detecting the edge point as a second edge point when an edge point is present on the outer side in the vehicle width direction than the first edge point.
Linear approximation means for calculating an approximate straight line of a point group consisting of either the first edge point or the second edge point, or both the first edge point and the second edge point;
A band-like candidate point classification area based on the approximate straight line is set, the first pattern is determined when the ratio of the second edge points in the candidate point classification area is less than the setting, and the second edge Pattern determination means for determining the second pattern when the ratio of the points is equal to or greater than the setting;
Wherein when the first pattern is determined, and registers the respective edge points present the candidate points classified region as a first candidate point, the present in the vehicle width direction outer side than the candidate points classification region Each edge point is registered as a second candidate point, and when the second pattern is determined, each edge point existing in the candidate point classification area is registered as a second candidate point, and the candidate point An apparatus for recognizing a white line for a vehicle, comprising: edge point classification means for registering each of the edge points existing inside the classification region as a first candidate point.
前記エッジ点分類手段は、前記第1のパターンが判定されているとき、前記候補点分類領域よりも車幅方向内側に存在する前記各エッジ点をノイズとして消去し、前記第2のパターンが判定されているとき、前記候補点分類領域よりも車幅方向外側に存在する前記各エッジ点をノイズとして消去することを特徴とする請求項1記載の車両用白線認識装置。     When the first pattern is determined, the edge point classifying means erases each edge point existing on the inner side in the vehicle width direction from the candidate point classification area as noise, and the second pattern is determined. 2. The vehicle white line recognition device according to claim 1, wherein each edge point existing outside in the vehicle width direction from the candidate point classification region is erased as noise. 前記近似直線上に存在する前記エッジ点の総数に対し、当該近似直線上で前記エッジ点が設定割合を占めるまでの領域を第1の領域として設定し、当該第1の領域以遠の領域を第2の領域として設定する領域設定手段を有し、
前記エッジ点分類手段は、前記第1の領域内に存在する前記各エッジ点に対する分類を行うことを特徴とする請求項1または請求項2に記載の車両用白線認識装置。
A region until the edge points occupy a set ratio on the approximate straight line is set as a first region with respect to the total number of the edge points existing on the approximate straight line, and a region beyond the first region is set as the first region. Having an area setting means for setting as the area 2;
3. The vehicle white line recognition device according to claim 1, wherein the edge point classifying unit classifies each of the edge points existing in the first region.
前記第2の領域内に存在する前記各エッジ点を分類する第2のエッジ点分類手段を有し、
前記第2のエッジ点分類手段は、前記パターン判定手段で第1のパターンが判定されているとき、単独で存在する前記第1エッジ点を削除するとともに他の前記第1エッジ点を第1候補点として設定し、前記第2エッジ点を第2候補点として設定し、
前記パターン判定手段で第2のパターンが判定されているとき、単独で存在する前記第1エッジ点を第2候補点として設定するとともに他の前記第1エッジ点を第1候補点として設定し、前記第2エッジ点を第2候補点として設定することを特徴とする請求項3記載の車両用白線認識装置。
Second edge point classification means for classifying each edge point existing in the second region;
The second edge point classifying unit deletes the first edge point that exists independently when the first pattern is determined by the pattern determination unit and sets the other first edge point as a first candidate. Set as a point, set the second edge point as a second candidate point,
When the second pattern is determined by the pattern determination means, the first edge point that exists alone is set as a second candidate point and the other first edge point is set as a first candidate point, 4. The vehicle white line recognition device according to claim 3, wherein the second edge point is set as a second candidate point.
前記第1候補点の点群に基づいて第1の近似線を演算し、前記各第1候補点に対する前記第1の近似線の近似誤差を演算するとともに、前記第2候補点の点群に基づいて第2の近似線を演算し、前記各第2候補点に対する前記第2の近似線の近似誤差を演算し、近似誤差が小さい何れか一方の近似線のパラメータに基づいて最終的な近似線のパラメータを設定する近似線演算手段を備えたことを特徴とする請求項1乃至請求項4の何れか1項に記載の車両用白線認識装置。     A first approximate line is calculated based on the point group of the first candidate points, an approximation error of the first approximate line with respect to each first candidate point is calculated, and a point group of the second candidate points is calculated. A second approximation line is calculated based on the second approximation line, an approximation error of the second approximation line for each second candidate point is calculated, and a final approximation is performed based on a parameter of one of the approximation lines having a small approximation error. 5. The vehicle white line recognition apparatus according to claim 1, further comprising approximate line calculation means for setting a line parameter. 前記近似線演算手段は、前記第1の近似線の近似誤差が小さい場合、当該第1の近似線を前記第2の近似線までオフセットさせることにより、最終的な近似線のパラメータを設定することを特徴とする請求項5に記載の車両用白線認識装置。     When the approximation error of the first approximate line is small, the approximate line calculation means sets a final approximate line parameter by offsetting the first approximate line to the second approximate line. The white line recognition device for a vehicle according to claim 5.
JP2010149896A 2010-06-30 2010-06-30 Vehicle white line recognition device Active JP5538098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010149896A JP5538098B2 (en) 2010-06-30 2010-06-30 Vehicle white line recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149896A JP5538098B2 (en) 2010-06-30 2010-06-30 Vehicle white line recognition device

Publications (2)

Publication Number Publication Date
JP2012014398A JP2012014398A (en) 2012-01-19
JP5538098B2 true JP5538098B2 (en) 2014-07-02

Family

ID=45600759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149896A Active JP5538098B2 (en) 2010-06-30 2010-06-30 Vehicle white line recognition device

Country Status (1)

Country Link
JP (1) JP5538098B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5855756B2 (en) * 2012-08-30 2016-02-09 本田技研工業株式会社 Lane mark recognition device
CN103206957B (en) * 2012-12-26 2016-03-02 辽宁师范大学 The lane detection and tracking method of vehicular autonomous navigation
JP6259238B2 (en) * 2013-09-27 2018-01-10 株式会社Subaru Vehicle white line recognition device
JP6259239B2 (en) * 2013-09-27 2018-01-10 株式会社Subaru Vehicle white line recognition device
JP6200780B2 (en) * 2013-11-06 2017-09-20 株式会社Subaru Lane recognition determination device
JP5874756B2 (en) 2014-02-07 2016-03-02 トヨタ自動車株式会社 Marking line detection system and marking line detection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3722637B2 (en) * 1999-02-24 2005-11-30 三菱電機株式会社 White line recognition device
JP4204948B2 (en) * 2003-11-06 2009-01-07 三菱電機株式会社 Lane recognition device

Also Published As

Publication number Publication date
JP2012014398A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP5603687B2 (en) Vehicle white line recognition device
US8363896B2 (en) White road line recognition device for vehicle
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
US11021155B2 (en) Vehicle control apparatus and vehicle control method
JP5363920B2 (en) Vehicle white line recognition device
JP3925488B2 (en) Image processing apparatus for vehicle
US20210403037A1 (en) Arithmetic operation system for vehicles
JP5538098B2 (en) Vehicle white line recognition device
JP2021517675A (en) Methods and equipment for recognizing and assessing environmental impacts based on road conditions and weather
CN111937002A (en) Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method
JP4937844B2 (en) Pedestrian detection device
JP7044513B2 (en) Road recognition device
JP7007856B2 (en) White line recognition device for vehicles
JP5444130B2 (en) Vehicle white line recognition device
JP6322024B2 (en) Outside monitoring device
JPWO2018025632A1 (en) Imaging device
JP7414782B2 (en) Vehicle control device, vehicle control method, and program
JP5452518B2 (en) Vehicle white line recognition device
CN115959112A (en) Vehicle control device, vehicle control method, and storage medium
JP5568029B2 (en) Vehicle white line recognition device
JP6879881B2 (en) White line recognition device for vehicles
JP6259239B2 (en) Vehicle white line recognition device
JP6014534B2 (en) Vehicle white line recognition device
JP6057660B2 (en) Lane monitoring system and lane monitoring method
JP6082293B2 (en) Vehicle white line recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5538098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250