JP2014021525A - Travel division line detection device - Google Patents

Travel division line detection device Download PDF

Info

Publication number
JP2014021525A
JP2014021525A JP2012156443A JP2012156443A JP2014021525A JP 2014021525 A JP2014021525 A JP 2014021525A JP 2012156443 A JP2012156443 A JP 2012156443A JP 2012156443 A JP2012156443 A JP 2012156443A JP 2014021525 A JP2014021525 A JP 2014021525A
Authority
JP
Japan
Prior art keywords
edge
detection
lane marking
travel lane
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012156443A
Other languages
Japanese (ja)
Other versions
JP5878090B2 (en
Inventor
Toshihiro Kitajima
利浩 北島
Akihisa Omata
彰久 小俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012156443A priority Critical patent/JP5878090B2/en
Publication of JP2014021525A publication Critical patent/JP2014021525A/en
Application granted granted Critical
Publication of JP5878090B2 publication Critical patent/JP5878090B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a travel division line appropriately and precisely.SOLUTION: A travel division line detection device 10 comprises: a first edge detecting unit 22 detecting an edge of a travel division line from a road surface image captured by an in-vehicle camera 11; a detection area setting unit 26 setting a detection area on the basis of a last detection result of the travel division line; a second edge detecting unit 23 scanning plural directions including at least slant directions in an image plane of the road surface image in the detection area set by the detection area setting unit 26, and detecting an inside edge of a travel area on the basis of the edge detected by the first edge detecting unit 22; and a travel division line estimating unit 25 estimating the travel division line adapting to the travel area from the edge detected by the second edge detecting unit 23.

Description

本発明は、走行区分線検出装置に関する。   The present invention relates to a travel lane marking detection device.

従来、例えば撮像画像上に設定された検索領域で水平方向に延びる複数の検索ライン毎に、車幅方向内側から外側に向けて輝度変化を検知し、輝度が暗から明へと所定以上変化する最初のエッジ点を検出する車線位置検出装置が知られている(例えば、特許文献1参照)。この車線位置検出装置は、検出したエッジ点の点群に対してハフ変換等を用いたノイズ除去を行なうことによって、車線開始点の検出精度を向上させる。
また、従来、例えば画像上に設定された左右の白線検出領域のそれぞれで水平方向に延びる複数の検索ライン毎に、車幅方向内側から外側に向けて輝度変化を検知し、輝度が暗から明へと所定以上変化するエッジ点を白線候補点として検出する車両用白線認識装置が知られている(例えば、特許文献2参照)。この車両用白線認識装置は、検出した左右の白線候補点の各点群に基づいて2次の最小自乗法を用いて白線近似線を演算する。
また、従来、例えば路面を連続して撮像して得られた画像を用いて、前回の処理で検出された走行レーンを含む少なくとも2つの領域から特徴点データを抽出し、抽出した特徴点データに最も適合する直線に基づいて今回の処理での走行レーンを検出する路面走行レーン検出装置が知られている(例えば、特許文献3参照)。
Conventionally, for example, for each of a plurality of search lines extending in the horizontal direction in a search area set on a captured image, a change in luminance is detected from the inner side to the outer side in the vehicle width direction, and the luminance changes more than a predetermined value from dark to bright. A lane position detection device that detects an initial edge point is known (see, for example, Patent Document 1). This lane position detection apparatus improves the detection accuracy of the lane start point by performing noise removal using a Hough transform or the like on the detected point point group.
Conventionally, for example, for each of a plurality of search lines extending in the horizontal direction in each of the left and right white line detection areas set on the image, a change in luminance is detected from the inner side to the outer side in the vehicle width direction, and the luminance changes from dark to bright. 2. Description of the Related Art A vehicle white line recognition device that detects edge points that change more than a predetermined distance as white line candidate points is known (see, for example, Patent Document 2). The vehicular white line recognition device calculates a white line approximate line using a quadratic least square method based on the detected point groups of left and right white line candidate points.
Conventionally, for example, feature point data is extracted from at least two areas including a traveling lane detected in the previous process using images obtained by continuously capturing images of a road surface, for example. A road surface traveling lane detection device that detects a traveling lane in the current process based on the most suitable straight line is known (see, for example, Patent Document 3).

特許第4638369号公報Japanese Patent No. 4638369 特開2012−22574号公報JP 2012-22574 A 特許第4128837号公報Japanese Patent No. 4128837

ところで、上記従来技術に係る車線位置検出装置および車両用白線認識装置によれば、画像上の水平方向に走査を行なうだけであるから、例えば曲率が大きいカーブなどにおいてエッジを精度良く検出することができないという問題が生じる。しかも、ハフ変換を用いたノイズ除去を行なう場合には、ハフ変換での直線検出に起因して、例えば曲率が大きいカーブなどに対して、エッジを適正に検出することが困難になるという問題が生じる。
また、上記従来技術に係る路面走行レーン検出装置によれば、特徴点データを抽出するための領域を、前回の処理において画像平面上で検出された走行レーンに基づいて設定するだけであり、走行レーンの3次元的な情報(例えば、路面の相対的な傾きや車両のピッチ変動など)は考慮されていないことから、特徴点データを適正に抽出することができずに走行レーンの検出精度が低下する虞がある。
By the way, according to the lane position detecting device and the vehicle white line recognizing device according to the above-described prior art, since the scanning is performed only in the horizontal direction on the image, for example, an edge can be accurately detected in a curve having a large curvature. The problem of being unable to occur In addition, when noise removal using the Hough transform is performed, there is a problem that it is difficult to properly detect an edge, for example, a curve with a large curvature due to the straight line detection by the Hough transform. Arise.
Further, according to the road surface traveling lane detection device according to the above-described conventional technology, the region for extracting the feature point data is only set based on the traveling lane detected on the image plane in the previous processing, Since the three-dimensional information of the lane (for example, the relative inclination of the road surface and the vehicle pitch fluctuation, etc.) is not taken into account, the feature point data cannot be properly extracted and the detection accuracy of the traveling lane is improved. May decrease.

本発明は上記事情に鑑みてなされたもので、走行区分線を適正かつ精度良く検出することが可能な走行区分線検出装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a travel lane marking detection device capable of detecting a travel lane marking appropriately and accurately.

上記課題を解決して係る目的を達成するために、本発明の第1の発明に係る走行区分線検出装置は、路面を撮像する撮像手段(例えば、実施の形態での車載カメラ11)によって撮像された路面画像から移動体の走行区分線を検出する走行区分線検出装置であって、前記路面画像から前記走行区分線のエッジを検出する第1エッジ検出手段(例えば、実施の形態での第1エッジ検出部22)と、前記走行区分線の前回の検出結果に基づいて検出領域を設定する検出領域設定手段(例えば、実施の形態での検出領域設定部26)と、前記検出領域設定手段によって設定された前記検出領域において、前記路面画像の画像平面における少なくとも斜め方向を含む複数方向を走査し、前記第1エッジ検出手段によって検出された前記エッジに基づき、走行領域の内側の前記エッジを検出する第2エッジ検出手段(例えば、実施の形態での第2エッジ検出部23)と、前記第2エッジ検出手段により検出された前記エッジから前記走行領域に適合する前記走行区分線を推定する走行区分線推定手段(例えば、実施の形態での走行区分線推定部25)と、を備える。   In order to solve the above-described problems and achieve the object, the traveling lane marking detection apparatus according to the first invention of the present invention is imaged by imaging means for imaging the road surface (for example, the in-vehicle camera 11 in the embodiment). A travel lane marking detection device that detects a travel lane marking of a moving object from a road image obtained by the first edge detection means that detects an edge of the travel lane marking from the road image (for example, a first edge detection device according to an embodiment). 1 edge detection unit 22), detection region setting means (for example, detection region setting unit 26 in the embodiment) for setting a detection region based on the previous detection result of the travel lane marking, and the detection region setting unit Based on the edges detected by the first edge detecting means, scanning in a plurality of directions including at least an oblique direction in the image plane of the road surface image in the detection region set by The second edge detection means (for example, the second edge detection unit 23 in the embodiment) for detecting the edge inside the travel area, and the edge detected by the second edge detection means is adapted to the travel area. Traveling lane marking estimating means for estimating the traveling lane marking (for example, the traveling lane marking estimating unit 25 in the embodiment).

さらに、本発明の第2の発明に係る走行区分線検出装置では、前記第2エッジ検出手段は、前記検出領域内の前記エッジを検出する領域内エッジ検出手段(例えば、実施の形態での領域内エッジ検出部31)と、前記領域内エッジ検出手段によって検出された前記エッジにおいて、立ち上がりを正エッジかつ立ち下りを負エッジとして識別するエッジ正負識別手段(例えば、実施の形態でのエッジ正負識別部32)と、走査方向の前方側および後方側の2つの前記走行区分線に対して、前記エッジ正負識別手段の識別結果に基づいて、前記前方側の前記走行区分線においては前記正エッジを検出し、前記後方側の前記走行区分線においては前記負エッジを検出する走行領域内側エッジ検出手段(例えば、実施の形態での内側エッジ検出部33)と、を備える。   Furthermore, in the travel lane marking detection device according to the second aspect of the present invention, the second edge detection means is an edge detection means in the area for detecting the edge in the detection area (for example, the area in the embodiment). Edge positive / negative identification means (for example, edge positive / negative identification in the embodiment) for identifying the rising edge as a positive edge and the falling edge as a negative edge among the edges detected by the inner edge detection section 31) and the inner edge detection means Part 32) and the two traveling division lines on the front side and the rear side in the scanning direction, based on the identification result of the edge positive / negative identification means, the positive edge in the traveling division line on the front side Traveling area inner edge detection means for detecting and detecting the negative edge in the rearward travel line (for example, inner edge detection unit 33 in the embodiment) And, equipped with a.

さらに、本発明の第3の発明に係る走行区分線検出装置では、前記エッジ正負識別手段は、前記検出領域において、前記画像平面における少なくとも縦方向および横方向および互いに反対の2つの斜め方向からなる4方向を含む複数方向を走査して、前記検出領域内の前記正エッジおよび前記負エッジを識別する。   Furthermore, in the travel lane marking detection device according to the third aspect of the present invention, the edge positive / negative identification means comprises at least a vertical direction and a horizontal direction on the image plane and two diagonal directions opposite to each other in the detection region. A plurality of directions including four directions are scanned to identify the positive edge and the negative edge in the detection area.

さらに、本発明の第4の発明に係る走行区分線検出装置では、前記撮像手段は、3次元情報を取得可能であり、前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して2次元平面においてロバスト推定を実行して、前記走行区分線を推定する。   Furthermore, in the travel lane marking detection apparatus according to the fourth aspect of the present invention, the imaging means can acquire three-dimensional information, and the travel lane marking estimation means is detected by the second edge detection means. A robust estimation is performed on the edge in a two-dimensional plane to estimate the travel lane marking.

さらに、本発明の第5の発明に係る走行区分線検出装置では、前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して、第1の2次元平面において非線形関数による最小自乗法を含むロバスト推定を実行し、かつ、第2の2次元平面において線形関数による最小自乗法を実行することによって、前記走行区分線を推定する。   Furthermore, in the travel lane marking detection device according to the fifth aspect of the present invention, the travel lane marking estimation means is nonlinear in the first two-dimensional plane with respect to the edge detected by the second edge detection means. The running lane marking is estimated by executing robust estimation including a least square method using a function and executing a least square method using a linear function in the second two-dimensional plane.

さらに、本発明の第6の発明に係る走行区分線検出装置では、前記撮像手段は、3次元情報を取得可能であり、前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して、3次元空間においてロバスト推定を実行することによって、前記走行区分線を推定する。   Furthermore, in the travel lane marking detection apparatus according to the sixth aspect of the present invention, the imaging means can acquire three-dimensional information, and the travel lane marking estimation means is detected by the second edge detection means. The running lane marking is estimated by performing robust estimation on the edge in a three-dimensional space.

さらに、本発明の第7の発明に係る走行区分線検出装置では、前記検出領域設定手段は、前記走行区分線推定手段によって前回に推定された3次元空間での前記走行区分線を2次元平面に逆射影変換して得られる変換結果を用いて前記検出領域を設定する。   Further, in the travel lane marking detection device according to the seventh aspect of the present invention, the detection area setting means displays the travel lane line in the three-dimensional space estimated by the travel lane marking estimation means last time in a two-dimensional plane. The detection area is set using a conversion result obtained by reverse projection conversion.

さらに、本発明の第8の発明に係る走行区分線検出装置では、前記走行区分線推定手段は、前記ロバスト推定において前記走行区分線の推定候補と前記第2エッジ検出手段によって検出された全ての前記エッジとの距離を用いる際に、前記走行区分線の推定候補と前記エッジとの法線距離を前記距離とする。   Furthermore, in the travel lane marking detection device according to the eighth aspect of the present invention, the travel lane marking estimation means includes all of the travel lane line estimation candidates and the second edge detection means detected in the robust estimation. When the distance to the edge is used, the normal distance between the travel lane marking estimation candidate and the edge is defined as the distance.

さらに、本発明の第9の発明に係る走行区分線検出装置では、前記検出領域設定手段は、前記走行区分線の前回の検出結果が存在しない場合に第1領域設定モードを実行し、前記走行区分線の前回の検出結果が存在する場合に第2領域設定モードを実行し、前記走行領域に適合する2つの前記走行区分線の一方のみの前回の検出結果が存在する場合に第3領域設定モードを実行し、前記走行領域に適合する2つの前記走行区分線の前回の検出結果が存在する場合に第4領域設定モードを実行する。   Furthermore, in the travel lane marking detection device according to the ninth aspect of the present invention, the detection area setting means executes a first area setting mode when the previous detection result of the travel lane marking does not exist, and the travel The second region setting mode is executed when the previous detection result of the lane marking exists, and the third region setting is performed when the previous detection result of only one of the two traveling lane markings suitable for the traveling region exists. The mode is executed, and the fourth region setting mode is executed when there is a previous detection result of the two travel lane markings that match the travel region.

さらに、本発明の第10の発明に係る走行区分線検出装置では、前記検出領域設定手段は、前記第1領域設定モードでは、前記走行区分線の前回の検出結果は直線であると仮定して前記検出領域を設定し、前記第2領域設定モードでは、前記走行区分線の前回の検出結果に基づいて前記検出領域を設定し、前記第3領域設定モードでは、前記2つの前記走行区分線の前記一方に基づき設定する第1領域と、前記2つの前記走行区分線の他方は直線であると仮定して得られる第2領域とを、前記第1領域を前記第2領域よりも優先させて合成して得られる領域に基づいて前記検出領域を設定し、前記第4領域設定モードでは、前記走行領域に適合する2つの前記走行区分線の前回の検出結果に基づいて前記検出領域を設定する。   Furthermore, in the travel lane marking detection device according to the tenth aspect of the present invention, the detection area setting means assumes that the previous detection result of the travel lane line is a straight line in the first area setting mode. The detection area is set, and in the second area setting mode, the detection area is set based on the previous detection result of the travel line, and in the third area setting mode, the two travel line lines are set. The first region set based on the one and the second region obtained on the assumption that the other of the two travel division lines is a straight line, the first region is given priority over the second region. The detection area is set based on the area obtained by combining, and in the fourth area setting mode, the detection area is set based on the previous detection result of the two travel lane markings that match the travel area. .

さらに、本発明の第11の発明に係る走行区分線検出装置では、前記検出領域設定手段は、前記第4領域設定モードでは、前記走行領域に適合する2つの前記走行区分線の前回の検出結果に基づいて設定する2つの領域を合成した場合に重複する領域を前記検出領域から除外する。   Furthermore, in the travel lane marking detection device according to the eleventh aspect of the present invention, the detection area setting means in the fourth area setting mode, the previous detection result of the two travel lane lines suitable for the travel area. When two regions set based on the above are combined, an overlapping region is excluded from the detection region.

さらに、本発明の第12の発明に係る走行区分線検出装置では、前記第1エッジ検出手段は、前記路面画像を平滑化してノイズ除去を行なう平滑化処理手段(例えば、実施の形態でのステップS11)と、前記平滑化処理手段によって平滑化された前記路面画像の前記エッジを検出するエッジ検出手段(例えば、実施の形態でのステップS12)と、前記エッジ検出手段によって出された前記エッジを細線化する細線化処理手段(例えば、実施の形態でのステップS13)と、前記細線化処理手段によって細線化された前記エッジを2つの閾値を用いてノイズを除去するヒステリシス閾処理手段(例えば、実施の形態でのステップS14)と、を備える。   Further, in the traveling lane marking detection device according to the twelfth aspect of the present invention, the first edge detection means smoothes the road surface image and performs noise removal (for example, steps in the embodiment). S11), edge detection means for detecting the edge of the road surface image smoothed by the smoothing processing means (for example, step S12 in the embodiment), and the edge output by the edge detection means Thinning processing means for thinning (for example, step S13 in the embodiment) and hysteresis threshold processing means for removing noise from the edges thinned by the thinning processing means using two thresholds (for example, Step S14) in the embodiment.

さらに、本発明の第13の発明に係る走行区分線検出装置では、前記撮像手段は、前記路面画像をグレイスケール画像とする。   Further, in the traveling lane marking detection device according to the thirteenth aspect of the present invention, the imaging means uses the road surface image as a grayscale image.

本発明の第1の発明に係る走行区分線検出装置によれば、路面画像の画像平面における少なくとも斜め方向を含む複数方向を走査することによって、例えば曲率が大きいカーブなどにおいてもエッジを適正かつ精度良く検出することができる。
さらに、走行区分線のエッジうち、走行領域の内側のエッジを検出することによって、走行区分線の検出結果を各種の制御(例えば、車線逸脱防止などの制御)に適正に用いることができる。
さらに、第1エッジ検出手段および第2エッジ検出手段によって、いわば2段階にエッジを検出することによって、検出精度を向上させることができる。
According to the travel lane marking detection apparatus according to the first aspect of the present invention, by scanning a plurality of directions including at least an oblique direction on the image plane of the road surface image, the edge can be appropriately and accurately detected even in a curve having a large curvature, for example. It can be detected well.
Further, by detecting the edge inside the travel area among the edges of the travel lane marking, the detection result of the travel lane marking can be appropriately used for various controls (for example, control for preventing lane departure, etc.).
Furthermore, detection accuracy can be improved by detecting edges in two stages by the first edge detection means and the second edge detection means.

本発明の第2の発明に係る走行区分線検出装置によれば、検出領域内の2つの走行区分線のうち、先に走査される走行区分線(つまり、走査方向の後方側の走行区分線)で負エッジを検出し、後に走査される走行区分線(つまり、走査方向の前方側の走行区分線)で正エッジを検出することによって、走行領域の内側のエッジを容易に検出することができる。   According to the travel lane marking detection device according to the second aspect of the present invention, of the two travel lane lines in the detection region, the travel lane line scanned first (that is, the travel lane line on the rear side in the scanning direction). ) To detect a negative edge, and a positive edge is detected from a travel division line to be scanned later (that is, a travel division line on the front side in the scanning direction), thereby easily detecting an inner edge of the travel region. it can.

本発明の第3の発明に係る走行区分線検出装置によれば、少なくとも縦方向および横方向および互いに反対の2つの斜め方向(対角方向など)からなる4方向を走査することによって、曲率が大きいカーブなどにおいてもエッジを適正かつ精度良く検出することができる。   According to the travel lane marking detection apparatus according to the third aspect of the present invention, the curvature is obtained by scanning at least four directions including the vertical direction and the horizontal direction and two diagonal directions opposite to each other (such as diagonal directions). Edges can be detected appropriately and accurately even in large curves.

本発明の第4の発明に係る走行区分線検出装置によれば、例えばRANSAC(RANdom SAmple Consensus)などによるロバスト推定を2次元平面において実行することによって、演算負荷が増大することを防止し、ノイズを除去しつつ最も確からしい走行区分線を適切かつ容易に推定することができる。   According to the travel lane marking detection apparatus according to the fourth aspect of the present invention, for example, by performing robust estimation by RANSAC (RANdom SAmple Consensus) or the like on a two-dimensional plane, an increase in computation load is prevented, and noise is increased. It is possible to appropriately and easily estimate the most probable traveling lane marking while removing.

本発明の第5の発明に係る走行区分線検出装置によれば、例えばRANSAC(RANdom SAmple Consensus)などによるロバスト推定を用いて2次曲線などの非線形関数による最小自乗法を第1の2次元平面で実行し、かつ、第1の2次元平面とは異なる第2の2次元平面において線形関数による最小自乗法を実行することによって、演算負荷が増大することを防止しつつ、走行区分線を精度良く推定することができる。   According to the travel lane marking detection apparatus according to the fifth aspect of the present invention, the least square method using a nonlinear function such as a quadratic curve is performed by using the robust estimation based on, for example, RANSAC (RANdom SAmple Consensus). By executing the least square method using a linear function in a second two-dimensional plane that is different from the first two-dimensional plane, it is possible to prevent the calculation load from increasing and It can be estimated well.

本発明の第6の発明に係る走行区分線検出装置によれば、例えばRANSAC(RANdom SAmple Consensus)などによるロバスト推定を用いて3次元空間において走行区分線を推定することによって、推定精度を向上させることができる。   According to the travel lane marking detection apparatus according to the sixth aspect of the present invention, the estimation accuracy is improved by estimating the travel lane marking in the three-dimensional space using, for example, robust estimation by RANSAC (RANdom SAmple Consensus) or the like. be able to.

本発明の第7の発明に係る走行区分線検出装置によれば、検出領域を適正に設定することができ、走行区分線の推定精度を向上させることができる。   According to the travel lane marking detection apparatus according to the seventh aspect of the present invention, the detection area can be set appropriately, and the estimation accuracy of the travel lane marking can be improved.

本発明の第8の発明に係る走行区分線検出装置によれば、走行区分線の推定精度を向上させることができる。   According to the travel lane marking detection apparatus according to the eighth aspect of the present invention, it is possible to improve the estimation accuracy of the travel lane marking.

本発明の第9の発明に係る走行区分線検出装置によれば、走行区分線の前回の検出結果の有無に応じて検出領域を適正に設定することができ、走行区分線の推定精度を向上させることができる。   According to the travel lane marking detection device of the ninth aspect of the present invention, the detection area can be appropriately set according to the presence or absence of the previous detection result of the travel lane marking, and the estimation accuracy of the travel lane marking is improved. Can be made.

本発明の第10の発明に係る走行区分線検出装置によれば、第1領域設定モードでは、走行区分線の前回の検出結果が存在しない場合であっても、直線近似によって大きめの検出領域を設定することによって、エッジを適正に検出することができる。
さらに、第2領域設定モードでは、走行区分線の前回の検出結果に基づいて検出領域を適正に設定することができる。
さらに、第3領域設定モードでは、走行区分線の前回の検出結果と直線近似とを併用して検出領域を設定することによって、エッジを適正に検出することができる。
さらに、第4領域設定モードでは、走行領域に適合する2つの走行区分線の前回の検出結果に基づいて検出領域を適正に設定することができる。
According to the traveling lane marking detection device of the tenth aspect of the present invention, in the first region setting mode, even if there is no previous detection result of the traveling lane marking, a larger detection region is obtained by linear approximation. By setting, the edge can be detected properly.
Further, in the second area setting mode, the detection area can be appropriately set based on the previous detection result of the travel lane marking.
Furthermore, in the third area setting mode, the edge can be appropriately detected by setting the detection area by using the previous detection result of the traveling lane marking and the linear approximation together.
Further, in the fourth area setting mode, the detection area can be appropriately set based on the previous detection result of the two travel lane markings that match the travel area.

本発明の第11の発明に係る走行区分線検出装置によれば、例えば走行区分線の誤検出などの異常な事象や検出誤差に係る重複する領域を検出領域から排除して、エッジを適正に検出することができる。   According to the traveling lane marking detection device of the eleventh aspect of the present invention, for example, an abnormal event such as erroneous detection of a traveling lane marking or an overlapping region related to a detection error is excluded from the detection region, and the edge is appropriately set. Can be detected.

本発明の第12の発明に係る走行区分線検出装置によれば、第2エッジ検出手段によるエッジの検出精度を向上させることができる。   According to the travel lane marking detection device of the twelfth aspect of the present invention, the edge detection accuracy by the second edge detection means can be improved.

本発明の第13の発明に係る走行区分線検出装置によれば、演算負荷の増大を抑制することができる。   According to the travel lane marking detection device of the thirteenth aspect of the present invention, an increase in calculation load can be suppressed.

本発明の実施の形態に係る走行区分線検出装置の構成図である。1 is a configuration diagram of a travel lane marking detection device according to an embodiment of the present invention. 本発明の実施の形態に係る走行区分線検出装置の第2エッジ検出部によって用いられるソーベルフィルタを示す図である。It is a figure which shows the Sobel filter used by the 2nd edge detection part of the travel lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置によって検出される正エッジ点および負エッジ点の例を示す図である。It is a figure which shows the example of the positive edge point detected by the travel lane marking detection apparatus which concerns on embodiment of this invention, and a negative edge point. 本発明の実施の形態に係る走行区分線検出装置によって、XY平面で実行される最小自乗法に係る2次曲線と、XZ平面で実行される最小自乗法に係る1次直線と、を示す図である。The figure which shows the quadratic curve which concerns on the least squares method performed by XY plane, and the linear line which concerns on the least squares method performed by XZ plane by the travel lane marking detection apparatus which concerns on embodiment of this invention. It is. 本発明の実施の形態に係る走行区分線検出装置によって算出されるエッジ点と走行区分線の推定候補の2次曲線との距離の例を示す図である。It is a figure which shows the example of the distance of the edge point calculated by the traveling lane marking detection apparatus which concerns on embodiment of this invention, and the quadratic curve of the estimation candidate of a traveling lane line. 本発明の実施の形態に係る走行区分線検出装置によって設定される検出領域の例を示す図である。It is a figure which shows the example of the detection area set by the traveling lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the travel lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置の第1エッジ検出処理を示すフローチャートである。It is a flowchart which shows the 1st edge detection process of the travel lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置の検出領域設定処理を示すフローチャートである。It is a flowchart which shows the detection area setting process of the traveling lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置の第2エッジ検出処理を示すフローチャートである。It is a flowchart which shows the 2nd edge detection process of the travel lane marking detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る走行区分線検出装置の走行区分線推定処理を示すフローチャートである。It is a flowchart which shows the travel lane marking estimation process of the travel lane marking detection apparatus which concerns on embodiment of this invention.

以下、本発明の走行区分線検出装置の一実施形態について添付図面を参照しながら説明する。   Hereinafter, an embodiment of a travel lane marking detection device of the present invention will be described with reference to the accompanying drawings.

本実施の形態による走行区分線検出装置10は、例えば図1に示すように、車載カメラ11と、処理装置12とを備えて構成されている。
さらに、処理装置12は、例えば、画像取得部21と、第1エッジ検出部22と、第2エッジ検出部23と、3次元情報抽出部24と、走行区分線推定部25と、検出領域設定部26と、を備えている。
さらに、第2エッジ検出部23は、例えば、領域内エッジ検出部31と、エッジ正負識別部32と、内側エッジ検出部33と、を備えている。
The travel lane marking detection device 10 according to the present embodiment is configured to include an in-vehicle camera 11 and a processing device 12, for example, as shown in FIG.
Furthermore, the processing device 12 includes, for example, an image acquisition unit 21, a first edge detection unit 22, a second edge detection unit 23, a three-dimensional information extraction unit 24, a travel lane marking estimation unit 25, and a detection area setting. Part 26.
Furthermore, the second edge detection unit 23 includes, for example, an in-region edge detection unit 31, an edge positive / negative identification unit 32, and an inner edge detection unit 33.

車載カメラ11は、例えば水平方向に所定間隔を隔てて車両に搭載された1対のカメラによるステレオカメラであって、1対のカメラの撮像によって得られた自車両の進行方向前方の路面を含む外界の1対の画像(例えば、2次元配列の画素からなる右画像および左画像)を出力する。さらに、1対の画像に基づき、1対のカメラ同士間の距離および視差に基づく三角測量法などによって、撮像対象の距離の情報を付与した2次元配列の画素からなる、いわば3次元情報を有する画像データを出力する。   The in-vehicle camera 11 is a stereo camera with a pair of cameras mounted on the vehicle at a predetermined interval in the horizontal direction, for example, and includes a road surface ahead of the traveling direction of the host vehicle obtained by imaging with the pair of cameras. A pair of images of the outside world (for example, a right image and a left image made up of pixels in a two-dimensional array) are output. Furthermore, based on a pair of images, it has so-called three-dimensional information composed of pixels of a two-dimensional array to which information on the distance to be imaged is given by a triangulation method based on the distance between a pair of cameras and parallax. Output image data.

処理装置12は、例えば、車載カメラ11から出力された画像データに基づいて、自車両の進行方向前方の路面の走行区分線を検出する。   For example, based on the image data output from the in-vehicle camera 11, the processing device 12 detects a traveling lane marking on the road surface ahead of the traveling direction of the host vehicle.

画像取得部21は、例えば、車載カメラ11から出力された画像データおよび1対の画像を取得し、1対の画像の何れか一方(例えば、右画像)に基づきグレイスケール画像を生成する。   The image acquisition unit 21 acquires, for example, the image data output from the in-vehicle camera 11 and a pair of images, and generates a grayscale image based on one of the pair of images (for example, the right image).

第1エッジ検出部22は、例えば、画像取得部21によって生成されたグレイスケール画像に対して、順次、平滑化処理と、エッジ強度および勾配推定処理と、細線化処理と、ヒステリシス閾処理と、を実行する。   For example, the first edge detection unit 22 sequentially performs a smoothing process, an edge strength and gradient estimation process, a thinning process, a hysteresis threshold process on the grayscale image generated by the image acquisition unit 21. Execute.

第1エッジ検出部22は、例えば平滑化処理では、画像取得部21によって生成されたグレイスケール画像にガウシアンフィルタなどを用いて平滑化の処理を行なうことによってノイズを低減する。   For example, in the smoothing process, the first edge detection unit 22 reduces noise by performing a smoothing process on the gray scale image generated by the image acquisition unit 21 using a Gaussian filter or the like.

第1エッジ検出部22は、例えばエッジ強度および勾配推定処理では、平滑化処理によって得られた画像にソーベルフィルタなどを用いてエッジ強度および勾配を推定する。
第1エッジ検出部22は、例えば細線化処理では、エッジ強度および勾配の推定結果に応じてエッジの太さを細くする。
For example, in the edge intensity and gradient estimation process, the first edge detection unit 22 estimates the edge intensity and gradient using an Sobel filter or the like on the image obtained by the smoothing process.
For example, in the thinning process, the first edge detection unit 22 reduces the thickness of the edge according to the estimation result of the edge strength and the gradient.

第1エッジ検出部22は、例えばヒステリシス閾処理では、2つの異なるハイ側閾値およびロー側閾値を用いて、判定対象の画素のエッジ強度がハイ側閾値よりも大きい場合にはエッジ点であると判定し、判定対象の画素のエッジ強度がロー側閾値よりも小さい場合にはエッジ点ではないと判定する。
また、判定対象の画素のエッジ強度がロー側閾値以上かつハイ側閾値以下の場合には、判定対象の画素の近傍にエッジ点が存在すればエッジ点であると判定し、判定対象の画素の近傍にエッジ点が存在しなければエッジ点ではないと判定する。
For example, in the hysteresis threshold process, the first edge detection unit 22 uses two different high-side threshold values and low-side threshold values, and determines that the edge point is an edge point when the edge intensity of the pixel to be determined is larger than the high-side threshold value. If the edge intensity of the pixel to be determined is smaller than the low threshold, it is determined that the pixel is not an edge point.
In addition, when the edge strength of the determination target pixel is not less than the low side threshold and not more than the high side threshold, if the edge point exists in the vicinity of the determination target pixel, the pixel is determined to be an edge point. If there is no edge point in the vicinity, it is determined that it is not an edge point.

第2エッジ検出部23は、例えば、後述する検出領域設定部26によって設定された検出領域(例えば、右側走行区分線領域および左側走行区分線領域など)において、グレイスケール画像の画像平面における少なくとも斜め方向を含む複数方向を走査する。
そして、第1エッジ検出部22によって検出されたエッジ点に基づき、走行領域(例えば、左右の走行区分線によって規定される車線など)の内側のエッジを検出する。
The second edge detection unit 23 is, for example, at least oblique in the image plane of the grayscale image in the detection region (for example, the right traveling lane line region and the left traveling lane line region) set by the detection region setting unit 26 described later. A plurality of directions including directions are scanned.
Then, based on the edge points detected by the first edge detection unit 22, an inner edge of the traveling area (for example, a lane defined by the left and right traveling division lines) is detected.

領域内エッジ検出部31は、例えば、第1エッジ検出部22によって検出されたエッジ点のうち、検出領域設定部26によって設定された右側走行区分線領域および左側走行区分線領域内に存在するエッジ点のエッジ強度および勾配を推定する。   For example, among the edge points detected by the first edge detection unit 22, the in-region edge detection unit 31 is an edge existing in the right travel lane line region and the left travel lane line region set by the detection region setting unit 26. Estimate the edge strength and slope of a point.

より詳細には、領域内エッジ検出部31は、例えばソーベルフィルタなどの微分フィルタなどを用いて、グレイスケール画像の画像平面における少なくとも縦方向(90°方向)および横方向(0°方向)および互いに反対の2つの斜め方向(例えば、45°方向および135°方向による対角方向)からなる4方向を含む複数方向を走査する。   More specifically, the in-region edge detection unit 31 uses, for example, a differential filter such as a Sobel filter, and at least the vertical direction (90 ° direction) and the horizontal direction (0 ° direction) in the image plane of the grayscale image, and A plurality of directions including four directions including two diagonal directions opposite to each other (for example, a diagonal direction by a 45 ° direction and a 135 ° direction) are scanned.

領域内エッジ検出部31は、例えば図2に示す4つのソーベルフィルタfV,fH,f45,f135に基づき、下記数式(1)によってエッジ強度∇fおよび勾配th(つまり、エッジ点における走行区分線の傾き)を算出する。   The in-region edge detection unit 31 is based on, for example, the four Sobel filters fV, fH, f45, and f135 shown in FIG. 2, and the edge strength ∇f and the gradient th (that is, the travel lane marking at the edge point) by the following formula (1) Slope).

エッジ正負識別部32は、例えば領域内エッジ検出部31によって検出されたエッジ点において、エッジ点の勾配に基づき、輝度の立ち上がりを正エッジ点かつ輝度の立ち下りを負エッジ点として識別する。   The edge positive / negative identifying unit 32 identifies, for example, the rising edge of luminance as a positive edge point and the falling edge of luminance as a negative edge point based on the gradient of the edge point at the edge point detected by the in-region edge detection unit 31.

内側エッジ検出部33は、例えば、走査方向の前方側および後方側の2つの走行区分線に対応した2つの検出領域(つまり、検出領域設定部26によって設定された右側走行区分線領域および左側走行区分線領域)に対して、走行領域の内側のエッジを検出する。
内側エッジ検出部33は、例えば、エッジ正負識別部32の識別結果に基づいて、走査方向の前方側の走行区分線においては正エッジ点を検出し、走査方向の後方側の走行区分線においては負エッジ点を検出する。
For example, the inner edge detection unit 33 has two detection areas corresponding to the two traveling division lines on the front side and the rear side in the scanning direction (that is, the right traveling division line area and the left traveling line set by the detection area setting unit 26). The inner edge of the traveling area is detected with respect to the lane marking area.
For example, the inner edge detection unit 33 detects a positive edge point in the traveling division line on the front side in the scanning direction based on the identification result of the edge positive / negative identification unit 32, and in the traveling division line on the rear side in the scanning direction. Detect negative edge points.

より詳細には、内側エッジ検出部33は、例えば図3に示すように、グレイスケール画像Pの画像平面における左側から右側に向かう走査方向Dに対して、走査方向Dの後方側となる左側の走行区分線LLに対応した検出領域(左側走行区分線領域LA)では、負エッジ点NEを検出する。一方、走査方向の前方側となる右側の走行区分線RLに対応した検出領域(右側走行区分線領域RA)では、正エッジ点PEを検出する。   More specifically, for example, as shown in FIG. 3, the inner edge detection unit 33 is arranged on the left side which is the rear side of the scanning direction D with respect to the scanning direction D from the left side to the right side in the image plane of the grayscale image P. In the detection area corresponding to the travel lane marking LL (left travel lane marking area LA), the negative edge point NE is detected. On the other hand, the positive edge point PE is detected in the detection region (the right traveling segment line region RA) corresponding to the right traveling segment line RL on the front side in the scanning direction.

3次元情報抽出部24は、例えば、画像取得部21によって取得された、いわば3次元情報を有する画像データに基づき、第2エッジ検出部23によって検出されたエッジ点に対して3次元情報、つまりグレイスケール画像の画像平面における2次元配列に対応する水平方向(Y方向)および鉛直方向(Z方向)の位置の情報と、自車両の進行方向前方(X方向)の距離の情報と、を抽出する。   For example, the three-dimensional information extraction unit 24 performs three-dimensional information on the edge point detected by the second edge detection unit 23 based on the image data having the three-dimensional information acquired by the image acquisition unit 21, that is, Extraction of horizontal (Y direction) and vertical (Z direction) position information corresponding to a two-dimensional array on the image plane of the gray scale image and distance information in the forward direction (X direction) of the host vehicle To do.

走行区分線推定部25は、例えば、第2エッジ検出部23によって検出された2つの検出領域(つまり、検出領域設定部26によって設定された右側走行区分線領域および左側走行区分線領域)毎のエッジ点に対して、3次元情報抽出部24によって抽出された3次元情報に基づき、走行区分線を推定する。   The travel lane marking estimation unit 25 is, for example, for each of the two detection areas detected by the second edge detection unit 23 (that is, the right travel lane line area and the left travel lane line area set by the detection area setting unit 26). Based on the three-dimensional information extracted by the three-dimensional information extraction unit 24 for the edge point, the travel lane marking is estimated.

例えば、走行区分線推定部25は、第1の2次元平面において非線形関数による最小自乗法を含むロバスト推定を実行し、かつ、第2の2次元平面において線形関数による最小自乗法を実行する。これによって、グレイスケール画像の画像平面であるXY平面での走行区分線の形状と、ZX平面での自車両に対する路面の相対的な傾きや自車両のピッチ変動などと、に基づいて、走行区分線を推定する。   For example, the travel lane marking estimation unit 25 executes robust estimation including a least square method using a nonlinear function in a first two-dimensional plane, and executes a least square method using a linear function in a second two-dimensional plane. Accordingly, based on the shape of the travel division line on the XY plane, which is the image plane of the gray scale image, and the relative inclination of the road surface with respect to the own vehicle on the ZX plane and the pitch variation of the own vehicle, etc. Estimate the line.

より詳細には、例えば、走行区分線推定部25は、RANSAC(RANdom SAmple Consensus)によるロバスト推定を用いて2次曲線による最小自乗法をXY平面で実行し、かつZX平面において線形関数による最小自乗法を実行する。   More specifically, for example, the lane marking estimation unit 25 performs a least square method using a quadratic curve on the XY plane using robust estimation based on RANSAC (RANdom SAmple Consensus), and uses a linear function on the ZX plane. Perform multiplication.

例えば、走行区分線推定部25は、所定の一連のエッジ点数算出処理として、先ず、第2エッジ検出部23によって検出されたエッジ点のうちから無作為に所定数のエッジ点を抽出する。
次に、抽出したエッジ点の3次元情報に基づき、例えば図4(A)に示すように、XY平面で2次曲線による最小自乗法を実行するとともに、例えば図4(B)に示すように、ZX平面で線形関数による最小自乗法を実行する。
次に、XY平面において、最小自乗法によって得られた走行区分線の推定候補の2次曲線と、第2エッジ検出部23によって検出された全てのエッジ点との距離(例えば、法線距離など)を算出し、この距離が所定閾値以下となるエッジ点の数を算出する。
For example, the travel lane marking estimation unit 25 first extracts a predetermined number of edge points randomly from among the edge points detected by the second edge detection unit 23 as a predetermined series of edge point calculation processing.
Next, based on the extracted three-dimensional information of the edge points, for example, as shown in FIG. 4 (A), the least square method using a quadratic curve is executed on the XY plane, and as shown in FIG. 4 (B), for example. Then, the least square method using a linear function is executed in the ZX plane.
Next, on the XY plane, the distance between the quadratic curve of the running segment line estimation candidate obtained by the least square method and all edge points detected by the second edge detector 23 (for example, the normal distance, etc.) ) And the number of edge points at which this distance is less than or equal to a predetermined threshold.

そして、この一連のエッジ点数算出処理を所定回数に亘って繰り返し実行し、算出したエッジ点の数が最大となる走行区分線の推定候補の2次曲線を、最も確からしい推定候補として選択する。
そして、第2エッジ検出部23によって検出された全てのエッジ点のうちから、最も確からしい推定候補の2次曲線に対する距離(例えば、法線距離など)が所定閾値以下となるエッジ点を抽出し、抽出したエッジ点に対してXY平面で2次曲線による最小自乗法を実行する。
そして、この演算結果による2次曲線を走行区分線の推定結果とする。
Then, this series of edge point calculation processing is repeatedly executed a predetermined number of times, and the quadratic curve of the running lane line estimation candidate that maximizes the calculated number of edge points is selected as the most probable estimation candidate.
Then, from all the edge points detected by the second edge detection unit 23, an edge point whose distance to the quadratic curve of the most probable estimation candidate (for example, a normal distance) is equal to or less than a predetermined threshold is extracted. Then, a least square method using a quadratic curve is executed on the extracted edge point on the XY plane.
Then, the quadratic curve based on the calculation result is used as the estimation result of the travel line.

なお、走行区分線推定部25は、上述した所定の一連のエッジ点数算出処理において、必要に応じて、ZX平面でRANSACなどによるロバスト推定を実行してもよい。
例えば、走行区分線推定部25は、ZX平面での最小自乗法によって得られた走行区分線の推定候補の線形関数に基づいて、第2エッジ検出部23によって検出されたエッジ点から適宜のエッジ点(例えば、走行区分線の推定候補の線形関数に対する距離が所定閾値以下となるエッジ点など)を抽出してもよい。
Note that the travel lane marking estimation unit 25 may perform robust estimation using RANSAC or the like on the ZX plane as necessary in the predetermined series of edge point calculation processing described above.
For example, the travel lane marking estimation unit 25 selects an appropriate edge from the edge point detected by the second edge detection unit 23 based on the linear function of the travel lane line estimation candidate obtained by the least square method on the ZX plane. A point (for example, an edge point where the distance to the linear function of the running lane marking estimation candidate is a predetermined threshold value or less) may be extracted.

なお、走行区分線推定部25は、第2エッジ検出部23によって検出されたエッジ点と走行区分線の推定候補の2次曲線との距離として、例えば法線距離を用いる場合には、図5(A)および下記数式(2),(3)に示すように、XY平面での2次曲線f(x,y)を制約条件として、エッジ点の位置(α、β)を中心とする半径rの円を示す関数g(x,y)の極値を与える点(x,y)を算出する。   Note that the travel lane marking estimation unit 25 uses, for example, a normal distance as the distance between the edge point detected by the second edge detection unit 23 and the quadratic curve of the travel lane line estimation candidate as shown in FIG. As shown in (A) and the following mathematical formulas (2) and (3), a radius centered on the position (α, β) of the edge point with the quadratic curve f (x, y) on the XY plane as a constraint condition A point (x, y) giving an extreme value of the function g (x, y) indicating the circle of r is calculated.

この場合、走行区分線推定部25は、例えば、ラグランジュの未定乗数法により、変数λを用いて、下記数式(4)に示すような関数G(x,y)に対し、下記数式(5)に示すような極値条件を(x,y)に関する連立方程式として解き、極値を算出する。そして、算出した極値に対応した半径rを法線距離とする。   In this case, the lane marking estimation unit 25 uses, for example, the Lagrange's undetermined multiplier method, the variable λ, and the function G (x, y) as shown in the following formula (4), the following formula (5) The extreme value conditions as shown in FIG. 5 are solved as simultaneous equations relating to (x, y), and the extreme values are calculated. Then, the radius r corresponding to the calculated extreme value is set as the normal distance.

なお、走行区分線推定部25は、第2エッジ検出部23によって検出されたエッジ点と走行区分線の推定候補の2次曲線との距離として、法線距離の代わりに他の距離を用いてもよい。
例えば図5(B)に示すように、走行区分線推定部25は、法線距離の代わりに、XY平面での走行区分線の推定候補の2次曲線f(x,y)上の点(x,y)とエッジ点の位置(α、β)との距離L1の最小値を採用してもよい。
この場合、距離L1の最小値の探索領域LAは、例えば、エッジ点の位置(α、β)と同一のx座標またはy座標を有する2次曲線f(x,y)上の点(α,y),(x,β)間とされる。
The travel lane marking estimation unit 25 uses another distance instead of the normal distance as the distance between the edge point detected by the second edge detection unit 23 and the quadratic curve of the travel lane line estimation candidate. Also good.
For example, as illustrated in FIG. 5B, the travel lane marking estimation unit 25 uses a point on the quadratic curve f (x, y) of the travel lane line estimation candidate on the XY plane (instead of the normal distance). The minimum value of the distance L1 between x, y) and the position (α, β) of the edge point may be adopted.
In this case, the search area LA having the minimum value of the distance L1 is, for example, a point (α, y) on the quadratic curve f (x, y) having the same x coordinate or y coordinate as the position (α, β) of the edge point. y) and (x, β).

また、例えば図5(C)に示すように、走行区分線推定部25は、エッジ点の位置(α、β)と同一のx座標またはy座標を有する2次曲線f(x,y)上の点(α,y),(x,β)を含む直線Laの法線と2次曲線f(x,y)との交点(Γ,Δ)にて、2次曲線f(x,y)の接線Lbを算出し、この接線Lbと、この接線Lbに平行かつエッジ点の位置(α、β)を含む直線Lcと、の距離L2を、法線距離の代わりに採用してもよい。   For example, as shown in FIG. 5C, the travel lane marking estimation unit 25 is on the quadratic curve f (x, y) having the same x coordinate or y coordinate as the position (α, β) of the edge point. The quadratic curve f (x, y) at the intersection (Γ, Δ) of the normal line of the straight line La including the points (α, y) and (x, β) and the quadratic curve f (x, y) The distance L2 between the tangent line Lb and the straight line Lc parallel to the tangent line Lb and including the position (α, β) of the edge point may be used instead of the normal line distance.

検出領域設定部26は、例えば、走行区分線の前回の検出結果(つまり、走行区分線推定部25による前回の推定結果)に基づいて、第2エッジ検出部23によってエッジ点が検出される検出領域(例えば、走行路の車線などの走行領域を規定する左右の走行区分線に対応した右側走行区分線領域および左側走行区分線領域など)を設定する。   The detection area setting unit 26 detects, for example, an edge point detected by the second edge detection unit 23 based on the previous detection result of the travel lane marking (that is, the previous estimation result by the travel lane marking estimation unit 25). A region (for example, a right travel segment line region and a left travel segment line region corresponding to left and right travel segment lines that define a travel region such as a lane of a travel route) is set.

検出領域設定部26は、例えば、走行区分線推定部25による前回の推定結果が3次元の情報であることに対して、第2エッジ検出部23によってエッジ点が検出される検出領域は2次元のグレイスケール画像上に設定されることから、前回の推定結果に逆射影変換を行なう。
検出領域設定部26は、例えば、走行区分線推定部25によって実行されたXY平面での2次曲線による最小自乗法およびZX平面での線形関数による最小自乗法の演算結果に基づいて、走行区分線推定部25による前回の推定結果である3次元の走行区分線を2次元平面に逆射影変換して得られる変換結果を用いて検出領域を設定する。
For example, the detection region setting unit 26 is configured such that the detection region where the edge point is detected by the second edge detection unit 23 is two-dimensional while the previous estimation result by the traveling lane marking estimation unit 25 is three-dimensional information. Therefore, reverse projection transformation is performed on the previous estimation result.
The detection area setting unit 26, for example, based on the calculation result of the least square method by the quadratic curve on the XY plane and the least square method by the linear function on the ZX plane, which is executed by the traveling segment line estimation unit 25, A detection region is set using a conversion result obtained by back-projecting a three-dimensional traveling division line, which is a previous estimation result by the line estimation unit 25, into a two-dimensional plane.

さらに、検出領域設定部26は、例えば、左右の走行区分線のそれぞれに対して独立した処理として、走行区分線の前回の検出結果が存在しない場合に第1領域設定モードを実行し、走行区分線の前回の検出結果が存在する場合に第2領域設定モードを実行する。   Further, the detection area setting unit 26 executes, for example, the first area setting mode when there is no previous detection result of the travel lane line as an independent process for each of the left and right travel lane lines, When the previous detection result of the line exists, the second area setting mode is executed.

さらに、検出領域設定部26は、例えば、適宜の走行領域に適合する2つの左右の走行区分線の組み合わせに対する処理として、何れか一方の走行区分線のみの前回の検出結果が存在する場合に第3領域設定モードを実行し、両方の走行区分線の前回の検出結果が存在する場合に第4領域設定モードを実行する。   Furthermore, the detection area setting unit 26, for example, as a process for a combination of two left and right traveling lane markings suitable for an appropriate traveling area, is performed when there is a previous detection result for only one of the lane markings. The third area setting mode is executed, and the fourth area setting mode is executed when the previous detection results of both travel lane markings exist.

検出領域設定部26は、第1領域設定モードでは、例えば、走行区分線の前回の検出結果は直線であると仮定して、この直線に対して所定の第1探索幅を有する検出領域を設定する。
この場合、例えば左右の走行区分線に対応した右側走行区分線領域RAおよび左側走行区分線領域LAに対して、例えば図6(A)に示すように、自車両の中心位置CPによって境界を設定し、各領域RA,LAが境界を超えないように設定する。
In the first area setting mode, the detection area setting unit 26 sets, for example, a detection area having a predetermined first search width for this straight line on the assumption that the previous detection result of the travel lane marking is a straight line. To do.
In this case, for example, as shown in FIG. 6A, for example, the boundary is set for the right traveling lane line area RA and the left traveling lane line area LA corresponding to the left and right traveling lane markings by the center position CP of the host vehicle. The areas RA and LA are set so as not to exceed the boundary.

また、検出領域設定部26は、第2領域設定モードでは、例えば図6(B)に示すように、走行区分線の前回の検出結果に基づいて、この検出結果の走行区分線に対して所定の第2探索幅を有する検出領域(例えば、左右の走行区分線に対応した右側走行区分線領域RAおよび左側走行区分線領域LAなど)を設定する。
なお、第2探索幅は、例えば、第1探索幅よりも小さく設定されている。
In addition, in the second area setting mode, the detection area setting unit 26 determines a predetermined value for the travel lane line of the detection result based on the previous detection result of the travel lane line, as shown in FIG. 6B, for example. Detection areas having the second search width (for example, the right traveling lane line area RA and the left traveling lane line area LA corresponding to the left and right traveling lane markings) are set.
Note that the second search width is set to be smaller than the first search width, for example.

さらに、検出領域設定部26は、第3領域設定モードでは、2つの走行区分線のうち前回の検出結果が存在する一方の走行区分線に基づいて第1領域(例えば、前回の検出結果の走行区分線に対して所定の第2探索幅を有する検出領域)を設定する。さらに、2つの走行区分線のうち前回の検出結果が存在しない他方の走行区分線は直線であると仮定して第2領域(例えば、仮定した直線に対して所定の第1探索幅を有する検出領域)を設定する。そして、第1領域を第2領域よりも優先させて重ね合わせるように合成することによって検出領域を設定する。   Further, in the third area setting mode, the detection area setting unit 26 selects the first area (for example, the travel of the previous detection result) based on one of the two travel lane lines where the previous detection result exists. A detection area having a predetermined second search width is set for the lane marking. Further, assuming that the other traveling segment line of the two traveling segment lines that does not have the previous detection result is a straight line, the second region (for example, detection having a predetermined first search width with respect to the assumed straight line). Area). Then, the detection region is set by combining the first region with priority over the second region.

例えば図6(C)に示すように、検出領域設定部26は、前回の検出結果が存在する右側の走行区分線に対応した第1領域と、前回の検出結果が存在しない左側の走行区分線に対応した第2領域と、を重ね合わせるように合成する。そして、第1領域および第2領域の重複領域が存在する場合には、第2領域から第1領域との重複領域を除外して左側走行区分線領域LAを設定し、かつ第1領域と同一の右側走行区分線領域RAを設定する。   For example, as shown in FIG. 6C, the detection area setting unit 26 includes a first area corresponding to the right travel division line where the previous detection result exists and the left travel division line where the previous detection result does not exist. Are combined so as to overlap with the second region corresponding to. And when the overlap area of the 1st field and the 2nd field exists, the overlap area with the 1st field is excluded from the 2nd field, and the left run division line area LA is set, and it is the same as the 1st field The right travel lane marking area RA is set.

また、検出領域設定部26は、第4領域設定モードでは、2つの走行区分線の前回の検出結果に基づいて2つの領域(例えば、それぞれの前回の検出結果の走行区分線に対して所定の第2探索幅を有する領域)を設定し、2つの領域の合成によって検出領域を設定する。なお、2つの領域を重ね合わせるように合成した場合に重複領域が存在する場合には、この重複領域を検出領域から除外する。   In the fourth area setting mode, the detection area setting unit 26 determines two areas (for example, predetermined predetermined values for the travel classification lines of the previous detection results based on the previous detection results of the two travel classification lines. A region having a second search width is set, and a detection region is set by combining the two regions. In addition, when an overlapping area exists when two areas are combined so as to overlap, the overlapping area is excluded from the detection area.

例えば図6(D)に示すように、検出領域設定部26は、前回の検出結果が存在する2つの左右の走行区分線に対応した右側走行区分線領域RAおよび左側走行区分線領域LAを重ね合わせるように合成し、かつ重複領域AAを除外して、検出領域を設定する。   For example, as shown in FIG. 6D, the detection area setting unit 26 overlaps the right traveling lane line area RA and the left traveling lane line area LA corresponding to the two left and right traveling lane lines where the previous detection result exists. The detection areas are set by combining them to match and excluding the overlapping area AA.

本実施の形態による走行区分線検出装置10は上記構成を備えており、次に、この走行区分線検出装置10の動作、特に、処理装置12の動作について説明する。   The travel lane marking detection device 10 according to the present embodiment has the above-described configuration. Next, the operation of the travel lane marking detection device 10, particularly, the operation of the processing device 12 will be described.

先ず、例えば図7に示すステップS01においては、車載カメラ11から出力された画像データおよび1対の画像を取得し、1対の画像の何れか一方(例えば、右画像)に基づきグレイスケール画像を生成する。   First, in step S01 shown in FIG. 7, for example, image data output from the in-vehicle camera 11 and a pair of images are acquired, and a grayscale image is obtained based on one of the pair of images (for example, the right image). Generate.

次に、ステップS02においては、第1エッジ検出処理を実行する。
次に、ステップS03においては、検出領域設定処理を実行する。
次に、ステップS04においては、第2エッジ検出処理を実行する。
次に、ステップS05においては、3次元情報抽出処理を実行する。
Next, in step S02, a first edge detection process is executed.
Next, in step S03, detection area setting processing is executed.
Next, in step S04, a second edge detection process is executed.
Next, in step S05, a three-dimensional information extraction process is executed.

この3次元情報抽出処理では、車載カメラ11から取得した、いわば3次元の画像データに基づき、第2エッジ検出処理によって検出されたエッジ点に対して3次元情報、つまりグレイスケール画像の画像平面における2次元配列に対応する水平方向(Y方向)および鉛直方向(Z方向)の位置の情報と、自車両の進行方向前方(X方向)の距離の情報と、を抽出する。
次に、ステップS06においては、走行区分線推定処理を実行し、エンドに進む。
In this three-dimensional information extraction process, the three-dimensional information on the edge plane detected by the second edge detection process based on the three-dimensional image data acquired from the in-vehicle camera 11, that is, in the image plane of the grayscale image. Information on the position in the horizontal direction (Y direction) and the vertical direction (Z direction) corresponding to the two-dimensional array and information on the distance in the forward direction (X direction) of the host vehicle are extracted.
Next, in step S06, a travel lane marking estimation process is executed, and the process proceeds to the end.

以下に、上述したステップS02の第1エッジ検出処理の詳細について説明する。   Details of the first edge detection process in step S02 described above will be described below.

先ず、例えば図8に示すステップS11においては、グレイスケール画像にガウシアンフィルタなどを用いて平滑化の処理を行なう。
次に、ステップS12においては、平滑化の処理によって得られた画像にソーベルフィルタなどを用いてエッジ強度および勾配を推定する。
次に、ステップS13においては、エッジ強度および勾配の推定結果に応じて検出されるエッジの太さを細くする。
First, for example, in step S11 shown in FIG. 8, smoothing processing is performed on a grayscale image using a Gaussian filter or the like.
Next, in step S12, the edge strength and the gradient are estimated using a Sobel filter or the like on the image obtained by the smoothing process.
Next, in step S13, the thickness of the detected edge is reduced according to the estimation result of the edge strength and the gradient.

次に、ステップS14においては、2つの異なるハイ側閾値およびロー側閾値を用いて、判定対象の画素のエッジ強度がハイ側閾値よりも大きい場合にはエッジ点であると判定し、判定対象の画素のエッジ強度がロー側閾値よりも小さい場合にはエッジ点ではないと判定する。また、判定対象の画素のエッジ強度がロー側閾値以上かつハイ側閾値以下の場合には、判定対象の画素の近傍にエッジ点が存在すればエッジ点であると判定し、判定対象の画素の近傍にエッジ点が存在しなければエッジ点ではないと判定する。
そして、リターンに進む。
Next, in step S14, using two different high-side threshold values and low-side threshold values, if the edge strength of the pixel to be determined is larger than the high-side threshold value, it is determined as an edge point, and the determination target When the edge strength of the pixel is smaller than the low threshold, it is determined that the pixel is not an edge point. In addition, when the edge strength of the determination target pixel is not less than the low side threshold and not more than the high side threshold, if the edge point exists in the vicinity of the determination target pixel, the pixel is determined to be an edge point. If there is no edge point in the vicinity, it is determined that it is not an edge point.
Then proceed to return.

以下に、上述したステップS03の検出領域設定処理の詳細について説明する。   Details of the detection area setting process in step S03 described above will be described below.

先ず、例えば図9に示すステップS21においては、適宜の走行領域に適合する2つの左右の走行区分線のうち、左側の走行区分線の前回の検出結果が存在するか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS28に進む。
一方、この判定結果が「YES」の場合には、ステップS22に進む。
First, for example, in step S21 shown in FIG. 9, it is determined whether or not there is a previous detection result of the left traveling segment line among the two left and right traveling segment lines suitable for an appropriate traveling region.
If this determination is “NO”, the flow proceeds to step S 28 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S22.

そして、ステップS22においては、左側の走行区分線の前回の検出結果に基づいて、この検出結果の走行区分線に対して所定の第2探索幅を有する左側走行区分線領域LAを設定する。   In step S22, based on the previous detection result of the left travel lane line, the left travel lane line area LA having a predetermined second search width is set for the detected travel lane line.

次に、ステップS23においては、適宜の走行領域に適合する2つの左右の走行区分線のうち、右側の走行区分線の前回の検出結果が存在するか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS26に進む。
一方、この判定結果が「YES」の場合には、ステップS24に進む。
Next, in step S23, it is determined whether or not there is a previous detection result of the right travel segment line among the two left and right travel segment lines that fit the appropriate travel region.
If this determination is “NO”, the flow proceeds to step S 26 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S24.

そして、ステップS24においては、右側の走行区分線の前回の検出結果に基づいて、この検出結果の走行区分線に対して所定の第2探索幅を有する右側走行区分線領域RAを設定する。
そして、ステップS25においては、左側走行区分線領域LAおよび右側走行区分線領域RAの組み合わせに対して、重複領域を除外しつつ、2つの左側走行区分線領域LAおよび右側走行区分線領域RAの合成によって検出領域を設定し、リターンに進む。
In step S24, based on the previous detection result of the right traveling lane line, a right traveling lane line area RA having a predetermined second search width is set for the detected traveling lane line.
In step S25, the combination of the two left traveling lane line areas LA and the right traveling lane line area RA is excluded from the combination of the left traveling lane line area LA and the right traveling lane line area RA. To set the detection area and proceed to return.

また、ステップS26においては、右側の走行区分線の前回の検出結果は直線であると仮定して、この直線に対して所定の第1探索幅を有する右側走行区分線領域RAを設定する。
そして、ステップS27においては、左側走行区分線領域LAおよび右側走行区分線領域RAの組み合わせに対して、左側走行区分線領域LAを右側走行区分線領域RAよりも優先させて合成することによって検出領域を設定し、リターンに進む。
In step S26, assuming that the previous detection result of the right travel lane marking is a straight line, a right lane marking area RA having a predetermined first search width is set for this straight line.
In step S27, the left traveling lane line area LA is combined with the left traveling lane line area RA in preference to the right traveling lane line area RA for the combination of the left traveling lane line area LA and the detection area. Set and proceed to return.

また、ステップS28においては、左側の走行区分線の前回の検出結果は直線であると仮定して、この直線に対して所定の第1探索幅を有する左側走行区分線領域LAを設定する。   Further, in step S28, assuming that the previous detection result of the left travel segment line is a straight line, a left travel segment line area LA having a predetermined first search width is set for this straight line.

次に、ステップS29においては、適宜の走行領域に適合する2つの左右の走行区分線のうち、右側の走行区分線の前回の検出結果が存在するか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS32に進む。
一方、この判定結果が「YES」の場合には、ステップS30に進む。
Next, in step S29, it is determined whether or not there is a previous detection result of the right travel segment line among the two left and right travel segment lines that fit the appropriate travel region.
If this determination is “NO”, the flow proceeds to step S 32 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S30.

そして、ステップS30においては、右側の走行区分線の前回の検出結果に基づいて、この検出結果の走行区分線に対して所定の第2探索幅を有する右側走行区分線領域RAを設定する。
そして、ステップS31においては、左側走行区分線領域LAおよび右側走行区分線領域RAの組み合わせに対して、右側走行区分線領域RAを左側走行区分線領域LAよりも優先させて合成することによって検出領域を設定し、リターンに進む。
In step S30, based on the previous detection result of the right traveling lane line, a right traveling lane line area RA having a predetermined second search width is set for the detected traveling lane line.
In step S31, the combination of the left traveling lane line area LA and the right traveling lane line area RA is combined with the right traveling lane line area RA prior to the left traveling lane line area LA. Set and proceed to return.

また、ステップS32においては、右側の走行区分線の前回の検出結果は直線であると仮定して、この直線に対して所定の第1探索幅を有する右側走行区分線領域RAを設定する。
そして、ステップS33においては、左側走行区分線領域LAおよび右側走行区分線領域RAの組み合わせに対して、自車両の中心位置によって境界を設定し、各左側走行区分線領域LAおよび右側走行区分線領域RAが境界を超えないように設定し、リターンに進む。
Further, in step S32, assuming that the previous detection result of the right travel segment line is a straight line, the right travel segment line area RA having a predetermined first search width is set for this straight line.
In step S33, a boundary is set according to the center position of the host vehicle with respect to the combination of the left traveling lane line area LA and the right traveling lane line area RA, and each left traveling lane line area LA and right traveling lane line area. Set RA so that it does not exceed the boundary and proceed to return.

以下に、上述したステップS04の第2エッジ検出処理の詳細について説明する。   Details of the second edge detection process in step S04 described above will be described below.

先ず、例えば図10に示すステップS41においては、第1エッジ検出処理によって検出されたエッジ点のうち、検出領域設定処理によって設定された各右側走行区分線領域RAおよび左側走行区分線領域LA内に存在するエッジ点のエッジ強度および勾配を推定する。
この処理では、ソーベルフィルタなどの微分フィルタなどを用いて、グレイスケール画像の画像平面における少なくとも縦方向(90°方向)および横方向(0°方向)および互いに反対の2つの斜め方向(例えば、45°方向および135°方向による対角方向)からなる4方向を含む複数方向を走査する。
First, for example, in step S41 shown in FIG. 10, among the edge points detected by the first edge detection process, within each right travel lane line area RA and left travel lane line area LA set by the detection area setting process. Estimate edge strength and gradient of existing edge points.
In this process, using a differential filter such as a Sobel filter, at least the vertical direction (90 ° direction) and the horizontal direction (0 ° direction) in the image plane of the grayscale image and two diagonal directions opposite to each other (for example, A plurality of directions including four directions composed of 45 ° direction and diagonal direction by 135 ° direction are scanned.

次に、ステップS42においては、各右側走行区分線領域RAおよび左側走行区分線領域LA内で検出されたエッジ点において、エッジ点の勾配に基づき、輝度の立ち上がりを正エッジ点かつ輝度の立ち下りを負エッジ点として識別する。   Next, in step S42, at the edge points detected in each of the right traveling lane line area RA and the left traveling lane line area LA, the rising edge of the luminance is a positive edge point and the falling edge of the luminance based on the gradient of the edge point. Is identified as a negative edge point.

次に、ステップS43においては、例えばグレイスケール画像の画像平面における左側から右側に向かう走査方向に対して、正負が識別されたエッジ点は、左側走行区分線領域LA内の負エッジ点であるか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS45に進む。
一方、この判定結果が「YES」の場合には、ステップS44に進む。
Next, in step S43, for example, is the edge point identified as positive or negative in the scanning direction from the left side to the right side in the image plane of the grayscale image a negative edge point in the left travel lane marking area LA? Determine whether or not.
If this determination is “NO”, the flow proceeds to step S 45 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S44.

次に、ステップS44においては、左側走行区分線領域LA内の負エッジ点を、左側の走行区分線を検出するために用いられるエッジ点として、リターンに進む。   Next, in step S44, the process proceeds to return with the negative edge point in the left travel lane marking area LA as the edge point used for detecting the left travel lane marking.

また、ステップS45においては、例えばグレイスケール画像の画像平面における左側から右側に向かう走査方向に対して、正負が識別されたエッジ点は、右側走行区分線領域RA内の正エッジ点であるか否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS46に進む。
Further, in step S45, for example, whether the edge point identified as positive or negative with respect to the scanning direction from the left side to the right side in the image plane of the grayscale image is a positive edge point in the right travel lane marking area RA. Determine whether.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S46.

次に、ステップS46においては、右側走行区分線領域RA内の正エッジ点を、右側の走行区分線を検出するために用いられるエッジ点として、リターンに進む。   Next, in step S46, the process proceeds to return with the positive edge point in the right travel lane marking area RA as the edge point used for detecting the right travel lane marking.

以下に、上述したステップS06の走行区分線推定処理の詳細について説明する。   Details of the travel lane marking estimation process in step S06 described above will be described below.

先ず、例えば図11に示すステップS51においては、各左側走行区分線領域LAおよび右側走行区分線領域RA毎に、第2エッジ検出処理によって検出されたエッジ点のうちから無作為に所定数のエッジ点を抽出する。   First, for example, in step S51 shown in FIG. 11, a predetermined number of edges are randomly selected from the edge points detected by the second edge detection process for each of the left traveling lane line area LA and the right traveling lane line area RA. Extract points.

次に、ステップS52においては、抽出したエッジ点を用いて、XY平面で2次曲線による最小自乗法を実行するとともに、ZX平面で線形関数による最小自乗法を実行する。   Next, in step S52, using the extracted edge points, a least square method using a quadratic curve is executed on the XY plane, and a least square method using a linear function is executed on the ZX plane.

次に、ステップS53においては、XY平面において、最小自乗法によって得られた走行区分線の推定候補の2次曲線と、第2エッジ検出処理によって検出された全てのエッジ点との距離(例えば、法線距離など)を算出し、この距離が所定閾値以下となるエッジ点の数を算出する。   Next, in step S53, on the XY plane, the distance (for example, the distance between the quadratic curve of the running lane marking estimation candidate obtained by the method of least squares and all the edge points detected by the second edge detection process) Normal distance) is calculated, and the number of edge points at which this distance is less than or equal to a predetermined threshold is calculated.

次に、ステップS54においては、上述したステップS51〜S53の一連のエッジ点数算出処理の実行繰り返し回数が、所定の繰り返し回数に到達したか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS51に戻る。
一方、この判定結果が「YES」の場合には、ステップS55に進む。
Next, in step S54, it is determined whether or not the number of execution repetitions of the series of edge point calculation processes in steps S51 to S53 described above has reached a predetermined number of repetitions.
If this determination is “NO”, the flow returns to step S 51 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S55.

次に、ステップS55においては、所定の繰り返し回数に亘って実行した一連のエッジ点数算出処理の算出結果のうちから、走行区分線の推定候補に対する距離が所定閾値以下となるエッジ点の数が最大となる走行区分線の推定候補の2次曲線を、最も確からしい推定候補として選択する。   Next, in step S55, the number of edge points at which the distance to the travel lane line estimation candidate is equal to or less than a predetermined threshold is calculated from the calculation results of a series of edge point calculation processes executed over a predetermined number of repetitions. The quadratic curve of the running lane marking estimation candidate is selected as the most probable estimation candidate.

次に、ステップS56においては、第2エッジ検出処理によって検出された全てのエッジ点のうちから、最も確からしい推定候補の2次曲線に対する距離(例えば、法線距離など)が所定閾値以下となるエッジ点を抽出し、抽出したエッジ点に対してXY平面で2次曲線による最小自乗法を実行する。この演算結果による2次曲線を走行区分線の推定結果とし、リターンに進む。   Next, in step S56, the distance (for example, the normal distance) of the most probable estimation candidate to the quadratic curve out of all edge points detected by the second edge detection process is equal to or less than a predetermined threshold. Edge points are extracted, and a least square method using a quadratic curve is performed on the extracted edge points on the XY plane. The quadratic curve based on the calculation result is used as the estimation result of the travel line, and the process proceeds to return.

上述したように、本実施の形態による走行区分線検出装置10によれば、第2エッジ検出部23によって、グレイスケール画像の画像平面における少なくとも縦方向(90°方向)および横方向(0°方向)および2つの斜め方向(例えば、45°方向および135°方向による対角方向)からなる4方向が走査される。
これによって、直線路に加えて、例えば曲率が大きいカーブなどにおいても、エッジ点を適正かつ精度良く検出することができる。
As described above, according to the travel lane marking detection device 10 according to the present embodiment, the second edge detection unit 23 causes at least the vertical direction (90 ° direction) and the horizontal direction (0 ° direction) on the image plane of the grayscale image. ) And two diagonal directions (for example, 45 ° and 135 ° diagonal directions) are scanned.
As a result, in addition to the straight road, the edge point can be detected appropriately and accurately, for example, in a curve having a large curvature.

しかも、第2エッジ検出部23による検出処理に先立って、第1エッジ検出部22による検出処理が実行されることにより、いわば2段階でエッジ点を検出することによって、検出精度を向上させることができる。
また、走行区分線のエッジ点うち、走行領域の内側のエッジ点を検出することによって、例えば走行区分線の検出結果を車線逸脱防止などの制御に用いる場合に、適正な制御を実行することができる。
In addition, the detection processing by the first edge detection unit 22 is executed prior to the detection processing by the second edge detection unit 23, so that detection accuracy can be improved by detecting edge points in two stages. it can.
In addition, by detecting the edge point inside the travel area among the edge points of the travel lane marking, for example, when the detection result of the travel lane marking is used for control such as lane departure prevention, appropriate control can be executed. it can.

さらに、走行区分線推定部25は、RANSACによるロバスト推定を用いて2次曲線による最小自乗法をXY平面で実行することによって、例えば3次元関数による最小自乗法を3次元空間で実行する場合に比べて、演算負荷が増大することを防止しつつ、所望の推定精度を確保することができる。
さらに、線形関数による最小自乗法をZX平面で実行することによって、ZX平面での自車両に対する路面の相対的な傾きや自車両のピッチ変動などを走行区分線の推定および検出領域の設定に反映させることができ、走行区分線の推定精度を向上させることができる。
Further, the travel lane marking estimation unit 25 executes the least square method using a quadratic curve on the XY plane using the robust estimation by RANSAC, for example, when executing the least square method using a three-dimensional function in a three-dimensional space. In comparison, it is possible to ensure desired estimation accuracy while preventing an increase in calculation load.
In addition, by executing the least square method using a linear function on the ZX plane, the relative inclination of the road surface to the host vehicle on the ZX plane and the pitch variation of the host vehicle are reflected in the estimation of the driving lane marking and the detection area setting. It is possible to improve the estimation accuracy of travel lane markings.

さらに、検出領域設定部26によって実行される第1領域設定モードによれば、走行区分線の前回の検出結果が存在しない場合であっても、直線近似によって大きめの検出領域を設定することによって、エッジ点を適正に検出することができる。
さらに、第2領域設定モードによれば、走行区分線の前回の検出結果に基づいて検出領域を適正に設定することができる。
さらに、第3領域設定モードによれば、走行区分線の前回の検出結果と直線近似とを併用して検出領域を設定することによって、エッジ点を適正に検出することができる。
さらに、第4領域設定モードによれば、走行領域に適合する2つの走行区分線の前回の検出結果に基づいて検出領域を適正に設定することができる。しかも、例えば走行区分線の誤検出などの異常な事象や検出誤差などに起因して右側走行区分線領域および左側走行区分線領域で重複する領域を検出領域から排除することによって、エッジ点を適正に検出することができる。
Furthermore, according to the first region setting mode executed by the detection region setting unit 26, even if there is no previous detection result of the travel lane marking, by setting a larger detection region by linear approximation, Edge points can be detected properly.
Furthermore, according to the second region setting mode, the detection region can be appropriately set based on the previous detection result of the travel lane marking.
Furthermore, according to the third region setting mode, the edge point can be properly detected by setting the detection region by using the previous detection result of the traveling lane marking and the linear approximation together.
Furthermore, according to the fourth area setting mode, it is possible to appropriately set the detection area based on the previous detection result of the two travel lane markings that match the travel area. In addition, the edge points can be set appropriately by excluding, from the detection area, areas that overlap in the right and left lane marking areas due to abnormal events such as erroneous detection of lane markings and detection errors. Can be detected.

なお、上述した実施の形態において、走行区分線推定部25は、2次元平面において非線形関数による最小自乗法を含むロバスト推定を実行するとしたが、これに限定されず、例えば、3次元空間において3次元関数による最小自乗法を含むロバスト推定を実行することによって、走行区分線を推定してもよい。   In the above-described embodiment, the travel lane marking estimation unit 25 performs the robust estimation including the least square method using a nonlinear function in the two-dimensional plane. However, the present invention is not limited to this. The running lane marking may be estimated by performing robust estimation including a least square method using a dimension function.

なお、本発明の技術的範囲は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において、上述した実施形態に種々の変更を加えたものを含む。すなわち、上述した実施形態の構成はほんの一例に過ぎず、適宜変更が可能である。   It should be noted that the technical scope of the present invention is not limited to the above-described embodiment, and includes various modifications made to the above-described embodiment without departing from the spirit of the present invention. That is, the configuration of the above-described embodiment is merely an example, and can be changed as appropriate.

10 走行区分線検出装置
11 車載カメラ(撮像手段)
22 第1エッジ検出部(第1エッジ検出手段)
23 第2エッジ検出部(第2エッジ検出手段)
24 3次元情報抽出部
25 走行区分線推定部(走行区分線推定手段)
26 検出領域設定部(検出領域設定手段)
31 領域内エッジ検出部(領域内エッジ検出手段)
32 エッジ正負識別部(エッジ正負識別手段)
33 内側エッジ検出部(走行領域内側エッジ検出手段)
10 traveling lane marking device 11 vehicle-mounted camera (imaging means)
22 1st edge detection part (1st edge detection means)
23 Second edge detection unit (second edge detection means)
24 three-dimensional information extraction unit 25 travel lane marking estimation unit (travel lane marking estimation means)
26 detection area setting section (detection area setting means)
31 Intra-region edge detection unit (intra-region edge detection means)
32 Edge positive / negative identification part (edge positive / negative identification means)
33 Inner edge detection unit (running region inner edge detection means)

Claims (13)

路面を撮像する撮像手段によって撮像された路面画像から移動体の走行区分線を検出する走行区分線検出装置であって、
前記路面画像から前記走行区分線のエッジを検出する第1エッジ検出手段と、
前記走行区分線の前回の検出結果に基づいて検出領域を設定する検出領域設定手段と、
前記検出領域設定手段によって設定された前記検出領域において、前記路面画像の画像平面における少なくとも斜め方向を含む複数方向を走査し、前記第1エッジ検出手段によって検出された前記エッジに基づき、走行領域の内側の前記エッジを検出する第2エッジ検出手段と、
前記第2エッジ検出手段により検出された前記エッジから前記走行領域に適合する前記走行区分線を推定する走行区分線推定手段と、
を備えることを特徴とする走行区分線検出装置。
A traveling lane marking detection device that detects a traveling lane marking of a moving object from a road surface image captured by an imaging unit that images a road surface,
First edge detection means for detecting an edge of the travel lane marking from the road surface image;
Detection area setting means for setting a detection area based on the previous detection result of the travel lane marking;
In the detection area set by the detection area setting means, a plurality of directions including at least an oblique direction in the image plane of the road surface image are scanned, and based on the edges detected by the first edge detection means, Second edge detecting means for detecting the inner edge;
Traveling lane marking estimating means for estimating the traveling lane marking adapted to the traveling area from the edge detected by the second edge detecting means;
A travel lane marking detection device comprising:
前記第2エッジ検出手段は、
前記検出領域内の前記エッジを検出する領域内エッジ検出手段と、
前記領域内エッジ検出手段によって検出された前記エッジにおいて、立ち上がりを正エッジかつ立ち下りを負エッジとして識別するエッジ正負識別手段と、
走査方向の前方側および後方側の2つの前記走行区分線に対して、前記エッジ正負識別手段の識別結果に基づいて、前記前方側の前記走行区分線においては前記正エッジを検出し、前記後方側の前記走行区分線においては前記負エッジを検出する走行領域内側エッジ検出手段と、
を備えることを特徴とする請求項1に記載の走行区分線検出装置。
The second edge detecting means includes
In-area edge detection means for detecting the edge in the detection area;
Edge positive / negative identifying means for identifying rising edges as positive edges and falling edges as negative edges in the edges detected by the in-region edge detecting means;
Based on the identification result of the edge positive / negative identification means for the two traveling division lines on the front side and the rear side in the scanning direction, the positive edge is detected in the traveling division line on the front side, and the rear In the traveling division line on the side, traveling region inner edge detection means for detecting the negative edge,
The travel lane marking detection device according to claim 1, comprising:
前記エッジ正負識別手段は、前記検出領域において、前記画像平面における少なくとも縦方向および横方向および互いに反対の2つの斜め方向からなる4方向を含む複数方向を走査して、前記検出領域内の前記正エッジおよび前記負エッジを識別することを特徴とする請求項2に記載の走行区分線検出装置。   The edge positive / negative identifying means scans in the detection area a plurality of directions including at least four directions including at least a vertical direction and a horizontal direction on the image plane and two diagonal directions opposite to each other in the detection area. The travel lane marking detection device according to claim 2, wherein an edge and the negative edge are identified. 前記撮像手段は、3次元情報を取得可能であり、
前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して2次元平面においてロバスト推定を実行して、前記走行区分線を推定することを特徴とする請求項1から請求項3の何れか1つに記載の走行区分線検出装置。
The imaging means can acquire three-dimensional information,
2. The travel lane marking estimation unit estimates the travel lane marking by performing robust estimation on a two-dimensional plane with respect to the edge detected by the second edge detection unit. The travel lane marking detection device according to claim 3.
前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して、第1の2次元平面において非線形関数による最小自乗法を含むロバスト推定を実行し、かつ、第2の2次元平面において線形関数による最小自乗法を実行することによって、前記走行区分線を推定することを特徴とする請求項4に記載の走行区分線検出装置。   The travel lane marking estimation unit performs robust estimation including a least square method using a nonlinear function on a first two-dimensional plane with respect to the edge detected by the second edge detection unit; 5. The travel lane marking detection device according to claim 4, wherein the travel lane marking is estimated by executing a least square method using a linear function in a two-dimensional plane. 前記撮像手段は、3次元情報を取得可能であり、
前記走行区分線推定手段は、前記第2エッジ検出手段によって検出された前記エッジに対して、3次元空間においてロバスト推定を実行することによって、前記走行区分線を推定することを特徴とする請求項1から請求項3の何れか1つに記載の走行区分線検出装置。
The imaging means can acquire three-dimensional information,
The travel lane marking estimation unit estimates the travel lane marking by performing robust estimation in a three-dimensional space on the edge detected by the second edge detection unit. The travel lane marking detection device according to any one of claims 1 to 3.
前記検出領域設定手段は、前記走行区分線推定手段によって前回に推定された3次元空間での前記走行区分線を2次元平面に逆射影変換して得られる変換結果を用いて前記検出領域を設定することを特徴とする請求項4から請求項6の何れか1つに記載の走行区分線検出装置。   The detection area setting means sets the detection area using a conversion result obtained by back projecting the traveling lane marking in the three-dimensional space estimated by the traveling lane marking estimation means to a two-dimensional plane. The travel lane marking detection device according to any one of claims 4 to 6, wherein 前記走行区分線推定手段は、前記ロバスト推定において前記走行区分線の推定候補と前記第2エッジ検出手段によって検出された全ての前記エッジとの距離を用いる際に、前記走行区分線の推定候補と前記エッジとの法線距離を前記距離とする請求項4から請求項7の何れか1つに記載の走行区分線検出装置。   The travel lane marking estimation unit uses the travel lane line estimation candidates when using the distances between the travel lane line estimation candidates and all the edges detected by the second edge detection unit in the robust estimation. The travel lane marking detection device according to any one of claims 4 to 7, wherein a normal distance to the edge is the distance. 前記検出領域設定手段は、
前記走行区分線の前回の検出結果が存在しない場合に第1領域設定モードを実行し、
前記走行区分線の前回の検出結果が存在する場合に第2領域設定モードを実行し、
前記走行領域に適合する2つの前記走行区分線の一方のみの前回の検出結果が存在する場合に第3領域設定モードを実行し、
前記走行領域に適合する2つの前記走行区分線の前回の検出結果が存在する場合に第4領域設定モードを実行することを特徴とする請求項1から請求項8の何れか1つに記載の走行区分線検出装置。
The detection area setting means includes:
When there is no previous detection result of the travel lane marking, execute the first region setting mode,
When there is a previous detection result of the travel lane marking, execute the second region setting mode,
When there is a previous detection result of only one of the two travel division lines that match the travel region, execute the third region setting mode,
9. The fourth region setting mode is executed when there is a previous detection result of the two travel lane markings that match the travel region. 9. Traveling line detection device.
前記検出領域設定手段は、
前記第1領域設定モードでは、前記走行区分線の前回の検出結果は直線であると仮定して前記検出領域を設定し、
前記第2領域設定モードでは、前記走行区分線の前回の検出結果に基づいて前記検出領域を設定し、
前記第3領域設定モードでは、前記2つの前記走行区分線の前記一方に基づき設定する第1領域と、前記2つの前記走行区分線の他方は直線であると仮定して得られる第2領域とを、前記第1領域を前記第2領域よりも優先させて合成して得られる領域に基づいて前記検出領域を設定し、
前記第4領域設定モードでは、前記走行領域に適合する2つの前記走行区分線の前回の検出結果に基づいて前記検出領域を設定することを特徴とする請求項9に記載の走行区分線検出装置。
The detection area setting means includes:
In the first region setting mode, the detection region is set on the assumption that the previous detection result of the travel lane marking is a straight line,
In the second region setting mode, the detection region is set based on the previous detection result of the travel lane marking,
In the third region setting mode, a first region that is set based on the one of the two traveling lane markings, and a second region that is obtained assuming that the other of the two traveling lane markings is a straight line; And setting the detection region based on a region obtained by combining the first region with priority over the second region,
10. The travel lane marking detection device according to claim 9, wherein in the fourth region setting mode, the detection region is set based on a previous detection result of two travel lane lines that match the travel region. .
前記検出領域設定手段は、
前記第4領域設定モードでは、前記走行領域に適合する2つの前記走行区分線の前回の検出結果に基づいて設定する2つの領域を合成した場合に重複する領域を前記検出領域から除外することを特徴とする請求項10に記載の走行区分線検出装置。
The detection area setting means includes:
In the fourth region setting mode, when two regions set based on the previous detection results of the two travel lane markings that match the travel region are combined, an overlapping region is excluded from the detection region. The travel lane marking detection device according to claim 10, wherein
前記第1エッジ検出手段は、
前記路面画像を平滑化してノイズ除去を行なう平滑化処理手段と、
前記平滑化処理手段によって平滑化された前記路面画像の前記エッジを検出するエッジ検出手段と、
前記エッジ検出手段によって出された前記エッジを細線化する細線化処理手段と、
前記細線化処理手段によって細線化された前記エッジを2つの閾値を用いてノイズを除去するヒステリシス閾処理手段と、
を備えることを特徴とする請求項1から請求項11の何れか1つに記載の走行区分線検出装置。
The first edge detecting means includes
Smoothing processing means for smoothing the road surface image to remove noise;
Edge detecting means for detecting the edge of the road surface image smoothed by the smoothing processing means;
Thinning processing means for thinning the edge output by the edge detection means;
Hysteresis threshold processing means for removing noise from the edge thinned by the thinning processing means using two threshold values;
The travel lane marking detection device according to any one of claims 1 to 11, further comprising:
前記撮像手段は、前記路面画像をグレイスケール画像とすることを特徴とする請求項1から請求項12の何れか1つに記載の走行区分線検出装置。 The travel lane marking detection device according to any one of claims 1 to 12, wherein the imaging unit uses the road surface image as a grayscale image.
JP2012156443A 2012-07-12 2012-07-12 Traveling line detector Expired - Fee Related JP5878090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012156443A JP5878090B2 (en) 2012-07-12 2012-07-12 Traveling line detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012156443A JP5878090B2 (en) 2012-07-12 2012-07-12 Traveling line detector

Publications (2)

Publication Number Publication Date
JP2014021525A true JP2014021525A (en) 2014-02-03
JP5878090B2 JP5878090B2 (en) 2016-03-08

Family

ID=50196383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012156443A Expired - Fee Related JP5878090B2 (en) 2012-07-12 2012-07-12 Traveling line detector

Country Status (1)

Country Link
JP (1) JP5878090B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068477A (en) * 2018-10-25 2020-04-30 アイシン精機株式会社 Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298446A (en) * 1992-04-22 1993-11-12 Honda Motor Co Ltd Picture edge detecting device
JPH06341821A (en) * 1993-06-01 1994-12-13 Matsushita Electric Ind Co Ltd Travel lane detector
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
JP2003051017A (en) * 2001-08-06 2003-02-21 Nissan Motor Co Ltd White line detector
US20030103650A1 (en) * 2001-11-30 2003-06-05 Hitachi, Ltd. Lane marker recognition method
JP2011100223A (en) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd Image processing apparatus and image processing method
JP2011154480A (en) * 2010-01-26 2011-08-11 Fujitsu Ltd Program and device for detection of lane

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298446A (en) * 1992-04-22 1993-11-12 Honda Motor Co Ltd Picture edge detecting device
JPH06341821A (en) * 1993-06-01 1994-12-13 Matsushita Electric Ind Co Ltd Travel lane detector
JP2002150302A (en) * 2000-11-15 2002-05-24 Toyota Motor Corp Road surface recognition device
JP2003051017A (en) * 2001-08-06 2003-02-21 Nissan Motor Co Ltd White line detector
US20030103650A1 (en) * 2001-11-30 2003-06-05 Hitachi, Ltd. Lane marker recognition method
JP2011100223A (en) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd Image processing apparatus and image processing method
JP2011154480A (en) * 2010-01-26 2011-08-11 Fujitsu Ltd Program and device for detection of lane

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068477A (en) * 2018-10-25 2020-04-30 アイシン精機株式会社 Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program
JP7148064B2 (en) 2018-10-25 2022-10-05 株式会社アイシン Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program

Also Published As

Publication number Publication date
JP5878090B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
EP2924657B1 (en) Apparatus and method for detection of road boundaries
JP4607193B2 (en) Vehicle and lane mark detection device
US9257043B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
EP2476996B1 (en) Parallax calculation method and parallax calculation device
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
EP2573708B1 (en) Method and System for Detecting Vehicle Position by Employing Polarization Image
CN107750213B (en) Front vehicle collision warning device and warning method
KR101773822B1 (en) Vision based lane recognition apparatus
JP5716671B2 (en) Runway recognition device, vehicle, runway recognition method, and runway recognition program
JP5402828B2 (en) Lane boundary detection device, lane boundary detection program
WO2014002692A1 (en) Stereo camera
JP2007179386A (en) Method and apparatus for recognizing white line
US20140267630A1 (en) Intersection recognizing apparatus and computer-readable storage medium
JP2015203992A (en) Lane mark recognition device
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
JP3656056B2 (en) Interrupting vehicle detection device and method
US20200193184A1 (en) Image processing device and image processing method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP5878090B2 (en) Traveling line detector
JP4969628B2 (en) Traveling line detector
JP2009186228A (en) Three-dimensional measuring device
JP6132807B2 (en) Lane mark recognition device
CN112400094B (en) Object detecting device
JP2015215235A (en) Object detection device and object detection method
JP2006172225A (en) Image recognizing device and image recognizing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160127

R150 Certificate of patent or registration of utility model

Ref document number: 5878090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees