JP4797846B2 - Lane marking device and lane detection device - Google Patents

Lane marking device and lane detection device Download PDF

Info

Publication number
JP4797846B2
JP4797846B2 JP2006191855A JP2006191855A JP4797846B2 JP 4797846 B2 JP4797846 B2 JP 4797846B2 JP 2006191855 A JP2006191855 A JP 2006191855A JP 2006191855 A JP2006191855 A JP 2006191855A JP 4797846 B2 JP4797846 B2 JP 4797846B2
Authority
JP
Japan
Prior art keywords
lane
luminance gradient
gradient vector
luminance
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006191855A
Other languages
Japanese (ja)
Other versions
JP2008021102A (en
Inventor
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006191855A priority Critical patent/JP4797846B2/en
Publication of JP2008021102A publication Critical patent/JP2008021102A/en
Application granted granted Critical
Publication of JP4797846B2 publication Critical patent/JP4797846B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、道路上の区画線(レーンマーカ)を検出する区画線検出装置及び車線検出装置に関する。   The present invention relates to a lane line detection device and a lane detection device that detect a lane line (lane marker) on a road.

レーンキープや自動操舵などに利用するために、道路上の区画線であるレーンマーカ(白線、黄線など)やそのレーンマーカからなる車線を検出する装置が開発されている。レーンマーカを検出する装置としては、例えば、特許文献1に記載の車線認識画像処理装置では、撮像画像から水平方向にエッジを検出することによりレーンマーカの候補点を抽出し、抽出した候補点同士の傾きの比較により本線側のレーンマーカを正しく認識する。
特開2003−252149号公報
In order to use for lane keeping, automatic steering, etc., a device for detecting a lane marker (white line, yellow line, etc.) that is a lane marking on a road and a lane composed of the lane marker has been developed. As an apparatus for detecting a lane marker, for example, in the lane recognition image processing apparatus described in Patent Document 1, a lane marker candidate point is extracted by detecting an edge in a horizontal direction from a captured image, and the inclination between the extracted candidate points is determined. The main line lane marker is correctly recognized by comparing the above.
JP 2003-252149 A

上記した装置では、水平方向の単一のエッジ方向によってレーンマーカを判断している。しかしながら、曲路などではレーンマーカの方向が変化するので、その方向が水平方向になるほど、エッジを検出できなくなる。その結果、レーンマーカを部分的に検出できなくなったりするので、検出精度が低下する。   In the apparatus described above, the lane marker is determined by a single edge direction in the horizontal direction. However, since the direction of the lane marker changes on a curved road or the like, the edge cannot be detected as the direction becomes horizontal. As a result, the lane marker cannot be partially detected, and the detection accuracy decreases.

そこで、本発明は、区画線や2本の並行する区画線からなる車線を高精度に検出する区画線検出装置及び車線検出装置を提供することを課題とする。   Then, this invention makes it a subject to provide the lane line detection apparatus and lane detection apparatus which detect the lane which consists of a lane line and two parallel lane lines with high precision.

本発明に係る区画線検出装置は、道路上の区画線を検出する区画線検出装置であって、道路を撮像する撮像手段と、撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルの中から1組の輝度勾配ベクトルを順次抽出し、当該抽出した各組の輝度勾配ベクトルを評価する評価手段と、評価手段による評価結果に基づいて輝度勾配ベクトルの向きが逆方向となる組の画素を抽出し、当該抽出した組の画素から区画線を検出する区画線検出手段とを備え、輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする。 A lane marking detection device according to the present invention is a lane marking detection device that detects a lane marking on a road, and calculates an imaging unit that images a road and a luminance gradient vector of each pixel of an image captured by the imaging unit. A brightness gradient vector calculating means; an evaluation means for sequentially extracting a set of brightness gradient vectors from the brightness gradient vectors calculated by the brightness gradient vector calculating means; and evaluating the extracted brightness gradient vectors for each set; And a lane line detecting means for detecting a lane line from the extracted set of pixels , the luminance gradient vector calculating means comprising: For each pixel, a primary differential value of the luminance in the horizontal direction of the image and a primary differential value of the luminance in the vertical direction of the image are calculated, and the primary differential value of the luminance in the horizontal direction and the luminance in the vertical direction are calculated. And calculating the intensity gradient vectors from the primary differential value of.

この区画線検出装置では、撮像手段により道路を撮像し、輝度勾配ベクトル算出手段により撮像画像の各画素の輝度勾配ベクトルを算出する。輝度勾配ベクトルは、異なる複数の方向についての輝度の勾配をとり、その複数の方向の輝度勾配を合成したベクトルである。そして、区画線検出装置では、評価手段により各画素の輝度勾配ベクトルの中から2画素の輝度勾配ベクトルからなる1組の輝度勾配ベクトルを順次抽出し、その各組の輝度勾配ベクトルについて区画線らしさを評価する。道路に区画線(白線、黄線など)が描かれている場合、道路と区画線との反射率が異なるので、区画線の平行する2本の輪郭線(道路との境界線)のうち、一方の輪郭線は輝度が暗→明(道路から区画線)に変化し、他方の輪郭線は明→暗(区画線から道路)に変化する。したがって、区画線の2本の輪郭線上の対応する点同士では、輝度勾配ベクトルの方向が逆方向となる。そのため、1組の輝度勾配ベクトルが区画線の2本の輪郭線上の対応する点(画素)の輝度勾配ベクトルであるなら、その1組の輝度勾配ベクトルはベクトルの方向が逆方向となる。そこで、区画線検出装置では、区画線検出手段により、各組の輝度勾配ベクトルに対する評価結果に基づいて、輝度勾配ベクトルの向きが逆方向になる組の画素を抽出し、その抽出した組の画素(つまり、区画線の2本の輪郭線を形成する画素)から区画線を検出する。このように、この区画線検出装置では、複数の方向の輝度勾配からなる輝度勾配ベクトルを用い、区画線の2本の輪郭線上における各点の輝度勾配ベクトルの向きが逆方向になることに利用することにより、任意の方向の区画線を検出することができる。その結果、直線路だけでなく、様々な曲路の区画線を正確に検出するこができ、区画線を高精度に検出することができる。また、各画素について輝度勾配ベクトルを算出し、各組の輝度勾配ベクトルを評価することによって画像中の区画線を検出することができるので、処理負荷も比較的少なく、効率的に区画線を検出できる。   In this lane marking detection apparatus, a road is imaged by an imaging unit, and a luminance gradient vector of each pixel of the captured image is calculated by a luminance gradient vector calculation unit. The luminance gradient vector is a vector obtained by taking luminance gradients in a plurality of different directions and synthesizing the luminance gradients in the plurality of directions. In the lane marking detection device, the evaluation unit sequentially extracts a set of luminance gradient vectors composed of the luminance gradient vectors of two pixels from the luminance gradient vectors of each pixel, and the luminance gradient vector of each set is considered to be a lane line. To evaluate. When the road is marked with a lane marking (white line, yellow line, etc.), the reflectance of the road differs from that of the lane marking. So, of the two contour lines (boundary line with the road) that are parallel to the lane marking, The brightness of one contour line changes from dark to bright (from road to lane), and the other contour changes from light to dark (from lane to road). Therefore, the direction of the luminance gradient vector is opposite between the corresponding points on the two contour lines of the partition line. Therefore, if one set of luminance gradient vectors is the luminance gradient vector of corresponding points (pixels) on the two contour lines of the partition line, the direction of the vector of the one set of luminance gradient vectors is opposite. Therefore, in the lane marking detection device, the lane marking detection means extracts a set of pixels in which the direction of the luminance gradient vector is opposite based on the evaluation result for each set of luminance gradient vectors, and the extracted set of pixels. In other words, the partition line is detected from the pixels forming the two contour lines of the partition line. As described above, this lane marking detection apparatus uses a luminance gradient vector composed of luminance gradients in a plurality of directions, and is used to reverse the direction of the luminance gradient vector at each point on the two contour lines of the lane marking. By doing so, it is possible to detect a marking line in an arbitrary direction. As a result, not only straight roads but also lane markings of various curved roads can be detected accurately, and lane markings can be detected with high accuracy. In addition, by calculating the luminance gradient vector for each pixel and evaluating each set of luminance gradient vectors, it is possible to detect the lane markings in the image, so the processing load is relatively low and the lane markings are detected efficiently. it can.

本発明に係る車線検出装置は、道路上の2本の並行する区画線からなる車線を検出する車線検出装置であって、道路を撮像する撮像手段と、撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルの中から1組の輝度勾配ベクトルを順次抽出し、当該抽出した各組の輝度勾配ベクトルを評価する評価手段と、評価手段による評価結果に基づいて輝度勾配ベクトルの向きが逆方向となる組の画素を抽出し、当該抽出した組の画素から区画線を検出する区画線検出手段と、区画線検出手段で検出した区画線から車線の形状を推定する車線形状推定手段とを備え、輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする。 A lane detection device according to the present invention is a lane detection device that detects a lane composed of two parallel lane markings on a road, and includes an imaging unit that images a road, and each pixel of an image captured by the imaging unit. A luminance gradient vector calculating unit that calculates a luminance gradient vector, and a set of luminance gradient vectors are sequentially extracted from the luminance gradient vectors calculated by the luminance gradient vector calculating unit, and the extracted luminance gradient vectors are evaluated. An evaluation unit, a lane line detection unit that extracts a set of pixels in which the direction of the luminance gradient vector is opposite based on an evaluation result by the evaluation unit, and detects a lane line from the extracted set of pixels, and a lane line detection and a lane shape estimating means for estimating a lane shape from division line detected by means brightness gradient vector calculation means, for each pixel, calculate the first-order derivative in the horizontal direction of the luminance of the image Calculating a first-order differential value of the vertical luminance of the image as well as, and calculates the brightness gradient vector from the primary differential value in the horizontal direction of the primary differential value and the vertical luminance brightness.

この車線検出装置では、上記の区画線検出装置と同様の各手段を備えており、区画線検出装置と同様の手法により区画線を検出する。そして、車線検出装置では、車線形状推定手段により、検出した区画線から車線の形状を推定する。この車線検出装置では、高精度に検出した区画線から直線路だけでなく、様々な曲路の車線の形状を正確に検出するこができ、車線を高精度に検出することができる。   This lane detection device is provided with each means similar to the lane marking detection device described above, and detects the lane marking by the same method as the lane marking detection device. In the lane detection device, the lane shape estimation means estimates the lane shape from the detected lane marking. In this lane detection device, not only straight roads but also lane shapes of various curved roads can be accurately detected from the lane lines detected with high accuracy, and lanes can be detected with high accuracy.

本発明の上記区画線検出装置あるいは上記車線検出装置では、評価手段は、画像中の任意の画素を中心として一定距離内に存在する点対称となる2画素からなる1組の輝度勾配ベクトルの内積を算出することによって評価値を求める構成としてもよい。   In the lane marking detection apparatus or the lane detection apparatus according to the present invention, the evaluation means is an inner product of a set of luminance gradient vectors consisting of two point-symmetric pixels existing within a certain distance around an arbitrary pixel in the image. The evaluation value may be obtained by calculating.

評価手段では、算出した各画素の輝度勾配ベクトルの中から画像中の任意の画素を中心として一定距離内に存在する点対称となる2画素からなる1組の輝度勾配ベクトルを順次抽出し、その抽出した組の輝度勾配ベクトルの内積を算出することによって評価値を求める。区画線の2本の輪郭線上の対応する2画素は、区画線の中心線上の画素を中心として点対称の位置にある。また、区画線の幅は決まっており、画像中の区画線の幅も所定の範囲内となる。したがって、区画線の2本の輪郭線上の対応する2画素の組を探索するためには、画像中の全画素についての全ての組み合わせを評価する必要はなく、任意の画素を中心として一定距離内に存在する点対称となる2画素の組み合わせについて評価すればよい。一定距離は、画像における区画線の幅の範囲を考慮して設定される距離である。このように、この区画線検出装置あるいは車線検出装置では、評価する組み合わせを絞ることにより、処理負荷を軽減することができる。   The evaluation means sequentially extracts a set of luminance gradient vectors composed of two pixels that are point-symmetric and exist within a certain distance from an arbitrary pixel in the image from the calculated luminance gradient vector of each pixel. An evaluation value is obtained by calculating the inner product of the brightness gradient vectors of the extracted set. Two corresponding pixels on the two contour lines of the lane marking are in a point-symmetrical position around the pixel on the center line of the lane marking. Also, the width of the lane marking is determined, and the width of the lane marking in the image is within a predetermined range. Therefore, in order to search for a pair of two corresponding pixels on the two contour lines of the partition line, it is not necessary to evaluate all the combinations of all the pixels in the image, and within a certain distance centering on an arbitrary pixel. What is necessary is just to evaluate about the combination of 2 pixels which become point symmetry existing in. The fixed distance is a distance set in consideration of the range of the width of the lane marking in the image. Thus, in this lane marking detection device or lane detection device, the processing load can be reduced by narrowing down the combinations to be evaluated.

本発明に係る車線検出装置は、道路上の2本の並行する区画線からなる車線を検出する車線検出装置であって、道路を撮像する撮像手段と、撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、形状モデル又は過去の検出結果に基づいて車線形状候補を生成する車線形状候補生成手段と、車線形状候補生成手段で生成した車線形状候補と輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルとを照合し、当該照合結果に基づいて車線の形状を推定する車線形状推定手段とを備え、輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする。 A lane detection device according to the present invention is a lane detection device that detects a lane composed of two parallel lane markings on a road, and includes an imaging unit that images a road, and each pixel of an image captured by the imaging unit. Luminance gradient vector calculation means for calculating a luminance gradient vector, lane shape candidate generation means for generating lane shape candidates based on a shape model or past detection results, lane shape candidates and luminance gradients generated by the lane shape candidate generation means A lane shape estimation unit that collates the luminance gradient vector calculated by the vector calculation unit and estimates a lane shape based on the comparison result, and the luminance gradient vector calculation unit includes a horizontal gradient of the image for each pixel. A first derivative value of luminance and a first derivative value of luminance in the vertical direction of the image are calculated, and brightness is obtained from the first derivative value of luminance in the horizontal direction and the first derivative value of luminance in the vertical direction. And calculates the gradient vector.

この車線検出装置では、撮像手段により道路を撮像し、輝度勾配ベクトル算出手段により撮像画像の各画素の輝度勾配ベクトルを算出する。また、車線検出装置では、車線形状候補生成手段により、形状モデルあるいは区画線や車線の過去の検出結果から車線形状候補を生成する。形状モデルは、区画線や車線の様々な形状を表すためのモデルであり、直線や様々な曲線を表すことができる形状モデルである。車線形状候補は、車線の形状を表す様々な候補である。そして、車線検出装置では、車線形状推定手段により、生成した車線形状候補と算出した輝度勾配ベクトルとを照合し、当該照合結果に基づいて車線の形状を推定する。ある車線形状候補が撮像画像中の車線(実際の車線)に形状が近いほど、その車線形状候補における各画素の輝度勾配の方向とその各画素に対応する画素の輝度勾配ベクトルの方向との差が小さくなり、その車線形状候補と輝度勾配ベクトルとの一致度が大きくなる。そこで、一致度が最も大きい車線形状候補から車線(区画線)を推定することができる。このように、この車線検出装置では、複数の方向の輝度勾配からなる輝度勾配ベクトルを用い、その輝度勾配ベクトルと車線形状候補とを照合することにより、任意の方向の車線を検出することができる。その結果、直線路だけでなく、様々な曲路の車線を正確に検出するこができ、車線を高精度に検出することができる。また、各画素について輝度勾配ベクトルを算出し、車線形状候補と輝度勾配ベクトルとを照合することによって画像中の車線を検出することができるので、処理負荷も比較的少なく、効率的に車線を検出できる。さらに、区画線の形状や幅及び車線幅を同時に検出することができる。   In this lane detection device, the road is imaged by the imaging unit, and the luminance gradient vector of each pixel of the captured image is calculated by the luminance gradient vector calculating unit. In the lane detection device, lane shape candidates are generated by the lane shape candidate generation means from the past detection results of the shape model or lane markings and lanes. The shape model is a model for representing various shapes of lane markings and lanes, and is a shape model that can represent straight lines and various curves. Lane shape candidates are various candidates representing the shape of the lane. In the lane detection device, the lane shape estimation means collates the generated lane shape candidate with the calculated luminance gradient vector, and estimates the lane shape based on the collation result. The closer the shape of a lane shape candidate is to the lane (actual lane) in the captured image, the difference between the direction of the luminance gradient of each pixel in the lane shape candidate and the direction of the luminance gradient vector of the pixel corresponding to each pixel And the degree of coincidence between the lane shape candidate and the brightness gradient vector increases. Therefore, the lane (division line) can be estimated from the lane shape candidate having the highest degree of coincidence. As described above, in this lane detection device, a lane in an arbitrary direction can be detected by using a luminance gradient vector composed of luminance gradients in a plurality of directions and collating the luminance gradient vector with lane shape candidates. . As a result, not only a straight road but also lanes of various curved roads can be detected accurately, and the lane can be detected with high accuracy. In addition, it can detect the lane in the image by calculating the brightness gradient vector for each pixel and comparing the lane shape candidate with the brightness gradient vector, so the processing load is relatively low and the lane can be detected efficiently. it can. Furthermore, the shape and width of the lane marking and the lane width can be detected simultaneously.

本発明は、輝度勾配ベクトルを用い、区画線の2本の輪郭線における各画素の輝度勾配ベクトルの向きが逆方向になることに利用することにより、任意の方向の区画線(ひいては、車線)を高精度に検出することができる。   The present invention uses a brightness gradient vector and uses the fact that the direction of the brightness gradient vector of each pixel in the two contour lines of the partition line is in the opposite direction, thereby allowing a partition line (and thus a lane) in any direction. Can be detected with high accuracy.

以下、図面を参照して、本発明に係る区画線検出装置及び車線検出装置の実施の形態を説明する。   Embodiments of a lane marking detection device and a lane detection device according to the present invention will be described below with reference to the drawings.

本実施の形態では、本発明を、第1の実施の形態に係るレーンマーカ検出装置、第2及び第3の実施の形態に係る車線検出装置に適用する。第1の実施の形態に係るレーンマーカ検出装置は、各画素の輝度勾配ベクトルを算出し、各組の輝度勾配ベクトルを評価することによってレーンマーカ(区画線)を検出する。第2の実施の形態に係る車線検出装置は、第1の実施の形態と同様の手法によってレーンマーカを検出し、検出したレーンマーカを用いて車線を推定する。第3の実施の形態に係る車線検出装置は、各画素の輝度勾配ベクトルを算出するとともに形状モデルから車線形状候補を生成し、輝度勾配ベクトルと車線形状候補を照合することによって車線を検出する。   In the present embodiment, the present invention is applied to the lane marker detection device according to the first embodiment and the lane detection devices according to the second and third embodiments. The lane marker detection device according to the first embodiment detects a lane marker (partition line) by calculating a luminance gradient vector of each pixel and evaluating each set of luminance gradient vectors. The lane detection device according to the second embodiment detects a lane marker by a method similar to that of the first embodiment, and estimates the lane using the detected lane marker. The lane detecting apparatus according to the third embodiment calculates a luminance gradient vector of each pixel, generates a lane shape candidate from the shape model, and detects the lane by collating the luminance gradient vector with the lane shape candidate.

図1及び図2を参照して、第1の実施の形態に係るレーンマーカ検出装置1について説明する。図1は、第1の実施の形態に係るレーンマーカ検出装置の構成図である。図2は、図1のECUの輝度勾配ベクトル算出部で用いる1次微分フィルタの一例であり、(a)が水平方向のフィルタであり、(b)が垂直方向のフィルタである。   With reference to FIG.1 and FIG.2, the lane marker detection apparatus 1 which concerns on 1st Embodiment is demonstrated. FIG. 1 is a configuration diagram of a lane marker detection device according to the first embodiment. FIG. 2 is an example of a primary differential filter used in the luminance gradient vector calculation unit of the ECU of FIG. 1, where (a) is a horizontal filter and (b) is a vertical filter.

レーンマーカ検出装置1は、自車両が走行している車線のレーンマーカ(車線を構成する白線)を検出し、例えば、その検出したレーンマーカの情報をレーンキープ装置、自動操舵装置などの他の装置に提供したりする。レーンマーカ検出装置1では、検出精度を向上させるために、レーンマーカの2本の輪郭線における対応する点の輝度勾配ベクトルの向きが逆方向になることに利用してレーンマーカを検出する。そのために、レーンマーカ検出装置1は、カメラ2及びECU[Electronic Control Unit]3を備えており、ECU3内に輝度勾配ベクトル算出部3a及びレーンマーカ検出部3bが構成される。   The lane marker detection device 1 detects a lane marker (white line constituting the lane) of the lane in which the host vehicle is traveling, and provides the detected lane marker information to other devices such as a lane keeping device and an automatic steering device. To do. In the lane marker detection device 1, in order to improve the detection accuracy, the lane marker is detected by using the fact that the direction of the luminance gradient vector of the corresponding points in the two contour lines of the lane marker is opposite. For this purpose, the lane marker detection device 1 includes a camera 2 and an ECU [Electronic Control Unit] 3, and a luminance gradient vector calculation unit 3 a and a lane marker detection unit 3 b are configured in the ECU 3.

第1の実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、輝度勾配ベクトル算出部3aが特許請求の範囲に記載する輝度勾配ベクトル算出手段に相当し、レーンマーカ検出部3bが特許請求の範囲に記載する評価手段及び区画線検出手段に相当する。   In the first embodiment, the camera 2 corresponds to the imaging unit described in the claims, the luminance gradient vector calculation unit 3a corresponds to the luminance gradient vector calculation unit described in the claims, and the lane marker detection unit 3b corresponds to the evaluation means and the lane marking detection means described in the claims.

カメラ2は、CCD[Charge coupled device]やCMOS[Complementary Metal OxideSemiconductor]などの撮像素子を備えるカメラである。カメラ2は、車両の前方に取り付けられ、車両前方の道路が撮像画像の下側の1/2〜2/3の範囲内を入るようなピッチ角度や取り付け高さで車両に取り付けされる。カメラ2では、車両前方を撮像し、その撮像画像データを画像信号としてECU3に送信する。図3には、撮像画像の一例を示している。なお、ECU3では少なくとも輝度情報があれば処理を行うことができるので、カメラ2はカラーカメラでもあるいは白黒カメラでもよい。車両に対するカメラ2のピッチ角は取り付け時から一定であるが、道路平面に対するカメラ2のピッチ角θは車両のピッチ方向の変動に応じて変動する。   The camera 2 is a camera including an image sensor such as a CCD [Charge coupled device] or a CMOS [Complementary Metal Oxide Semiconductor]. The camera 2 is attached to the front of the vehicle, and is attached to the vehicle at a pitch angle or attachment height such that the road ahead of the vehicle falls within the range of 1/2 to 2/3 below the captured image. The camera 2 captures the front of the vehicle and transmits the captured image data to the ECU 3 as an image signal. FIG. 3 shows an example of the captured image. Since the ECU 3 can perform processing if there is at least luminance information, the camera 2 may be a color camera or a monochrome camera. Although the pitch angle of the camera 2 with respect to the vehicle is constant from the time of attachment, the pitch angle θ of the camera 2 with respect to the road plane varies according to the variation in the pitch direction of the vehicle.

ECU3は、画像処理用のECUであり、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなる。ECU3では、レーンマーカ検出装置1が起動されると、ROMに記憶されている専用のアプリケーションプログラムをRAMにロードし、CPUによってそのプログラムに記述された各処理を実行することによって各処理部3a,3bが構成される。ECU3では、一定時間毎に、カメラ2から撮像画像データを取り入れる。そして、ECU3では、撮像画像の各画素の輝度勾配ベクトルを算出する。さらに、ECU3では、各画素の輝度勾配ベクトルに基づいてレーンマーカ(中心線を構成する画素列)を検出する。   The ECU 3 is an ECU for image processing, and includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. In the ECU 3, when the lane marker detection device 1 is activated, a dedicated application program stored in the ROM is loaded into the RAM, and each processing unit 3a, 3b is executed by the CPU executing each process described in the program. Is configured. The ECU 3 takes captured image data from the camera 2 at regular intervals. Then, the ECU 3 calculates a luminance gradient vector for each pixel of the captured image. Further, the ECU 3 detects a lane marker (a pixel row constituting the center line) based on the luminance gradient vector of each pixel.

輝度勾配ベクトル算出部3aでは、撮像画像の各画素の輝度から輝度勾配ベクトルを算出する。輝度勾配ベクトルは、撮像画像の画素毎に異なる複数の方向についての輝度の勾配(エッジ)が求められ、その複数の方向の輝度勾配を合成したベクトルである。輝度勾配ベクトル算出部3aでは、図2(a)に示す水平方向の1次微分フィルタを用いて、式(1)により画像中の画素Pu,vについて水平方向の輝度の1次微分値(輝度勾配)dI(u,v)を算出する。また、輝度勾配ベクトル算出部3aでは、図2(b)に示す垂直方向の1次微分フィルタを用いて、式(2)により画像中の画素Pu,vについて垂直方向の輝度の1次微分値dI(u,v)を算出する。 The luminance gradient vector calculation unit 3a calculates a luminance gradient vector from the luminance of each pixel of the captured image. The luminance gradient vector is a vector in which luminance gradients (edges) in a plurality of directions different for each pixel of the captured image are obtained and the luminance gradients in the plurality of directions are synthesized. The luminance gradient vector calculation unit 3a uses a horizontal first-order differential filter shown in FIG. 2A, and uses the first-order differential value (in the horizontal direction for the pixels Pu and v in the image (1) (1). Luminance gradient) dI 1 (u, v) is calculated. Further, the luminance gradient vector calculation unit 3a uses the vertical first-order differential filter shown in FIG. 2B, and uses the first-order differential filter of the vertical luminance for the pixels Pu and v in the image according to the equation (2). The value dI 2 (u, v) is calculated.

Figure 0004797846
Figure 0004797846

(1)式、(2)式におけるIは、画素の輝度値である。水平方向1次微分フィルタによって((1)式によって)、水平方向において輝度の変化している部分(エッジ)を抽出でき、垂直方向の輪郭を抽出できる。また、垂直方向1次微分フィルタによって((2)式によって)、垂直方向において輝度の変化している部分(エッジ)を抽出でき、水平方向の輪郭を抽出できる。   I in the formulas (1) and (2) is a luminance value of the pixel. With the horizontal first-order differential filter (by equation (1)), it is possible to extract a portion (edge) in which the luminance changes in the horizontal direction and extract a contour in the vertical direction. In addition, by the vertical first-order differential filter (by the equation (2)), the portion (edge) where the luminance changes in the vertical direction can be extracted, and the contour in the horizontal direction can be extracted.

図4には、図3の撮像画像に対する水平方向1次微分フィルタの出力結果を示している。図4から判るように、水平方向1次微分フィルタによって、車線の左側のレーンマーカの輪郭については大部分を抽出することができるが、右側のレーンマーカや隣接車線のレーンマーカの輪郭については十分に抽出することができない。図5には、図3の撮像画像に対する垂直方向1次微分フィルタの出力結果を示している。図5から判るように、垂直方向1次微分フィルタによって、車線の右側のレーンマーカや隣接車線のレーンマーカの輪郭については大部分を抽出することができるが、左側のレーンマーカについては十分に抽出することができない(例えば、垂直方向のエッジのみで構成される輪郭部分について欠損がある)。このように、1方向だけでは欠損や十分なエッジの強度が得られない。しかし、2方向でエッジを抽出することにより、一方の方向で欠損や十分なエッジの強度が得られない部分でも、他方の方向で十分なエッジの強度が得られる。したがって、2方向のエッジ成分からなる輝度勾配ベクトルによって、様々な方向のレーンマーカの輪郭を高精度に抽出することができる。   FIG. 4 shows the output result of the horizontal first-order differential filter for the captured image of FIG. As can be seen from FIG. 4, the horizontal first-order differential filter can extract most of the outline of the lane marker on the left side of the lane, but sufficiently extracts the outline of the lane marker on the right side and the lane marker of the adjacent lane. I can't. FIG. 5 shows the output result of the vertical first-order differential filter for the captured image of FIG. As can be seen from FIG. 5, the vertical first-order differential filter can extract most of the contours of the lane marker on the right side of the lane and the lane marker of the adjacent lane, but can sufficiently extract the lane marker on the left side. It is not possible (for example, there is a defect in a contour portion composed only of vertical edges). In this way, a defect and sufficient edge strength cannot be obtained in only one direction. However, by extracting an edge in two directions, a sufficient edge strength can be obtained in the other direction even in a portion where a defect or a sufficient edge strength cannot be obtained in one direction. Therefore, the contour of the lane marker in various directions can be extracted with high accuracy by using the luminance gradient vector composed of the edge components in two directions.

輝度勾配ベクトル算出部3aでは、この2方向の1次微分フィルタの各出力から輝度勾配ベクトルを設定する。水平方向1次微分フィルタの出力をdI(u,v)とし、垂直方向1次微分フィルタの出力をdI(u,v)とした場合、輝度勾配ベクトルdI(u,v)=(dI(u,v),dI(u,v))となる。なお、uは画像上の画素の水平方向の位置を示し、vは画像上の画素の垂直方向の位置を示す。 In the luminance gradient vector calculation unit 3a, a luminance gradient vector is set from the outputs of the first-order differential filters in the two directions. When the output of the horizontal primary differential filter is dI 1 (u, v) and the output of the vertical primary differential filter is dI 2 (u, v), the luminance gradient vector dI (u, v) = (dI 1 (u, v), dI 2 (u, v)) T. Note that u indicates the horizontal position of the pixel on the image, and v indicates the vertical position of the pixel on the image.

なお、撮像画像の全ての画素について輝度勾配ベクトルを算出してもよいが、カメラ2のピッチ角度などを考慮し、撮像画像における道路が写っている範囲を限定できる場合にはその範囲内の画素についてのみ輝度勾配ベクトルを算出してもよい。また、各1次微分フィルタの出力結果はノイズなどの影響により局所的に大きく変化する場合があるので、平均フィルタを使用してノイズの影響を低減してもよい。   Note that the luminance gradient vector may be calculated for all pixels of the captured image. However, in consideration of the pitch angle of the camera 2 and the like, if the range in which the road is captured in the captured image can be limited, the pixels within that range A luminance gradient vector may be calculated only for. Moreover, since the output result of each primary differential filter may change greatly locally due to the influence of noise or the like, the influence of noise may be reduced by using an average filter.

レーンマーカは、平行する2本の輪郭線(道路とレーンマーカとの境界)を有している。レーンマーカ(白線)の反射率は道路の反射率より大きいので、一方の輪郭線では輝度が暗→明(道路からレーンマーカ)に変化し、他方の輪郭線では明→暗(レーンマーカから道路)に変化する。したがって、一方の輪郭線における任意の画素の輝度勾配ベクトルと他方の輪郭線における対応する画素の輝度勾配ベクトルとは、1次微分の場合にはその方向が真逆方向となり、その強度が同程度となる。この特性を利用して、輝度勾配ベクトルからレーンマーカを検出する。   The lane marker has two parallel contour lines (boundary between the road and the lane marker). Since the reflectance of the lane marker (white line) is larger than the reflectance of the road, the brightness changes from dark to bright (road to lane marker) on one contour, and bright to dark (lane marker to road) on the other contour. To do. Therefore, the luminance gradient vector of an arbitrary pixel on one contour line and the luminance gradient vector of the corresponding pixel on the other contour line are in the opposite direction in the case of first-order differentiation, and the intensity is approximately the same. It becomes. By using this characteristic, a lane marker is detected from a luminance gradient vector.

レーンマーカ検出部3bでは、所定の関係を満たす2画素を1組とした輝度勾配ベクトルからレーンマーカらしさを評価し、その評価結果からレーンマーカの中心線を検出する。レーンマーカは一定幅を有しているので、レーンマーカの中心線を特定することにより、レーンマーカの2本の輪郭線(すなわち、レーンマーカの形状)を特定することになる。   The lane marker detection unit 3b evaluates the likelihood of a lane marker from a luminance gradient vector in which two pixels satisfying a predetermined relationship are set as one set, and detects the center line of the lane marker from the evaluation result. Since the lane marker has a certain width, the two contour lines of the lane marker (that is, the shape of the lane marker) are specified by specifying the center line of the lane marker.

レーンマーカ検出部3bでは、画像上の任意の画素Pu,vを順次抽出する。画素Pu,vは、輝度勾配ベクトルを算出した範囲内の画素が抽出される。そして、レーンマーカ検出部3bでは、抽出した画素Pu,vを中心として、画素Pu,vから一定距離d(dmin以上でかつdmax以下)内に存在する点対称となる2点の画素(u’,v’)、(u”,v”)を抽出する。レーンマーカの場合、レーンマーカの中心線上のある点から一定範囲内に点対称で左右の輪郭線上の対応する各点が存在するので、画素Pu,vから一定距離d内に存在し、画素Pu,vを中心として点対称の関係にある2画素を抽出している。dminは画像中のレーンマーカの幅の最小値の1/2の値とし、dmaxは画像中のレーンマーカの幅の最大値の1/2の値とする。さらに、レーンマーカ検出部3bでは、式(3)により、抽出した2点の画素(u’,v’)、(u”,v”)の輝度勾配ベクトルdI(u’,v’)、dI(u”,v”)を用いて、レーンマーカらしさを示す評価値LB(u,v)を算出する。 The lane marker detection unit 3b sequentially extracts arbitrary pixels Pu, v on the image. As the pixels Pu, v , pixels within the range in which the luminance gradient vector is calculated are extracted. Then, the lane-mark detection unit 3b, extracted pixels P u, v around the pixel P u, v from the constant distance d (dmin or more and dmax less) of 2 points which are symmetrical points existing in a pixel (u ', V') and (u ", v") are extracted. In the case of the lane marker, since each point corresponding to the right and left contour lines is point-symmetric within a certain range from a certain point on the center line of the lane marker, it exists within a certain distance d from the pixel P u, v and the pixel P u. , V are extracted and two pixels having a point-symmetrical relationship are extracted. dmin is a value that is 1/2 of the minimum value of the width of the lane marker in the image, and dmax is a value that is 1/2 of the maximum value of the width of the lane marker in the image. Further, in the lane marker detection unit 3b, the luminance gradient vectors dI (u ′, v ′) and dI (2) of the two extracted pixels (u ′, v ′) and (u ″, v ″) are obtained by Expression (3). u ″, v ″) is used to calculate an evaluation value LB (u, v) indicating the likelihood of a lane marker.

Figure 0004797846
Figure 0004797846

式(3)では、dI(u’,v’)が画素(u’,v’)の水平方向1次微分フィルタの出力であり、dI(u’,v’)が画素(u’,v’)の垂直方向1次微分フィルタの出力であり、dI(u”,v”)が画素(u”,v”)の水平方向1次微分フィルタの出力であり、dI(u”,v”)が画素(u”,v”)の垂直方向1次微分フィルタの出力であり、f()は所定の評価関数である。1次微分フィルタによる輝度勾配ベクトルの場合、レーンマーカの2本の輪郭線上の各画素の輝度勾配ベクトルの向きが逆方向になるので、評価関数として内積を用いる。レーンマーカ検出部3bでは、式(4)により、評価値LB(u,v)を算出する。 In Expression (3), dI 1 (u ′, v ′) is the output of the horizontal first-order differential filter of the pixel (u ′, v ′), and dI 2 (u ′, v ′) is the pixel (u ′). , V ′) is the output of the first-order differential filter in the vertical direction, dI 1 (u ″, v ″) is the output of the first-order differential filter in the horizontal direction of the pixel (u ″, v ″), and dI 2 (u ", V") is the output of the vertical first-order differential filter of the pixel (u ", v"), and f () is a predetermined evaluation function. In the case of the luminance gradient vector by the primary differential filter, the direction of the luminance gradient vector of each pixel on the two contour lines of the lane marker is in the reverse direction, so the inner product is used as the evaluation function. In the lane marker detection unit 3b, the evaluation value LB (u, v) is calculated by Expression (4).

Figure 0004797846
Figure 0004797846

なお、2次微分などのフィルタによる輝度勾配ベクトルを用いることによってレーンマーカの2本の輪郭線上の各画素の輝度勾配ベクトルの向きが同方向になる場合、評価関数として式(5)で示す総和や式(6)で示す積を用いる。   If the direction of the luminance gradient vector of each pixel on the two contour lines of the lane marker is the same direction by using the luminance gradient vector obtained by a filter such as a second derivative, the sum represented by equation (5) or The product shown in equation (6) is used.

Figure 0004797846
Figure 0004797846

これら評価値LB(u,v)は、2画素(u’,v’)、(u”,v”)の各輝度勾配ベクトルの向きが逆方向となるほど、値が大きくなる。また、評価値LB(u,v)は、2画素(u’,v’)、(u”,v”)の各輝度勾配ベクトルの強度が大きいほど、値が大きくなる。   These evaluation values LB (u, v) increase as the direction of each luminance gradient vector of the two pixels (u ′, v ′), (u ″, v ″) is reversed. The evaluation value LB (u, v) increases as the intensity of each luminance gradient vector of the two pixels (u ′, v ′) and (u ″, v ″) increases.

レーンマーカ検出部3bでは、画像中の各画素Pu,vについて、一定距離d内に存在する点対称となる2点の画素(u’,v’)、(u”,v”)の全ての組み合わせについて評価値LB(u,v)を算出し、全ての組み合わせの評価値LB(u,v)の中から最大の評価値LB(u,v)を選択する。そして、レーンマーカ検出部3bでは、画像中の各画素Pu,vについて、最大の評価値LB(u,v)が閾値Th1より大きいか否かを判定する。閾値Th1は、評価値LB(u,v)の大きさとして2画素(u’,v’)、(u”,v”)がレーンマーカの2本の輪郭線上の対応する各画素であると十分に判定できる大きな値である。閾値Th1は、道路の反射率及び白線の反射率などを考慮して設定されてもよいし、あるいは、実際に様々な道路で評価値を求め、その実験結果から決定されてもよい。 In the lane marker detection unit 3b, for each pixel P u, v in the image, all of the two point-symmetrical pixels (u ′, v ′), (u ″, v ″) existing within a certain distance d. The evaluation value LB (u, v) is calculated for the combination, and the maximum evaluation value LB (u, v) is selected from the evaluation values LB (u, v) of all the combinations. Then, the lane marker detection unit 3b determines whether or not the maximum evaluation value LB (u, v) is larger than the threshold value Th1 for each pixel Pu, v in the image. The threshold value Th1 is sufficient when the two pixels (u ′, v ′) and (u ″, v ″) are the corresponding pixels on the two contour lines of the lane marker as the magnitude of the evaluation value LB (u, v). This is a large value that can be determined. The threshold value Th1 may be set in consideration of the reflectance of the road and the reflectance of the white line, or may be determined from the experimental results obtained by actually obtaining evaluation values on various roads.

レーンマーカ検出部3bでは、閾値Th1より大きい評価値LB(u,v)であった画素Pu,vをレーンマーカの中心線上の画素とし、その画素Pu,v列をレーンマーカの形状として出力する。なお、レーンマーカの中心線を形成する画素Pu,v列からレーンマーカの2本の輪郭線を形成する2本の画素列を算出し、その2本の画素列をレーンマーカの形状として出力してもよい。 The lane marker detecting section 3b, the threshold Th1 is greater than the evaluation value LB (u, v) is a pixel P u, v and the center line of pixels of the lane marker, and outputs the pixel P u, v columns as the shape of the lane marker. Note that two pixel columns forming two contour lines of the lane marker are calculated from the pixels Pu and v forming the center line of the lane marker, and the two pixel columns are output as the shape of the lane marker. Good.

図1を参照して、レーンマーカ検出装置1の動作について説明する。特に、ECU3における輝度勾配ベクトル算出部3aの処理については図6のフローチャートに沿って説明し、レーンマーカ検出部3bの処理については図7のフローチャートに沿って説明する。図6は、図1のECUの輝度勾配ベクトル算出部における処理の流れを示すフローチャートである。図7は、図1のECUのレーンマーカ検出部における処理の流れを示すフローチャートである。   The operation of the lane marker detection device 1 will be described with reference to FIG. In particular, the process of the luminance gradient vector calculation unit 3a in the ECU 3 will be described along the flowchart of FIG. 6, and the process of the lane marker detection unit 3b will be described along the flowchart of FIG. FIG. 6 is a flowchart showing a process flow in the luminance gradient vector calculation unit of the ECU of FIG. FIG. 7 is a flowchart showing the flow of processing in the lane marker detection unit of the ECU of FIG.

カメラ2では、車両前方を撮像し、画像信号をECU3に送信している。ECU3では、一定時間(例えば、1/30秒)毎に、画像信号を受信し、その撮像画像のデータを一時記憶する。そして、ECU3では、この撮像画像についての処理を開始する。   The camera 2 images the front of the vehicle and transmits an image signal to the ECU 3. The ECU 3 receives an image signal every predetermined time (for example, 1/30 second) and temporarily stores data of the captured image. Then, the ECU 3 starts processing for the captured image.

まず、ECU3では、画像中から画素Pu,vを抽出する(S10)。そして、ECU3では、水平方向1次微分フィルタを用いて、画素Pu,vの水平方向の輝度勾配dI(u,v)を算出する(S11)。また、ECU3では、垂直方向1次微分フィルタを用いて、画素Pu,vの垂直方向の輝度勾配dI(u,v)を算出する(S12)。そして、ECU3では、水平方向の輝度勾配dI(u,v)と垂直方向の輝度勾配dI(u,v)から画素Pu,vの輝度勾配ベクトルdI(u,v)を設定する(S13)。 First, the ECU 3 extracts the pixels Pu, v from the image (S10). Then, the ECU 3 calculates a luminance gradient dI 1 (u, v) in the horizontal direction of the pixels P u, v using a horizontal first-order differential filter (S11). Further, the ECU 3 calculates the luminance gradient dI 2 (u, v) in the vertical direction of the pixels Pu, v using a vertical first-order differential filter (S12). Then, the ECU 3 sets the luminance gradient vector dI (u, v) of the pixels Pu, v from the horizontal luminance gradient dI 1 (u, v) and the vertical luminance gradient dI 2 (u, v) ( S13).

そして、ECU3では、全ての画素Pu,vについて輝度勾配ベクトルの算出処理が終了したか否かを判定する(S14)。S14にて全ての画素Pu,vについて処理が終了していないと判定した場合、S10の処理に戻り、次の画素Pu,vについての処理を行う。一方、S14にて全ての画素Pu,vについての処理が終了したと判定した場合、輝度勾配ベクトル算出処理を終了する。 Then, the ECU 3 determines whether or not the luminance gradient vector calculation process has been completed for all the pixels Pu and v (S14). If it is determined in S14 that the process has not been completed for all the pixels P u, v , the process returns to S10 and the process for the next pixel P u, v is performed. On the other hand, when it is determined in S14 that the processing for all the pixels Pu, v is finished, the luminance gradient vector calculation processing is finished.

輝度勾配ベクトルを算出すると、ECU3では、画像中から画素Pu,vを抽出する(S20)。そして、ECU3では、画素Pu,vを中心として、一定距離d(dminからdmaxまでの範囲)に存在する点対称となる1組の画素(u’,v’)、(u”,v”)を順次抽出し、その1組の画素(u’,v’)、(u”,v”)の各輝度勾配ベクトルdI(u’,v’)、dI(u”,v”)から評価値LB(u,v)を算出する(S21)。この評価値LB(u,v)を、一定距離d内に存在する点対称となる全ての組み合わせについてそれぞれ算出する。そして、ECU3では、その全ての組み合わせの各評価値LB(u,v)の中から最大の評価値LB(u,v)を選択する(S21)。さらに、ECU3では、最大の評価値LB(u,v)が閾値Th1より大きいか否かを判定する(S22)。S22にて閾値Th1より大きいと判定した場合(すなわち、最大の評価値LB(u,v)となる輝度勾配ベクトルdI(u’,v’)、dI(u”,v”)は向きが逆向きで強度もある程度大きい場合)、ECU3では、画素Pu,vをレーンマーカの中心線上の画素として設定する(S23)。一方、S22にて閾値Th1以下と判定した場合、S24の処理に移行する。 When the luminance gradient vector is calculated, the ECU 3 extracts the pixels Pu, v from the image (S20). Then, in the ECU 3, a set of pixels (u ′, v ′), (u ″, v ″) that are point-symmetric and exist at a fixed distance d (range from dmin to dmax) with the pixel P u, v as the center. ) Are sequentially extracted and evaluated from the respective luminance gradient vectors dI (u ′, v ′) and dI (u ″, v ″) of the set of pixels (u ′, v ′) and (u ″, v ″). A value LB (u, v) is calculated (S21). This evaluation value LB (u, v) is calculated for all combinations that are point-symmetric and exist within a certain distance d. Then, the ECU 3 selects the maximum evaluation value LB (u, v) from the evaluation values LB (u, v) of all the combinations (S21). Further, the ECU 3 determines whether or not the maximum evaluation value LB (u, v) is larger than the threshold value Th1 (S22). When it is determined in S22 that the threshold value Th1 is greater (that is, the luminance gradient vectors dI (u ′, v ′) and dI (u ″, v ″) having the maximum evaluation value LB (u, v) have the opposite directions. The ECU 3 sets the pixels Pu and v as pixels on the center line of the lane marker (S23). On the other hand, when it determines with it being below threshold value Th1 in S22, it transfers to the process of S24.

そして、ECU3では、全ての画素Pu,vについてレーンマーカ検出処理を終了したか否かを判定する(S24)。S24にて全ての画素Pu,vについて処理が終了していないと判定した場合、S20の処理に戻り、次の画素Pu,vについての処理を行い。一方、S24にて全ての画素Pu,vについての処理が終了したと判定した場合、レーンマーカ検出処理を終了する。ここで、現時刻tの撮像画像におけるレーンマーカの中心線を形成する画素Pu,v列が抽出されたことになる。ECU3では、この画素Pu,v列のデータを出力する。 Then, the ECU 3 determines whether or not the lane marker detection process has been completed for all the pixels Pu and v (S24). If it is determined in S24 that the processing has not been completed for all the pixels P u, v , the process returns to S20 and the next pixel P u, v is processed. On the other hand, if it is determined in S24 that the processing for all the pixels Pu, v has been completed, the lane marker detection processing is terminated. Here, the pixel Pu, v column that forms the center line of the lane marker in the captured image at the current time t is extracted. The ECU 3 outputs the data of the pixel Pu, v column.

レーンマーカ検出装置1では、一定時間毎(撮像画像を取得する毎)に、上記の動作を繰り返し行い、レーンマーカの中心線を形成する画素Pu,v列を求め、出力する。 The lane marker detection device 1 repeats the above operation at regular time intervals (each time a captured image is acquired) to obtain and output the pixels Pu and v that form the center line of the lane marker.

このレーンマーカ検出装置1によれば、2方向の輝度勾配からなる輝度勾配ベクトルを用い、レーンマーカの左右両側の輪郭線における対応する各点の輝度勾配ベクトルの向きが逆方向になることに利用することにより、任意の方向のレーンマーカを高精度に検出することができる。また、各画素について輝度勾配ベクトルを算出し、所定の位置関係にある2画素間の輝度勾配ベクトルを評価することによって画像中のレーンマーカを検出することができるので、処理負荷も比較的少なく、効率的にレーンマーカを検出できる。   According to this lane marker detection device 1, a luminance gradient vector composed of luminance gradients in two directions is used, and this is used when the direction of the luminance gradient vector at each corresponding point on the left and right contour lines of the lane marker is reversed. Thus, a lane marker in an arbitrary direction can be detected with high accuracy. In addition, a lane marker in an image can be detected by calculating a luminance gradient vector for each pixel and evaluating the luminance gradient vector between two pixels having a predetermined positional relationship, so that the processing load is relatively small and efficiency is improved. The lane marker can be detected.

さらに、レーンマーカ検出装置1では、任意の画素から一定距離内に存在する点対称となる2点の画素についてのみ評価することにより、評価する組み合わせを絞ることができ、処理負荷を更に軽減することができる。   Furthermore, the lane marker detection device 1 can narrow down the combinations to be evaluated by evaluating only two point-symmetric pixels existing within a certain distance from an arbitrary pixel, thereby further reducing the processing load. it can.

図8を参照して、第2の実施の形態に係る車線検出装置11について説明する。図8は、第2の実施の形態に係る車線検出装置の構成図である。なお、車線検出装置11では、第1の実施の形態に係るレーンマーカ検出装置1と同様の構成について同一の符号を付し、その説明を省略する。   A lane detection device 11 according to the second embodiment will be described with reference to FIG. FIG. 8 is a configuration diagram of a lane detector according to the second embodiment. In the lane detection device 11, the same components as those in the lane marker detection device 1 according to the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

車線検出装置11は、自車両が走行している車線を検出し、例えば、その検出した車線の情報をレーンキープ装置、自動操舵装置などの他の装置に提供したりする。車線検出装置11では、レーンマーカ検出装置1と同様の処理によってレーンマーカを検出し、そのレーンマーカから車線を推定する。そのために、車線検出装置11は、カメラ2及びECU13を備えており、ECU13内に輝度勾配ベクトル算出部3a、レーンマーカ検出部3b及び車線形状推定部13cが構成される。   The lane detection device 11 detects the lane in which the host vehicle is traveling, and provides information on the detected lane to other devices such as a lane keeping device and an automatic steering device. The lane detection device 11 detects a lane marker by the same process as the lane marker detection device 1, and estimates the lane from the lane marker. For this purpose, the lane detection device 11 includes a camera 2 and an ECU 13, and a luminance gradient vector calculation unit 3a, a lane marker detection unit 3b, and a lane shape estimation unit 13c are configured in the ECU 13.

第2の実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、輝度勾配ベクトル算出部3aが特許請求の範囲に記載する輝度勾配ベクトル算出手段に相当し、レーンマーカ検出部3bが特許請求の範囲に記載する評価手段及び区画線検出手段に相当し、車線形状推定部13cが特許請求の範囲に記載する車線形状推定手段に相当する。   In the second embodiment, the camera 2 corresponds to the imaging unit described in the claims, the luminance gradient vector calculation unit 3a corresponds to the luminance gradient vector calculation unit described in the claims, and the lane marker detection unit 3b corresponds to the evaluation means and lane marking detection means described in the claims, and the lane shape estimation unit 13c corresponds to the lane shape estimation means described in the claims.

ECU13は、画像処理用のECUであり、CPU、ROM、RAMなどからなる。ECU13では、車線検出装置11が起動されると、ROMに記憶されている専用のアプリケーションプログラムをRAMにロードし、CPUによってそのプログラムに記述された各処理を実行することによって各処理部3a,3b,13cが構成される。ECU13では、一定時間毎に、カメラ2から撮像画像データを取り入れる。そして、ECU13では、第1の実施の形態に係るECU3と同様の処理によりレーンマーカを検出する。さらに、ECU13では、その検出したレーンマーカを用いて車線を推定する。   The ECU 13 is an ECU for image processing, and includes a CPU, a ROM, a RAM, and the like. In the ECU 13, when the lane detecting device 11 is activated, a dedicated application program stored in the ROM is loaded into the RAM, and each processing unit 3a, 3b is executed by the CPU executing each process described in the program. , 13c are configured. The ECU 13 takes captured image data from the camera 2 at regular intervals. And ECU13 detects a lane marker by the process similar to ECU3 which concerns on 1st Embodiment. Further, the ECU 13 estimates the lane using the detected lane marker.

車線形状推定部13cでは、レーンマーカの中心線を形成する画素Pu,v列を用いて、形状モデルを利用して車線の形状と位置を推定する。ここでは、形状モデルとして、文献[B.Southall C.J.Taylor,”Stochastic roadshape estimation”,ICCV2001]において開示されている式(7)の形状モデルを用いる。 In the lane shape estimation unit 13c, the shape and position of the lane are estimated using the shape model using the pixels Pu, v columns forming the center line of the lane marker. Here, the shape model of Expression (7) disclosed in the literature [B. Southall CJTaylor, “Stochastic roadshape estimation”, ICCV2001] is used as the shape model.

Figure 0004797846
Figure 0004797846

式(7)に示す形状モデルは、3次元の形状モデルを平面に投影したモデルであり、x座標が車両の進行方向であり、y座標が車両の進行方向に直交する方向である。式(7)におけるyが車線の中心線からのオフセットに相当するパラメータであり、εがカメラ2の撮像方向に対するレーンマーカの方向(傾き)に相当するパラメータであり、Cがレーンマーカの曲率に相当するパラメータであり、Cがレーンマーカの曲率の変化に相当するパラメータである。yは車線の中心線に対して左側オフセットと右側オフセットがプラス値とマイナス値で表され、その左側オフセットと右側オフセットの差が車線の幅Wとなる。 The shape model shown in Expression (7) is a model obtained by projecting a three-dimensional shape model onto a plane, where the x coordinate is the traveling direction of the vehicle and the y coordinate is the direction orthogonal to the traveling direction of the vehicle. In equation (7), y 0 is a parameter corresponding to the offset from the center line of the lane, ε is a parameter corresponding to the direction (inclination) of the lane marker with respect to the imaging direction of the camera 2, and C 0 is the curvature of the lane marker. C 1 is a parameter corresponding to a change in the curvature of the lane marker. y 0 is the left offset and right offset is represented by a positive value and a negative value with respect to the center line of the lane, the difference between the left offset and right offset becomes the width W of the lane.

この形状モデルの各パラメータy,ε(tan(ε)),C,Cと車線の幅W(1対のレーンマーカの間隔)によって、車線の形状と位置を規定することができる。そこで、これらパラメータにカメラ画像の座標系と形状モデルの座標系との変換に必要なカメラ2のピッチ角θを加えたモデルを考える。車線形状推定部13cでは、レーンマーカの中心線を形成する画素Pu,v列に対して、式(7)の形状モデルを当てはめることによって、各パラメータy,tan(ε),C,C,Wを推定する。車線形状推定部13cでは、推定方法としてはカルマンフィルタを用い、式(8)に示す推定パラメータφを推定する。 The shape and position of the lane can be defined by the parameters y 0 , ε (tan (ε)), C 0 , C 1 and the width W of the lane (the distance between a pair of lane markers). Therefore, a model is considered in which the pitch angle θ of the camera 2 necessary for conversion between the coordinate system of the camera image and the coordinate system of the shape model is added to these parameters. In the lane shape estimation unit 13c, each parameter y 0 , tan (ε), C 0 , C is applied by applying the shape model of Expression (7) to the pixel Pu, v columns forming the center line of the lane marker. 1 and W are estimated. In the lane shape estimation unit 13c, as an estimation method using a Kalman filter to estimate the estimation parameters phi t shown in equation (8).

Figure 0004797846
Figure 0004797846

下付き文字tは現時刻tであることを示し、下付き文字t−1は現時刻tの一定時間Δt前の時刻を示す。まず、車線形状推定部13cでは、前時刻t−1で推定した推定パラメータφt−1を用いて、式(9)により現時刻tの推定パラメータの予測値φ’を算出する。 The subscript t indicates the current time t, and the subscript t-1 indicates the time before the predetermined time Δt of the current time t. First, the lane shape estimation unit 13c calculates the estimated value φ t ′ of the estimated parameter at the current time t using Equation (9) using the estimated parameter φ t−1 estimated at the previous time t−1.

Figure 0004797846
Figure 0004797846

式(9)における行列Aは式(10)で表され、ωは外乱ノイズである。式(10)におけるΔxは式(11)で表される。式(11)のVは、車速であり、図示しない車速センサで検出される。式(11)のΔtは、撮像画像の入力される間隔であり、一定の時間間隔(例えば、1/30秒)である。 The matrix A in Equation (9) is expressed by Equation (10), and ω t is disturbance noise. Δx in Expression (10) is expressed by Expression (11). V in Formula (11) is a vehicle speed, and is detected by a vehicle speed sensor (not shown). In Expression (11), Δt is an interval at which captured images are input, and is a constant time interval (for example, 1/30 seconds).

次に、車線形状推定部13cでは、前時刻t−1で算出した事後誤差共分散行列Mt−1を用いて、式(12)により現時刻tでの事後誤差共分散行列の予測値M’を算出する。車線形状推定部13cでは、事後誤差共分散行列の予測値M’を用いて、式(13)により現時刻tでのカルマンゲインKを算出する。車線形状推定部13cでは、検出したレーンマーカの中心線の画素Pu,v列、推定パラメータの予測値φ’とカルマンゲインKを用いて、式(14)により現時刻tでの推定パラメータφを算出する。また、車線形状推定部13cでは、事後誤差共分散行列の予測値M’とカルマンゲインKを用いて、式(15)により現時刻tでの事後誤差共分散行列Mを算出する。この事後誤差共分散行列Mは、次時刻t−1で用いられる。 Next, the lane shape estimation unit 13c uses the a posteriori error covariance matrix M t−1 calculated at the previous time t−1 to calculate the predicted value M of the a posteriori error covariance matrix at the current time t according to the equation (12). t ′ is calculated. In the lane shape estimation unit 13c, the Kalman gain K at the current time t is calculated by Equation (13) using the predicted value M t ′ of the posterior error covariance matrix. In the lane shape estimation unit 13c, the estimated parameter φ at the current time t is calculated by Expression (14) using the pixel P u, v column of the detected center line of the lane marker, the estimated value φ t ′ of the estimated parameter, and the Kalman gain K. t is calculated. In addition, the lane shape estimation unit 13c calculates the posterior error covariance matrix M t at the current time t using Equation (15) using the predicted value M t ′ of the posterior error covariance matrix and the Kalman gain K. This posterior error covariance matrix M t is used at the next time t−1.

Figure 0004797846
Figure 0004797846

式(12)における行列Qは、システム誤差共分散行列である。式(13)におけるHは式(16)で表され、行列Rは観測誤差共分散行列である。式(14)におけるh(φ’)は、観測方程式であり、式(17)で表される。 The matrix Q in Equation (12) is a system error covariance matrix. H t in Equation (13) is expressed by Equation (16), and the matrix R is an observation error covariance matrix. H (φ t ′) in Expression (14) is an observation equation and is expressed by Expression (17).

Figure 0004797846
Figure 0004797846

式(17)におけるx1,t,・・・,xn,tは、カメラ2の初期取り付け高さlとカメラ2のピッチ角θに基づいて、検出したn個のレーンマーカの中心線を形成する画素Pu,vを道路平面にそれぞれ投影した座標Px,y=(x,y)のうちの車両の進行方向の座標(x座標)である。また、式(14)におけるy(y1,t,・・・,yn,t)は、その道路平面に投影した座標Px,y=(x,y)のうちの車両の進行方向の直交方向の座標(y座標)である。なお、カメラ2の位置(撮像画像上の位置)から道路平面への位置は、カメラ2の初期取り付け高さl(既知)とカメラ2の道路平面に対するピッチ角θによっておおよそ決定することができる。なお、ピッチ角θは、図示しない角速度センサなどによって検出してもよいし、あるいは、所定の方法によって推定してもよい。 X 1, t ,..., X n, t in equation (17) form the center line of the detected n lane markers based on the initial mounting height l of the camera 2 and the pitch angle θ of the camera 2. The coordinates P x, y = (x, y) T in which the pixels P u, v to be projected on the road plane are projected (X coordinates) in the traveling direction of the vehicle. In addition, y t (y 1, t ,..., Y n, t ) in the equation (14) is the vehicle progression among the coordinates P x, y = (x, y) T projected onto the road plane. It is the coordinate (y coordinate) of the orthogonal direction of a direction. The position from the position of the camera 2 (position on the captured image) to the road plane can be roughly determined by the initial mounting height l (known) of the camera 2 and the pitch angle θ of the camera 2 with respect to the road plane. The pitch angle θ may be detected by an angular velocity sensor (not shown) or may be estimated by a predetermined method.

現時刻tでの推定パラメータφが算出されることによって、レーンマーカの形状モデル(式(7))と車線幅Wが決定されることになり、車線の3次元上(道路平面に投影したもの)の形状と位置を推定したことになる。車線形状推定部13cでは、この各パラメータを決定した形状モデル(レーンマーカの形状)と車線幅Wを車線の形状と位置の情報として出力する。 By estimating parameters phi t at the current time t is calculated, lane markers of the shape model (equation (7)) and will be the lane width W is determined, obtained by projecting the three-dimensional on (road plane lane ) Is estimated. The lane shape estimation unit 13c outputs the shape model (lane marker shape) and the lane width W in which these parameters are determined as lane shape and position information.

図8を参照して、車線検出装置11の動作について説明する。特に、ECU13における車線形状推定部13cの処理については図9のフローチャートに沿って説明する。図9は、図8のECUの車線形状推定部における処理の流れを示すフローチャートである。なお、レーンマーカを検出するまでの動作については、第1の実施の形態と同様の動作なので、その説明を省略し、レーンマーカを検出した以降の動作について説明する。   The operation of the lane detection device 11 will be described with reference to FIG. In particular, the processing of the lane shape estimation unit 13c in the ECU 13 will be described along the flowchart of FIG. FIG. 9 is a flowchart showing a flow of processing in the lane shape estimation unit of the ECU of FIG. Since the operation until the lane marker is detected is the same as that in the first embodiment, the description thereof will be omitted, and the operation after the detection of the lane marker will be described.

レーンマーカの中心線を構成する画素Pu,v列を検出すると、ECU13では、式(9)により、前時刻t−1で求めた推定パラメータφt−1を用いて、現時刻tでの推定パラメータの予測値φ’を算出する(S30)。次に、ECU13では、式(12)により、前時刻t−1で求めた事後誤差共分散行列Mt−1を用いて、現時刻tでの事後誤差共分散行列の予測値M’を算出する(S31)。次に、ECU13では、式(13)により、事後誤差共分散行列の予測値M’を用いて、現時刻tでのカルマンゲインKを算出する(S32)。次に、ECU13では、カメラ2のピッチ角θとカメラ2の初期取り付け位置lに基づいて、検出したレーンマーカの中心線を構成する各画素Pu,vを道路平面上に投影した座標Px,yにそれぞれ変換する(S33)。そして、ECU13では、式(14)により、変換した各座標Px,y、推定パラメータの予測値φ’及びカルマンゲインKを用いて、現時刻tでの推定パラメータφを算出する(S33)。また、ECU13では、式(15)により、事後誤差共分散行列の予測値M’及びカルマンゲインKを用いて、現時刻tでの事後誤差共分散行列Mを算出する(S34)。さらに、ECU13では、算出した推定パラメータφの各パラメータにより車線の形状と位置を設定し、その車線の形状と位置の情報を出力する(S35)。 When detecting the pixel Pu, v row that constitutes the center line of the lane marker, the ECU 13 estimates at the current time t using the estimated parameter φ t-1 obtained at the previous time t-1 according to the equation (9). The parameter predicted value φ t ′ is calculated (S30). Next, the ECU 13 obtains the predicted value M t ′ of the posterior error covariance matrix at the current time t using the posterior error covariance matrix M t−1 obtained at the previous time t−1 according to the equation (12). Calculate (S31). Next, the ECU 13 calculates the Kalman gain K at the current time t by using the predicted value M t ′ of the posterior error covariance matrix according to the equation (13) (S32). Next, in the ECU 13, based on the pitch angle θ of the camera 2 and the initial mounting position l of the camera 2, the coordinates P x, which are obtained by projecting the pixels P u, v constituting the center line of the detected lane marker on the road plane . Each is converted to y (S33). Then, the ECU 13 calculates the estimated parameter φ t at the current time t by using the converted coordinates P x, y , the estimated value φ t ′ of the estimated parameter, and the Kalman gain K according to the equation (14) (S33). ). Further, the ECU 13 calculates the posterior error covariance matrix M t at the current time t by using the predicted value M t ′ of the posterior error covariance matrix and the Kalman gain K according to the equation (15) (S34). Further, the ECU 13, the parameters of the calculated estimated parameter phi t to set the shape and position of the lane, and outputs the information of the shape and position of the lane (S35).

車線検出装置11では、一定時間毎(撮像画像を取得する毎)に、上記の動作を繰り返し行い、車線の形状と位置の情報を求め、出力する。   The lane detection device 11 repeats the above operation at regular time intervals (each time a captured image is acquired) to obtain and output information on the shape and position of the lane.

この車線検出装置11によれば、レーンマーカの検出に関して第1の実施の形態に係るレーンキープ検出装置1と同様の効果を有する上に、高精度に検出したレーンマーカから直線路だけでなく、様々な曲路の車線の幅や形状を正確に検出するこができ、車線を高精度に検出することができる。   According to this lane detection device 11, in addition to the same effects as the lane keep detection device 1 according to the first embodiment with respect to the detection of the lane marker, not only the straight road from the lane marker detected with high accuracy, but also various The width and shape of the lane of the curved road can be accurately detected, and the lane can be detected with high accuracy.

さらに、車線検出装置11では、形状モデルとカルマンフィルタを利用することにより、画像全体を見て車線(レーンマーカ)の形状を推定しているので、レーンマーカの検出で誤検出があった場合でもその影響を抑制することができる。なお、レーンマーカの検出精度を更に向上させるために、この画像全体を見て推定したレーンマーカの形状を用いて、レーンマーカを再計算してもよい。   Further, the lane detection device 11 uses the shape model and the Kalman filter to estimate the shape of the lane (lane marker) by looking at the entire image. Can be suppressed. In order to further improve the detection accuracy of the lane marker, the lane marker may be recalculated using the shape of the lane marker estimated from the entire image.

図10を参照して、第3の実施の形態に係る車線検出装置21について説明する。図10は、第3の実施の形態に係る車線検出装置の構成図である。なお、車線検出装置21では、第1の実施の形態に係るレーンマーカ検出装置1と同様の構成について同一の符号を付し、その説明を省略する。   A lane detection device 21 according to a third embodiment will be described with reference to FIG. FIG. 10 is a configuration diagram of a lane detector according to the third embodiment. In the lane detection device 21, the same components as those in the lane marker detection device 1 according to the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

車線検出装置21は、自車両が走行している車線を検出し、例えば、その検出した車線の情報をレーンキープ装置、自動操舵装置などの他の装置に提供したりする。車線検出装置21では、レーンマーカ検出装置1と同様の処理によって輝度勾配ベクトルを算出するとともに、車線形状候補を生成し、輝度勾配ベクトルと車線形状候補を用いて車線を推定する。そのために、車線検出装置21は、カメラ2及びECU23を備えており、ECU23内に輝度勾配ベクトル算出部3a、車線形状候補生成部23b及び車線形状推定部23cが構成される。   The lane detection device 21 detects the lane in which the host vehicle is traveling, and provides information on the detected lane to other devices such as a lane keeping device and an automatic steering device. The lane detection device 21 calculates a luminance gradient vector by the same process as the lane marker detection device 1, generates a lane shape candidate, and estimates the lane using the luminance gradient vector and the lane shape candidate. For this purpose, the lane detection device 21 includes a camera 2 and an ECU 23, and a luminance gradient vector calculation unit 3a, a lane shape candidate generation unit 23b, and a lane shape estimation unit 23c are configured in the ECU 23.

なお、第3の実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、輝度勾配ベクトル算出部3aが特許請求の範囲に記載する輝度勾配ベクトル算出手段に相当し、車線形状候補生成部23bが特許請求の範囲に記載する車線形状候補生成手段に相当し、車線形状推定部23cが特許請求の範囲に記載する車線形状推定手段に相当する。   In the third embodiment, the camera 2 corresponds to the imaging unit described in the claims, the luminance gradient vector calculation unit 3a corresponds to the luminance gradient vector calculation unit described in the claims, and the lane The shape candidate generation unit 23b corresponds to the lane shape candidate generation unit described in the claims, and the lane shape estimation unit 23c corresponds to the lane shape estimation unit described in the claims.

ECU23は、画像処理用のECUであり、CPU、ROM、RAMなどからなる。ECU23では、車線検出装置21が起動されると、ROMに記憶されている専用のアプリケーションプログラムをRAMにロードし、CPUによってそのプログラムに記述された各処理を実行することによって各処理部3a,23b,23cが構成される。ECU23では、一定時間毎に、カメラ2から撮像画像データを取り入れる。そして、ECU23では、第1の実施の形態に係るECU3と同様の処理により輝度勾配ベクトルを算出する。また、ECU23では、形状モデルかた多数の車線形状候補を生成する。さらに、ECU23では、輝度勾配ベクトルと各車線形状候補とを照合し、その照合結果から車線を推定する。   The ECU 23 is an ECU for image processing, and includes a CPU, a ROM, a RAM, and the like. In the ECU 23, when the lane detection device 21 is activated, a dedicated application program stored in the ROM is loaded into the RAM, and each processing unit 3a, 23b is executed by the CPU executing each process described in the program. , 23c are configured. The ECU 23 takes captured image data from the camera 2 at regular time intervals. Then, the ECU 23 calculates a luminance gradient vector by the same process as that of the ECU 3 according to the first embodiment. In addition, the ECU 23 generates a number of lane shape candidates from the shape model. Further, the ECU 23 collates the brightness gradient vector with each lane shape candidate, and estimates the lane from the collation result.

車線形状候補生成部23bでは、形状モデルを利用して車線候補を多数生成する。ここでは、第2の実施の形態で用いた式(7)で示す形状モデルを用いる。また、形状モデルの各パラメータy,tan(ε),C,C、車線の幅W、カメラのピッチ角θの他にレーンマークの幅lwを加えたモデルを考える。レーンマーカの幅lwも同時に推定することにより、レーンマーカの幅が異なる場合でも適切な車線形状候補を生成することができる。車線形状候補としては、任意のN個を生成するものとする。 The lane shape candidate generation unit 23b generates many lane candidates using the shape model. Here, the shape model shown in Formula (7) used in the second embodiment is used. Further, a model in which the lane mark width lw is added to the shape model parameters y 0 , tan (ε), C 0 , C 1 , the lane width W, and the camera pitch angle θ will be considered. By estimating the width lw of the lane marker at the same time, an appropriate lane shape candidate can be generated even when the width of the lane marker is different. Any N lane shape candidates are generated.

道路上にはレーンマーカとなる白線以外にも横断歩道などの様々な形状の白線が存在するので、車線を構成するレーンマーカだけを抽出する必要がある。そこで、形状モデルを利用し、レーンマーカとみなすことができる形状だけを車線形状候補として生成する。レーンマーカ(車線)の形状は、直線(カーブ半径無限大)からカーブ半径数10程度までの曲線、車線幅、レーンマーク幅などが道路構造上決まっている。また、カメラ2のピッチ角θも、カメラの車両に対するピッチ角と車両のピッチ角の限界などから推定することができる。したがって、各パラメータy,ε,C,C,W,θ,lwの範囲を規定することができ、その範囲内の各パラメータの値の組み合わせでモデルを構成することによって、レーンマーカとなる可能性のある様々なパターンの車線形状候補を生成することができる。そこで、パラメータy,ε,C,C,W,θ,lw毎に、取りうる範囲と取りうる値の分布を示す各密度分布Ptを予め設定しておく。分布としては、均等分布、二項分布など特に限定しない。したがって、車線形状候補の数のN個は、各パラメータy,ε,C,C,W,θ,lwが各密度分布から取りうる値の組み合わせの個数となる。 Since there are white lines of various shapes such as pedestrian crossings in addition to the white lines that serve as lane markers on the road, it is necessary to extract only the lane markers that constitute the lane. Therefore, using a shape model, only shapes that can be regarded as lane markers are generated as lane shape candidates. As for the shape of the lane marker (lane), a curve from a straight line (curve radius infinite) to a curve radius of about several tens, a lane width, a lane mark width, and the like are determined according to the road structure. Also, the pitch angle θ of the camera 2 can be estimated from the pitch angle of the camera with respect to the vehicle and the limit of the pitch angle of the vehicle. Therefore, the ranges of the parameters y 0 , ε, C 0 , C 1 , W, θ, and lw can be defined, and a lane marker is obtained by configuring the model with combinations of the values of the parameters within the ranges. Various possible lane shape candidates can be generated. Therefore, for each of the parameters y 0 , ε, C 0 , C 1 , W, θ, and lw, each density distribution Pt indicating a possible range and a possible value distribution is set in advance. The distribution is not particularly limited such as uniform distribution and binomial distribution. Therefore, the number N of lane shape candidates is the number of combinations of values that each parameter y 0 , ε, C 0 , C 1 , W, θ, and lw can take from each density distribution.

車線形状候補生成部23bでは、n番目の車線形状候補を生成する場合、各パラメータy,ε,C,C,W,θ,lwの密度分布Ptに基づいて、n番目の各パラメータy,ε,C,C,W,θ,lwの値の決定する。そして、車線形状候補生成部23bでは、決定した各パラメータy,ε,C,C,W,θ,lwの値と式(7)の形状モデルから、n番目の車線形状候補のカメラ画像上での車線形状(各レーンマーカの輪郭線)を算出する。この際、式(7)の形状モデルを2次元画像上に投影するときには、カメラ2のピッチ角θとカメラ2の初期取り付け高さlを用いて変換する。車線形状候補生成部23bでは、上記の処理をN個の車線形状候補について行う。図11には、画像上に生成した車線形状候補LCを投影した一例を示しており、実際の車線の形状とは一致していない。 In lane shape candidate generating unit 23b, when generating the n-th lane shape candidate, the parameters y 0, ε, C 0, C 1, W, θ, based on the density distribution of Pt lw, n-th parameters The values of y 0 , ε, C 0 , C 1 , W, θ, and lw are determined. Then, the lane shape candidate generation unit 23b uses the determined values of the parameters y 0 , ε, C 0 , C 1 , W, θ, and lw and the shape model of Expression (7) to determine the camera of the nth lane shape candidate. The lane shape on the image (the contour line of each lane marker) is calculated. At this time, when projecting the shape model of Expression (7) onto the two-dimensional image, conversion is performed using the pitch angle θ of the camera 2 and the initial mounting height l of the camera 2. In the lane shape candidate generation unit 23b, the above processing is performed for N lane shape candidates. FIG. 11 shows an example in which the generated lane shape candidate LC is projected on the image and does not match the actual lane shape.

車線形状推定部23cでは、N個の車線形状候補と輝度勾配ベクトルとをそれぞれ照合し、その照合結果から車線の形状と位置を推定する。ある車線形状候補が撮像画像中の実際の車線に形状が近いほど、その画像上に投影した車線形状候補における各画素の輝度勾配の方向とその各画素に対応する輝度勾配ベクトルの方向との差は小さくなり、その車線形状候補と輝度勾配ベクトルとの一致度が大きくなる。特に、画像上に投影した車線形状候補が撮像画像中の車線に重なる場合、レーンマーカの2本の輪郭線の対応する画素の輝度勾配ベクトルの方向は逆方向となり、これと同じ向きで車線形状候補の各レーンマーカの2本の輪郭線の対応する輝度勾配の方向も逆方向となり、レーンマーカの幅や車線幅も同じ幅となるので、一致度は非常に大きくなる。そこで、一致度が最も大きい車線形状候補から車線(レーンマーカ)を推定することができる。   The lane shape estimation unit 23c collates N lane shape candidates with the luminance gradient vector, and estimates the lane shape and position from the collation result. The closer the shape of a lane shape candidate is to the actual lane in the captured image, the difference between the direction of the luminance gradient of each pixel in the lane shape candidate projected on that image and the direction of the luminance gradient vector corresponding to that pixel. Becomes smaller, and the degree of coincidence between the lane shape candidate and the luminance gradient vector increases. In particular, when the lane shape candidate projected on the image overlaps the lane in the captured image, the direction of the luminance gradient vector of the corresponding pixel of the two contour lines of the lane marker is reversed, and the lane shape candidate has the same direction as this. The direction of the brightness gradient corresponding to the two contour lines of each lane marker is also opposite, and the width of the lane marker and the lane width are the same width, so the degree of coincidence becomes very large. Therefore, the lane (lane marker) can be estimated from the lane shape candidate having the highest degree of coincidence.

車線形状推定部23cでは、n番目の車線形状候補について、車線形状候補(画像上の投影された候補)の各輪郭線を構成する画素(i,j)毎に、輝度勾配方向の単位ベクトルn(i,j)を算出する。このn(i,j)は、画像上に投影された各座標点(i,j)における車線形状候補の輪郭線の輝度勾配方向の単位ベクトルであり、第1の実施の形態と同様に水平方向と垂直方向の2方向の輝度勾配の単位ベクトルとする。そして、車線形状推定部23cでは、式(18)により、車線形状候補の各輪郭線を構成する全ての座標点(i,j)について、各座標点の輝度勾配方向の単位ベクトルn(i,j)とその対応する画素の輝度勾配ベクトルdI(i,j)との一致度を表す評価値V(n)を算出する。 In the lane shape estimation unit 23c, for the nth lane shape candidate, a unit vector n in the luminance gradient direction for each pixel (i, j) constituting each contour line of the lane shape candidate (candidate projected on the image). c (i, j) is calculated. This n c (i, j) is a unit vector in the luminance gradient direction of the contour line of the lane shape candidate at each coordinate point (i, j) projected on the image, as in the first embodiment. A unit vector of luminance gradients in two directions, the horizontal direction and the vertical direction. In the lane shape estimation unit 23c, the unit vector n c (i) of the luminance gradient direction of each coordinate point is obtained for all coordinate points (i, j) constituting each contour line of the lane shape candidate by Expression (18). , J) and an evaluation value V (n) representing the degree of coincidence between the luminance gradient vector dI (i, j) of the corresponding pixel.

Figure 0004797846
Figure 0004797846

式(18)における関数Cor(i,j)は、式(19)で表す関数である。式(19)の関数は、同じ向きのベクトル(ひいては、輪郭線)であれば一致度を高くし、異なる向きのベクトルであれば一致度を低くする関数である。   The function Cor (i, j) in the equation (18) is a function represented by the equation (19). The function of Expression (19) is a function that increases the degree of matching if the vectors are in the same direction (and thus the contour line), and decreases the degree of matching if the vectors are in different directions.

車線形状推定部23cでは、上記の処理をN個の車線形状候補について行う。そして、車線形状推定部23cでは、N個の車線形状候補の評価値V(n)の中から最大値の評価値V(n)の車線形状候補を抽出し、その車線形状候補の各パラメータからなる形状モデル(レーンマーカの形状)と車線幅W、レーンマーカ幅lwを車線の形状と位置の情報として出力する。   The lane shape estimation unit 23c performs the above process on N lane shape candidates. Then, the lane shape estimation unit 23c extracts the lane shape candidate having the maximum evaluation value V (n) from the evaluation values V (n) of the N lane shape candidates, and extracts each lane shape candidate from each parameter of the lane shape candidates. The resulting shape model (lane marker shape), lane width W, and lane marker width lw are output as lane shape and position information.

図10を参照して、車線検出装置21の動作について説明する。特に、ECU23における車線形状候補生成部23bの処理については図12のフローチャートに沿って説明し、車線形状推定部23cの処理について図13のフローチャートに沿って説明する。図12は、図10のECUの車線形状候補生成部における処理の流れを示すフローチャートである。図13は、図10のECUの車線形状推定部における処理の流れを示すフローチャートである。なお、輝度勾配ベクトルを算出するまでの動作については、第1の実施の形態と同様の動作なので、その説明を省略し、輝度勾配ベクトルを検出した以降の動作について説明する。   The operation of the lane detector 21 will be described with reference to FIG. In particular, the processing of the lane shape candidate generation unit 23b in the ECU 23 will be described along the flowchart of FIG. 12, and the processing of the lane shape estimation unit 23c will be described along the flowchart of FIG. FIG. 12 is a flowchart showing a process flow in the lane shape candidate generation unit of the ECU of FIG. FIG. 13 is a flowchart showing the flow of processing in the lane shape estimation unit of the ECU of FIG. Since the operation until the luminance gradient vector is calculated is the same as that in the first embodiment, the description thereof is omitted, and the operation after the luminance gradient vector is detected will be described.

輝度勾配ベクトルを算出すると、ECU23では、生成する車線形状候補nを抽出する(S40)。そして、ECU23では、各パラメータの密度分布Ptに基づいて、車線形状候補nについての各パラメータy,ε,C,C,W,θ,lwの値を決定する(S41)。さらに、ECU23では、決定した各パラメータy,ε,C,C,W,θ,lwと形状モデル(式(7))により、車線形状候補nの画像上での車線形状を算出する(S42)。 When the brightness gradient vector is calculated, the ECU 23 extracts a lane shape candidate n to be generated (S40). Then, the ECU 23 determines the values of the parameters y 0 , ε, C 0 , C 1 , W, θ, and lw for the lane shape candidate n based on the density distribution Pt of each parameter (S41). Further, the ECU 23 calculates the lane shape on the image of the lane shape candidate n based on the determined parameters y 0 , ε, C 0 , C 1 , W, θ, lw and the shape model (Equation (7)). (S42).

そして、ECU23では、全て(N個)の車線形状候補についての生成処理が終了したか否かを判定する(S43)。S43にて全ての車線形状候補について処理が終了していないと判定した場合、S40の処理に戻り、次の車線形状候補についての生成処理を行う。一方、S43にて全ての車線形状候補についての処理が終了したと判定した場合、生成処理を終了する。   Then, the ECU 23 determines whether or not the generation processing for all (N) lane shape candidates has been completed (S43). If it is determined in S43 that the process has not been completed for all lane shape candidates, the process returns to S40, and the generation process for the next lane shape candidate is performed. On the other hand, when it determines with the process about all the lane shape candidates having been complete | finished in S43, a production | generation process is complete | finished.

車線形状候補を生成すると、ECU23では、生成した車線形状候補の中から車線形状候補nを抽出する(S50)。そして、ECU23では、車線形状候補nの輪郭線を構成する座標(i,j)毎に、輝度勾配方向の単位ベクトルn(i,j)を算出する(S51)。さらに、ECU23では、式(18)により、車線形状候補nの輪郭線を構成する全ての座標(i,j)についての輝度勾配方向の単位ベクトルn(i,j)と各座標に対応する画素の輝度勾配ベクトルdI(i,j)との評価値V(n)を算出する(S52)。 When the lane shape candidate is generated, the ECU 23 extracts a lane shape candidate n from the generated lane shape candidates (S50). Then, the ECU 23 calculates a unit vector n c (i, j) in the luminance gradient direction for each coordinate (i, j) constituting the contour line of the lane shape candidate n (S51). Further, the ECU 23 corresponds to the unit vector n c (i, j) in the luminance gradient direction and all the coordinates for all the coordinates (i, j) constituting the contour line of the lane shape candidate n by Expression (18). An evaluation value V (n) with the luminance gradient vector dI (i, j) of the pixel is calculated (S52).

そして、ECU23では、全て(N個)の車線形状候補についての照合処理が終了したか否かを判定する(S53)。S53にて全ての車線形状候補について処理が終了していないと判定した場合、S50の処理に戻り、次の車線形状候補についての照合処理を行う。一方、S53にて全ての車線形状候補についての処理が終了したと判定した場合、ECU23では、全ての車線形状候補の中から最も評価値V(n)の高い車線形状候補により、実際の車線の形状と位置を設定し、その車線の形状と位置の情報を出力する(S54)。   Then, the ECU 23 determines whether or not the collation processing for all (N) lane shape candidates has been completed (S53). If it is determined in S53 that the processing has not been completed for all lane shape candidates, the process returns to S50, and the next lane shape candidate is collated. On the other hand, when it is determined in S53 that the processing for all lane shape candidates has been completed, the ECU 23 determines the actual lane by using the lane shape candidate having the highest evaluation value V (n) among all lane shape candidates. The shape and position are set, and information on the shape and position of the lane is output (S54).

車線検出装置21では、一定時間毎(撮像画像を取得する毎)に、上記の動作を繰り返し行い、車線の形状と位置の情報を求め、出力する。   The lane detection device 21 repeats the above operation at regular time intervals (each time a captured image is acquired) to obtain and output information on the shape and position of the lane.

この車線検出装置21によれば、複数の方向の輝度勾配からなる輝度勾配ベクトルを用い、その輝度勾配ベクトルと多数の車線形状候補とを照合することにより、任意の方向の車線を高精度に検出することができる。また、各画素について輝度勾配ベクトルを算出し、車線形状候補と輝度勾配ベクトルとを照合することによって画像中の車線を検出することができるので、処理負荷も比較的少なく、効率的に車線を検出できる。さらに、レーンマーカの形状や幅及び車線幅を同時に検出することができる。   According to this lane detection device 21, a lane in any direction is detected with high accuracy by using a luminance gradient vector composed of luminance gradients in a plurality of directions and collating the luminance gradient vector with a number of lane shape candidates. can do. In addition, it can detect the lane in the image by calculating the brightness gradient vector for each pixel and comparing the lane shape candidate with the brightness gradient vector, so the processing load is relatively low and the lane can be detected efficiently. it can. Furthermore, the shape, width and lane width of the lane marker can be detected simultaneously.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では輝度勾配ベクトルを求めるために水平方向と垂直方向の1次微分フィルタを用いたが、45°方向などの他の方向のフィルタを用いてもよいし、2次微分などの他の次元の微分フィルタを用いてもよい。   For example, in the present embodiment, the first-order differential filter in the horizontal direction and the vertical direction is used to obtain the luminance gradient vector. However, a filter in another direction such as a 45 ° direction may be used, and the second-order differential may be used. Other dimension differential filters may be used.

また、本実施の形態では任意の画素Pu,vの一定距離内の点対称の2画素の輝度勾配ベクトルの評価を行う構成としたが、画素Pu,vを通る任意の線上(例えば、水平線)上に存在する画素の組み合わせとするなどの他の方法による組み合わせで輝度勾配ベクトルの評価を行う構成としてもよい。 Further, in the present embodiment, the configuration is such that the evaluation of the luminance gradient vector of two point-symmetric pixels within a certain distance of any pixel P u, v is performed, but on any line passing through the pixels P u, v (for example, The luminance gradient vector may be evaluated by a combination of other methods such as a combination of pixels existing on the (horizontal line).

また、本実施の形態ではレーンキープの中心線を検出する構成としたが、レーンキープの2本の輪郭線を検出する構成としてもよい。   Further, in the present embodiment, the configuration is such that the center line of the lane keep is detected, but the configuration may be such that two contour lines of the lane keep are detected.

また、第2の実施の形態では形状モデルを利用して車線形状を推定する構成としたが、他の手法によって車線形状を推定する構成としてもよい。また、カルマンフィルタを用いて形状モデルのパラメータや車線幅を推定する構成としたが、パーティクルフィルタなどの他のフィルタを用いてもよい。   In the second embodiment, the lane shape is estimated using the shape model. However, the lane shape may be estimated by another method. Further, although the configuration is such that the parameters of the shape model and the lane width are estimated using the Kalman filter, other filters such as a particle filter may be used.

また、第3の実施の形態では形状モデルを利用して車線形状候補を生成する構成としたが、過去に検出したレーンマーカや車線の情報がある場合にはその検出結果を利用して車線形状候補を生成する構成としてもよい。特に、パーティクルフィルタのように前時刻の車線検出結果に基づいて確率的に次の時刻の車線形状候補を決定することもできる。この場合、候補の数が少なくなって処理負荷が軽減し、少ない候補数でも輝度勾配ベクトルと一致する車線形状候補を検出し易い。   In the third embodiment, the lane shape candidate is generated using the shape model. However, if there is information on the lane marker or lane detected in the past, the lane shape candidate is detected using the detection result. It is good also as a structure which produces | generates. In particular, the lane shape candidate at the next time can be determined probabilistically based on the lane detection result at the previous time, like a particle filter. In this case, the number of candidates is reduced, the processing load is reduced, and it is easy to detect lane shape candidates that match the luminance gradient vector even with a small number of candidates.

第1の実施の形態に係るレーンマーカ検出装置の構成図である。It is a block diagram of the lane marker detection apparatus which concerns on 1st Embodiment. 図1のECUの輝度勾配ベクトル算出部で用いる1次微分フィルタの一例であり、(a)が水平方向のフィルタであり、(b)が垂直方向のフィルタである。It is an example of the primary differential filter used in the brightness | luminance gradient vector calculation part of ECU of FIG. 1, (a) is a filter of a horizontal direction, (b) is a filter of a vertical direction. 図1のカメラの撮像画像の一例である。It is an example of the captured image of the camera of FIG. 図3の撮像画像に対する水平方向1次微分フィルタの出力結果である。It is an output result of the horizontal direction primary differential filter with respect to the captured image of FIG. 図3の撮像画像に対する垂直方向1次微分フィルタの出力結果である。FIG. 4 is an output result of a vertical first-order differential filter for the captured image of FIG. 3. FIG. 図1のECUの輝度勾配ベクトル算出部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the brightness | luminance gradient vector calculation part of ECU of FIG. 図1のECUのレーンマーカ検出部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane marker detection part of ECU of FIG. 第2の実施の形態に係る車線検出装置の構成図である。It is a block diagram of the lane detection apparatus which concerns on 2nd Embodiment. 図8のECUの車線形状推定部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane shape estimation part of ECU of FIG. 第3の実施の形態に係る車線検出装置の構成図である。It is a block diagram of the lane detection apparatus which concerns on 3rd Embodiment. 図10のECUの車線形状候補生成部で生成した車線形状候補の一例である。It is an example of the lane shape candidate produced | generated by the lane shape candidate production | generation part of ECU of FIG. 図10のECUの車線形状候補生成部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane shape candidate production | generation part of ECU of FIG. 図10のECUの車線形状推定部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane shape estimation part of ECU of FIG.

符号の説明Explanation of symbols

1…レーンマーカ検出装置、11,21…車線検出装置、2…カメラ、3,13,23…ECU、3a…輝度勾配ベクトル算出部、3b…レーンマーカ検出部、13c,23c…車線形状推定部、23b…車線形状候補生成部
DESCRIPTION OF SYMBOLS 1 ... Lane marker detection apparatus, 11, 21 ... Lane detection apparatus, 2 ... Camera, 3, 13, 23 ... ECU, 3a ... Luminance gradient vector calculation part, 3b ... Lane marker detection part, 13c, 23c ... Lane shape estimation part, 23b ... lane shape candidate generator

Claims (5)

道路上の区画線を検出する区画線検出装置であって、
道路を撮像する撮像手段と、
前記撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、
前記輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルの中から1組の輝度勾配ベクトルを順次抽出し、当該抽出した各組の輝度勾配ベクトルを評価する評価手段と、
前記評価手段による評価結果に基づいて輝度勾配ベクトルの向きが逆方向となる組の画素を抽出し、当該抽出した組の画素から区画線を検出する区画線検出手段と
を備え
前記輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする区画線検出装置。
A lane marking detection device for detecting a lane marking on a road,
Imaging means for imaging a road;
A luminance gradient vector calculating means for calculating a luminance gradient vector of each pixel of the image captured by the imaging means;
Evaluation means for sequentially extracting a set of luminance gradient vectors from the luminance gradient vectors calculated by the luminance gradient vector calculation means, and evaluating the extracted luminance gradient vectors of each set;
A lane marking detecting means for extracting a set of pixels in which the direction of the luminance gradient vector is opposite based on the evaluation result by the evaluation means, and detecting a lane marking from the extracted set of pixels ;
The luminance gradient vector calculating means calculates, for each pixel, a primary differential value of the luminance in the horizontal direction of the image and a primary differential value of the luminance in the vertical direction of the image. A lane marking detection apparatus that calculates a luminance gradient vector from a value and a first-order differential value of luminance in a vertical direction .
前記評価手段は、画像中の任意の画素を中心として一定距離内に存在する点対称となる2画素からなる1組の輝度勾配ベクトルの内積を算出することによって評価値を求めることを特徴とする請求項1に記載する区画線検出装置。   The evaluation means obtains an evaluation value by calculating an inner product of a set of luminance gradient vectors composed of two point-symmetric pixels existing within a certain distance with an arbitrary pixel in the image as a center. The lane marking detection apparatus according to claim 1. 道路上の2本の並行する区画線からなる車線を検出する車線検出装置であって、
道路を撮像する撮像手段と、
前記撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、
前記輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルの中から1組の輝度勾配ベクトルを順次抽出し、当該抽出した各組の輝度勾配ベクトルを評価する評価手段と、
前記評価手段による評価結果に基づいて輝度勾配ベクトルの向きが逆方向となる組の画素を抽出し、当該抽出した組の画素から区画線を検出する区画線検出手段と、
前記区画線検出手段で検出した区画線から車線の形状を推定する車線形状推定手段と
を備え
前記輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする車線検出装置。
A lane detection device for detecting a lane composed of two parallel lane markings on a road,
Imaging means for imaging a road;
A luminance gradient vector calculating means for calculating a luminance gradient vector of each pixel of the image captured by the imaging means;
Evaluation means for sequentially extracting a set of luminance gradient vectors from the luminance gradient vectors calculated by the luminance gradient vector calculation means, and evaluating the extracted luminance gradient vectors of each set;
A lane line detection unit that extracts a set of pixels in which the direction of the luminance gradient vector is opposite based on the evaluation result by the evaluation unit, and detects a lane line from the extracted set of pixels;
Lane shape estimation means for estimating the lane shape from the lane line detected by the lane line detection means ,
The luminance gradient vector calculating means calculates, for each pixel, a primary differential value of the luminance in the horizontal direction of the image and a primary differential value of the luminance in the vertical direction of the image. A lane detection device that calculates a luminance gradient vector from a value and a first-order differential value of luminance in a vertical direction .
前記評価手段は、画像中の任意の画素を中心として一定距離内に存在する点対称となる2画素からなる1組の輝度勾配ベクトルの内積を算出することによって評価値を求めることを特徴とする請求項3に記載する車線検出装置。   The evaluation means obtains an evaluation value by calculating an inner product of a set of luminance gradient vectors composed of two point-symmetric pixels existing within a certain distance with an arbitrary pixel in the image as a center. The lane detection device according to claim 3. 道路上の2本の並行する区画線からなる車線を検出する車線検出装置であって、
道路を撮像する撮像手段と、
前記撮像手段で撮像した画像の各画素の輝度勾配ベクトルを算出する輝度勾配ベクトル算出手段と、
形状モデル又は過去の検出結果に基づいて車線形状候補を生成する車線形状候補生成手段と、
前記車線形状候補生成手段で生成した車線形状候補と前記輝度勾配ベクトル算出手段で算出した輝度勾配ベクトルとを照合し、当該照合結果に基づいて車線の形状を推定する車線形状推定手段と
を備え
前記輝度勾配ベクトル算出手段は、各画素について、画像の水平方向の輝度の1次微分値を算出するとともに画像の垂直方向の輝度の1次微分値を算出し、水平方向の輝度の1次微分値と垂直方向の輝度の1次微分値から輝度勾配ベクトルを算出することを特徴とする車線検出装置。
A lane detection device for detecting a lane composed of two parallel lane markings on a road,
Imaging means for imaging a road;
A luminance gradient vector calculating means for calculating a luminance gradient vector of each pixel of the image captured by the imaging means;
Lane shape candidate generating means for generating lane shape candidates based on a shape model or past detection results;
A lane shape estimation unit that collates a lane shape candidate generated by the lane shape candidate generation unit with a luminance gradient vector calculated by the luminance gradient vector calculation unit, and estimates a lane shape based on the comparison result ;
The luminance gradient vector calculating means calculates, for each pixel, a primary differential value of the luminance in the horizontal direction of the image and a primary differential value of the luminance in the vertical direction of the image. A lane detection device that calculates a luminance gradient vector from a value and a first-order differential value of luminance in a vertical direction .
JP2006191855A 2006-07-12 2006-07-12 Lane marking device and lane detection device Expired - Fee Related JP4797846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006191855A JP4797846B2 (en) 2006-07-12 2006-07-12 Lane marking device and lane detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006191855A JP4797846B2 (en) 2006-07-12 2006-07-12 Lane marking device and lane detection device

Publications (2)

Publication Number Publication Date
JP2008021102A JP2008021102A (en) 2008-01-31
JP4797846B2 true JP4797846B2 (en) 2011-10-19

Family

ID=39076989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006191855A Expired - Fee Related JP4797846B2 (en) 2006-07-12 2006-07-12 Lane marking device and lane detection device

Country Status (1)

Country Link
JP (1) JP4797846B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110305A (en) * 2017-03-28 2018-10-10 현대오트론 주식회사 Apparatus for displaying front object for vehicle

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101804814B (en) * 2010-01-08 2012-10-31 北京世纪高通科技有限公司 Method, device and system for determining lane departure
JP5724454B2 (en) * 2011-02-25 2015-05-27 村田機械株式会社 Image processing apparatus and image processing method
JP5885532B2 (en) * 2012-02-17 2016-03-15 オリンパス株式会社 Edge direction discrimination device, edge direction discrimination method, and edge direction discrimination program
CN103593649B (en) * 2013-10-24 2017-12-08 惠州华阳通用电子有限公司 A kind of method for detecting lane lines for lane departure warning
US9384394B2 (en) * 2013-10-31 2016-07-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method for generating accurate lane level maps
DE102016210029A1 (en) * 2016-06-07 2017-12-07 Robert Bosch Gmbh Method Device and system for wrong driver identification
CA3029124A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Crowdsourcing and distributing a sparse map, and lane measurements for autonomous vehicle navigation
JP6981197B2 (en) 2017-11-17 2021-12-15 トヨタ自動車株式会社 Vehicle control device
JP7304379B2 (en) * 2021-03-30 2023-07-06 本田技研工業株式会社 DRIVER ASSISTANCE SYSTEM, DRIVER ASSISTANCE METHOD, AND PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3800785B2 (en) * 1998-01-06 2006-07-26 スズキ株式会社 White line recognition device
JP3319401B2 (en) * 1998-07-31 2002-09-03 株式会社豊田中央研究所 Roadway recognition device
JP3822468B2 (en) * 2001-07-18 2006-09-20 株式会社東芝 Image processing apparatus and method
JP4206723B2 (en) * 2002-10-11 2009-01-14 オムロン株式会社 Image processing method and image processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110305A (en) * 2017-03-28 2018-10-10 현대오트론 주식회사 Apparatus for displaying front object for vehicle
KR101967316B1 (en) * 2017-03-28 2019-04-10 현대오트론 주식회사 Apparatus for displaying front object for vehicle

Also Published As

Publication number Publication date
JP2008021102A (en) 2008-01-31

Similar Documents

Publication Publication Date Title
JP4797846B2 (en) Lane marking device and lane detection device
EP1780675B1 (en) Object detector
JP6184877B2 (en) Vehicle external recognition device
US8180100B2 (en) Plane detector and detecting method
US8154594B2 (en) Mobile peripheral monitor
US7889887B2 (en) Lane recognition apparatus
JP4363295B2 (en) Plane estimation method using stereo images
US9336595B2 (en) Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function
EP2824425A1 (en) Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object
JP4887520B2 (en) Object detection apparatus, object detection method, and object detection program
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
CN106157283A (en) The detection method of lane segmentation thing and device
CN106164930A (en) Method for lane detection
JP5048609B2 (en) Object tracking device and program
KR20140148171A (en) Lane Detection method for Advanced Vehicle
JP6483360B2 (en) Object recognition device
JP2010170488A (en) Lane recognition device, and lane recognition method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2010224926A (en) Stop line detection device
JP2006053754A (en) Plane detection apparatus and detection method
WO2015027649A1 (en) Vehicle detection method using multi-scale model
JP4969628B2 (en) Traveling line detector
JP2010009236A (en) Plane area estimation device and program
JP4462533B2 (en) Road lane detection device
JP6354963B2 (en) Object recognition apparatus, object recognition method, and object recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4797846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees