JP2005157723A - Traffic lane recognition device and traffic lane recognition method - Google Patents

Traffic lane recognition device and traffic lane recognition method Download PDF

Info

Publication number
JP2005157723A
JP2005157723A JP2003395066A JP2003395066A JP2005157723A JP 2005157723 A JP2005157723 A JP 2005157723A JP 2003395066 A JP2003395066 A JP 2003395066A JP 2003395066 A JP2003395066 A JP 2003395066A JP 2005157723 A JP2005157723 A JP 2005157723A
Authority
JP
Japan
Prior art keywords
white line
line candidate
white
line
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003395066A
Other languages
Japanese (ja)
Inventor
Seiji Takeda
誠司 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003395066A priority Critical patent/JP2005157723A/en
Publication of JP2005157723A publication Critical patent/JP2005157723A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To increase opportunity to recognize a white line without deteriorating recognition accuracy of the white line. <P>SOLUTION: When a luminance change between adjacent pixels among images picked up by a camera 14 picking up an image in front of one's own vehicle 12 is a first prescribed value or above, a first white line candidate point is extracted, and a first white line candidate line on which a largest number of the first white line candidate points are placed is extracted from straight lines each including the first white line candidate point, and a second prescribed value smaller than the first prescribed value is set when the number of the first white line candidate points included in the first white line candidate line is less than the prescribed value. When the luminance change between the adjacent pixels among the images is the second prescribed value or above, a second white line candidate point is extracted, and a second white line candidate line on which a largest number of second white line candidate points are placed is extracted from straight lines each including the second white line candidate point. A straight line on which a largest number of the first white line candidate points are placed is extracted from straight lines having the same inclination as the second white line candidate line, as a third white line candidate line, and it is recognized as the white line. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、自車両の前方の道路上の白線を検出して車線を認識する車線認識装置および車線認識方法に関するものである。   The present invention relates to a lane recognition device and a lane recognition method that recognize a lane by detecting a white line on a road ahead of the host vehicle.

従来、自車両に設けた電子式のカメラで撮像した画像から自車両が走行する道路上の白線を検出し、自車両の車線(走行路)を認識する技術が知られている。
例えば下記特許文献1における従来技術では、カメラで撮像した画像内にウインドウを設定し、このウインドウ内の輝度変化に基いて複数の白線候補点を抽出し、この抽出された白線候補点を最も多く含む直線を白線として認識するようにしている。
2. Description of the Related Art Conventionally, a technique for detecting a white line on a road on which the host vehicle travels from an image captured by an electronic camera provided on the host vehicle and recognizing the lane (traveling path) of the host vehicle is known.
For example, in the prior art disclosed in Patent Document 1 below, a window is set in an image captured by a camera, a plurality of white line candidate points are extracted based on luminance changes in the window, and the number of extracted white line candidate points is the largest. The included straight line is recognized as a white line.

特開平7−78234号公報JP-A-7-78234

しかしながら、上記特許文献1における従来技術においては、上記抽出した白線候補点の数が所定値に満たない場合には、白線を認識できなかったと判断している。このため、白線を認識できる機会が少なくなってしまい、白線の認識精度が低いという問題点があった。   However, in the prior art in Patent Document 1, it is determined that a white line could not be recognized when the number of extracted white line candidate points is less than a predetermined value. For this reason, there are fewer opportunities to recognize white lines, and there is a problem in that white line recognition accuracy is low.

本発明は、白線の認識精度を低下させることなく、白線を認識する機会を増加することができる車線認識装置および車線認識方法を提供することを目的とする。   An object of the present invention is to provide a lane recognition device and a lane recognition method that can increase the chance of recognizing a white line without reducing the recognition accuracy of the white line.

上記課題を解決するために、本発明は、自車両の前方を撮像する画像取得手段により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出手段と、抽出した第1の白線候補点を含む直線のうち、第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出手段と、抽出した第1の白線候補線に含まれる第1の白線候補点の数が、所定値未満である場合に、第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定手段と、画像のうち隣接する画素の輝度変化が第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出手段と、抽出した第2の白線候補点を含む直線のうち、第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出手段と、第2の白線候補線と第1の白線候補点もしくは第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出手段と、第3の白線候補線を白線として認識する白線認識手段とを備えている。   In order to solve the above-described problem, the present invention provides a first white line when the luminance change of an adjacent pixel in an image captured by an image acquisition unit that captures the front of the host vehicle is greater than or equal to a first predetermined value. First white line candidate point extracting means for extracting candidate points, and a first white line candidate line on which most first white line candidate points are placed among straight lines including the extracted first white line candidate points White line candidate line extraction means and a second predetermined value smaller than the first predetermined value when the number of first white line candidate points included in the extracted first white line candidate line is less than a predetermined value And second white line candidate point extracting means for extracting a second white line candidate point when the luminance change of an adjacent pixel in the image is equal to or greater than a second predetermined value. And the second white line candidate point is the largest among the extracted straight lines including the second white line candidate point. A second white line candidate line extracting means for extracting the second white line candidate line and a third white line candidate line based on the second white line candidate line and the first white line candidate point or the first white line candidate line. And white line recognition means for recognizing the third white line candidate line as a white line.

本発明によれば、白線の認識精度を低下させることなく、白線を認識する機会を増加させることができる。   According to the present invention, the chance of recognizing a white line can be increased without reducing the recognition accuracy of the white line.

以下、本発明の実施の形態を添付図面を参照して詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施の形態の車線認識装置を搭載した車両を示す図、図1は、本実施の形態の車線認識装置の基本的な構成を示すブロック図である。
図2において、12は自車両、10は本実施の形態の車線認識装置(道路白線認識装置)、14は電子式のカメラ、16は車線認識装置10の主要部を構成するプロセッサ、12aは自車両12の室内天井、12bは自車両12のフロントガラス、Rは道路である。
図2に示すように、自車両12の前方の道路画像を取得するカメラ14と、カメラ14で取得した画像信号(以下、単に画像と記す)を処理するプロセッサ16が自車両12に設置されている。カメラ14としては、高感度撮像が可能なCCD(Charge Coupled Device)カメラまたはCMOS(Complementaly Metal-Oxide Semiconductor)カメラなどが好ましい。カメラ14は、自車両12の室内天井12aの前方中央部に前方下方を指向して設置され、フロントガラス12bを通して自車両12前方の道路Rの画像を取得する。プロセッサ16は、熱や風雨の影響のない自車両12の適宜の箇所に設置され、カメラ14で取得した道路Rの画像から道路Rの白線を認識し、道路Rの形状および道路Rに対する自車両12の姿勢を推定する制御が実行される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings described below, components having the same function are denoted by the same reference numerals, and repeated description thereof is omitted.
FIG. 2 is a diagram showing a vehicle equipped with a lane recognition device according to an embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of the lane recognition device according to the present embodiment.
In FIG. 2, 12 is the own vehicle, 10 is the lane recognition device (road white line recognition device) of the present embodiment, 14 is an electronic camera, 16 is a processor constituting the main part of the lane recognition device 10, and 12a is the own vehicle. An interior ceiling of the vehicle 12, 12b is a windshield of the host vehicle 12, and R is a road.
As shown in FIG. 2, a camera 14 that acquires a road image ahead of the host vehicle 12 and a processor 16 that processes an image signal acquired by the camera 14 (hereinafter simply referred to as an image) are installed in the host vehicle 12. Yes. The camera 14 is preferably a charge coupled device (CCD) camera or a complementary metal-oxide semiconductor (CMOS) camera capable of high-sensitivity imaging. The camera 14 is installed in the front center portion of the indoor ceiling 12a of the host vehicle 12 so as to face the front lower side, and acquires an image of the road R in front of the host vehicle 12 through the windshield 12b. The processor 16 is installed at an appropriate location of the host vehicle 12 that is not affected by heat or wind and rain, recognizes the white line of the road R from the image of the road R acquired by the camera 14, and forms the road R and the host vehicle with respect to the road R. Control for estimating 12 postures is executed.

図1において、15は自車両12に搭載したカメラ14により取得した自車両12の前方の道路Rの画像を格納する画像メモリ、101はウインドウ設定手段、102は白線候補点抽出手段、103は白線候補線算出手段、104は白線候補点再抽出手段、105は白線候補線再算出手段、106は道路パラメータ推定手段である。
図1に示すように、車線認識装置10は、画像メモリ15に格納された道路Rの画像に基いて道路パラメータを推定する、例えばマイクロプロセッサを使用したプロセッサ16とを備えている。
プロセッサ16は、ウインドウ設定手段101と、白線候補点抽出手段102と、白線候補線算出手段103と、白線候補点再抽出手段104と、白線候補線再算出手段105と、道路パラメータ推定手段106とを備えている。そして、これらの手段101〜106をプログラム制御により実現している。なお言うまでもなく、これらの手段101〜106は、プロセッサ16が下記のフローチャート(図3、図4)に従って実行する制御機能を示している。
ウインドウ設定手段101は、画像メモリ15に格納された道路Rの画像上に、それぞれのウインドウに道路Rの白線が含まれるように白線の延長方向に沿って複数のウインドウを設ける。白線候補点抽出手段102は、これらのウインドウ毎の画像を処理して白線候補点を抽出する。白線候補線算出手段103は、これらのウインドウ毎に抽出された白線候補点に基いて、白線の可能性が最も高い白線候補線の画像座標および傾きを算出する。白線候補点再抽出手段104は、これらのウインドウ毎の画像を処理して白線候補点を再抽出する。白線候補線再算出手段105は、ウインドウ毎に抽出された白線候補点に基いて白線の可能性が最も高い白線候補線の画像座標および傾きを再算出する。道路パラメータ推定手段106は、各ウインドウに対して算出された白線候補線の画像座標および傾きと道路モデル式とを用いて、少なくとも自車両12の車線に対する横変位を含む道路パラメータを推定する。
道路モデル式として、次に示す式1を用いて前述のように道路Rの形状および道路Rに対する自車両12の姿勢を推定する。
In FIG. 1, 15 is an image memory for storing an image of a road R ahead of the host vehicle 12 acquired by the camera 14 mounted on the host vehicle 12, 101 is a window setting unit, 102 is a white line candidate point extracting unit, and 103 is a white line. Candidate line calculation means, 104 is a white line candidate point re-extraction means, 105 is a white line candidate line re-calculation means, and 106 is a road parameter estimation means.
As shown in FIG. 1, the lane recognition device 10 includes a processor 16 that uses, for example, a microprocessor to estimate road parameters based on an image of a road R stored in an image memory 15.
The processor 16 includes a window setting unit 101, a white line candidate point extracting unit 102, a white line candidate line calculating unit 103, a white line candidate point reextracting unit 104, a white line candidate line recalculating unit 105, and a road parameter estimating unit 106. It has. And these means 101-106 are implement | achieved by program control. Needless to say, these means 101 to 106 indicate control functions executed by the processor 16 in accordance with the following flowcharts (FIGS. 3 and 4).
The window setting means 101 provides a plurality of windows on the road R image stored in the image memory 15 along the extending direction of the white line so that each window includes the white line of the road R. The white line candidate point extraction means 102 processes the image for each window and extracts white line candidate points. The white line candidate line calculation unit 103 calculates the image coordinates and inclination of the white line candidate line having the highest possibility of a white line, based on the white line candidate points extracted for each of these windows. The white line candidate point re-extracting means 104 processes these images for each window to re-extract white line candidate points. The white line candidate line recalculation means 105 recalculates the image coordinates and inclination of the white line candidate line having the highest possibility of a white line based on the white line candidate points extracted for each window. The road parameter estimation means 106 estimates a road parameter including at least a lateral displacement of the host vehicle 12 with respect to the lane using the image coordinates and inclination of the white line candidate line calculated for each window and the road model formula.
As the road model formula, the following formula 1 is used to estimate the shape of the road R and the posture of the host vehicle 12 with respect to the road R as described above.

Figure 2005157723
式1において、道路パラメータA,B,C,D,Hは、それぞれ、自車両12の車線に対する横変位(A)、道路曲率(B)、自車両12の車線に対するヨー角(C)、自車両12のピッチ角(D)、および道路Rの路面からのカメラ14の高さ(H)である。
また、Eは車線幅(左右の白線の内側間の距離)を示す定数、fはカメラ14のカメラ透視変換定数、jは左右の白線を区別するパラメータとし、左白線のとき、j=0、右白線のときj=1とする。また、(x,y)は、左白線または右白線内端上の任意の点の画像上の座標であり、画像左上を原点に取り、右方向がx軸正方向、下方向がy軸正方向とする。
なお、式1は、道路モデルを表す一手法を示したものであり、例えば、Eを変数にしたもの、Hを固定したもの、車線幅を前述のように左右の白線の内側間の距離ではなく、左白線中央と右白線中央との間の距離とし、(x,y)を白線幅の中央位置の画像座標としても定義することができる。
Figure 2005157723
In Equation 1, road parameters A, B, C, D, and H are respectively the lateral displacement (A) with respect to the lane of the own vehicle 12, the road curvature (B), the yaw angle (C) with respect to the lane of the own vehicle 12, The pitch angle (D) of the vehicle 12 and the height (H) of the camera 14 from the road surface of the road R.
E 0 is a constant indicating the lane width (the distance between the insides of the left and right white lines), f is a camera perspective conversion constant of the camera 14, and j is a parameter for distinguishing the left and right white lines. When the right white line, j = 1. Also, (x, y) is the coordinates on the image of an arbitrary point on the inner edge of the left white line or right white line, taking the upper left of the image as the origin, the right direction is the x-axis positive direction, and the lower direction is the y-axis positive The direction.
Note that Equation 1, which shows one technique for representing the road model, for example, those of E 0 to the variable, which is fixed to H, the distance between the inner white line of the right and left lane width as described above Instead, it can be defined as the distance between the center of the left white line and the center of the right white line, and (x, y) can also be defined as the image coordinates of the center position of the white line width.

図5は、画面に設定される複数のウインドウの配列状態を示す図であり、18は道路の白線、20はウインドウである。
図6は、ウインドウ20内の白線候補点のプロット状態を示す図であり、20aはウインドウ20の上辺、20bはウインドウ20の下辺、21は白線候補点である。
図7は、ウインドウ20内の白線候補線の選択状態を示す図で、22は白線候補線である。
FIG. 5 is a diagram showing an arrangement state of a plurality of windows set on the screen, in which 18 is a road white line and 20 is a window.
FIG. 6 is a diagram showing a plot state of white line candidate points in the window 20, where 20a is the upper side of the window 20, 20b is the lower side of the window 20, and 21 is a white line candidate point.
FIG. 7 is a diagram showing a selection state of white line candidate lines in the window 20, and 22 is a white line candidate line.

図3および図4は、プロセッサ16によって道路パラメータを推定するプログラムのフローチャートである。例えば、自車両12の走行中に30[msec]毎に処理が繰り返されるものとする。
次に、図3の各ステップ毎の概略処理を説明する。
まず、ステップS1において、図1のカメラ14から画像メモリ15へ自車両12の前方画像を取り込む。
次いで、ステップS2において、取り込んだ画像上に複数(m個)の白線検出用のウインドウ20(図5参照)を設定する。
次いで、ステップS3において、ウインドウ処理番号iを初期値の1に設定する。
次いで、ステップS4において、i番目のウインドウ20(以下、ウインドウiと記す)の画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図6参照)を抽出する。
次いで、ステップS5において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図7参照)を算出する。
次いで、ステップS6において、白線18が検出されたかどうかを判定する。
ステップS6の判定で、白線18が検出された場合は、ステップS9へ進む。 ステップS6の判定で、白線18が検出されていない場合は、ステップS7において、ウインドウiの画像データから、水平方向の輝度変化を検出して白線18の端部の位置を認識するための白線候補点21(図6参照)を再抽出する。
次いで、ステップS8において、ウインドウ20内の白線候補点21の座標位置に基いて、これらの白線候補点21から最も白線18の可能性が高い白線候補線22(図7参照)を再算出する。

次いで、ステップS9において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS10において、iがウインドウ数(m)を超えているか否かを判定する。
ステップS10の判定で、iがウインドウ数(m)を超えていなければ、次のウインドウ20を処理すべく、ステップS4へ戻る。
ステップS10の判定で、iがウインドウ数(m)を超えていれば、全ウインドウの前処理が終わったので、ステップS20において、道路パラメータの推定処理を行う。
3 and 4 are flowcharts of a program for estimating the road parameters by the processor 16. For example, it is assumed that the process is repeated every 30 [msec] while the host vehicle 12 is traveling.
Next, an outline process for each step in FIG. 3 will be described.
First, in step S1, a front image of the host vehicle 12 is taken into the image memory 15 from the camera 14 of FIG.
In step S2, a plurality (m) of white line detection windows 20 (see FIG. 5) are set on the captured image.
In step S3, the window processing number i is set to an initial value of 1.
Next, in step S4, a white line candidate point 21 (for detecting the luminance change in the horizontal direction from the image data of the i-th window 20 (hereinafter referred to as window i) and recognizing the end position of the white line 18 ( (See FIG. 6).
Next, in step S5, based on the coordinate position of the white line candidate point 21 in the window 20, the white line candidate line 22 (see FIG. 7) having the highest possibility of the white line 18 is calculated from these white line candidate points 21.
Next, in step S6, it is determined whether or not the white line 18 is detected.
If it is determined in step S6 that the white line 18 is detected, the process proceeds to step S9. If it is determined in step S6 that the white line 18 is not detected, a white line candidate for recognizing the position of the end of the white line 18 by detecting a luminance change in the horizontal direction from the image data of the window i in step S7. Re-extract the point 21 (see FIG. 6).
Next, in step S8, based on the coordinate position of the white line candidate point 21 in the window 20, the white line candidate line 22 (see FIG. 7) having the highest possibility of the white line 18 from these white line candidate points 21 is recalculated.

Next, in step S9, the window process number i is incremented by one.
Next, in step S10, it is determined whether i exceeds the number of windows (m).
If it is determined in step S10 that i does not exceed the number of windows (m), the process returns to step S4 to process the next window 20.
If it is determined in step S10 that i exceeds the number of windows (m), the pre-processing for all the windows has been completed. In step S20, road parameter estimation processing is performed.

以下、上記プログラムの処理を各ステップ毎にさらに詳細に説明する。
(1)前方画像の取り込み(S1)
プロセッサ16がプログラムを処理する所定時間毎、例えば30[msec]毎に、カメラ14によって撮像された自車両12の前方の画像を画像メモリ15へ取り込む。画像は各画素毎の輝度データとして表される。
(2)複数のウインドウ20の設定(S2)
図5に示すように、ウインドウ20は、道路Rの白線18の延長方向に沿って複数(図5の例では、左白線に対して5個、右白線に対して5個)設けられる。前回の画像処理結果によって得られた道路モデルのパラメータにより、それぞれのウインドウ20に白線18が取り込まれるように、各ウインドウ20の位置が設定され、白線18はこれらのウインドウ20内で検知される。図5において、縦方向は画像座標y軸方向を示し、図中下方がyプラスである。また、横方向は画像座標x軸方向を示し、図中右方がxプラスである。
ここで、n番目のウインドウ(i=n)の上辺20a(図6)のy座標をynとし、前回のパラメータの推定結果を{A(−1),B(−1),C(−1),D(−1),H(−1)}とすると、式1より今回のウインドウ20の横方向の中心座標xestは、式2で示される。
Hereinafter, the processing of the program will be described in more detail for each step.
(1) Capture forward image (S1)
An image in front of the host vehicle 12 captured by the camera 14 is taken into the image memory 15 every predetermined time for which the processor 16 processes the program, for example, every 30 [msec]. The image is represented as luminance data for each pixel.
(2) Setting of a plurality of windows 20 (S2)
As shown in FIG. 5, a plurality of windows 20 are provided along the extending direction of the white line 18 on the road R (in the example of FIG. 5, five for the left white line and five for the right white line). Based on the parameters of the road model obtained from the previous image processing result, the position of each window 20 is set so that the white line 18 is captured in each window 20, and the white line 18 is detected in these windows 20. In FIG. 5, the vertical direction indicates the image coordinate y-axis direction, and the lower side in the figure is y plus. The horizontal direction indicates the image coordinate x-axis direction, and the right side in the figure is x plus.
Here, the y coordinate of the upper side 20a (FIG. 6) of the nth window (i = n) is yn, and the previous parameter estimation results are {A (-1), B (-1), C (-1 ), D (−1), H (−1)}, the central coordinate x est in the horizontal direction of the current window 20 is expressed by Equation 2 from Equation 1.

Figure 2005157723
ウインドウ20のx方向の幅は固定値としてもよく、また、特開平8−261756号公報に示されるようにパラメータの分散から合理的に設定することもできる。
Figure 2005157723
The width of the window 20 in the x direction may be a fixed value, or may be set rationally from the dispersion of parameters as disclosed in JP-A-8-261756.

(3)ウインドウ処理番号iの初期化(S3)
ステップS4からステップS7までの処理を全てのウインドウ20に対して行うためのループ制御パラメータ(すなわち、ウインドウ処理番号)iを1に初期化する。
(4)白線候補点21の抽出(S4)
カメラ14から取り込まれた画像に上記のごとく設定された各ウインドウ20の範囲の画像からソーベル(sobel)フィルタ処理などのエッジ検知(輝度変化検知)処理を利用して、白線候補点21(図6)を選択する。このエッジ検知では、図6に示すように左(画像座標のx値が小さい)の画素の輝度が右(画像座標のx値が大きい)の画素の輝度より大きい場合、フィルタの出力が正であるとする。そして、ある程度の幅を有する白線18の内側端部を白線18の位置としているので、左白線の場合は、フィルタの出力が正の判別値を超えた点を白線候補点21とし、右白線の場合は、フィルタの出力が負の判別値を下回った点を白線候補点21とする。ウインドウ20内の全ての画像データを走査してフィルタの出力により、上記の判別値を利用して白線候補点21を抽出する。なお、上記判別値は、画像全体またはウインドウ20毎の平均輝度、コントラスト等により、適宜設定されてもよい。
なお、このエッジ検知は、左右に隣接する画素の輝度の変化より白線候補点21を抽出するようにしているが、取り込まれた画像のうち上下に隣接する画素の輝度の変化より白線候補点21を抽出するようにしてもよい。ただし、この場合には、道路の側方に存在する白線18以外にも、交差点等に存在する停止線からも白線候補点21を抽出してしまうため、前者に記載した左右に隣接する画素の輝度変化より白線候補点21を抽出することが好ましい。
(3) Initialization of window processing number i (S3)
A loop control parameter (i.e., window processing number) i for performing the processing from step S4 to step S7 on all windows 20 is initialized to 1.
(4) Extraction of white line candidate points 21 (S4)
A white line candidate point 21 (FIG. 6) is obtained by using edge detection (brightness change detection) processing such as a sobel filter processing from the image of the range of each window 20 set as described above in the image captured from the camera 14. ) Is selected. In this edge detection, as shown in FIG. 6, when the luminance of the pixel on the left (x value of the image coordinate is small) is larger than the luminance of the pixel on the right (x value of the image coordinate is large), the output of the filter is positive. Suppose there is. Since the inner end of the white line 18 having a certain width is the position of the white line 18, in the case of the left white line, the point where the output of the filter exceeds the positive discrimination value is set as the white line candidate point 21, and the right white line In this case, a point where the output of the filter falls below the negative discrimination value is set as the white line candidate point 21. All the image data in the window 20 is scanned, and the white line candidate point 21 is extracted by using the above discriminant value by the output of the filter. The discriminant value may be set as appropriate depending on the entire image or the average brightness, contrast, etc. of each window 20.
In this edge detection, the white line candidate point 21 is extracted from the change in luminance of the pixels adjacent to the left and right, but the white line candidate point 21 is determined from the change in luminance of the pixels adjacent in the vertical direction in the captured image. May be extracted. However, in this case, since the white line candidate point 21 is extracted from the stop line existing at the intersection in addition to the white line 18 present on the side of the road, the left and right adjacent pixels described in the former are extracted. It is preferable to extract the white line candidate point 21 from the luminance change.

(5)白線候補線22の算出(S5)
ウインドウ20内から抽出された白線候補点21の集合から白線候補線22(図7)を探索する。この探索には、ハフ変換や最小自乗法などを用いることができる。本実施形態ではハフ変換を用いるものとし、ハフ変換直線近似では図7に示すようにウインドウ20内を通過する直線のうち、最も多く白線候補点21を貫いた白線候補線22、つまり、白線候補点21が一番多く載る白線候補線22を、最も白線18の可能性が高い白線候補線22とする。
このとき、座標(x,y)を通過する直線はパラメータa,bを用いて次の式3として表すことができる。ここで、aは白線候補線22の傾き(∂x/∂y)であり、bはそのx切片である。
(5) Calculation of white line candidate line 22 (S5)
A white line candidate line 22 (FIG. 7) is searched from a set of white line candidate points 21 extracted from the window 20. For this search, a Hough transform, a least square method, or the like can be used. In this embodiment, the Hough transform is used. In the Hough transform straight line approximation, as shown in FIG. 7, among the straight lines passing through the window 20, the white line candidate line 22 that penetrates the white line candidate point 21 most frequently, that is, a white line candidate. The white line candidate line 22 on which the most points 21 are placed is the white line candidate line 22 with the highest possibility of the white line 18.
At this time, a straight line passing through the coordinates (x, y) can be expressed as the following Expression 3 using the parameters a and b. Here, a is the slope (∂x / ∂y) of the white line candidate line 22, and b is its x intercept.

Figure 2005157723
図8は、白線候補線22を探索する際のハフ変換による配列表を示す図、図9は、ハフ変換を配列要素で示す図である。
すなわち、白線候補点21の座標を(x,y)とすると、aを決めるとbが式3より計算でき、これにより図8に示すハフ変換による配列が得られる。この配列の横方向は、一定刻みのaの値であり、縦方向は一定刻みのbの値である。ここで、配列の空欄は零を意味する。また、「1」が立っている(a,b)の組み合わせの中に真値が含まれる。この配列を白線候補点21の全てに対してそれぞれ作成し、作成した配列を重ね合わせて、各配列要素毎の数を合計することにより図9に示す配列が得られる。図9において、配列要素(a,b)の数zrは、式4が貫く白線候補点21の数を表している。
Figure 2005157723
FIG. 8 is a diagram showing an array table by Hough transform when searching for the white line candidate line 22, and FIG. 9 is a diagram showing Hough transform by array elements.
That is, assuming that the coordinates of the white line candidate point 21 are (x, y), b can be calculated from Equation 3 when a is determined, thereby obtaining an array by the Hough transform shown in FIG. The horizontal direction of this array is the value of a in constant increments, and the vertical direction is the value of b in constant increments. Here, the blank in the array means zero. In addition, a true value is included in the combination of (a, b) where “1” stands. The array shown in FIG. 9 is obtained by creating this array for all the white line candidate points 21 and superimposing the created arrays and summing the numbers for each array element. In FIG. 9, the number zr of array elements (a r , b r ) represents the number of white line candidate points 21 that Formula 4 penetrates.

Figure 2005157723
したがって、白線候補点21を最も多く貫く白線候補線22が最も白線18の可能性が高い白線候補線22であり、そのa,bを求めることが白線候補線22を算出することになる。すなわち、配列要素の値として最大のz(以下、zmaxと記す)を持つ配列要素(a,b)が白線候補線22を示すことになる。zmaxは、続く(6)白線18の検出判定にて使用する。
図10は、ウインドウ20の上辺20aと白線候補線22との交点との道路座標を示す図である。
こうして、白線候補線22が算出されると、次いで、図10に示すように、ウインドウ処理番号nにおける白線候補線22とウインドウ20の上辺20aとの交点の画像上の座標である道路座標(xn,yn)を算出する。ウインドウ20の上辺20aのy座標ynは、ウインドウ処理番号nに対する固定値である。道路座標のx成分xnは、式5で算出される。
Figure 2005157723
Therefore, the white line candidate line 22 that penetrates most of the white line candidate points 21 is the white line candidate line 22 that has the highest possibility of the white line 18, and obtaining the a and b will calculate the white line candidate line 22. That is, the array element (a, b) having the maximum z (hereinafter referred to as “z max” ) as the value of the array element indicates the white line candidate line 22. z max is used in the subsequent (6) white line 18 detection determination.
FIG. 10 is a diagram illustrating road coordinates between the upper side 20 a of the window 20 and the intersection of the white line candidate line 22.
When the white line candidate line 22 is calculated in this way, next, as shown in FIG. 10, road coordinates (xn) which are coordinates on the image of the intersection of the white line candidate line 22 and the upper side 20a of the window 20 in the window processing number n. , Yn). The y coordinate yn of the upper side 20a of the window 20 is a fixed value for the window processing number n. The x component xn of the road coordinates is calculated by Equation 5.

Figure 2005157723
図11は、ウインドウ20内のかすれた白線18’の場合の第1の判別値による白線候補点21のプロット状態を示す図、図12は、ウインドウ20内のかすれた白線18’の場合の第2の判別値による白線候補点21のプロット状態を示す図である。
(6)白線18の検出判定(S6)
maxは、上記で算出された白線候補線22がハフ変換において白線候補点21を何点貫いているかを表しているが、このzmaxが所定値に満たない場合は、白線18を検出していない可能性が高い。例えば、今回、問題にしている図11のようなかすれた白線18’もそうであるが、路面の局所的汚れを誤検出している可能性がある。よって、このzmaxは所定値以上を持つものを白線18とすべきである。この所定値は、設定しているウインドウ20の大きさ、カメラ14の特性をもとに実験値で設定するものである。よって、zmaxが所定値に達していない場合は、このウインドウiでは白線を検出していないとする。
(7)白線候補点21の再抽出(S7)
上記(6)白線18の検出判定で、白線18が検出できなかったウインドウiに対して再抽出を行う。使用する画像は同じ画像を用いる。この抽出の際に、上記(4)白線候補点21の抽出で用いた第1の判別値より低い第2の判別値を用いて、上記(4)白線候補点21の抽出と同様なエッジ検知(輝度変化検知)処理により白線候補点21の再抽出を行う。白線18を対象とした場合は、図12のような白線候補点21’が再抽出される。なお、上記第2の判別値は、実験により最適な値を選定する。
(8)白線候補線22の再算出(S8)
ウインドウ20内から抽出された白線候補点21および白線候補点21’の集合から白線候補線22を探索する。ハフ変換直線近似は、前述したのと同様な方法をとる。手順としては、
a)白線候補点21’に対してハフ変換直線近似を適用し、白線候補点21’を最も多く貫く仮白線候補線を算出する。
b)得られた仮白線候補線の傾きを用いて白線候補点21を最も多く貫く白線候補線22を算出する。そして、この白線候補線22を白線18として認識する。この場合、最も多く白線候補点21を貫いた候補点数は、上記の(6)白線18の検出判定で用いた所定値より少ない値でも白線を検出しているとするが、候補点数が所定以下の場合は白線18を検出できなかったと処理する。
Figure 2005157723
FIG. 11 is a diagram showing a plot state of the white line candidate point 21 based on the first discriminant value in the case of the faint white line 18 ′ in the window 20, and FIG. It is a figure which shows the plot state of the white line candidate point 21 by the discriminant value of 2. FIG.
(6) White line 18 detection determination (S6)
z max represents the number of white line candidate points 21 that the white line candidate line 22 calculated above passes through the white line candidate points 21 in the Hough transform. If this z max is less than a predetermined value, the white line 18 is detected. Most likely not. For example, this is the case with the faint white line 18 ′ as shown in FIG. 11, but there is a possibility that local soiling on the road surface is erroneously detected. Therefore, the white line 18 should have z max having a predetermined value or more. This predetermined value is set as an experimental value based on the size of the set window 20 and the characteristics of the camera 14. Therefore, when z max does not reach the predetermined value, it is assumed that no white line is detected in this window i.
(7) Re-extraction of white line candidate points 21 (S7)
In the above (6) white line 18 detection determination, re-extraction is performed on the window i in which the white line 18 could not be detected. The same image is used as the image to be used. At the time of this extraction, the same edge detection as in the extraction of the (4) white line candidate point 21 is performed using the second determination value lower than the first determination value used in the extraction of the (4) white line candidate point 21. The white line candidate point 21 is re-extracted by the (luminance change detection) process. When the white line 18 is targeted, a white line candidate point 21 ′ as shown in FIG. 12 is re-extracted. Note that an optimal value is selected as the second discriminant value by experiment.
(8) Recalculation of white line candidate line 22 (S8)
A white line candidate line 22 is searched from a set of white line candidate points 21 and white line candidate points 21 ′ extracted from the window 20. The Hough transform linear approximation takes the same method as described above. As a procedure,
a) Hough transform straight line approximation is applied to the white line candidate point 21 'to calculate a provisional white line candidate line that penetrates most of the white line candidate point 21'.
b) A white line candidate line 22 penetrating most of the white line candidate points 21 is calculated using the inclination of the obtained provisional white line candidate line. The white line candidate line 22 is recognized as the white line 18. In this case, it is assumed that white lines are detected even if the number of candidate points that penetrate the white line candidate points 21 is the smaller than the predetermined value used in the detection determination of (6) white line 18 described above. In the case of, it is processed that the white line 18 could not be detected.

(9)道路パラメータの推定(S20)
前記の式1をyで微分して式6を得る。
(9) Road parameter estimation (S20)
Equation 6 is differentiated by y to obtain Equation 6.

Figure 2005157723
そして、式1と式6からAを消去すると、式7を得る。
Figure 2005157723
Then, when A is eliminated from Equations 1 and 6, Equation 7 is obtained.

Figure 2005157723
このとき、Aは自車両12の車線に対する横位置のパラメータであり、このAを消去すると同時に、車線幅を表すEも消去されることになる。つまり、道路幅がいかなるものであれ、式7が成立することになる。
次に、カルマンフィルタを用いて道路パラメータを推定する場合、式8に示す方程式が与えられることにより、パラメータzを推定することができる。ただし、同式中のパラメータyyの値およびfの構造はそれぞれ既知とし、一般にyyはベクトルとなる。
Figure 2005157723
At this time, A is a parameter of the lateral position with respect to the lane of the host vehicle 12, and at the same time as A is deleted, E 0 indicating the lane width is also deleted. That is, Expression 7 is established regardless of the road width.
Next, when the road parameter is estimated using the Kalman filter, the equation z shown in Expression 8 is given, whereby the parameter z can be estimated. However, the value of the parameter yy and the structure of f in the equation are known, and generally yy is a vector.

Figure 2005157723
ここで、この式8に相当する観測方程式(仮称)は、前記式1が式9として成立する。
Figure 2005157723
Here, the observation equation (tentative name) corresponding to Equation 8 is established as Equation 9 above.

Figure 2005157723
この式9は、x=fz(A,B,C,D,H)…(式9’)と表すこともできる。
式9’は一般に複数列より構成され、これらを線型近似した上で並べることにより次の行列式10が得られる。
Figure 2005157723
Expression 9 can also be expressed as x = fz (A, B, C, D, H) (Expression 9 ′).
Expression 9 ′ is generally composed of a plurality of columns, and the following determinant 10 is obtained by arranging these after linear approximation.

Figure 2005157723
この行列式10中、mは、1画面中に設定されたウインドウ20の数である。この場合、znは、zn=xnとなる。
Figure 2005157723
In this determinant 10, m is the number of windows 20 set in one screen. In this case, zn is zn = xn.

次に、図4を参照して、道路パラメータ推定処理のサブルーチンP3を説明する。
図3にも示した道路パラメータの推定(S20)から、まず、ステップS21において、ウインドウ処理番号パラメータiを1に初期化する。
次いで、ステップS22において、式10のziはxiとし、式9’の右辺を線形近似することにより、Mi1,Mi2,Mi3,Mi4,Mi5は、それぞれyの値がyiにおけるdfz/dA,dfz/dB,dfz/dC,dfz/dD,dfz/dHとする。
次いで、ステップS23において、ウインドウ処理番号iを1だけ増加させる。
次いで、ステップS24において、ウインドウ処理番号iがウインドウ数mを超えているか否かを判定する。
Next, with reference to FIG. 4, the subroutine P3 of the road parameter estimation process will be described.
From the road parameter estimation (S20) also shown in FIG. 3, first, the window processing number parameter i is initialized to 1 in step S21.
Next, in step S22, zi in Expression 10 is set to xi, and the right side of Expression 9 ′ is linearly approximated, so that Mi1, Mi2, Mi3, Mi4, and Mi5 are dfz / dA, dfz / dB, dfz / dC, dfz / dD, and dfz / dH.
Next, in step S23, the window process number i is incremented by one.
Next, in step S24, it is determined whether or not the window process number i exceeds the window number m.

ステップS24の判定で、iがウインドウ数mを超えていなければ、次のウインドウ20を処理すべく、ステップS22へ戻る。
ステップS24の判定で、iがウインドウ数mを超えていれば、ステップS25において、カルマンフィルタ処理により、パラメータ(A,B,C,D,H)を推定し、メインルーチンヘリターンする。
If it is determined in step S24 that i does not exceed the number m of windows, the process returns to step S22 to process the next window 20.
If it is determined in step S24 that i exceeds the number of windows m, parameters (A, B, C, D, H) are estimated by Kalman filter processing in step S25, and the process returns to the main routine.

以上説明したように、本実施の形態による車線認識装置10および車線認識方法は、自車両12の前方を撮像するカメラ14により撮像した画像の輝度変化が第1の所定値(上記第1の判別値)以上である場合に、第1の白線候補点21を抽出する。また、抽出した第1の白線候補点21を含む直線のうち、第1の白線候補点21が最も多く載る第1の白線候補線(図7の22参照)を抽出する。また、抽出した第1の白線候補線に含まれる第1の白線候補点21の数が、所定値未満である場合に、第1の所定値よりも小さい第2の所定値(上記第2の判別値)を設定する。また、画像の輝度変化が第2の所定値以上である場合に、第2の白線候補点21’を抽出する。また、抽出した第2の白線候補点21’を含む直線のうち、第2の白線候補点21’が最も多く載る第2の白線候補線を抽出する。また、第2の白線候補線と第1の白線候補点21とに基いて第3の白線候補線を抽出する。そして、第3の白線候補線を白線18として認識するという構成になっている。また、本実施の形態では、第2の白線候補線と同一の傾きを有する直線のうち、第1の白線候補点21が最も多く載る直線を第3の白線候補線として抽出するようにした。
例えば白黒画像をカメラ14で撮像し、エッジ検出により白線18を認識する場合、前述のようにかすれた白線18’の場合、部分的には輝度差が十分にあっても、白線18として認識するだけの白線候補点21の数が足りないために、白線18の認識ができない場合がある。また、コンクリート路面に引かれた白線のような路面と白線18と輝度差の少ない路面においても同様である。このような場合、白線18の認識率の低下を招く。また、本発明を、認識した白線18に基いて、車両を2つの白線18間より逸脱させないようにする装置に対して適用する場合には、道路の一部で車線認識システムが動作しないところがあると、白線18を再認識できた地点で車線認識システムの設定操作が必要になり、煩雑となる。
As described above, in the lane recognition device 10 and the lane recognition method according to the present embodiment, the luminance change of the image captured by the camera 14 that images the front of the host vehicle 12 is the first predetermined value (the first determination above). Value)), the first white line candidate point 21 is extracted. Moreover, the 1st white line candidate line (refer 22 of FIG. 7) in which the 1st white line candidate point 21 mounts most is extracted among the straight lines containing the extracted 1st white line candidate point 21. FIG. In addition, when the number of first white line candidate points 21 included in the extracted first white line candidate line is less than a predetermined value, a second predetermined value smaller than the first predetermined value (the second second above) Set the discriminant value. Further, when the luminance change of the image is equal to or greater than the second predetermined value, the second white line candidate point 21 ′ is extracted. In addition, a second white line candidate line on which the second white line candidate points 21 ′ are most frequently extracted is extracted from straight lines including the extracted second white line candidate points 21 ′. A third white line candidate line is extracted based on the second white line candidate line and the first white line candidate point 21. The third white line candidate line is recognized as the white line 18. Further, in the present embodiment, a straight line having the largest number of first white line candidate points 21 is extracted as a third white line candidate line out of straight lines having the same inclination as the second white line candidate line.
For example, when a black and white image is captured by the camera 14 and the white line 18 is recognized by edge detection, in the case of the white line 18 ′ blurred as described above, even if there is a sufficient luminance difference, the white line 18 is recognized. Since there are not enough white line candidate points 21, the white line 18 may not be recognized. The same applies to a road surface such as a white line drawn on a concrete road surface and a road surface having a small luminance difference from the white line 18. In such a case, the recognition rate of the white line 18 is reduced. Further, when the present invention is applied to a device that prevents the vehicle from deviating from between the two white lines 18 based on the recognized white line 18, the lane recognition system does not operate on a part of the road. Then, the setting operation of the lane recognition system is required at the point where the white line 18 can be recognized again, which is complicated.

本実施の形態では、上記のように最初に抽出した第1の白線候補点21の数が所定値に満たない場合には、輝度変化のしきい値である第1の所定値を一旦低下させた上で第2の白線候補点21’を抽出する。そして、その上で第2の白線候補線の傾きを算出する。この第2の白線候補線の傾きに対して、高いしきい値である第1の所定値で抽出した第1の白線候補点21を含む第3の白線候補線を抽出し、これを白線18として認識する。このように通常のしきい値で白線候補点21の数が足りず、白線18が検出できなかった場合、濃淡の度合いが低い白線と判断し、通常のしきい値とそれより低いしきい値の2種類のしきい値を設定する。低いしきい値でのハフ変換では白線の方向性を決定し、通常のしきい値のハフ変換では、低い設定でのハフ変換の方向を用いて白線18の境界線を探す。これによって、白線18の認識精度を低下させることなく、白線18を認識できる機会を増加できる。なお、かすれた白線18’以外の場合は、しきい値を低くしても路面輝度のばらつきなどノイズ要素が増えるだけで低いしきい値により見つけた第2の白線候補線の方向に通常のしきい値によるハフ変換が所定の条件を満たすとは考えにくい。よって、かすれた白線18’のみを安定して検出することが可能となり、白線18の認識率が上昇し、より多くの道路に対して車線からの逸脱を防止することが可能となる。また、道路の一部で車線認識システムが動作しない部分が減り、利用者の無駄な操作を減らすことができる。
なお、最初に抽出した第1の白線候補点21の数が所定値未満である第1の白線候補線と、再度抽出した第2の白線候補線とは、基本的には同一のものとなる。これはかすれた白線18’のような場合には、しきい値を下げていくと、抽出できる白線候補点21’は、その白線18’上に増えていくことになる。したがって、一旦しきい値を下げることで、白線候補点21’を増加させて、第2の白線候補線の傾きを確認する。その上で再度、数は少ないかもしれないが、第2の白線候補線上に当初のしきい値で白線候補点21を抽出できたかどうかという確認を行う。この結果、両者が満たされれば、当初抽出した第1の白線候補線を、白線候補点21の数が本来の数より少ないが白線18と認めても良いだろうという判断を行なうものである。
さらに、カメラ14により撮像した画像内に複数のウインドウ20を設定し、ウインドウ20内の輝度変化に基いて第1の白線候補点21、第2の白線候補点21’を検出するようになっている。このような構成により、白線18を容易かつ良好に検出することができる。
In the present embodiment, when the number of first white line candidate points 21 extracted first as described above is less than a predetermined value, the first predetermined value which is a threshold value for luminance change is once decreased. Then, a second white line candidate point 21 ′ is extracted. Then, the inclination of the second white line candidate line is calculated. A third white line candidate line including the first white line candidate point 21 extracted with a first predetermined value that is a high threshold is extracted with respect to the inclination of the second white line candidate line, and this is extracted as a white line 18. Recognize as Thus, when the number of white line candidate points 21 is insufficient with the normal threshold value and the white line 18 cannot be detected, it is determined as a white line with a low degree of shading, and the normal threshold value and a lower threshold value are determined. Two types of threshold values are set. In the Hough conversion at a low threshold, the directionality of the white line is determined. In the normal threshold Hough conversion, the boundary line of the white line 18 is searched using the Hough conversion direction at a low setting. This can increase the chances of recognizing the white line 18 without reducing the recognition accuracy of the white line 18. In the case of other than the faint white line 18 ', a normal signal is applied in the direction of the second white line candidate line found by the low threshold only by increasing noise elements such as variations in road luminance even if the threshold is lowered. It is unlikely that the Hough transform using the threshold value satisfies the predetermined condition. Therefore, only the faint white line 18 ′ can be detected stably, the recognition rate of the white line 18 increases, and deviation from the lane can be prevented for more roads. In addition, the portion of the road where the lane recognition system does not operate is reduced, and the user's useless operations can be reduced.
The first white line candidate lines in which the number of first white line candidate points 21 extracted first is less than a predetermined value and the second white line candidate lines extracted again are basically the same. . In the case of a faint white line 18 ', as the threshold value is lowered, the white line candidate points 21' that can be extracted increase on the white line 18 '. Therefore, by temporarily lowering the threshold value, the white line candidate point 21 ′ is increased and the inclination of the second white line candidate line is confirmed. Then, again, although the number may be small, it is confirmed whether or not the white line candidate point 21 has been extracted on the second white line candidate line with the initial threshold value. As a result, if both are satisfied, it is determined that the first extracted white line candidate line may be recognized as the white line 18 although the number of white line candidate points 21 is smaller than the original number.
Furthermore, a plurality of windows 20 are set in the image captured by the camera 14, and the first white line candidate point 21 and the second white line candidate point 21 ′ are detected based on the luminance change in the window 20. Yes. With such a configuration, the white line 18 can be detected easily and satisfactorily.

なお、本実施の形態においては、第2の白線候補線と同一の傾きを有する直線のうち、第1の白線候補点21が最も多く載る直線を第3の白線候補線として抽出したが、他の構成を取ることも可能である。すなわち、抽出した第1の白線候補線を記憶装置に記憶しておいて、この記憶した第1の白線候補線と、抽出した第2の白線候補線とが一致するかどうかを判断する。一致した場合に、この一致した直線を第3の白線候補線として抽出し、この第3の白線候補線を白線18として認識するという構成である。記憶装置は例えばプロセッサ16内に設けられている。
なお、本実施の形態における図1、図2のカメラ14、図3のステップS1が、特許請求の範囲の画像取得手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補点抽出手段102、図3のステップS4が、特許請求の範囲の第1の白線候補点抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線算出手段103、図3のステップS5が、特許請求の範囲の第1の白線候補線抽出手段に相当する。本実施の形態における図1のプロセッサ16、図3のステップS6が、特許請求の範囲の第2の所定値設定手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線点再抽出手段104、図3のステップS7が、特許請求の範囲の第2の白線候補点抽出手段に相当する。本実施の形態における図1のプロセッサ16、図1の白線候補線再算出手段105、図3のステップS8が、特許請求の範囲の第2の白線候補線抽出手段に相当する。本実施の形態における図1のプロセッサ16、図3のステップS8の手順a)とb)が、特許請求の範囲の第3の白線候補線抽出手段に相当する。b)の仮白線候補線の傾きを用いて白線候補点21を最も多く貫く白線候補線22が、特許請求の範囲の第3の白線候補線に相当する。本実施の形態における図1のプロセッサ16、図3のステップS8が、特許請求の範囲の白線認識手段に相当する。
さらに、以上説明した実施の形態は本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記実施の形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
In the present embodiment, among the straight lines having the same inclination as the second white line candidate lines, the straight line on which the first white line candidate points 21 are most frequently extracted is extracted as the third white line candidate line. It is also possible to take the following configuration. That is, the extracted first white line candidate line is stored in the storage device, and it is determined whether or not the stored first white line candidate line matches the extracted second white line candidate line. In the case of a match, this matched straight line is extracted as a third white line candidate line, and this third white line candidate line is recognized as a white line 18. The storage device is provided in the processor 16, for example.
In addition, the camera 14 of FIG. 1, FIG. 2, and step S1 of FIG. 3 in this Embodiment correspond to the image acquisition means of a claim. The processor 16 in FIG. 1, the white line candidate point extracting unit 102 in FIG. 1, and step S4 in FIG. 3 correspond to the first white line candidate point extracting unit in the claims. The processor 16 in FIG. 1, the white line candidate line calculation unit 103 in FIG. 1, and step S5 in FIG. 3 correspond to the first white line candidate line extraction unit in the claims. The processor 16 in FIG. 1 and step S6 in FIG. 3 in the present embodiment correspond to second predetermined value setting means in the claims. The processor 16 in FIG. 1, the white line candidate line point re-extracting means 104 in FIG. 1, and step S7 in FIG. 3 correspond to the second white line candidate point extracting means in the claims. The processor 16 in FIG. 1, the white line candidate line recalculating unit 105 in FIG. 1, and step S8 in FIG. 3 correspond to the second white line candidate line extracting unit in the claims. The processor 16 in FIG. 1 and the procedures a) and b) in step S8 in FIG. 3 correspond to the third white line candidate line extracting means in the claims. The white line candidate line 22 that penetrates most of the white line candidate points 21 by using the inclination of the temporary white line candidate line of b) corresponds to the third white line candidate line in the claims. The processor 16 in FIG. 1 and step S8 in FIG. 3 in the present embodiment correspond to the white line recognition means in the claims.
Further, the embodiments described above are described for facilitating the understanding of the present invention, and are not described for limiting the present invention. Therefore, each element disclosed in the above embodiment includes all design changes and equivalents belonging to the technical scope of the present invention.

本発明の実施の形態の車線認識装置の基本的な構成を示すブロック図である。It is a block diagram which shows the basic composition of the lane recognition apparatus of embodiment of this invention. 本発明の実施の形態の車線認識装置を搭載した車両を示す図である。It is a figure which shows the vehicle carrying the lane recognition apparatus of embodiment of this invention. 本発明の実施の形態による画像処理プログラムを実行するためのフローチャートである。It is a flowchart for performing the image processing program by embodiment of this invention. 本発明の実施の形態による画像処理プログラムにおける道路パラメータの推定サブルーチンを示すフローチャートである。It is a flowchart which shows the estimation subroutine of the road parameter in the image processing program by embodiment of this invention. 本発明の実施の形態において画面に設定される複数のウインドウの配列状態を示す図である。It is a figure which shows the arrangement | sequence state of the some window set on the screen in embodiment of this invention. 本発明の実施の形態において設定されるウインドウ内の白線候補点のプロット状態を示す図である。It is a figure which shows the plot state of the white line candidate point in the window set in embodiment of this invention. 本発明の実施の形態において設定されるウインドウ内の白線候補線の選択状態を示す図である。It is a figure which shows the selection state of the white line candidate line in the window set in embodiment of this invention. 本発明の実施の形態において実行される白線候補線を探索する際のハフ変換による配列表を示す図である。It is a figure which shows the arrangement | sequence table by the Hough transform at the time of searching for the white line candidate line performed in embodiment of this invention. 本発明の実施の形態において実行されるハフ変換を配列要素で示す図である。It is a figure which shows the Hough transformation performed in embodiment of this invention by an array element. 本発明の実施の形態において設定されるウインドウの上辺と白線候補線との交点との道路座標を示す図である。It is a figure which shows the road coordinate of the intersection of the upper side of the window set in embodiment of this invention, and a white line candidate line. 本発明の実施の形態において設定されるウインドウ内のかすれた白線の場合の第1の判別値による白線候補点のプロット状態を示す図である。It is a figure which shows the plot state of the white line candidate point by the 1st discriminant value in the case of the faint white line in the window set in embodiment of this invention. 本発明の実施の形態において設定されるウインドウ内のかすれた白線の場合の第2の判別値による白線候補点のプロット状態を示す図である。It is a figure which shows the plot state of the white line candidate point by the 2nd discriminant value in the case of the faint white line in the window set in embodiment of this invention.

符号の説明Explanation of symbols

10…車線認識装置 12…自車両
12a…室内天井 12b…フロントガラス
14…カメラ 16…プロセッサ
R…道路
18…白線 20…ウインドウ
20a…上辺 20b…下辺
21…白線候補点 22…白線候補線
101…ウインドウ設定手段 102…白線候補点抽出手段
103…白線候補線算出手段 104…白線候補点再抽出手段
105…白線候補線再算出手段 106…道路パラメータ推定手段
DESCRIPTION OF SYMBOLS 10 ... Lane recognition apparatus 12 ... Own vehicle 12a ... Indoor ceiling 12b ... Windshield 14 ... Camera 16 ... Processor R ... Road 18 ... White line 20 ... Window 20a ... Upper side 20b ... Lower side 21 ... White line candidate point 22 ... White line candidate line 101 ... Window setting means 102 ... White line candidate point extraction means 103 ... White line candidate line calculation means 104 ... White line candidate point re-extraction means 105 ... White line candidate line re-calculation means 106 ... Road parameter estimation means

Claims (5)

自車両の前方を撮像する画像取得手段と、
前記画像取得手段により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出手段と、
前記第1の白線候補点抽出手段により抽出した前記第1の白線候補点を含む直線のうち、前記第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出手段と、
前記第1の白線候補線抽出手段により抽出した前記第1の白線候補線に含まれる前記第1の白線候補点の数が、所定値未満である場合に、前記第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定手段と、
前記画像のうち隣接する画素の輝度変化が前記第2の所定値設定手段により設定した前記第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出手段と、
前記第2の白線候補点抽出手段により抽出した前記第2の白線候補点を含む直線のうち、前記第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出手段と、
前記第2の白線候補線抽出手段により抽出した前記第2の白線候補線と、前記第1の白線候補点抽出手段により抽出した前記第1の白線候補点もしくは前記第1の白線候補線抽出手段により抽出した前記第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出手段と、
前記第3の白線候補線を白線として認識する白線認識手段と
を備えたことを特徴とする車線認識装置。
Image acquisition means for imaging the front of the host vehicle;
A first white line candidate point extracting unit that extracts a first white line candidate point when the luminance change of an adjacent pixel in the image captured by the image acquisition unit is equal to or greater than a first predetermined value;
The first white line candidate for extracting the first white line candidate line on which the first white line candidate points are most frequently included among the straight lines including the first white line candidate points extracted by the first white line candidate point extraction unit. Line extraction means;
When the number of the first white line candidate points included in the first white line candidate line extracted by the first white line candidate line extraction unit is less than a predetermined value, it is smaller than the first predetermined value. Second predetermined value setting means for setting a second predetermined value;
Second white line candidate point extraction for extracting a second white line candidate point when the luminance change of adjacent pixels in the image is equal to or greater than the second predetermined value set by the second predetermined value setting means Means,
A second white line candidate for extracting a second white line candidate line on which the second white line candidate points are most frequently included among straight lines including the second white line candidate points extracted by the second white line candidate point extraction unit. Line extraction means;
The second white line candidate line extracted by the second white line candidate line extracting means, and the first white line candidate point or the first white line candidate line extracting means extracted by the first white line candidate point extracting means. Third white line candidate line extraction means for extracting a third white line candidate line based on the first white line candidate line extracted by
A lane recognition device comprising: white line recognition means for recognizing the third white line candidate line as a white line.
前記第3の白線候補線抽出手段は、前記第2の白線候補線と同一の傾きを有する直線のうち、前記第1の白線候補点が最も多く載る直線を前記第3の白線候補線として抽出することを特徴とする請求項1記載の車線認識装置。   The third white line candidate line extraction unit extracts, as the third white line candidate line, a straight line on which the first white line candidate points are most frequently placed among straight lines having the same inclination as the second white line candidate line. The lane recognition device according to claim 1. 前記第1の白線候補線抽出手段により抽出した前記第1の白線候補線を記憶する第1の白線候補線記憶手段を有し、
前記第3の白線候補線抽出手段は、前記第1の白線候補線記憶手段により記憶した前記第1の白線候補線と、前記第2の白線候補線抽出手段により抽出した前記第2の白線候補線とが一致するかどうかを判断し、一致した直線を前記第3の白線候補線として抽出することを特徴とする請求項1記載の車線認識装置。
A first white line candidate line storage unit for storing the first white line candidate line extracted by the first white line candidate line extraction unit;
The third white line candidate line extraction unit is configured to store the first white line candidate line stored in the first white line candidate line storage unit and the second white line candidate extracted by the second white line candidate line extraction unit. 2. The lane recognition device according to claim 1, wherein it is determined whether or not the line matches, and the matched straight line is extracted as the third white line candidate line.
前記画像取得手段により撮像した前記画像内に複数のウインドウを設定し、前記ウインドウ内のうち隣接する画素の輝度変化に基いて前記第1の白線候補点、前記第2の白線候補点の少なくとも一方を検出することを特徴とする請求項1記載の車線認識装置。   A plurality of windows are set in the image picked up by the image acquisition means, and at least one of the first white line candidate point and the second white line candidate point based on a luminance change of an adjacent pixel in the window. The lane recognition device according to claim 1, wherein: 自車両の前方を撮像する画像取得工程と、
前記画像取得工程により撮像した画像のうち隣接する画素の輝度変化が第1の所定値以上である場合に、第1の白線候補点を抽出する第1の白線候補点抽出工程と、
前記第1の白線候補点抽出工程により抽出した前記第1の白線候補点を含む直線のうち、前記第1の白線候補点が最も多く載る第1の白線候補線を抽出する第1の白線候補線抽出工程と、
前記第1の白線候補線抽出工程により抽出した前記第1の白線候補線に含まれる前記第1の白線候補点の数が、所定値未満である場合に、前記第1の所定値よりも小さい第2の所定値を設定する第2の所定値設定工程と、
前記画像のうち隣接する画素の輝度変化が前記第2の所定値設定工程により設定した前記第2の所定値以上である場合に、第2の白線候補点を抽出する第2の白線候補点抽出工程と、
前記第2の白線候補点抽出工程により抽出した前記第2の白線候補点を含む直線のうち、前記第2の白線候補点が最も多く載る第2の白線候補線を抽出する第2の白線候補線抽出工程と、
前記第2の白線候補線抽出工程により抽出した前記第2の白線候補線と、前記第1の白線候補点抽出工程により抽出した前記第1の白線候補点もしくは前記第1の白線候補線抽出工程により抽出した前記第1の白線候補線とに基いて第3の白線候補線を抽出する第3の白線候補線抽出工程と、
前記第3の白線候補線を白線として認識する白線認識工程と
を有することを特徴とする車線認識方法。
An image acquisition step of imaging the front of the host vehicle;
A first white line candidate point extracting step of extracting a first white line candidate point when the luminance change of an adjacent pixel in the image captured by the image acquisition step is equal to or greater than a first predetermined value;
The first white line candidate for extracting the first white line candidate line on which the first white line candidate points are most frequently included among the straight lines including the first white line candidate points extracted in the first white line candidate point extracting step. A line extraction process;
When the number of the first white line candidate points included in the first white line candidate line extracted by the first white line candidate line extraction step is less than a predetermined value, it is smaller than the first predetermined value. A second predetermined value setting step of setting a second predetermined value;
Second white line candidate point extraction for extracting a second white line candidate point when a luminance change of an adjacent pixel in the image is greater than or equal to the second predetermined value set by the second predetermined value setting step Process,
A second white line candidate for extracting a second white line candidate line on which the second white line candidate points are most frequently included among straight lines including the second white line candidate points extracted in the second white line candidate point extraction step. A line extraction process;
The second white line candidate line extracted by the second white line candidate line extraction step, and the first white line candidate point or the first white line candidate line extraction step extracted by the first white line candidate point extraction step. A third white line candidate line extracting step for extracting a third white line candidate line based on the first white line candidate line extracted by:
A white line recognition step of recognizing the third white line candidate line as a white line.
JP2003395066A 2003-11-26 2003-11-26 Traffic lane recognition device and traffic lane recognition method Pending JP2005157723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003395066A JP2005157723A (en) 2003-11-26 2003-11-26 Traffic lane recognition device and traffic lane recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003395066A JP2005157723A (en) 2003-11-26 2003-11-26 Traffic lane recognition device and traffic lane recognition method

Publications (1)

Publication Number Publication Date
JP2005157723A true JP2005157723A (en) 2005-06-16

Family

ID=34720929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003395066A Pending JP2005157723A (en) 2003-11-26 2003-11-26 Traffic lane recognition device and traffic lane recognition method

Country Status (1)

Country Link
JP (1) JP2005157723A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012080497A (en) * 2010-10-06 2012-04-19 Suzuki Motor Corp Parking frame detection device and parking frame detection method
US8477999B2 (en) 2006-03-24 2013-07-02 Toyota Jidosha Kabushiki Kaisha Road division line detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8477999B2 (en) 2006-03-24 2013-07-02 Toyota Jidosha Kabushiki Kaisha Road division line detector
JP2012080497A (en) * 2010-10-06 2012-04-19 Suzuki Motor Corp Parking frame detection device and parking frame detection method

Similar Documents

Publication Publication Date Title
CN109460709B (en) RTG visual barrier detection method based on RGB and D information fusion
US6845172B2 (en) Road lane marker recognition
US9952678B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP4876080B2 (en) Environment recognition device
CN107330376B (en) Lane line identification method and system
JP4956452B2 (en) Vehicle environment recognition device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
JP6819996B2 (en) Traffic signal recognition method and traffic signal recognition device
CN107578012B (en) Driving assistance system for selecting sensitive area based on clustering algorithm
KR101261409B1 (en) System for recognizing road markings of image
JP5105481B2 (en) Lane detection device, lane detection method, and lane detection program
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP5310027B2 (en) Lane recognition device and lane recognition method
JP2003157499A (en) White road line recognizing device
JP2005157731A (en) Lane recognizing device and method
JP7180445B2 (en) object detector
JP3700625B2 (en) Road white line recognition device
JP2005157733A (en) Traffic lane recognition device and traffic lane recognition method
CN111881878A (en) Lane line identification method for look-around multiplexing
KR101904480B1 (en) Object recognition system and method considering camera distortion
JP2005157723A (en) Traffic lane recognition device and traffic lane recognition method
JP4070450B2 (en) Forward vehicle recognition device and recognition method
JP2000099896A (en) Traveling path detecting device and vehicle traveling controller and recording medium