JP2003187252A - Traffic lane boundary detector - Google Patents

Traffic lane boundary detector

Info

Publication number
JP2003187252A
JP2003187252A JP2001385263A JP2001385263A JP2003187252A JP 2003187252 A JP2003187252 A JP 2003187252A JP 2001385263 A JP2001385263 A JP 2001385263A JP 2001385263 A JP2001385263 A JP 2001385263A JP 2003187252 A JP2003187252 A JP 2003187252A
Authority
JP
Japan
Prior art keywords
lane boundary
edge
contour
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001385263A
Other languages
Japanese (ja)
Other versions
JP3662218B2 (en
Inventor
Munehiro Takayama
宗広 高山
Toshiaki Kakinami
俊明 柿並
Hisashi Satonaka
久志 里中
Makoto Nishida
誠 西田
Arata Takahashi
新 高橋
Yoshiki Ninomiya
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2001385263A priority Critical patent/JP3662218B2/en
Publication of JP2003187252A publication Critical patent/JP2003187252A/en
Application granted granted Critical
Publication of JP3662218B2 publication Critical patent/JP3662218B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traffic lane boundary detector capable of stably detecting a traffic lane boundary. <P>SOLUTION: An outermost contour extraction part 15 extracts outermost contour information of a group of white lines based on original image data stored in a frame buffer part 13 and contour data including positional information of an edge detected by an edge detection part 14. For details, the outermost contour extraction part 15 judges whether or not the edge corresponds to gaps generated between white lines to constitute a group of the white lines based on the contour data including the positional information of the edge extracted from the original image data and deletes the edge corresponding to the gaps from the contour data. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は撮像装置にて得た画
像データから区画線の車線境界位置を検出する車線境界
検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a lane boundary detecting device for detecting a lane boundary position of a marking line from image data obtained by an image pickup device.

【0002】[0002]

【従来の技術】従来、自動車等の移動体の走行を制御す
る装置に、走路形状を認識して操舵制御も自動的に行う
自動運転装置がある。この自動運転を実現するために
は、走路を認識する必要があり、画像処理により走路、
例えば区画線により車線境界位置を検出する検出装置が
必要となる。この種の検出装置として、例えば特開昭6
3−142478号公報、特開平6−20189号公
報、特開平6−119594号公報に記載されたものが
知られている。
2. Description of the Related Art Conventionally, as an apparatus for controlling the traveling of a moving body such as an automobile, there is an automatic driving apparatus for recognizing a running path shape and automatically performing steering control. In order to realize this automatic driving, it is necessary to recognize the road,
For example, a detection device for detecting the lane boundary position based on the marking line is required. As this type of detection device, for example, Japanese Patent Laid-Open No.
Those described in JP-A-3-142478, JP-A-6-20189, and JP-A-6-119594 are known.

【0003】これら検出装置は、白線は道路面より明る
いという特性を利用するものであり、撮影した画像の中
から、画像データに微分等の処理を施して高輝度部分の
輪郭データを抽出する。その後、道路に沿った方向に延
びる輪郭データの内、所定間隔(例えば設計基準値)に
対応する間隔のデータを白線の輪郭と見なすという手法
をとっていた。
These detecting devices utilize the characteristic that the white line is brighter than the road surface, and the image data is subjected to processing such as differentiation to extract the contour data of the high-luminance portion from the photographed image. After that, among the contour data extending in the direction along the road, the data of the interval corresponding to the predetermined interval (for example, the design reference value) is regarded as the outline of the white line.

【0004】[0004]

【発明が解決しようとする課題】ところで、区画線は、
走路の状態により形状が異なっている。図7(a)〜
(d)はその例を示す図である。図7(a)に示すよう
に、一般的な区間には、一方(左側)に実線の区画線5
1が設けられ、他方(右側)に破線の区画線52が設け
られている。これに対し、図7(b)に示すように、高
速道路等の入口、出口、分岐点、登坂車線等の区間に
は、一方(左側)に設けられた破線の区画線53は、他
方(右側)の区画線52に比べて幅広く形成されてい
る。この場合、従来の手法では、図7(b)の区画線5
3を認識できないことがある。
By the way, the lane marking is
The shape differs depending on the condition of the track. Fig.7 (a)-
(D) is a figure which shows the example. As shown in FIG. 7A, in a general section, one side (left side) is a solid demarcation line 5
1 is provided, and a broken line 52 is provided on the other side (right side). On the other hand, as shown in FIG. 7B, in sections such as entrances, exits, junctions, and uphill lanes of a highway, the broken demarcation line 53 provided on one side (left side) is It is formed wider than the partition line 52 on the right side. In this case, according to the conventional method, the division line 5 in FIG.
3 may not be recognized.

【0005】また、図7(c)に示すように、カーブ等
の注意喚起が必要な区間には、実線又は破線の左右一方
又は左右両側に幅広な破線よりなる標示を併設した区画
線(複合白線と呼ぶ)54,55が設けられている。ま
た、対向車線区間には、複数の実線を併設した区画線
(多重白線と呼ぶ)56が設けられている。これらの場
合、区画線の輪郭を安定して検出することができないこ
とがある。それは、以下の理由による。
Further, as shown in FIG. 7 (c), in a section such as a curve where attention is required, a marking line (composite line) having a wide broken line is provided on either the left or right side of the solid line or the broken line. 54 and 55 are provided. In the opposite lane section, a dividing line (called a multiple white line) 56 provided with a plurality of solid lines is provided. In these cases, the contour of the lane marking may not be stably detected. The reason is as follows.

【0006】・撮像装置には広角レンズを用いているた
め、複合白線54,55や多重白線56が画面の周辺部
に映るとき、小さく縮退しているために、白線と白線の
隙間が見えたり見えなかったりする。また、白線自体の
汚れや剥がれにより、それらの隙間が見えたり見えなか
ったりする。
Since a wide-angle lens is used in the image pickup device, when the composite white lines 54, 55 and the multiple white line 56 are reflected in the peripheral portion of the screen, they are slightly degenerated, so that a gap between the white lines and the white line can be seen. I can't see it. Also, due to the dirt and peeling of the white line itself, the gaps between them are visible or invisible.

【0007】・カメラの露出不適正により白線部分が飽
和して隙間が見えない。例えば、画面内に自車影が大き
な面積を占めているとき、白線部は露出オーバーとな
り、境界位置を判別することが難しく、隙間が判別しに
くくなる。
The white line portion is saturated due to improper exposure of the camera and the gap cannot be seen. For example, when the shadow of the vehicle occupies a large area on the screen, the white line portion is overexposed, and it is difficult to determine the boundary position, and it is difficult to determine the gap.

【0008】・現実の白線が汚れ/剥がれ等により薄く
なってコントラストが低下しているため、隙間が判別困
難である。これら要因により、隙間の見え方が常に一定
ではないため区画線の輪郭が安定せず、車線境界位置を
安定に検出することができないという問題があった。
Since the actual white line is thinned due to dirt / peeling and the contrast is lowered, it is difficult to determine the gap. Due to these factors, the appearance of the gap is not always constant, so the contour of the lane markings is not stable, and there is a problem that the lane boundary position cannot be detected stably.

【0009】本発明の目的は、車線境界を安定に検出す
ることのできる車線境界検出装置を提供することにあ
る。
An object of the present invention is to provide a lane boundary detecting device which can stably detect a lane boundary.

【0010】[0010]

【課題を解決するための手段】上記問題点を解決するた
め、請求項1に記載の発明は、撮像装置により撮影され
その視野に区画線を含む走行路の画像データから道路面
の車線境界位置を検出する車線境界検出装置において、
前記画像データから白線群の最外輪郭情報を抽出する輪
郭抽出手段を備え、該最外輪郭情報に基づいて車線境界
位置を設定する。
In order to solve the above-mentioned problems, the invention according to claim 1 is based on image data of a traveling road photographed by an image pickup device and including a marking line in its field of view, based on the lane boundary position of the road surface. In the lane boundary detection device that detects
A contour extracting means for extracting the outermost contour information of the white line group from the image data is provided, and the lane boundary position is set based on the outermost contour information.

【0011】請求項2に記載の発明は、請求項1記載の
車線境界検出装置において、前記輪郭抽出手段は、前記
画像データから抽出されたエッジの位置情報を含む輪郭
データに基づいて、該エッジが白線群を構成する白線の
間に生じた隙間に対応するか否かを判定し、該隙間に対
応するエッジを前記輪郭データから削除して白線群の最
外輪郭情報を抽出する。
According to a second aspect of the present invention, in the lane boundary detecting apparatus according to the first aspect, the contour extracting means, based on the contour data including the position information of the edge extracted from the image data, the edge is extracted. Determines whether or not corresponds to a gap generated between the white lines forming the white line group, deletes the edge corresponding to the gap from the contour data, and extracts the outermost contour information of the white line group.

【0012】請求項3に記載の発明は、請求項1又は2
記載の車線境界検出装置において、前記輪郭抽出手段
は、2つのエッジの間隔を測定し、該測定値と設定値と
を比較し、測定値が設定値より小さいか否かを判定する
エッジ間隔測定手段と、前記エッジ間隔測定手段の判定
結果に基づいて、前記2つのエッジの両側の濃度差を比
較する濃度差判定手段と、前記エッジ間隔測定手段と前
記濃度差判定手段の判定結果に基づいて、前記2つのエ
ッジが白線の隙間に対応か否かを判定し、対応するエッ
ジを前記最外輪郭情報から削除する隙間判定手段とを備
えた。
The invention according to claim 3 is the invention according to claim 1 or 2.
In the lane boundary detection device described above, the contour extraction means measures an interval between two edges, compares the measured value with a set value, and determines whether or not the measured value is smaller than the set value. Means and the density difference determining means for comparing the density differences on both sides of the two edges based on the determination result of the edge interval measuring means, and based on the determination results of the edge interval measuring means and the density difference determining means. And a gap determining unit that determines whether or not the two edges correspond to a white line gap and deletes the corresponding edges from the outermost contour information.

【0013】請求項4に記載の発明は、請求項1〜3の
うちの何れか一項記載の車線境界検出装置において、オ
フセット情報を記憶するオフセット設定手段と、前記オ
フセット設定手段に記憶されたオフセット情報に基づい
て車線境界位置を設定する境界設定手段とを備えた。
According to a fourth aspect of the present invention, in the lane boundary detecting apparatus according to any one of the first to third aspects, the offset setting means stores offset information, and the offset setting means stores the offset information. Boundary setting means for setting the lane boundary position based on the offset information.

【0014】請求項5に記載の発明は、請求項4記載の
車線境界検出装置において、前記境界設定手段は、前記
最外輪郭情報の白線群に対応する2つのエッジの位置を
示す最外輪郭データに基づく第1車線境界位置を算出
し、前記オフセット情報に基づいて前記2つの最外輪郭
データのうちの一方の位置をオフセットした第2の車線
境界位置と、前記オフセット情報に基づいて前記2つの
最外輪郭データのうちの他方の位置をオフセットした第
3の車線境界位置とを算出し、選択指示に従って前記第
1〜第3車線境界位置のうちの1つを出力する出力手段
を備えた。
According to a fifth aspect of the present invention, in the lane boundary detecting apparatus according to the fourth aspect, the boundary setting means indicates the outermost contour indicating the positions of two edges corresponding to the white line group of the outermost contour information. A first lane boundary position based on the data is calculated, a second lane boundary position obtained by offsetting one position of the two outermost contour data based on the offset information, and the second lane boundary position based on the offset information. And a third lane boundary position obtained by offsetting the other position of the one outermost contour data, and outputting one of the first to third lane boundary positions according to a selection instruction. .

【0015】(作用)請求項1に記載の発明によれば、
輪郭抽出手段により画像データから白線群の最外輪郭情
報が抽出され、該最外輪郭情報に基づいて車線境界位置
が設定される。従って、白線群の輪郭(最外輪郭情報)
が安定し、車線境界位置が安定して検出される。
(Operation) According to the invention described in claim 1,
The contour extracting means extracts the outermost contour information of the white line group from the image data, and sets the lane boundary position based on the outermost contour information. Therefore, the outline of the white line group (outermost outline information)
Is stable, and the lane boundary position is stably detected.

【0016】請求項2に記載の発明によれば、輪郭抽出
手段にて、画像データから抽出されたエッジの位置情報
を含む輪郭データに基づいて、該エッジが白線群を構成
する白線の間に生じた隙間に対応するか否かが判定さ
れ、該隙間に対応するエッジが輪郭データから削除され
て白線群の最外輪郭情報が抽出される。従って、白線群
の最外輪郭情報が確実に抽出され、車線境界位置が安定
して検出される。
According to the second aspect of the invention, based on the contour data including the position information of the edge extracted from the image data by the contour extracting means, the edge is placed between the white lines forming the white line group. It is determined whether or not it corresponds to the generated gap, the edge corresponding to the gap is deleted from the contour data, and the outermost contour information of the white line group is extracted. Therefore, the outermost contour information of the white line group is reliably extracted, and the lane boundary position is stably detected.

【0017】請求項3に記載の発明によれば、輪郭抽出
手段は、2つのエッジの間隔を測定し、該測定値と設定
値とを比較し、測定値が設定値より小さいか否かを判定
するエッジ間隔測定手段と、エッジ間隔測定手段の判定
結果に基づいて、2つのエッジの両側の濃度差を比較す
る濃度差判定手段と、エッジ間隔測定手段と濃度差判定
手段の判定結果に基づいて、2つのエッジが白線の隙間
に対応か否かを判定し、対応するエッジを最外輪郭情報
から削除する隙間判定手段とが備えられる。従って、白
線の間の隙間に対応するエッジが確実に判定され削除さ
れる。
According to the third aspect of the invention, the contour extracting means measures the interval between the two edges, compares the measured value with the set value, and determines whether the measured value is smaller than the set value. Based on the determination result of the edge interval measuring unit and the density difference determining unit, the density difference determining unit that compares the density differences on both sides of the two edges based on the determination result of the edge interval measuring unit. And a gap determining means for determining whether or not the two edges correspond to the gap of the white line and deleting the corresponding edges from the outermost contour information. Therefore, the edges corresponding to the gaps between the white lines are reliably determined and deleted.

【0018】請求項4に記載の発明によれば、オフセッ
ト設定手段に記憶されたオフセット情報に基づいて車線
境界位置が設定される。従って、白線群の最外輪郭情報
に対して車線境界位置が任意の位置に設定される。
According to the invention described in claim 4, the lane boundary position is set based on the offset information stored in the offset setting means. Therefore, the lane boundary position is set to an arbitrary position with respect to the outermost contour information of the white line group.

【0019】請求項5に記載の発明によれば、境界設定
手段にて、最外輪郭情報の白線群に対応する2つのエッ
ジの位置を示す最外輪郭データに基づく第1車線境界位
置を算出し、オフセット情報に基づいて2つの最外輪郭
データのうちの一方の位置をオフセットした第2の車線
境界位置と、オフセット情報に基づいて2つの最外輪郭
データのうちの他方の位置をオフセットした第3の車線
境界位置とが算出され、選択指示に従う出力手段から第
1〜第3車線境界位置のうちの1つが出力される。従っ
て、要求(選択指示)に対応する車線境界位置が容易に
得られる。
According to the invention described in claim 5, the boundary setting means calculates the first lane boundary position based on the outermost contour data indicating the positions of the two edges corresponding to the white line group of the outermost contour information. Then, the second lane boundary position where one position of the two outermost contour data is offset based on the offset information, and the other position of the two outermost contour data is offset based on the offset information. The third lane boundary position is calculated, and one of the first to third lane boundary positions is output from the output means according to the selection instruction. Therefore, the lane boundary position corresponding to the request (selection instruction) can be easily obtained.

【0020】[0020]

【発明の実施の形態】以下、本発明を具体化した車線境
界検出装置の一実施形態を図1〜図5に従って説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a lane boundary detecting apparatus embodying the present invention will be described below with reference to FIGS.

【0021】車線境界検出装置は移動体上に設置され、
該移動体が走行する走路を撮影した画像を処理してレー
ン境界位置(車線境界位置)を判断する。図1は、車線
境界検出装置10の概略ブロック図である。
The lane boundary detection device is installed on a moving body,
A lane boundary position (lane boundary position) is determined by processing an image obtained by photographing a running path on which the moving body travels. FIG. 1 is a schematic block diagram of a lane boundary detection device 10.

【0022】車線境界検出装置(以下、検出装置)10
は、撮像部11、A/D変換器12、フレームバッファ
(Frame Buffer)部13、エッジ検出部14、最外輪郭抽
出部15、オフセット設定部16、レーン境界設定部1
7、出力部18を備える。検出装置10は例えばCPU
よりなる制御部19に接続され、該制御部19は上記の
各部11〜18を制御する。
Lane boundary detecting device (hereinafter, detecting device) 10
Is an image pickup unit 11, an A / D converter 12, a frame buffer
(Frame Buffer) unit 13, edge detection unit 14, outermost contour extraction unit 15, offset setting unit 16, lane boundary setting unit 1
7 and an output unit 18. The detection device 10 is, for example, a CPU
Is connected to the control unit 19, which controls the above units 11 to 18.

【0023】撮像部11は、道路を撮影した画像データ
を出力する。A/D変換器12は、撮像部11から入力
される画像データをアナログ−デジタル変換し、その変
換データを出力する。フレームバッファ部13は、A/
D変換器12の出力信号を原画像データとして記憶す
る。
The image pickup section 11 outputs image data of a road image. The A / D converter 12 performs analog-digital conversion on the image data input from the imaging unit 11, and outputs the converted data. The frame buffer unit 13 is A /
The output signal of the D converter 12 is stored as original image data.

【0024】エッジ検出部14は、フレームバッファ部
13に記憶された原画像データに対してエッジ検出処理
を施して輪郭線部分のデータ(以下、輪郭データ)を抽
出する。エッジ検出処理は、所定のオペレータ(例えば
Prewitt オペレータ)を作用させて微分画像データを得
る。そして、エッジ検出部14は、微分画像データのう
ち、ノイズレベル以上の強度を有する領域に対して、そ
の領域の中央をエッジ点として見なした輪郭データを出
力する。尚、ノイズレベル以上の強度を有する領域に対
して、最大の強度を有する点をエッジ点と見なして輪郭
データを出力しても良い。
The edge detection unit 14 performs edge detection processing on the original image data stored in the frame buffer unit 13 to extract data of a contour line portion (hereinafter, contour data). The edge detection process is performed by a predetermined operator (for example,
Prewitt operator) is applied to obtain differential image data. Then, the edge detection unit 14 outputs, for a region having an intensity equal to or higher than the noise level in the differential image data, contour data in which the center of the region is regarded as an edge point. It should be noted that, for an area having an intensity equal to or higher than the noise level, the point having the maximum intensity may be regarded as an edge point and the contour data may be output.

【0025】最外輪郭抽出部(以下、抽出部)15は、
輪郭データとフレームバッファ部13に記憶された原画
像データとに基づいて、白線、白線群の最も外側の輪郭
の位置情報を求める。白線群は複数(複数種類)の白線
にて構成され、図7(c)の複合白線54,55、図7
(d)に示す多重白線56を含む。
The outermost contour extraction unit (hereinafter referred to as extraction unit) 15 is
Based on the contour data and the original image data stored in the frame buffer unit 13, the position information of the outermost contour of the white line and the white line group is obtained. The white line group is composed of a plurality (a plurality of types) of white lines, and is composed of the composite white lines 54 and 55 in FIG.
It includes the multiple white line 56 shown in (d).

【0026】抽出部15は、輪郭データに含まれる各エ
ッジ点が白線の間に生じた隙間に対応するか否かを判断
し、対応する場合にはそのエッジ点を輪郭データから削
除する。詳しくは、抽出部15は、輪郭データのマイナ
スエッジ(微分強度がマイナスとなるエッジ点)に着目
し、そのマイナスエッジが生起してから次にプラスエッ
ジ(微分強度プラスとなるエッジ点)が生起するまでの
間隔を測定する。抽出部15は、その間隔が所定の設定
値(例えば4画素であり、この設定値は一般的な白線群
を構成する白線に基づいて予め該抽出部15又は他のレ
ジスタに記憶される)以内であれば、これらエッジは白
線の間に生じた隙間を示す可能性があると見なす。次
に、抽出部15は、隙間を示す可能性があると見なした
2つのエッジそれぞれの外側の複数画素の濃度をフレー
ムバッファ部13から読出し、それぞれの平均値を比較
する。この濃度差が設定値以下であれば、読み出した複
数の画素の濃度はいずれも白線の濃度を表しているた
め、抽出部15はこれらエッジを白線間の隙間に対応す
るエッジであると判断する。そして、抽出部15は、こ
れらエッジのデータを輪郭データから削除する。従っ
て、輪郭データは、白線群の輪郭データを含み、白線間
の隙間に対応するエッジデータを含まない。そして、抽
出部15は、その輪郭データを輪郭位置情報として出力
する。尚、輪郭データがその進行方向に沿って破線状に
離間している場合、抽出部15は輪郭データをその進行
方向に沿って補完し、最大幅の輪郭データ(白線群の輪
郭データ)のうち、広い幅を持つ2つの輪郭データを輪
郭位置情報として出力する。
The extraction unit 15 determines whether or not each edge point included in the contour data corresponds to a gap generated between white lines, and if so, deletes the edge point from the contour data. Specifically, the extraction unit 15 pays attention to a negative edge (edge point having a negative differential intensity) of the contour data, and after the negative edge occurs, a plus edge (an edge point having a positive differential intensity) occurs. Measure the interval until. The extraction unit 15 has an interval within a predetermined set value (for example, 4 pixels, and the set value is stored in advance in the extraction unit 15 or another register based on white lines forming a general white line group). If so, consider that these edges may indicate gaps between white lines. Next, the extraction unit 15 reads the densities of a plurality of pixels outside each of the two edges that are considered to indicate a gap from the frame buffer unit 13 and compares the respective average values. If the density difference is equal to or smaller than the set value, the densities of the read pixels represent the densities of the white lines. Therefore, the extraction unit 15 determines that these edges are edges corresponding to the gaps between the white lines. . Then, the extraction unit 15 deletes the edge data from the contour data. Therefore, the contour data includes the contour data of the white line group and does not include the edge data corresponding to the gap between the white lines. Then, the extraction unit 15 outputs the contour data as contour position information. When the contour data are separated in a broken line shape along the traveling direction, the extraction unit 15 complements the contour data along the traveling direction, and among the contour data of the maximum width (contour data of the white line group). , And outputs two pieces of contour data having wide widths as contour position information.

【0027】オフセット設定部16は、レーン境界設定
部17で用いられる最外レーン境界位置からのオフセッ
ト値を記憶している。このオフセット値は、制御部19
により予め設定される。
The offset setting unit 16 stores an offset value from the outermost lane boundary position used by the lane boundary setting unit 17. This offset value is used by the control unit 19
Is set in advance.

【0028】レーン境界設定部17は、抽出部15から
の輪郭位置情報(輪郭データ)に基づいて、該輪郭デー
タの両エッジの中間位置である第1レーン境界位置デー
タを生成する。また、レーン境界設定部17は、最外輪
郭データとオフセット値に基づいて、該輪郭データの一
方(例えば右側)のエッジを他方のエッジへ第1オフセ
ット値だけオフセットした位置である第2レーン境界位
置データを生成する。更に、レーン境界設定部17は、
最外輪郭データとオフセット値に基づいて、他方(例え
ば左側)のエッジを一方のエッジへ第2オフセット値だ
けオフセットした位置である第3レーン境界位置データ
を生成する。そして、レーン境界設定部17は、生成し
た第1〜第3レーン境界位置データを出力する。
The lane boundary setting unit 17 generates the first lane boundary position data, which is the intermediate position between both edges of the contour data, based on the contour position information (contour data) from the extraction unit 15. In addition, the lane boundary setting unit 17 is a second lane boundary that is a position where one edge (for example, right side) of the contour data is offset by the first offset value from the other edge based on the outermost contour data and the offset value. Generate position data. Furthermore, the lane boundary setting unit 17
Based on the outermost contour data and the offset value, third lane boundary position data, which is a position where the other edge (for example, the left side) is offset to the one edge by the second offset value, is generated. Then, the lane boundary setting unit 17 outputs the generated first to third lane boundary position data.

【0029】出力部18は、制御部19の指示に従っ
て、レーン境界設定部17が出力する第1〜第3レーン
境界位置データのうちの一つを選択し、その選択データ
を出力する。この選択データは、警報装置や速度制御装
置等のシステム制御コンピュータに送られ、それに基づ
いて移動体が制御される。
The output unit 18 selects one of the first to third lane boundary position data output by the lane boundary setting unit 17 according to an instruction from the control unit 19 and outputs the selected data. This selection data is sent to a system control computer such as an alarm device and a speed control device, and the moving body is controlled based on the selection data.

【0030】図2は、抽出部15の構成を示すブロック
図である。尚、同図において、抽出部15と出力部18
の間のレーン境界設定部17を省略してある。抽出部1
5は、エッジ間隔測定部21、濃度差判定部22、隙間
判定部23を備えている。
FIG. 2 is a block diagram showing the structure of the extraction unit 15. In the figure, the extraction unit 15 and the output unit 18
The lane boundary setting unit 17 between the two is omitted. Extraction unit 1
5 includes an edge interval measuring unit 21, a density difference determining unit 22, and a gap determining unit 23.

【0031】エッジ間隔測定部21は、輪郭データのマ
イナスエッジ(微分強度がマイナスとなるエッジ点)に
着目し、そのマイナスエッジが生起してから次にプラス
エッジ(微分強度プラスとなるエッジ点)が生起するま
での間隔を測定する。エッジ間隔測定部21は、その間
隔が所定の設定値以内であれば、これらエッジは白線の
間に生じた隙間を示す可能性があると見なし、その情報
を濃度差判定部22と隙間判定部23に出力する。設定
値は、白線間の隙間に対応する画素数(例えば4画素)
であり、この設定値は一般的な白線群を構成する白線に
基づいて予めエッジ間隔測定部21又は他のレジスタに
記憶される。
The edge interval measuring unit 21 pays attention to a negative edge (edge point having a negative differential intensity) of the contour data, and after the negative edge occurs, a plus edge (edge point having a positive differential intensity). Measure the interval until the occurrence of. If the distance is within a predetermined set value, the edge distance measuring unit 21 considers that these edges may indicate a gap generated between the white lines, and the information thereof is used as the density difference determining unit 22 and the gap determining unit. To 23. The set value is the number of pixels corresponding to the gap between the white lines (eg 4 pixels)
This set value is stored in advance in the edge interval measuring unit 21 or another register based on the white lines forming the general white line group.

【0032】濃度差判定部22は、隙間を示す可能性が
あると見なした2つのエッジそれぞれの外側の複数画素
の濃度をフレームバッファ部13から読出し、それぞれ
の平均値を比較し、比較結果を隙間判定部23に出力す
る。
The density difference determination unit 22 reads the densities of a plurality of pixels outside each of the two edges that are considered to indicate a gap from the frame buffer unit 13, compares the respective average values, and compares the results. Is output to the gap determination unit 23.

【0033】隙間判定部23は、エッジ間隔測定部21
の測定結果と、濃度差判定部22の測定結果に基づい
て、着目したエッジが白線間の隙間に対応するエッジで
あるか否かを判断する。そして、隙間判定部23は、エ
ッジデータが白線間の隙間に対応する場合にそのエッジ
データを輪郭データから削除する。即ち、隙間判定部2
3は、白線群の輪郭データを含み、白線間の隙間に対応
するエッジデータを含まない輪郭位置情報を出力する。
尚、輪郭データがその進行方向に沿って破線状に離間し
ている場合、隙間判定部23は輪郭データをその進行方
向に沿って補完し、最大幅の輪郭データ(白線群の輪郭
データのうち、広い幅を持つ2つの輪郭データを輪郭位
置情報として出力する。
The gap determining unit 23 is the edge gap measuring unit 21.
It is determined whether the focused edge is the edge corresponding to the gap between the white lines, based on the measurement result of 1. and the measurement result of the density difference determination unit 22. Then, the gap determination unit 23 deletes the edge data from the contour data when the edge data corresponds to the gap between the white lines. That is, the gap determination unit 2
3 outputs the contour position information including the contour data of the white line group but not the edge data corresponding to the gap between the white lines.
When the contour data are separated in a broken line shape along the traveling direction, the gap determination unit 23 complements the contour data along the traveling direction, and the contour data having the maximum width (of the contour data of the white line group , Two contour data having a wide width are output as contour position information.

【0034】次に、上記のように構成された車線境界検
出装置の作用を説明する。今、図5(a)に示す原画像
データ31がフレームバッファ部13に記録されてい
る。尚、図5(a)〜(c)は画像データを可視化した
ものである。
Next, the operation of the lane boundary detecting device configured as described above will be described. Now, the original image data 31 shown in FIG. 5A is recorded in the frame buffer unit 13. 5A to 5C are visualizations of image data.

【0035】図1のエッジ検出部14は、走査線に沿っ
て原画像データをフレームバッファ部13から読出す。
図3(a)は、図5(a)の走査線S1においてフレー
ムバッファ部13に記録された原画像を読み出した原画
像データの概略波形を示す。尚、横軸は時間であり、縦
軸は濃度値である。
The edge detecting section 14 of FIG. 1 reads out the original image data from the frame buffer section 13 along the scanning line.
FIG. 3A shows a schematic waveform of original image data obtained by reading the original image recorded in the frame buffer unit 13 on the scanning line S1 of FIG. 5A. The horizontal axis represents time and the vertical axis represents concentration value.

【0036】エッジ検出部14は、該原画像データに対
して所定のオペレータを作用させて微分画像データを生
成する。更に、エッジ検出部14は、微分画像データの
ノイズレベル以上の強度を有する領域に対して、その領
域の中央をエッジ点として見なした輪郭データを出力す
る。図5(b)は1画面分の輪郭データ31aを示す。
The edge detecting section 14 applies a predetermined operator to the original image data to generate differential image data. Further, the edge detection unit 14 outputs contour data in which the center of the area is regarded as an edge point for the area having the intensity equal to or higher than the noise level of the differential image data. FIG. 5B shows the contour data 31a for one screen.

【0037】図1の抽出部15は、図3(c)に示すマ
イナスエッジBに着目し、そのマイナスエッジBが生起
してから次に生起したプラスエッジCまでの間隔を測定
する。この間隔が設定値以内の場合、抽出部15は、そ
れらエッジB,Cの両側が白線であるか否かをチェック
する。
The extraction unit 15 in FIG. 1 pays attention to the minus edge B shown in FIG. 3C, and measures the interval from the occurrence of the minus edge B to the next plus edge C. When this interval is within the set value, the extraction unit 15 checks whether or not both sides of the edges B and C are white lines.

【0038】まず、図4に示すように、抽出部15は、
マイナスエッジBに対応する画素の走査方向において手
前側(図において左側)の画素a,bの濃度値を原画像
(即ちフレームバッファ部13に記憶されている原画像
データ)から得る。次に、抽出部15は、プラスエッジ
Cに対応する画素の走査方向において後方側(図におい
て右側)の画素c,dの濃度値を同様にして得る。そし
て、抽出部15は、画素a,bの濃度値の平均値と、画
素c,dの濃度値の平均値の濃度差を算出する。この算
出した濃度差が設定値以下であるため、抽出部15は、
エッジB,Cを輪郭位置情報から削除する。その結果、
輪郭位置情報には、図3(d)に示すように、プラスエ
ッジAとマイナスエッジDが残り、これらエッジA,D
が最外輪郭エッジである。
First, as shown in FIG.
The density values of the pixels a and b on the front side (left side in the drawing) of the pixel corresponding to the minus edge B in the scanning direction are obtained from the original image (that is, the original image data stored in the frame buffer unit 13). Next, the extraction unit 15 similarly obtains the density values of the pixels c and d on the rear side (right side in the drawing) in the scanning direction of the pixel corresponding to the plus edge C. Then, the extraction unit 15 calculates the density difference between the average value of the density values of the pixels a and b and the average value of the density values of the pixels c and d. Since the calculated density difference is less than or equal to the set value, the extraction unit 15
The edges B and C are deleted from the contour position information. as a result,
As shown in FIG. 3D, a plus edge A and a minus edge D remain in the contour position information.
Is the outermost contour edge.

【0039】同様に、抽出部15は、図5(a)の右側
に表れる複合白線55の原画像データに対して同様な処
理を実施し(図3において右側部分)、図3(d)に示
す最外輪郭エッジを残す。図6(a)は、残された最外
輪郭エッジの情報(画像データ32)である。
Similarly, the extraction unit 15 performs the same processing on the original image data of the composite white line 55 appearing on the right side of FIG. 5A (the right side portion in FIG. 3), and FIG. Leave the outermost contour edge shown. FIG. 6A is information (image data 32) of the remaining outermost contour edge.

【0040】次に、抽出部15は、輪郭位置情報(図6
(a)において左側の白線群によるエッジデータと、右
側の白線群によるエッジデータ)を進行方向に沿って補
完して図6(b)に実線で示す最外輪郭データ(輪郭位
置情報)33a〜33dを生成する。
Next, the extraction unit 15 uses the contour position information (see FIG. 6).
Outermost contour data (contour position information) 33a shown by a solid line in FIG. 6B by complementing the edge data by the white line group on the left side and the edge data by the white line group on the right side in (a) along the traveling direction. 33d is generated.

【0041】これら最外輪郭データ33a〜33dに基
づき、図1のレーン境界設定部17は、最外輪郭データ
33a〜33dの中間位置を算出し、図6(b)に一点
鎖線で示す第1レーン境界位置データ34a,34bを
生成する。
Based on these outermost contour data 33a to 33d, the lane boundary setting unit 17 of FIG. 1 calculates the intermediate position of the outermost contour data 33a to 33d, and the first position shown by the dashed line in FIG. 6B. The lane boundary position data 34a and 34b are generated.

【0042】尚、図示しないが、レーン境界設定部17
は、図6(b)に示す最外輪郭データに基づき、第2及
び第3レーン境界位置データを生成する。以上詳述した
ように、本実施形態によれば、以下に示す効果が得られ
る。
Although not shown, the lane boundary setting unit 17
Generates the second and third lane boundary position data based on the outermost contour data shown in FIG. 6 (b). As described in detail above, according to this embodiment, the following effects can be obtained.

【0043】(1)本実施形態では、最外輪郭抽出部1
5は、フレームバッファ部13に記憶された原画像デー
タとエッジ検出部14にて検出されたエッジの位置情報
を含む輪郭データに基づいて白線群の最外輪郭情報を抽
出するようにした。その結果、白線の間の隙間に対応す
るエッジが抽出されないため、白線群の輪郭(最外輪郭
情報)が安定し、車線境界位置を安定して検出すること
ができる。
(1) In this embodiment, the outermost contour extraction unit 1
In No. 5, the outermost contour information of the white line group is extracted based on the original image data stored in the frame buffer unit 13 and the contour data including the edge position information detected by the edge detection unit 14. As a result, the edges corresponding to the gaps between the white lines are not extracted, so that the outline of the white line group (outermost outline information) is stable and the lane boundary position can be detected stably.

【0044】(2)本実施形態では、最外輪郭抽出部1
5は、原画像データから抽出されたエッジの位置情報を
含む輪郭データに基づいて、該エッジが白線群を構成す
る白線の間に生じた隙間に対応するか否かを判定し、該
隙間に対応するエッジを輪郭データから削除するように
した。その結果、白線群の最外輪郭情報が確実に抽出さ
れるため、車線境界位置を安定して検出することができ
る。
(2) In this embodiment, the outermost contour extraction unit 1
Reference numeral 5 determines whether or not the edge corresponds to a gap generated between the white lines forming the white line group, based on the contour data including the position information of the edge extracted from the original image data. The corresponding edge is deleted from the contour data. As a result, the outermost contour information of the white line group is reliably extracted, so that the lane boundary position can be stably detected.

【0045】(3)本実施形態では、最外輪郭抽出部1
5は、2つのエッジの間隔を測定し、該測定値と設定値
とを比較し、測定値が設定値より小さいか否かを判定す
るエッジ間隔測定部21と、エッジ間隔測定部の判定結
果に基づいて、2つのエッジの両側の濃度差を比較する
濃度差判定部22と、エッジ間隔測定部と濃度判定部の
判定結果に基づいて、2つのエッジが白線の隙間に対応
か否かを判定し、対応するエッジを最外輪郭情報から削
除する隙間判定部23とを備えた。その結果、隙間に対
応するエッジの両側が白線か否かをそれらの濃度差を比
較することで容易に判断することができ、白線の間の隙
間に対応するエッジを確実に削除することができる。
(3) In this embodiment, the outermost contour extraction unit 1
Reference numeral 5 denotes an edge interval measuring unit 21 that measures an interval between two edges, compares the measured value with a set value, and determines whether the measured value is smaller than the set value, and a determination result of the edge interval measuring unit. Based on the density difference determination unit 22 that compares the density differences on both sides of the two edges, and whether the two edges correspond to the white line gap based on the determination results of the edge interval measurement unit and the density determination unit. And a gap determining unit 23 that determines and deletes the corresponding edge from the outermost contour information. As a result, it is possible to easily determine whether or not both sides of the edge corresponding to the gap are white lines by comparing their density differences, and it is possible to reliably delete the edge corresponding to the gap between the white lines. .

【0046】(4)本実施形態では、オフセット情報を
記憶するオフセット設定部16を備えた。その結果、オ
フセット情報に基づいて白線群の最外輪郭情報から車線
境界位置を設定することで、車線境界位置を任意の位置
に設定することができる。
(4) In this embodiment, the offset setting section 16 for storing the offset information is provided. As a result, by setting the lane boundary position from the outermost contour information of the white line group based on the offset information, the lane boundary position can be set at an arbitrary position.

【0047】(5)本実施形態では、レーン境界設定部
17は、輪郭位置情報の白線群に対応する2つのエッジ
の位置を示す最外輪郭データに基づく第1車線境界位置
を算出し、オフセット情報に基づいて2つの最外輪郭デ
ータのうちの一方の位置をオフセットした第2の車線境
界位置と、オフセット情報に基づいて2つの最外輪郭デ
ータのうちの他方の位置をオフセットした第3の車線境
界位置とを算出する。出力部18は、選択指示に従って
第1〜第3車線境界位置のうちの1つを出力するように
した。その結果、要求(選択指示)に対応する車線境界
位置が容易に得ることができる。
(5) In this embodiment, the lane boundary setting section 17 calculates the first lane boundary position based on the outermost contour data indicating the positions of the two edges corresponding to the white line group of the contour position information, and offsets it. A second lane boundary position obtained by offsetting one position of the two outermost contour data based on the information, and a third lane boundary position obtained by offsetting the other position of the two outermost contour data based on the offset information. The lane boundary position is calculated. The output unit 18 is configured to output one of the first to third lane boundary positions according to the selection instruction. As a result, the lane boundary position corresponding to the request (selection instruction) can be easily obtained.

【0048】尚、上記実施形態に限定されるものではな
く、次のように変更してもよい。 ・撮像部11、A/D変換器12、フレームバッファ部
13のうちの少なくとも一つを別体とした車線境界検出
装置に具体化する。
The present invention is not limited to the above embodiment, but may be modified as follows. It is embodied in a lane boundary detection device in which at least one of the image pickup unit 11, the A / D converter 12, and the frame buffer unit 13 is a separate body.

【0049】・エッジ検出部14において、使用するオ
ペレータとして、Sobel,Roberts,Kirsch,Robinson,単純
3レベルオペレータ等を用いてエッジ検出を行う。ま
た、単純ラプラシアンフィルター、ノイズ抑制型ラプラ
シアンフィルター、ブリッジフィルター、サーフボード
フィルター等を用いてエッジ検出を行う。
In the edge detection unit 14, as an operator to be used, Sobel, Roberts, Kirsch, Robinson, a simple three-level operator, etc. are used to perform edge detection. In addition, edge detection is performed using a simple Laplacian filter, a noise suppression type Laplacian filter, a bridge filter, a surfboard filter, or the like.

【0050】・出力部18が予め制御部19の指示を記
憶し、その指示に基づいて選択した第1〜第3レーン境
界位置データのうちの一つを出力する。 ・レーン境界設定部17が制御部19の指示に従って第
1〜第3レーン境界位置データのうちの一つを生成す
る。
The output unit 18 stores the instruction of the control unit 19 in advance and outputs one of the first to third lane boundary position data selected based on the instruction. The lane boundary setting unit 17 generates one of the first to third lane boundary position data according to the instruction of the control unit 19.

【0051】・エッジ検出部14、最外輪郭抽出部1
5、レーン境界設定部17が提供する機能のうちの少な
くとも1つをCPUがプログラムを実行して提供する構
成としてもよい。
Edge detector 14, outermost contour extractor 1
5. The CPU may execute a program to provide at least one of the functions provided by the lane boundary setting unit 17.

【0052】次に、以上の実施形態から把握される技術
的思想をその効果とともに以下に記載する。 (イ)前記輪郭抽出手段は、マイナスエッジに着目し、
該マイナスエッジが生起してから次のエッジが生起する
までの間隔を測定し、該測定値が設定値以内の場合に両
エッジの両側が白線であるか否かを判断し、白線の場合
に両エッジを前記輪郭データから削除することを特徴と
する請求項2記載の車線境界検出装置。従って、白線の
間の隙間に対応するエッジを確実に除くことができる。
Next, the technical idea understood from the above embodiment will be described below together with its effects. (A) The contour extracting means pays attention to a minus edge,
The interval from the occurrence of the negative edge to the occurrence of the next edge is measured, and when the measured value is within the set value, it is determined whether or not both sides of both edges are white lines. The lane boundary detection device according to claim 2, wherein both edges are deleted from the contour data. Therefore, the edge corresponding to the gap between the white lines can be surely removed.

【0053】(ロ)原画像データから抽出されたエッジ
に対して、マイナスエッジに着目し、該マイナスエッジ
が生起してから次のエッジが生起するまでの間隔を測定
し、該測定値と設定値とを比較し、該比較結果に基づい
て両エッジが白線の間に生じた隙間に対応するか否かを
判断することを特徴とするエッジ判定方法。従って、白
線の間の隙間に対応するエッジを確実に除くことができ
る。
(B) With respect to the edge extracted from the original image data, paying attention to the negative edge, measuring the interval from the occurrence of the negative edge to the occurrence of the next edge, and setting the measured value. An edge determination method comprising: comparing a value with a value, and determining whether or not both edges correspond to a gap generated between white lines based on the comparison result. Therefore, the edge corresponding to the gap between the white lines can be surely removed.

【0054】[0054]

【発明の効果】以上詳述したように、本発明では、車線
境界を安定に検出することのできる車線境界検出装置を
提供することができる。
As described above in detail, according to the present invention, it is possible to provide a lane boundary detecting device capable of stably detecting a lane boundary.

【図面の簡単な説明】[Brief description of drawings]

【図1】 車線境界検出装置の概略構成を示すブロック
図である。
FIG. 1 is a block diagram showing a schematic configuration of a lane boundary detection device.

【図2】 最外輪郭抽出部を説明するためのブロック図
である。
FIG. 2 is a block diagram for explaining an outermost contour extraction unit.

【図3】 輪郭線検出の説明図である。FIG. 3 is an explanatory diagram of contour line detection.

【図4】 隙間判定の説明図である。FIG. 4 is an explanatory diagram of gap determination.

【図5】 白線の説明図である。FIG. 5 is an explanatory diagram of a white line.

【図6】 白線の説明図である。FIG. 6 is an explanatory diagram of a white line.

【図7】 白線の説明図である。FIG. 7 is an explanatory diagram of a white line.

【符号の説明】[Explanation of symbols]

15…最外輪郭抽出部(輪郭抽出手段)、16…オフセ
ット設定部(オフセット設定手段)、17…境界設定部
(境界設定手段)、18…出力部(出力手段)、21…
エッジ間隔測定部(エッジ間隔測定手段)、22…濃度
差判定部(濃度差判定手段)、23…隙間判定部(隙間
判定手段)。
15 ... Outermost contour extraction section (contour extraction means), 16 ... Offset setting section (offset setting means), 17 ... Boundary setting section (boundary setting means), 18 ... Output section (output means), 21 ...
Edge interval measuring unit (edge interval measuring unit), 22 ... Density difference determining unit (density difference determining unit), 23 ... Gap determining unit (gap determining unit).

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高山 宗広 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機 株式会社内 (72)発明者 柿並 俊明 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機 株式会社内 (72)発明者 里中 久志 愛知県豊田市トヨタ町1番地 トヨタ自動 車 株式会社内 (72)発明者 西田 誠 愛知県豊田市トヨタ町1番地 トヨタ自動 車 株式会社内 (72)発明者 高橋 新 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 二宮 芳樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 5B057 AA16 BA02 DA08 DB02 DB05 DB09 DC16 DC22 5H180 AA01 CC04 LL06 LL09 5L096 AA03 AA06 BA04 CA02 DA01 FA06 FA14 GA05    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Munehiro Takayama             Aichi, 2-chome, Asahi-cho, Kariya city, Aichi prefecture             N Seiki Co., Ltd. (72) Inventor Toshiaki Kakinami             Aichi, 2-chome, Asahi-cho, Kariya city, Aichi prefecture             N Seiki Co., Ltd. (72) Inventor Hisashi Satonaka             1 Toyota Town, Toyota City, Aichi Prefecture Toyota Auto             Car Co., Ltd. (72) Inventor Makoto Nishida             1 Toyota Town, Toyota City, Aichi Prefecture Toyota Auto             Car Co., Ltd. (72) Inventor Shin Takahashi             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Yoshiki Ninomiya             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 5B057 AA16 BA02 DA08 DB02 DB05                       DB09 DC16 DC22                 5H180 AA01 CC04 LL06 LL09                 5L096 AA03 AA06 BA04 CA02 DA01                       FA06 FA14 GA05

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置により撮影されその視野に区画
線を含む走行路の画像データから道路面の車線境界位置
を検出する車線境界検出装置において、 前記画像データから白線群の最外輪郭情報を抽出する輪
郭抽出手段を備え、該最外輪郭情報に基づいて車線境界
位置を設定することを特徴とする車線境界検出装置。
1. A lane boundary detecting device for detecting a lane boundary position of a road surface from image data of a traveling road imaged by an imaging device and including lane markings in its field of view, wherein outermost contour information of a white line group is detected from the image data. A lane boundary detecting device comprising a contour extracting means for extracting, and setting a lane boundary position based on the outermost contour information.
【請求項2】 前記輪郭抽出手段は、前記画像データか
ら抽出されたエッジの位置情報を含む輪郭データに基づ
いて、該エッジが白線群を構成する白線の間に生じた隙
間に対応するか否かを判定し、該隙間に対応するエッジ
を前記輪郭データから削除して白線群の最外輪郭情報を
抽出することを特徴とする請求項1記載の車線境界検出
装置。
2. The contour extracting means, based on the contour data including the position information of the edge extracted from the image data, determines whether the edge corresponds to a gap generated between the white lines forming the white line group. The lane boundary detection apparatus according to claim 1, wherein the outermost contour information of the white line group is extracted by determining whether or not the edge corresponding to the gap is deleted from the contour data.
【請求項3】 前記輪郭抽出手段は、 2つのエッジの間隔を測定し、該測定値と設定値とを比
較し、測定値が設定値より小さいか否かを判定するエッ
ジ間隔測定手段と、 前記エッジ間隔測定手段の判定結果に基づいて、前記2
つのエッジの両側の濃度差を比較する濃度差判定手段
と、 前記エッジ間隔測定手段と前記濃度差判定手段の判定結
果に基づいて、前記2つのエッジが白線の隙間に対応か
否かを判定し、対応するエッジを前記最外輪郭情報から
削除する隙間判定手段とを備えたことを特徴とする請求
項1又は2記載の車線境界検出装置。
3. The edge extracting means measures the distance between two edges, compares the measured value with a set value, and judges whether the measured value is smaller than the set value or not. Based on the determination result of the edge interval measuring means,
Density difference determining means for comparing the density differences on both sides of one edge, and based on the determination results of the edge interval measuring means and the density difference determining means, it is determined whether or not the two edges correspond to a white line gap. The lane boundary detection device according to claim 1 or 2, further comprising: a gap determination unit that deletes a corresponding edge from the outermost contour information.
【請求項4】 オフセット情報を記憶するオフセット設
定手段と、 前記オフセット設定手段に記憶されたオフセット情報に
基づいて車線境界位置を設定する境界設定手段とを備え
たことを特徴とする請求項1〜3のうちの何れか一項記
載の車線境界検出装置。
4. An offset setting means for storing offset information, and a boundary setting means for setting a lane boundary position based on the offset information stored in the offset setting means. 4. The lane boundary detection device according to claim 3.
【請求項5】 前記境界設定手段は、前記最外輪郭情報
の白線群に対応する2つのエッジの位置を示す最外輪郭
データに基づく第1車線境界位置を算出し、 前記オフセット情報に基づいて前記2つの最外輪郭デー
タのうちの一方の位置をオフセットした第2の車線境界
位置と、前記オフセット情報に基づいて前記2つの最外
輪郭データのうちの他方の位置をオフセットした第3の
車線境界位置とを算出し、 選択指示に従って前記第1〜第3車線境界位置のうちの
1つを出力する出力手段を備えたことを特徴とする請求
項4記載の車線境界検出装置。
5. The boundary setting means calculates a first lane boundary position based on outermost contour data indicating positions of two edges corresponding to a white line group of the outermost contour information, and based on the offset information. A second lane boundary position in which one position of the two outermost contour data is offset, and a third lane in which the other position of the two outermost contour data is offset based on the offset information. The lane boundary detection device according to claim 4, further comprising output means for calculating a boundary position and outputting one of the first to third lane boundary positions in accordance with a selection instruction.
JP2001385263A 2001-12-18 2001-12-18 Lane boundary detection device Expired - Fee Related JP3662218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001385263A JP3662218B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001385263A JP3662218B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Publications (2)

Publication Number Publication Date
JP2003187252A true JP2003187252A (en) 2003-07-04
JP3662218B2 JP3662218B2 (en) 2005-06-22

Family

ID=27594766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001385263A Expired - Fee Related JP3662218B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Country Status (1)

Country Link
JP (1) JP3662218B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1667085A1 (en) * 2003-09-24 2006-06-07 Aisin Seiki Kabushiki Kaisha Device for detecting road traveling lane
EP1667086A1 (en) * 2003-09-24 2006-06-07 Aisin Seiki Kabushiki Kaisha Device for detecting road traveling lane
JP2007028279A (en) * 2005-07-19 2007-02-01 Honda Motor Co Ltd Vehicle and road surface label recognizing device
JP2008033676A (en) * 2006-07-28 2008-02-14 Denso Corp Vehicle detecting device
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2018020691A (en) * 2016-08-04 2018-02-08 トヨタ自動車株式会社 Vehicle travel control device
CN116758077A (en) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 Online detection method and system for surface flatness of surfboard

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1667085A1 (en) * 2003-09-24 2006-06-07 Aisin Seiki Kabushiki Kaisha Device for detecting road traveling lane
EP1667086A1 (en) * 2003-09-24 2006-06-07 Aisin Seiki Kabushiki Kaisha Device for detecting road traveling lane
EP1667086A4 (en) * 2003-09-24 2007-02-07 Aisin Seiki Device for detecting road traveling lane
EP1667085A4 (en) * 2003-09-24 2007-02-07 Aisin Seiki Device for detecting road traveling lane
US7583816B2 (en) 2003-09-24 2009-09-01 Aisin Seiki Kabushiki Kaisha Device for detecting a road traveling lane using an edge histogram
JP2007028279A (en) * 2005-07-19 2007-02-01 Honda Motor Co Ltd Vehicle and road surface label recognizing device
JP4556133B2 (en) * 2005-07-19 2010-10-06 本田技研工業株式会社 vehicle
JP2008033676A (en) * 2006-07-28 2008-02-14 Denso Corp Vehicle detecting device
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2018020691A (en) * 2016-08-04 2018-02-08 トヨタ自動車株式会社 Vehicle travel control device
CN116758077A (en) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 Online detection method and system for surface flatness of surfboard
CN116758077B (en) * 2023-08-18 2023-10-20 山东航宇游艇发展有限公司 Online detection method and system for surface flatness of surfboard

Also Published As

Publication number Publication date
JP3662218B2 (en) 2005-06-22

Similar Documents

Publication Publication Date Title
JP3503230B2 (en) Nighttime vehicle recognition device
JP4157620B2 (en) Moving object detection apparatus and method
JP4032727B2 (en) Lane boundary detection device
JPH08329393A (en) Preceding vehicle detector
JP2994170B2 (en) Vehicle periphery monitoring device
JP3812384B2 (en) Leading vehicle recognition device
JP3807651B2 (en) White line recognition device
JP2003187252A (en) Traffic lane boundary detector
JP4631197B2 (en) Branch determination device, program, and recording medium
JP2020095623A (en) Image processing device and image processing method
JP4635245B2 (en) Device for measuring the starting state of a stopped vehicle at an intersection
JP3999345B2 (en) Own vehicle position recognition device, own vehicle position recognition method and program
JP3638028B2 (en) Vehicle number recognition device
JP2946620B2 (en) Automatic number reading device with speed measurement function
JPH10111939A (en) On-vehicle image processor
JPH04137014A (en) Traveling path terminal detector for mobile vehicle
JP2002042140A (en) Moving object measuring device and traffic flow measured image processing device
JP2003187227A (en) Traffic lane boundary detector
JP2885216B2 (en) Lane change detection device
JP2006317328A (en) On-vehicle object detection device and object detection method
JP2019124985A (en) Vehicle detector, vehicle detection method, and vehicle detection program
JP7142131B1 (en) Lane detection device, lane detection method, and lane detection program
JPH05216534A (en) Obstacle detector for vehicle
JPH10302074A (en) Device for detecting position of number plate
JP2001043483A (en) System for measuring traffic flow

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090401

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100401

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110401

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120401

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120401

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120401

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130401

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130401

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140401

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees