JPH05289743A - Line detecting device - Google Patents
Line detecting deviceInfo
- Publication number
- JPH05289743A JPH05289743A JP3064789A JP6478991A JPH05289743A JP H05289743 A JPH05289743 A JP H05289743A JP 3064789 A JP3064789 A JP 3064789A JP 6478991 A JP6478991 A JP 6478991A JP H05289743 A JPH05289743 A JP H05289743A
- Authority
- JP
- Japan
- Prior art keywords
- white line
- line
- detected
- white
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000001444 catalytic combustion detection Methods 0.000 description 33
- 238000000034 method Methods 0.000 description 29
- 238000003708 edge detection Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、車両の自動運転等のた
めに、道路に沿って設けられたガイドラインを検出する
ライン検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line detecting device for detecting a guideline provided along a road for automatic driving of a vehicle or the like.
【0002】[0002]
【従来の技術】従来より、運転者の負担を軽くするため
に、各種の運転制御装置が車両に搭載されている。この
中でハンドル操作も自動的に行う自動運転が研究されて
おり、通常の自動車においても自動運転ができるような
機構を搭載することが検討されている。2. Description of the Related Art Conventionally, various driving control devices have been mounted on a vehicle in order to reduce the burden on the driver. Among them, research has been conducted on automatic driving in which steering operation is also performed automatically, and it is considered to install a mechanism that enables automatic driving even in a normal automobile.
【0003】この自動運転のためには、車両の走路(道
路)に対する位置を常時把握し、車両が走路に沿って走
行するように制御しなければならない。For this automatic driving, the position of the vehicle with respect to the road (road) must be constantly grasped and the vehicle must be controlled so as to travel along the road.
【0004】そして、この走路の検出の方法として走路
に沿って形成されている白線をテレビカメラによって撮
影し、この白線の位置から車両の走路に対する位置を検
出することが提案されている。As a method of detecting the running road, it has been proposed to photograph a white line formed along the running road with a television camera and detect the position of the vehicle with respect to the running road from the position of the white line.
【0005】道路には、通常センターライン、車線を分
割するライン等が設けられており、自動運転のための位
置検出を、白線検出によって行えば、道路側における設
備を非常に簡単なものとできると考えられる。[0005] A road is usually provided with a center line, a line dividing a lane, and the like. If the position detection for automatic driving is performed by the white line detection, the equipment on the road side can be very simple. it is conceivable that.
【0006】例えば、特開昭63−40913号公報に
は、車両に搭載したCCDカメラを用いて、前方の白線
を検出する方法が開示されている。すなわち、この例に
おいては、CCDカメラによって得られた路面の輝度が
所定値以上の部分を白線と判定する。通常の道路はアス
ファルト等の黒い部分に白線が形成されており、白線の
部分の輝度はその他の部分より十分大きいため、これに
よって白線が検出できる。[0006] For example, Japanese Patent Laid-Open No. 63-40913 discloses a method of detecting a front white line using a CCD camera mounted on a vehicle. That is, in this example, a portion where the brightness of the road surface obtained by the CCD camera is equal to or higher than a predetermined value is determined as a white line. In a normal road, white lines are formed on black areas such as asphalt, and the brightness of the white areas is sufficiently higher than that of other areas, so that the white areas can be detected.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、車両の
走行においては、車両の姿勢が大きく変化する場合もあ
る。そして、このよな場合に、従来の装置では、白線が
視野から外れ、これを見失ってしまう場合がある。However, when the vehicle is traveling, the posture of the vehicle may change significantly. In such a case, in the conventional device, the white line may be out of the field of view and may be lost.
【0008】これを解消するためには、CCDカメラの
視野を広げることが考えられる。しかし、視野角を広げ
ると、複数の車線を有する道路において、複数の白線が
視野に入ることになる。すなわち、一車線の幅が約3.
7mの場合には、4m幅の路面を視野とすれば2本の白
線が写り、8m幅の路面を視野とすれば3本の白線が写
ることになる。そこで、複数の白線の中から自車両が沿
うべき白線を常に判別することが必要となる。In order to solve this, it is possible to widen the field of view of the CCD camera. However, if the viewing angle is widened, a plurality of white lines will come into view on a road having a plurality of lanes. That is, the width of one lane is about 3.
In the case of 7 m, if the road surface with a width of 4 m is viewed, two white lines are captured, and if the road surface with a width of 8 m is viewed, three white lines are captured. Therefore, it is necessary to always discriminate the white line that the vehicle should follow from among the plurality of white lines.
【0009】関連技術 本発明者は、このような問題点を解決するために、特願
平2−294774号において、ライン位置を予測し、
予測範囲のみライン検出処理を行うことを提案した。 Related Art In order to solve such a problem, the present inventor predicted the line position in Japanese Patent Application No. 2-294774.
It is proposed to perform line detection processing only in the prediction range.
【0010】すなわち、今回の検出ライン位置wL,前
回の検出ライン位置wL1、前前回の検出ライン位置w
L0から次式によって次回のライン位置wLLを算出す
る。 wLL=3(wL−wL1)+wL0 そして、この予測ライン位置の前後所定範囲のデータの
みをライン検出処理の対象とする。That is, the current detection line position wL, the previous detection line position wL1, the previous detection line position w
The next line position wLL is calculated from L0 by the following equation. wLL = 3 (wL-wL1) + wL0 Then, only the data within a predetermined range before and after this predicted line position is the target of the line detection processing.
【0011】従って、このような予測により、ライン検
出処理の対象データ数を削減でき、かつラインを確実に
検出することができる。Therefore, such prediction can reduce the number of target data of the line detection processing and can surely detect the line.
【0012】ところが、このような予測処理を行うと、
車両のピッチングなどによってライン検出位置が大きく
変化した場合に、この影響が大きく予測位置が大きく異
なってしまう場合があった。However, when such prediction processing is performed,
When the line detection position greatly changes due to vehicle pitching or the like, this influence may be large and the predicted position may be greatly different.
【0013】すなわち、図14に示すように道路に窪み
があり、ここにおいて車両のピッチングが生起された場
合には、予測ライン位置が実際のライン位置と大きく異
なることになり、ラインが処理対象範囲から外れてしま
い、ラインが検出できないという問題点があった。な
お、図14においては、検出した車線幅wを表示してい
るが、これは検出車線幅wがピッチングに応じて変化す
るからである。That is, when there is a depression on the road as shown in FIG. 14 and pitching of the vehicle occurs here, the predicted line position greatly differs from the actual line position, and the line is the processing target range. There was a problem that the line could not be detected because it was out of the range. Note that the detected lane width w is shown in FIG. 14 because the detected lane width w changes according to pitching.
【0014】発明の目的 本発明は上記問題点を解決することを課題としてなされ
たものであり、ピッチングの影響を最小限とし、かつ効
率的なデータ処理によるライン検出が行えるライン検出
装置を提供することを目的とする。An object The present invention has been made as a problem to solve the above problems, and minimize the pitching effects, and to provide a line detection device capable of performing line detection by efficient data processing The purpose is to
【0015】[0015]
【課題を解決するための手段】本発明に係るライン検出
装置は、車両に搭載され、道路に沿って設けられたガイ
ドラインを検出するライン検出装置であって、所定範囲
の道路の画像を繰返し出力するカメラと、このカメラか
ら出力される一回毎の画像を処理し、ガイドラインを検
出するライン検出手段と、このライン検出手段によって
検出されたライン位置を複数回分記憶するライン位置記
憶手段と、このライン位置記憶手段に記憶されている複
数のライン位置を移動平均し、時間的経過に応じた複数
の平均ライン位置を算出する平均ライン位置算出手段
と、この平均ライン位置算出手段によって得られた時間
的経過に応じた複数のライン位置の変化状態から今回検
出のライン位置を予測するライン位置予測手段と、この
ライン位置予測手段によって得られた予測位置に最も近
い検出ラインを選択するライン選択手段と、を有するこ
とを特徴とするを特徴とする。A line detection device according to the present invention is a line detection device which is mounted on a vehicle and detects a guide line provided along a road, and repeatedly outputs an image of a road in a predetermined range. A camera, a line detection means for processing an image output once from the camera to detect a guideline, a line position storage means for storing the line position detected by the line detection means for a plurality of times, and An average line position calculating means for moving and averaging a plurality of line positions stored in the line position storing means to calculate a plurality of average line positions according to the passage of time, and a time obtained by the average line position calculating means. Line position predicting means for predicting the line position detected this time from a plurality of change states of the line position according to the progress of the line, and this line position predicting means Thus a line selecting means for selecting the closest detection line to the predicted positions obtained, characterized by characterized by having a.
【0016】[0016]
【作用】本発明に係るライン検出装置においては、カメ
ラで得られた一回毎の画像を処理してラインを検出する
が、ライン位置記憶手段に少なくとも複数回分のライン
位置を記憶している。そして、この複数回のライン位置
データを時間的経過に応じて複数移動平均し、時系列の
複数の平均ライン位置を算出する。In the line detecting apparatus according to the present invention, a line is detected by processing the image obtained by the camera for each time, and the line position storing means stores the line position for at least a plurality of times. Then, a plurality of moving averages of the line position data of a plurality of times are calculated according to the passage of time to calculate a plurality of time-series average line positions.
【0017】また、この時系列の平均ライン位置から次
回の検出されるラインの位置を予測し、この予測位置に
最も近いラインを選択する。Further, the position of the next detected line is predicted from this time-series average line position, and the line closest to this predicted position is selected.
【0018】従って、カメラで得られた画像中にライン
が複数ある場合においても、自車両が沿うべきラインを
適確に選択することができるとともに、ピッチングなど
による異常なデータの影響を最小限に抑制することがで
きる。Therefore, even when there are a plurality of lines in the image obtained by the camera, it is possible to accurately select the line along which the vehicle is to travel and minimize the influence of abnormal data due to pitching or the like. Can be suppressed.
【0019】[0019]
【実施例】以下、本発明に係るライン検出装置につい
て、図面に基づいて説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A line detecting device according to the present invention will be described below with reference to the drawings.
【0020】図1は本発明に係るライン検出装置の構成
を示すブロック図であり、CCDカメラ10を有してい
る。このCCDカメラ10はレンズ12、絞り14から
なる光学系と、一次元に配置された光電変換素子を有す
るCCDリニアセンサ16からなっている。そのCCD
カメラ10は、車両の前方の画像を得ることができる位
置に取り付けられ、CCDリニアセンサ16から出力さ
れる各光電素子毎の輝度に関する情報をシリアル信号と
して出力する。FIG. 1 is a block diagram showing the structure of a line detecting apparatus according to the present invention, which has a CCD camera 10. The CCD camera 10 includes an optical system including a lens 12 and a diaphragm 14, and a CCD linear sensor 16 having a one-dimensionally arranged photoelectric conversion element. The CCD
The camera 10 is attached to a position where an image in front of the vehicle can be obtained, and outputs information regarding the brightness of each photoelectric element output from the CCD linear sensor 16 as a serial signal.
【0021】そして、このCCDカメラ10には、白線
検出ECU20が接続されている。この白線検出ECU
20はCCDカメラ10から入力される信号を増幅する
と共に波形をなまらせるアンプ22、AD変換器24、
CPU26、CPU26の動作についてのプログラムを
記憶するROM28、CPU26の処理の際に記憶エリ
アとして使用するRAM30、入出力動作のためのI/
O部32からなっている。そして、この白線検出ECU
20によって検出された白線についての情報が車両制御
ECU40に供給され、この車両制御ECU40が車両
の操舵等を制御し、検出した白線に沿った車両の走行が
行われるよう制御する。A white line detection ECU 20 is connected to the CCD camera 10. This white line detection ECU
Reference numeral 20 denotes an amplifier 22, an AD converter 24, which amplifies the signal input from the CCD camera 10 and blunts the waveform.
A CPU 26, a ROM 28 that stores a program for the operation of the CPU 26, a RAM 30 that is used as a storage area during the processing of the CPU 26, and an I / O for input / output operations.
It consists of an O section 32. And this white line detection ECU
Information about the white line detected by 20 is supplied to the vehicle control ECU 40, and this vehicle control ECU 40 controls steering of the vehicle and the like so that the vehicle travels along the detected white line.
【0022】次に、CCDカメラ10における白線検出
の機構について図2に基づいて説明する。Next, the mechanism of white line detection in the CCD camera 10 will be described with reference to FIG.
【0023】CCDカメラ10は、そのレンズ12の前
方L1の距離の画像を取り込むように車両に設置されて
いる。そして、レンズ12の焦点距離はfであり、レン
ズ12の後方L2の距離にあるCCDリニアセンサ16
において結像するようになっている。そこで、CCDリ
ニアセンサ16の横幅wにおいて検出できる前方の画像
の幅はWとなる。そこで、レンズ12の前方L1 におい
て、白線がその中心線よりxずれた位置にあれば、CC
Dリニアセンサ16において、この白線が結像される位
置は、一義的に決定される。そして、このCCDリニア
センサ16の幅wにおける素子数をNとし、CCDリニ
アセンサ16における中心からの素子数をIとすれば、
白線の中心からの距離xは次のように示されることとな
る。The CCD camera 10 is installed in the vehicle so as to capture an image of the distance L1 in front of the lens 12. The focal length of the lens 12 is f, and the CCD linear sensor 16 located at a distance L2 behind the lens 12
The image is formed at. Therefore, the width of the front image that can be detected by the width w of the CCD linear sensor 16 is W. Therefore, in the front L1 of the lens 12, if the white line is at a position displaced from the center line by x, CC
In the D linear sensor 16, the position where the white line is imaged is uniquely determined. If the number of elements in the width w of the CCD linear sensor 16 is N and the number of elements from the center of the CCD linear sensor 16 is I,
The distance x from the center of the white line is shown as follows.
【0024】まず、凸レンズ公式より、 1/L1+1/L2=1/f であり、その倍率より、 W=w・L2/L2 である。First, according to the convex lens formula, 1 / L1 + 1 / L2 = 1 / f, and from the magnification thereof, W = w · L2 / L2.
【0025】このため、 W=w・(L1+f)/f となり、 x=(W/N)・(N/2−I) となる。Therefore, W = w. (L1 + f) / f and x = (W / N). (N / 2-I).
【0026】そこで、白線がCCDリニアセンサ16に
おける何番目の素子において検出されるかを検出すれ
ば、白線の位置xを検出することができる。Therefore, the position x of the white line can be detected by detecting in which element of the CCD linear sensor 16 the white line is detected.
【0027】全体フロー 次に、上述のような原理を利用した、白線検出ECU2
0におけるCCDカメラ10からの信号処理(白線検
出)について説明する。 Overall Flow Next, the white line detection ECU 2 utilizing the above principle
The signal processing (white line detection) from the CCD camera 10 at 0 will be described.
【0028】図3は白線検出処理の全体動作を説明する
フローチャートであり、まず、CCDカメラ10におけ
る露光量が所定範囲に収まるよう露光制御を行う(S
1)。そして、所定の露光制御が行われたCCDカメラ
10からの各素子毎の輝度信号がシリアルデータとして
出力されるため、これをAD変換器24においてデジタ
ルデータに変換する(S2)。ここで、CCDカメラ1
0からのデータの出力はCCDリニアセンサ16の水平
出力シフトレジスタに供給されるクロックによって決定
されているため、このAD変換器24におけるクロック
周波数もこれに同期したものとする。FIG. 3 is a flow chart for explaining the overall operation of the white line detection processing. First, exposure control is performed so that the exposure amount in the CCD camera 10 falls within a predetermined range (S).
1). Then, since the luminance signal for each element is output as serial data from the CCD camera 10 for which the predetermined exposure control has been performed, this is converted into digital data in the AD converter 24 (S2). Here, CCD camera 1
Since the data output from 0 is determined by the clock supplied to the horizontal output shift register of the CCD linear sensor 16, the clock frequency in the AD converter 24 is also synchronized with this.
【0029】そこで、CCDリニアセンサ16における
N個の各素子において得られたそれぞれの輝度信号が、
N個のデジタルデータとしてAD変換器24から順次出
力されることとなる。このデジタル信号はRAM30の
所定の場所に記憶される。Therefore, the respective luminance signals obtained in each of the N elements in the CCD linear sensor 16 are
It is sequentially output from the AD converter 24 as N pieces of digital data. This digital signal is stored in a predetermined location of RAM 30.
【0030】そして、このようにして得られたCCDカ
メラ10における輝度信号の最大値検出及び平均値計算
を行い、この最大値及び平均値に基づいてしきい値を計
算する(S3)。Then, the maximum value of the brightness signal thus obtained in the CCD camera 10 is detected and the average value is calculated, and the threshold value is calculated based on the maximum value and the average value (S3).
【0031】次に、得られたしきい値を利用してAD変
換して得られたN個のデジタルデータをそれぞれ二値化
するとともに、この二値化デ―タの変化状態より、白線
の左右エッジ部を検出する(S4)。そして、検出され
た左右エッジの数から画像端部に白線がかかった場合を
考慮したエッジ補正を行う(S5)。Next, each of the N digital data obtained by AD conversion using the obtained threshold value is binarized, and from the change state of the binarized data, a white line is drawn. The left and right edge portions are detected (S4). Then, edge correction is performed based on the detected number of left and right edges in consideration of the case where a white line is applied to the image end (S5).
【0032】このようにして、複数の白線エッジが検出
され、この中から自車両が沿うべき白線を検出するが、
このとき少なくとも前回、前々回の白線位置の変化状態
から今回の白線位置を予測し、予測位置に最も近いもの
を選択する。そして、選択された白線の座標を出力する
(S6)。In this way, a plurality of white line edges are detected, and the white line along which the vehicle should follow is detected from among these.
At this time, the white line position of this time is predicted at least from the change state of the white line position of the previous time and the time before the previous time, and the one closest to the predicted position is selected. Then, the coordinates of the selected white line are output (S6).
【0033】この白線の座標は上述の説明の通り、白線
の中央からの距離に対応しており、このxを車両制御E
CU40に供給することにより、車両制御ECU40が
このxに基づいて操舵制御し、車線(白線)に沿った車
両走行が達成される。As described above, the coordinates of this white line correspond to the distance from the center of the white line.
By supplying to the CU 40, the vehicle control ECU 40 performs steering control based on this x, and vehicle traveling along the lane (white line) is achieved.
【0034】このようにして、本実施例によれば、複数
検出された白線位置から自車両の沿うべき白線を予測、
選択するため、車両姿勢が大きく変化した場合において
も適確なライン白線検出を行うことができる。As described above, according to this embodiment, the white line along which the vehicle is to be predicted is predicted from the plurality of detected white line positions,
Since the selection is made, accurate line white line detection can be performed even when the vehicle attitude changes significantly.
【0035】しきい値算出 本実施例におけるしきい値算出の動作について、図4に
基づいて説明する。[0035] The operation of the threshold calculating the threshold calculating the present embodiment will be described with reference to FIG.
【0036】まず、初期設定として3つの変数である平
均値avb、最大値maxd、AD変換データカウンタ
adcountの3つの変数を0にリセットすると共
に、AD変換して得られた輝度データのRAM30にお
ける先頭アドレス(e000h)を変数Aにセットする
(S101)。なお、ここでセットされた各変数の値
は、RAM30において記憶される。First, as initial settings, three variables of an average value avb, a maximum value maxd, and an AD conversion data counter adcount which are three variables are reset to 0, and the brightness data obtained by AD conversion is stored in the head of the RAM 30. The address (e000h) is set in the variable A (S101). The values of the variables set here are stored in the RAM 30.
【0037】次に、adcountが400h(102
4)に至ったか否かを判定する(S102)。これは、
CCDリニアセンサ16における有効な素子数(幅wの
範囲の素子数)、すなわち一度の撮影時niAD変換器
24から出力されるデータの数に対応している。そこ
で、adcountが1024に至ったことで、全デー
タの処理が終了したことを判定できる。Next, the count is 400h (102
It is determined whether or not 4) has been reached (S102). this is,
This corresponds to the effective number of elements in the CCD linear sensor 16 (the number of elements in the range of the width w), that is, the number of data output from the niAD converter 24 at the time of one shooting. Therefore, when the count reaches 1024, it can be determined that the processing of all data is completed.
【0038】adcountが1024以下であった場
合には、データの処理がまだ終了していないため、変数
bc,ax,upに、次のようなデータを入力する(S
103)。If the count is less than 1024, the data processing is not yet completed, and the following data is input to the variables bc, ax, and up (S).
103).
【0039】 bc=A,ax=adcount,up=bc+ax ここで、変数upにはCCDリニアセンサ16で得られ
た1024の輝度信号が格納されるRAM30における
アドレスが順次指定されることとなる。そして、この変
数upで指定されたアドレスのデータを読み出し、これ
を変数DATAの値として入力する(S104)。Bc = A, ax = adcount, up = bc + ax Here, an address in the RAM 30 in which the 1024 luminance signals obtained by the CCD linear sensor 16 are stored is sequentially designated as the variable up. Then, the data at the address designated by the variable up is read out and input as the value of the variable DATA (S104).
【0040】次に、最大値の検出のために、DATAが
最大値maxdより小さいか否かを判定する(S10
5)。そして、DATAがmaxdより大きい場合に
は、これを最大値とすべきであり、変数maxdにDA
TAを入力して、この値を更新する(S106)。一
方、DATAが最大でない場合には、最大値maxdを
更新する必要はないため、S106を通らずに、次の処
理に移る。Next, in order to detect the maximum value, it is determined whether DATA is smaller than the maximum value maxd (S10).
5). Then, when DATA is larger than maxd, this should be the maximum value, and the variable maxd has DA
TA is input to update this value (S106). On the other hand, when DATA is not the maximum value, it is not necessary to update the maximum value maxd, and thus the process proceeds to the next process without passing through S106.
【0041】次に、平均値avb算出のために、DAT
Aの値をデータ数1024で除算した値を順次加算する
(S107)。そして、adcountに1を加算し
(S108)、S102に戻る。Next, in order to calculate the average value avb, DAT
A value obtained by dividing the value of A by the data number 1024 is sequentially added (S107). Then, 1 is added to the count (S108), and the process returns to S102.
【0042】このため、最大値、平均値の算出(S10
6,S107)をデータ数が1024に至るまで繰り返
こととなり、全て(1024個)のデータについての処
理が終わった場合に、S102においてYESとなり、
しきい値thL0 を次式によって算出する(S10
9)。Therefore, the maximum value and the average value are calculated (S10
6, S107) is repeated until the number of data reaches 1024, and when the processing for all (1024) data is completed, YES is obtained in S102,
The threshold thL0 is calculated by the following formula (S10)
9).
【0043】thL0=(avb+maxd)/2 このようにして、本実施例においては、CCDリニアセ
ンサ16によって得られた全ての素子におけるデータの
平均値と最大値の中間の値がしきい値thL0となる。ThL0 = (avb + maxd) / 2 In this way, in this embodiment, the intermediate value between the average value and the maximum value of the data in all the elements obtained by the CCD linear sensor 16 is the threshold value thL0. Become.
【0044】二値化、エッジ検出処理 次に、図5及び図6に基づいて、二値化処理、エッジ検
出処理について説明する。Binarization and Edge Detection Processing Next, the binarization processing and edge detection processing will be described with reference to FIGS.
【0045】まず、次のように各変数に初期値をセット
する。(S201)。First, an initial value is set in each variable as follows. (S201).
【0046】白線部継続カウント許可フラグcok1=
0,路面部継続カウント許可フラグcok2=0,白線
継続カウンタfc1=0,路面継続カウンタfc2=
0,白線左エッジ候補座標wn01=0,白線右エッジ
候補座標wn02=0,白線検出フラグfw1=0,白
線右エッジカウンタwc1=0,路面検出フラグfw2
=1,白線左エッジカウンタwc2=0 また、上述のしきい値算出の場合と同様に、変数Aに輝
度データの先頭アドレス(e000h)を入力し(S2
02)、1024個のデータのナンバーを表すAD変換
データカウンタadcountを0にセットする(S2
03)。White line part continuous count permission flag cok1 =
0, road surface continuation count permission flag cok2 = 0, white line continuation counter fc1 = 0, road surface continuation counter fc2 =
0, white line left edge candidate coordinates wn01 = 0, white line right edge candidate coordinates wn02 = 0, white line detection flag fw1 = 0, white line right edge counter wc1 = 0, road surface detection flag fw2
= 1, white line left edge counter wc2 = 0 Further, similarly to the case of the above threshold value calculation, the start address (e000h) of the luminance data is input to the variable A (S2
02) The AD conversion data counter adcount representing the number of 1024 pieces of data is set to 0 (S2)
03).
【0047】まず、adcountが1024(400
h)に至り、全データの処理が終了したかを判定する
(S204)。そして、処理が終了していない場合に
は、変数bc,ax,upにA,adcount,bc
+axの値を代入するとともに、upで決定されるアド
レスの輝度データの値を変数DATAに入力する(S2
05)。First, the count is 1024 (400
In step h), it is determined whether the processing of all data is completed (S204). If the processing is not completed, the variables bc, ax, and up are set to A, adcount, bc.
The value of + ax is substituted and the value of the brightness data of the address determined by up is input to the variable DATA (S2
05).
【0048】次に、二値化処理を行うが、まず変数DA
TAとしきい値thLを比較する(S206)。Next, the binarization process is performed. First, the variable DA
The threshold value thL is compared with TA (S206).
【0049】ここで、このthLは上述のS110で算
出されたthL1とは異なる。すなわち、このしきい値
thLは今回の処理において算出されたしきい値ではな
く前回以前の処理において算出されたものである。Here, this thL is different from thL1 calculated in S110 described above. That is, this threshold value thL is not the threshold value calculated in this processing but is calculated in the previous processing.
【0050】そして、DATA≦thLの場合には路面
部であるため、白線部の継続検出数を表わす変数fc1
=0,白線左エッジの検出座標を示す変数wn01=
0,路面検出を示す変数fw2=1にセットする(S2
07)。When DATA ≦ thL, the road surface portion is used, and therefore the variable fc1 representing the number of continuously detected white line portions is detected.
= 0, a variable wn01 indicating the detected coordinate of the left edge of the white line =
0, a variable fw2 = 1 indicating road surface detection is set (S2
07).
【0051】また、cok1が0であるかを判定する
(S208)。cok1は、後述するように黒から白
(DATA≦thL→DATA>thL)に変化した場
合に1となり、白の状態が2つ続いた場合には、0に戻
るフラグである。このため、黒を検出した際(DATA
≦thL)にcok1が0でないということは、前回の
白(DATA>thL)検出が1回で終了したことを示
している。そして、白の検出が1回で終了したというこ
とは、路面の中に白線でない白い点などが存在したもの
と考えられ、この時に右エッジを検出すべきではない。
そこで、S208において、cok1が0でなかった場
合にはcok1=0,fw1=0として(S209)、
白を検出したことについてのフラグを0にリセットする
とともに、adcountに1を加算して(S21
0)、S204に戻る。Further, it is determined whether cok1 is 0 (S208). As described later, cok1 is a flag that becomes 1 when the color changes from black to white (DATA ≦ thL → DATA> thL), and returns to 0 when two white states continue. Therefore, when black is detected (DATA
The fact that cok1 is not 0 in ≦ thL) indicates that the previous white (DATA> thL) detection is completed once. The fact that the detection of white is completed once means that there is a white point that is not a white line on the road surface, and the right edge should not be detected at this time.
Therefore, if cok1 is not 0 in S208, cok1 = 0 and fw1 = 0 are set (S209),
The flag for detecting white is reset to 0, and 1 is added to the count (S21
0), and returns to S204.
【0052】一方、cok1=0であった場合には、前
回の検出結果が上述のような異常な状態でなかったた
め、次のようにして右エッジを検出する。まず、fw1
=1か否かを判定する(S211)。fw1はS201
において初期設定としては0にセットされており、白線
を検出した際、すなわちDATA>thLの場合に1に
セットされるものである。従って、S206においてデ
ータが≦thLであり、S208においてfw1が1で
あるということは、白線の右エッジを検出したことを意
味している。そこで、S211においてfw1=1であ
れば、路面の検出が検出されたため、fw1=0とする
とともに,右エッジの検出位置を示す変数wn02=a
dcount,路面継続カウント許可フラグcok2=
1とする(S212)。On the other hand, when cok1 = 0, the previous detection result is not the abnormal state as described above, so the right edge is detected as follows. First, fw1
It is determined whether or not = 1 (S211). fw1 is S201
Is initially set to 0, and is set to 1 when a white line is detected, that is, when DATA> thL. Therefore, the fact that the data is ≦ thL in S206 and the fw1 is 1 in S208 means that the right edge of the white line has been detected. Therefore, if fw1 = 1 in S211, detection of the road surface has been detected, so fw1 = 0 is set and a variable wn02 = a indicating the detection position of the right edge is set.
dcount, road surface continuation count permission flag cok2 =
It is set to 1 (S212).
【0053】ここで、エッジを検出した場合にそのad
countの値をそのままエッジ位置として記憶しても
よいが、この例においては、右エッジを検出した後、次
のデータも白線でない場合にのみその位置を右エッジと
判定し、誤判定の発生を抑制する。このために、路面継
続カウント許可フラグcok2=1としている。If an edge is detected, its ad
The value of count may be stored as the edge position as it is, but in this example, after the right edge is detected, the position is determined to be the right edge only when the next data is also not a white line, and an erroneous determination is generated. Suppress. Therefore, the road surface continuation count permission flag cok2 = 1 is set.
【0054】次に、路面継続許可フラグcok2が1か
否かを判定する(S213)。cok2が1であった場
合には、路面継続カウンタfc2に1を加算し(S21
4)、cok2が1でなかった場合には、この加算は行
わず、次にfc2が2であるか否かを判定する(S21
5)。このfc2はS214を2回続けて通った場合、
すなわちしきい値thL以下のデータが2つ続いた場合
に2となっている。そこで、fc2が2である場合に
は、右エッジカウンタwc2で特定される白線右エッジ
座標を示す配列変数wn2[wc2]に上述のS212
でセットされた白線右エッジ候補座標wn02の値を記
憶する。また、変数cok2,fc2を0にリセットす
ると共に、右エッジカウンタwc2に1を加算する(S
216)。従って、次回の右エッジ検出の場合には、w
c2が1多い数となっている。このため、配列変数wn
2に次の右エッジの位置が記憶できることとなる。S2
15においてfc2<2の場合及びS216の処理をお
えた場合には、右エッジについての処理が終了したた
め、adcountに1を加算し(S210)、S20
4に戻る。Next, it is determined whether or not the road surface continuation permission flag cok2 is 1 (S213). If cok2 is 1, 1 is added to the road surface continuation counter fc2 (S21
4) If cok2 is not 1, this addition is not performed, and then it is determined whether fc2 is 2 (S21).
5). If this fc2 passes S214 twice in a row,
That is, it is 2 when two pieces of data below the threshold value thL continue. Therefore, when fc2 is 2, the above-mentioned S212 is set in the array variable wn2 [wc2] indicating the white line right edge coordinates specified by the right edge counter wc2.
The value of the white line right edge candidate coordinate wn02 set by is stored. Further, the variables cok2 and fc2 are reset to 0, and 1 is added to the right edge counter wc2 (S
216). Therefore, in the case of the next right edge detection, w
c2 is increased by one. Therefore, the array variable wn
The position of the next right edge can be stored in 2. S2
If fc2 <2 in 15 and the processing of S216 is completed, the processing for the right edge is completed, so 1 is added to the count (S210) and S20.
Return to 4.
【0055】一方、S206においてDATA>thL
と判定され、白線部分を検出した場合には、次のように
して左エッジの検出を行う。On the other hand, in S206, DATA> thL
If it is determined that the white line portion is detected, the left edge is detected as follows.
【0056】まず、路面継続カウンタfc2,左エッジ
候補座標wn02を0にリセットし、白線検出フラグf
w1を1にセットする(S217)。すなわち、fc2
は路面のデータが続いた数を示す変数であるため、白線
についてのデータが検出した場合に0にリセットする。
また、wn02は右エッジの候補座標についての変数で
あるが、左エッジの検出のル―プに入ったためここでリ
セットする。さらに、fw1は白線部を検出したことを
示すフラグであり、ここでfw=1とする。First, the road surface continuation counter fc2 and the left edge candidate coordinates wn02 are reset to 0, and the white line detection flag f
w1 is set to 1 (S217). That is, fc2
Is a variable indicating the number of consecutive road surface data, and is reset to 0 when the data on the white line is detected.
Also, wn02 is a variable for the right edge candidate coordinates, but it is reset here because it has entered the loop for detecting the left edge. Further, fw1 is a flag indicating that the white line portion is detected, and fw = 1 here.
【0057】また、cok2が0であるかを判定する
(S218)。cok2は、前述したように白から黒
(DATA>thL→DATA)に変化した場合に1と
なり(S212)、黒の状態が2つ続いた場合には、0
に戻る(S216)フラグである。このため、S206
において白を検出した際(DATA>thL)にcok
2が0でないということは、前回の黒(DATA≦th
L)検出が1回で終了したことを示している。そして、
黒の検出が1回で終了したということは、白線の中にか
すれている部分などが存在したものと考えられ、この時
に左エッジを検出すべきではない。そこで、S218に
おいて、cok2が0でなかった場合にはcok2=
0,fw2=0として(S219)、黒を検出したこと
についてのフラグを0にリセットするとともに、adc
ountに1を加算して(S210)、S204に戻
る。Further, it is determined whether cok2 is 0 (S218). As described above, cok2 becomes 1 when the color changes from white to black (DATA> thL → DATA) (S212), and 0 when two black states continue.
(S216) flag. Therefore, S206
When white is detected at (DATA> thL), cok
The fact that 2 is not 0 means that the previous black (DATA ≦ th
L) indicates that the detection is completed once. And
The fact that the detection of black is completed once means that there is a faint portion in the white line, and the left edge should not be detected at this time. Therefore, if cok2 is not 0 in S218, cok2 =
0, fw2 = 0 (S219), the flag for detecting black is reset to 0, and adc
One is added to out (S210), and the process returns to S204.
【0058】一方、cok1=0であった場合には、前
回の検出結果が上述のような異常な状態でなかったた
め、次のようにして右エッジを検出する。まず、fw2
=1か否かを判定する(S216)。このfw2は、路
面を検出した時に1にセットされるものであるため、こ
こにおいてfw2=1であることにより、路面より白線
に移ったこと、すなわち左エッジを認識する。そして、
路面を検出したことを示す変数fw2を0にリセット
し、左エッジ候補座標wn01にadcountの値を
入力し、左エッジ検出カウンタcok1を1にセットす
る(S221)。On the other hand, when cok1 = 0, the previous detection result is not the abnormal state as described above, so the right edge is detected as follows. First, fw2
It is determined whether or not = 1 (S216). This fw2 is set to 1 when the road surface is detected. Therefore, when fw2 = 1 here, the fact that the road surface has moved to the white line, that is, the left edge is recognized. And
The variable fw2 indicating that the road surface is detected is reset to 0, the value of “adcount” is input to the left edge candidate coordinate wn01, and the left edge detection counter cok1 is set to 1 (S221).
【0059】そして、次に白線継続カウント許可フラグ
cok1及び白線継続カウンタfc1を用いて、白線部
が2つ続いて右エッジを検出されたか否かを判定する。Then, the white line continuation count permission flag cok1 and the white line continuation counter fc1 are used to determine whether or not two consecutive white line parts have been detected in the right edge.
【0060】このために、まずcok1が1であるかを
判定する(S222)。そして、cok1が1であれ
ば、左エッジを検出したしたため、左エッジ検出時の白
線検出数を示す左エッジカウンタfc1に1を加算する
(S223)。次に、fc1が2であるか否かを判定し
(S224)、2であれば、路面から白線に移り、白線
のデータが2つ続いたことを意味しているため、S22
1で入力された候補座標wn01の値をwc1で特定さ
れる配列変数wn1[wc1]に入力する。これによっ
て、検出された白線右エッジの位置が記憶される。ま
た、この入力がなされたため、フラグcok1=1,f
c1=0にリセットすると共に、右エッジの数を示す変
数wc1に1を加算する(S225)。そして、adc
ountに1を加算し(S210)、S204に戻る。For this purpose, it is first determined whether cok1 is 1 (S222). If cok1 is 1, the left edge has been detected, so 1 is added to the left edge counter fc1 indicating the number of white lines detected when the left edge is detected (S223). Next, it is determined whether or not fc1 is 2 (S224), and if it is 2, it means that the road surface has moved to the white line, and two white line data have continued, so S22
The value of the candidate coordinate wn01 input in 1 is input in the array variable wn1 [wc1] specified by wc1. As a result, the position of the detected right edge of the white line is stored. Since this input is made, the flag cok1 = 1, f
While resetting to c1 = 0, 1 is added to the variable wc1 indicating the number of right edges (S225). And adc
1 is added to out (S210), and the process returns to S204.
【0061】このような動作adcount=1024
まで繰り返し、右エッジ及び左エッジの位置を検出した
数だけ記憶することができる。また、その検出した数
は、wc1,wc2に記憶される。そして、S204に
おいてadcountが1024に至ったことを判定し
た場合には、全データについての白線エッジ検出が終了
したため、二値化、白線エッジ検出の動作を終了し、検
出エッジ補正の処理を行う。Such operation adcount = 1024
Up to the detected number of positions of the right edge and the left edge can be stored. The detected numbers are stored in wc1 and wc2. Then, when it is determined in S204 that the count reaches 1024, the white line edge detection for all the data is completed, so the binarization and white line edge detection operations are completed, and the detected edge correction processing is performed.
【0062】検出エッジ補正 次に、図7に基づいて、検出エッジ補正について説明す
る。上述のようにして、左右エッジの位置を配列変数w
n1[wc1]・wn2[wc2]に入力した場合に
は、wc1,wc2より1を減算する。これは、上述の
エッジ検出の処理の際にwc1,wc2に1を加算して
いる(S213,S221)ため、これを実際に配列変
数に使用されたwc1,wc2にその値を戻すためであ
る(S401)。 Detected Edge Correction Next, the detected edge correction will be described with reference to FIG. As described above, the positions of the left and right edges are set to the array variable w
When n1 [wc1] and wn2 [wc2] are input, 1 is subtracted from wc1 and wc2. This is because 1 is added to wc1 and wc2 at the time of the above-described edge detection processing (S213, S221), so that the value is returned to wc1 and wc2 actually used for the array variable. (S401).
【0063】そしてwc1とwc2を比較する(S40
2)。wc1<wc2の場合には、左エッジの数が右エ
ッジの数より小さいことを意味しており、カメラの画像
の左端に白線がかかっていることを意味している。この
ため、この左端に左エッジを挿入することで、画面の左
端にかかった白線を認識することができる。Then, wc1 and wc2 are compared (S40).
2). When wc1 <wc2, it means that the number of left edges is smaller than the number of right edges, which means that the left edge of the image of the camera has a white line. Therefore, by inserting the left edge at the left end, the white line on the left end of the screen can be recognized.
【0064】そこで、変数jにwc1の値を代入し(S
403)、このjの値を1と比較する(S404)。そ
して、j>1の場合には変数axにjの値を代入し、こ
のaxによって特定される配列変数wn1[ax]の値
を変数upに代入する(S405)。次に変数axにj
+1を代入し、このaxによって特定される配列変数w
n1[ax]に上述のS405で得られた変数upの値
を入力する(S406)。これによってwn1[j]の
値がwn1[j+1]の値に変換される。そして、jの
値を1減算し(S407)、S404に戻る。Therefore, the value of wc1 is substituted for the variable j (S
403), and compares the value of j with 1 (S404). If j> 1, the value of j is substituted into the variable ax, and the value of the array variable wn1 [ax] specified by this ax is substituted into the variable up (S405). Next, j
+1 is substituted and the array variable w specified by this ax
The value of the variable up obtained in S405 is input to n1 [ax] (S406). As a result, the value of wn1 [j] is converted into the value of wn1 [j + 1]. Then, the value of j is subtracted by 1 (S407), and the process returns to S404.
【0065】このようにしてjが1になるまで、この処
理を繰り返すため、配列変数wn1[wc1]に入力さ
れていた値がそれぞれwn1[wc1+1]に変換され
る。即ち、wn1の値としてn個の値があり、これがw
n1[1]〜wn1[n]の値として記憶されていた場
合、この処理によりwn1[2]〜wn1[n+1]の
値に変換される。Since this process is repeated until j becomes 1 in this way, the values input to the array variable wn1 [wc1] are converted into wn1 [wc1 + 1], respectively. That is, there are n values as the value of wn1, and this is w
When stored as the values of n1 [1] to wn1 [n], this processing converts the values to wn1 [2] to wn1 [n + 1].
【0066】次に、wn1[1]に0の値を代入する
(S407)。これによって、配列変数wn1の値とし
て1つ強制的に挿入され、左エッジが検出できなかった
場合にも、これが挿入される。Next, a value of 0 is substituted into wn1 [1] (S407). By this, one is forcibly inserted as the value of the array variable wn1, and this is also inserted even when the left edge cannot be detected.
【0067】一方、S402において、wc1≧wc2
であった場合には、右エッジが欠けているか、両者が同
数である。そこで、次にwc2とwc1を比較する(S
409)。ここで、wc2≧wc1であった場合には、
両者が等しいことを意味しており、補正処理は不要であ
る。On the other hand, in S402, wc1 ≧ wc2
If it is, the right edge is missing or both are the same number. Therefore, next, wc2 and wc1 are compared (S
409). Here, when wc2 ≧ wc1,
This means that they are equal, and no correction processing is necessary.
【0068】一方、wc2の方がwc1より小さかった
場合には、右エッジ挿入の補正を行わねばならない。そ
こで、wc2に1を加算し、このwc2によって特定さ
れる配列変数wn2[wc2]に1023を強制挿入す
る。これによって右エッジとして、視野の右端の値が挿
入されることとなる。On the other hand, when wc2 is smaller than wc1, correction of right edge insertion must be performed. Therefore, 1 is added to wc2, and 1023 is forcibly inserted into the array variable wn2 [wc2] specified by this wc2. As a result, the value at the right end of the visual field is inserted as the right edge.
【0069】このようにして、左エッジが欠けた場合に
は、カメラ視野の左端を左エッジの値として入力し、ラ
インが右端にかかり右エッジが欠けた場合には、カメラ
視野の右端である1023の値が右エッジの位置として
入力される。In this way, when the left edge is missing, the left edge of the camera field of view is input as the value of the left edge, and when the line reaches the right edge and the right edge is missing, it is the right edge of the camera field of view. The value of 1023 is input as the position of the right edge.
【0070】白線座標出力・予測値算出 次に、白線座
標の出力及び次回の白線位置の予測について図8〜図1
1に基づいて説明する。上述のようにして、エッジ検出
を行った場合には、これより白線を検出すると共に、次
回の白線検出位置の予測を行う。ここで、まず制御開始
当初か否かを示す変数scが0であるかを判定し(S3
00)、sc=0の場合には、制御開始当初であるた
め、CCDカメラの中心付近の白線を自車が沿うべき白
線とするために、後述するCCD中心優先法による処理
を行う。 Output of White Line Coordinates / Calculation of Predicted Value Next, regarding output of the white line coordinates and prediction of the next white line position, FIG. 8 to FIG.
It will be described based on 1. When the edge detection is performed as described above, the white line is detected from this and the next white line detection position is predicted. Here, it is first determined whether the variable sc indicating whether or not the control is started is 0 (S3
00) and sc = 0, it is the beginning of control, and therefore the processing by the CCD center priority method described later is performed in order to set the white line near the center of the CCD camera as the white line along which the vehicle should follow.
【0071】そして、sc≠0の場合には、通常の白線
検出の処理を行うため、wc1またはwc2が0か否か
を判定する(S301,S302)。このwc1及びw
c2は白線位置検出の数を表すものであり、いずれかが
0であれば、白線検出ができなかったことを示してい
る。そこで、この場合にはエラー処理のループに入る。
次に、wc1とwc2を比較する(S303)。そし
て、両者が等しくない場合には、右エッジの数と左エッ
ジの数が相違しており、正確な白線検出が行われなかっ
たものと判断し、エラー処理のループに進む。If sc ≠ 0, normal white line detection processing is performed, so it is determined whether wc1 or wc2 is 0 (S301, S302). This wc1 and w
c2 represents the number of white line position detections, and if either of them is 0, it indicates that the white line cannot be detected. Therefore, in this case, an error processing loop is entered.
Next, wc1 and wc2 are compared (S303). If they are not equal, it is determined that the number of right edges is different from the number of left edges, and accurate white line detection has not been performed, and the process proceeds to an error processing loop.
【0072】一方、wc1=wc2であった場合には、
次のようにして白線の位置を検出する。すなわち、検出
した白線候補の数を表す変数knを0にセットし(S3
04)、何番目の白線であるかを示す変数jを1にセッ
トする(S305)。そして、このjと検出された白線
の数wc1とを比較する(S306)。jがwc1以下
であれば、ここまでの処理が正常であったものと判断さ
れ、白線の左右エッジ座標よりj番目の白線の中央座標
hLと白線の幅RP2を次式によって算出する(S30
7)。On the other hand, when wc1 = wc2,
The position of the white line is detected as follows. That is, a variable kn representing the number of detected white line candidates is set to 0 (S3
04), the variable j indicating the number of the white line is set to 1 (S305). Then, this j is compared with the detected number wc1 of white lines (S306). If j is less than or equal to wc1, it is determined that the processing up to this point was normal, and the center coordinates hL of the j-th white line and the width RP2 of the white line are calculated from the left and right edge coordinates of the white line by the following equation (S30).
7).
【0073】 hL=(wn1[j]+wn2[j])/2 RP2=wn2[j]−wn1[j] 次に、算出された白線位置hLが所定の範囲内にあるか
を判定する。即ち、前回以前の処理ループにおいて算出
され、記憶されている予測白線位置wcの周辺の所定の
範囲内(±moff)にあるかを次のようにして判定す
る。HL = (wn1 [j] + wn2 [j]) / 2 RP2 = wn2 [j] −wn1 [j] Next, it is determined whether the calculated white line position hL is within a predetermined range. That is, it is determined as follows whether or not it is within a predetermined range (± moff) around the predicted white line position wc calculated and stored in the processing loop before the last time.
【0074】まず、変数ax=wc−moffとして
(S308)、このaxが0か否かを判定する(S30
9)。axが0以上であれば、axはカメラ視野範囲に
あるため、そのままとするが、ax<0であればax=
0とする(S310)。次に、axを検出した白線位置
hLと比較する(S311)。hL<axであった場合
には、予測範囲外であるためこの白線位置の記憶は行わ
れない。First, the variable ax = wc-moff is set (S308), and it is determined whether or not this ax is 0 (S30).
9). If ax is 0 or more, ax is in the camera visual field range, so that it is left as it is, but if ax <0, ax =
It is set to 0 (S310). Next, ax is compared with the detected white line position hL (S311). When hL <ax, the white line position is not stored because it is outside the prediction range.
【0075】一方、hL≧axであった場合には、この
hLが所定の上限値以下であるかを判断しなければなら
ない。そこで、bc=wc+moffとしてbcに範囲
の上限をセットし(S312)、白線位置hLとbcを
比較する(S313)。On the other hand, when hL ≧ ax, it is necessary to judge whether this hL is equal to or less than a predetermined upper limit value. Therefore, the upper limit of the range is set to bc as bc = wc + moff (S312), and the white line position hL and bc are compared (S313).
【0076】そしてhL≦bcであった場合には、hL
が所定範囲内(ax≧hL≧bc)にあった為、kn=
kn+1(S314)、wLk[kn]=hL(S31
5)、wLd[kn]=rp2(S316)として、推
定範囲内において検出した白線の数によって特定される
白線座標、白線の幅を配列変数wLk[kn]及びwL
d[kn]にセットする。If hL ≦ bc, hL
Is within a predetermined range (ax ≧ hL ≧ bc), kn =
kn + 1 (S314), wLk [kn] = hL (S31
5), wLd [kn] = rp2 (S316), the white line coordinates specified by the number of white lines detected in the estimation range, and the width of the white line are array variables wLk [kn] and wL.
Set to d [kn].
【0077】そして、次の白線の判定を行うために、j
=j+1として(S317、S316)に戻る。なお、
S311、S313において、hL<axまたはhL>
bcと判定された場合には、上述の白線位置、白線幅の
セットは行わず、直接S317に進む。Then, in order to determine the next white line, j
= J + 1 and the process returns to (S317, S316). In addition,
In S311, S313, hL <ax or hL>
If it is determined to be bc, the white line position and the white line width are not set and the process directly proceeds to S317.
【0078】このような処理を検出したすべての白線に
ついての処理が終わるまで(j>wc)繰り返し、所定
の推定範囲内にある白線の位置及び幅を配列変数wLk
[kn]及びwLd[kn]にセットする。This process is repeated until the process is completed for all the white lines that have been detected (j> wc), and the position and width of the white line within the predetermined estimation range are set to the array variable wLk.
Set to [kn] and wLd [kn].
【0079】このようにして、予測範囲内の白線候補を
検出した場合には、これらの中から推定値wcに1番近
いものを選択する。まず、knが0か否かを判定するこ
とにより推定範囲内に白線があったか否かを判定し(S
401)、knが0でなかった場合には、推定値wcに
最も近い位置にある白線の番号を表す変数pitに0を
セットする(S402)。また、推定範囲内において最
初に検出された白線位置wLk[1]の値をaxに代入
すると共に(S403)、このaxの値をhLに代入す
る(S404)。In this way, when a white line candidate within the prediction range is detected, the one closest to the estimated value wc is selected from these. First, it is determined whether or not there is a white line in the estimated range by determining whether or not kn is 0 (S
401), if kn is not 0, 0 is set to the variable pit that represents the number of the white line closest to the estimated value wc (S402). Further, the value of the white line position wLk [1] first detected within the estimation range is substituted into ax (S403), and the value of this ax is substituted into hL (S404).
【0080】次に、knが1であるかを判定し(S40
5)、これが1であった場合には、白線の選択が不要な
ため、次の処理に進むが、これが1でなかった場合に
は、次のような白線選択の処理を行う。Next, it is determined whether kn is 1 (S40
5) If this is 1, it is not necessary to select a white line, so the process proceeds to the next process. If it is not 1, the following white line selection process is performed.
【0081】まず、推定値wcに最も近い白線位置が入
力される変数wLmに最初の白線位置ax(wLk
[1])を代入する(S406)。そして、ax=ax
−wcとして、axに推定位置からの距離を一旦入れて
おき(S407)、この差axが0以下であった場合に
はaxに0をセットし(S408,S409)、得られ
た推定白線位置からの距離を変数difに代入する(S
410)。First, the first white line position ax (wLk is set to the variable wLm to which the white line position closest to the estimated value wc is input.
[1]) is substituted (S406). And ax = ax
As -wc, the distance from the estimated position is once entered in ax (S407), and if this difference ax is 0 or less, 0 is set in ax (S408, S409), and the obtained estimated white line position is obtained. The distance from is substituted into the variable dif (S
410).
【0082】次に、この差difが最も小さい白線位置
をwLmに代入するために、次のような処理を行う。す
なわち、j2をセットし(S411)、このjがkn以
下であるかを判定する(S412)。jがkn以下であ
れば、次の白線候補があるため、ax=wLk[j]と
して次の白線候補の座標をaxに代入し(S413)、
このaxを変数hLに代入する(S414)。そして、
今回の白線位置と予測値の差ax=ax−wcを求め
(S415)、この差axが0以下であった場合にはこ
れを0にセットし(S416,S417)、このように
して求められたaxと前回までに求められている差di
fを比較する(S418)。そして、ax<difであ
った場合には、今回の白線位置の方がこれまでに検出し
た他の白線位置よりも推定値wcに近いため、dif=
axとしてdifをより小さな値に変更し(S41
9)、この時の白線位置座標hLをwLmに代入するこ
とによってwLmにその時点で最も推定値wcに近い白
線位置座標に更新し(S420)、その時のjをpit
に代入して、このpitを最も推定値wcに近い白線番
号に更新する(S421)。Next, in order to substitute the white line position having the smallest difference dif into wLm, the following processing is performed. That is, j2 is set (S411), and it is determined whether this j is kn or less (S412). If j is less than or equal to kn, there is a next white line candidate, so ax = wLk [j] is set and the coordinates of the next white line candidate are substituted into ax (S413).
This ax is substituted into the variable hL (S414). And
The difference ax = ax-wc between the white line position and the predicted value this time is calculated (S415), and if this difference ax is less than or equal to 0, this is set to 0 (S416, S417), and thus calculated. Ax and the difference di required up to the previous time
f is compared (S418). If ax <dif, then the current white line position is closer to the estimated value wc than the other white line positions detected so far, so that dif =
Change dif to a smaller value as ax (S41
9) By substituting the white line position coordinate hL at this time into wLm, the white line position coordinate closest to the estimated value wc at that time is updated to wLm (S420), and j at that time is pit.
To the white line number closest to the estimated value wc (S421).
【0083】このように、白線位置の更新を行った場
合、またはS418でax≧difであり、更新の必要
がなかった場合には、jに1を加算し(S422)、S
412に戻る。この処理をj>knになるまで繰り返す
ことにより、推定範囲内において検出した白線候補の中
から推定値wcに最も近い白線の位置を検出することが
でき、この値がwLmにセットされている為、hL=w
Lmとする(S412)。これによって、hLに推定値
wcに最も近い白線の中心位置座標が入力されることと
なる。In this way, when the white line position is updated, or when ax ≧ dif in S418 and there is no need for updating, 1 is added to j (S422), and S is added.
Return to 412. By repeating this process until j> kn, the position of the white line closest to the estimated value wc can be detected from the white line candidates detected within the estimated range, and this value is set to wLm. , HL = w
Lm (S412). As a result, the center position coordinate of the white line closest to the estimated value wc is input to hL.
【0084】次に、上述のようにして検出された白線に
ついて、その幅が大き過ぎないかを判定する。すなわ
ち、ax=wLd[pit]とし(S501)、このa
xが224(70h)以上か否かを判定する(S50
2)。白線の幅がCCDの数として224以上であった
場合には、誤検出とみなされるため、hL=wcとし
(S502)、検出した白線位置に代え、推定値wcを
今回検出の白線位置座標とする(S502)。また、S
502において、ax<70hであった場合には、正常
な白線検出が行われたのであり、このようなhLの書き
替えは行わない。Next, it is determined whether or not the width of the white line detected as described above is too large. That is, ax = wLd [pit] is set (S501), and a
It is determined whether x is 224 (70h) or more (S50).
2). If the width of the white line is 224 or more as the number of CCDs, it is regarded as an erroneous detection. Therefore, hL = wc is set (S502), and the estimated value wc is used as the white line position coordinate of this time detection instead of the detected white line position. Yes (S502). Also, S
If ax <70h in 502, normal white line detection is performed, and such rewriting of hL is not performed.
【0085】そしてax=hLとし(S503)、ax
=ax−w1として(S504)、前回検出の白線位置
と今回検出の白線位置の差を求める。また、このように
して求めた差がマイナスであれば、これを0に戻し(S
505,S506)、この値が160以下であるかを判
定する(S507)。前回の検出値と今回の検出値が大
きく離れる(160以上)ことは、現実には考えられ
ず、この場合にはエラーとし、所定範囲内の場合にのみ
次回の白線位置予測のループに進む。Then, ax = hL is set (S503), and ax
= Ax-w1 (S504), the difference between the previously detected white line position and the presently detected white line position is obtained. If the difference thus obtained is negative, it is returned to 0 (S
505, S506), and it is determined whether this value is 160 or less (S507). The fact that the previous detection value and the current detection value greatly deviate (160 or more) cannot be considered in reality, and in this case, an error occurs, and the process proceeds to the next white line position prediction loop only within the predetermined range.
【0086】推定値wcの算出 まず、今回検出した白線座標hLと過去2回の白線座標
wL、w1を移動平均し最新の平均白線位置座標を算出
する(S601)。そして、このようにして算出された
最新の平均位置座標を含め、移動平均座標のデータを1
つ送る(S602)。これによって、ws0、ws1、
wsLにそれぞれ前々回、前回、今回の移動平均座標が
入力されることとなる。 Calculation of Estimated Value wc First, the latest average white line position coordinate is calculated by moving-averaging the white line coordinate hL detected this time and the white line coordinates wL and w1 of the past two times (S601). The moving average coordinate data including the latest average position coordinate calculated in this way
Send (S602). By this, ws0, ws1,
The moving average coordinates of the previous time, the previous time, and the current time are input to wsL.
【0087】また、検出した白線位置座標について送り
も行う(S603)。これによって、w0、w1、wL
にそれぞれ前々回、前回、今回の検出した白線位置座標
が入力されることとなる。Further, the detected white line position coordinates are also fed (S603). By this, w0, w1, wL
2 times before, respectively, the white line position coordinates detected last time and this time are input.
【0088】そして、上述の3つの移動平均座標ws
0、ws1、wsLを用いて、次回の白線座標の推定値
wcを次式によって算出する。Then, the above three moving average coordinates ws
The estimated value wc of the next white line coordinate is calculated by the following equation using 0, ws1, and wsL.
【0089】wc=3×(wsL−ws1)+ws0 これは図10に模式的に示す。すなわち、w1〜w3の
結果によってws0が算出され、w2〜w4の結果によ
ってws1が算出され、w3〜w5の値によってwsL
が算出される。そしてこれらws0〜wsLの結果を用
いてwcが算出されこれが磁界の白線座標w6を検出す
るための推定値wcとなる。Wc = 3 × (wsL-ws1) + ws0 This is schematically shown in FIG. That is, ws0 is calculated from the results of w1 to w3, ws1 is calculated from the results of w2 to w4, and wsL is calculated from the values of w3 to w5.
Is calculated. Then, wc is calculated using the results of these ws0 to wsL, and this becomes the estimated value wc for detecting the white line coordinates w6 of the magnetic field.
【0090】ここで、3つの移動平均値から次回の白線
位置座標の推定値を算出する算出式について図11に基
づいて説明する。Here, a calculation formula for calculating the estimated value of the next white line position coordinate from the three moving average values will be described with reference to FIG.
【0091】白線検出ECU20における1回の処理ル
―チンに要する時間をΔtとし、横軸に時間、縦軸にC
CDカメラ10によって検出した白線位置をとる。そし
て、図11(A)に示すように車両が左にカ―ブした場
合について考える。The time required for one processing routine in the white line detection ECU 20 is Δt, the horizontal axis represents time, and the vertical axis represents C.
The position of the white line detected by the CD camera 10 is taken. Then, consider the case where the vehicle curves to the left as shown in FIG.
【0092】処理サイクルΔt毎に得られた5つの検出
位置w1,w2,w3,w4,w5より、次の演算を行
い、今回移動平均位置wsL、前回位置ws1、前々回
位置ws0が得られる。The following calculation is performed from the five detected positions w1, w2, w3, w4, w5 obtained for each processing cycle Δt, and the current moving average position wsL, the previous position ws1, and the two-preceding position ws0 are obtained.
【0093】ws0=(w1+w2+w3)/3 ws2=(w2+w3+w4)/3 ws3=(w3+w4+w5)/3 そして、前々回位置→前回位置の差Δ1、前回→今回位
置の差Δ2、今回→次回の予測される差Δ3とすると、
Δ2→Δ3の変化量は、Δ1→Δ2の変化量と同一であ
ると推定するのがよいと考えられる。すなわち、処理サ
イクルΔtは微小であり、時間Δtの前後においては、
操舵量は同一と置いても考えられる。そして、操舵量が
同一であれば、白線検出位置の変化量は同一だからであ
る。このため、図11(B)に示すように、横軸に時間
を取り縦軸に差Δ1〜Δ3をとれば、直線Δ1とΔ2を
結ぶ直線上にΔ3が位置すると推定されることになる。Ws0 = (w1 + w2 + w3) / 3 ws2 = (w2 + w3 + w4) / 3 ws3 = (w3 + w4 + w5) / 3 Then, the position two times before the previous position → the difference Δ1 between the previous positions → the current position Δ2, this time → the next predicted If the difference is Δ3,
It may be better to estimate that the change amount of Δ2 → Δ3 is the same as the change amount of Δ1 → Δ2. That is, the processing cycle Δt is minute, and before and after the time Δt,
The steering amount may be the same. Then, if the steering amount is the same, the change amount of the white line detection position is the same. Therefore, as shown in FIG. 11B, if time is plotted on the horizontal axis and differences Δ1 to Δ3 are plotted on the vertical axis, it is estimated that Δ3 is located on the straight line connecting the straight lines Δ1 and Δ2.
【0094】従って、Δ3は次のように表される。Therefore, Δ3 is expressed as follows.
【0095】 Δ3={(Δ2−Δ1)/Δt}・Δt+Δ2=Δ2−Δ1+Δ2 そこで、wcは次のように表され、この式を利用して、
wcを算出する(S611)。Δ3 = {(Δ2-Δ1) / Δt} · Δt + Δ2 = Δ2-Δ1 + Δ2 Then, wc is expressed as follows, and using this equation,
wc is calculated (S611).
【0096】 wc=wsL+Δ3=wsL+2・Δ2−Δ1 =wsL+2(wsL−ws1)−(ws1−ws0) =3(wsL−ws1)+ws0 このようにして、次回の処理ル―プにおいて用いる予測
白線位置wLLを算出することができ、これを利用し
て、白線の選択をすることができるため、常に正確な白
線位置検出を行うことができる。Wc = wsL + Δ3 = wsL + 2 · Δ2-Δ1 = wsL + 2 (wsL-ws1)-(ws1-ws0) = 3 (wsL-ws1) + ws0 Thus, the predicted white line position wLL to be used in the next processing loop. Can be calculated, and the white line can be selected using this, so that accurate white line position detection can always be performed.
【0097】そして、算出した推定値wcが所定の範囲
(255以下)であるかを判定して実際のwcを決定す
る(S604〜S606)。Then, it is determined whether the calculated estimated value wc is within a predetermined range (255 or less), and the actual wc is determined (S604 to S606).
【0098】一方、上述のようにして、wLに今回求め
た白線位置座標が入力されているわけであるが、この値
は16ビットの値である。そこで、これを8ビットのデ
ータに変換すると共に、車線の中心位置を表わす値に換
算する(S607,S608)。そして、正常な白線検
出が行われたため、エラーカウンタを0にクリアし(S
609)、換算結果の白線位置座標wLcを出力する
(S610)。On the other hand, the white line position coordinates obtained this time are input to wL as described above, and this value is a 16-bit value. Therefore, this is converted into 8-bit data and converted into a value representing the center position of the lane (S607, S608). Then, since the normal white line detection is performed, the error counter is cleared to 0 (S
609), and the white line position coordinate wLc of the conversion result is output (S610).
【0099】エラー処理 一方、上述の処理において、白線検出が正常に行われな
かった場合には、次のようにしてエラー処理を行う。 Error Processing On the other hand, when the white line detection is not normally performed in the above processing, the error processing is performed as follows.
【0100】すなわち、図12に示すように、まず検出
または算出できなかった今回の移動平均値wsL、今回
の検出位置wL、前回の白線位置w1、予測白線位置w
cについて、前回算出した予測値ws1を代入する(S
701)。そして、この値に基づいてwLcを算出する
と共に(S702,S703)、エラーカウンタに1を
加算する(S704)。そして、エラーカウンタの値が
16に達するか否かを判定し、16以下であれば、wL
cを出力すると共に(S706)、S610におけるw
Lcのシリアル出力に戻る。一方、エラーカウンタが1
6以上となった場合には、エラーの続く回数が所定以上
とみなし、エラーコードを出力すると共に(S70
7)、エラーカウンタを0にクリアする(S708)。That is, as shown in FIG. 12, first, the moving average value wsL of this time which cannot be detected or calculated, the detected position wL of this time, the white line position w1 of the previous time, and the predicted white line position w.
The previously calculated predicted value ws1 is substituted for c (S
701). Then, wLc is calculated based on this value (S702, S703), and 1 is added to the error counter (S704). Then, it is determined whether or not the value of the error counter reaches 16, and if it is 16 or less, wL
In addition to outputting c (S706), w in S610
Return to the serial output of Lc. On the other hand, the error counter is 1
If the number is 6 or more, it is considered that the number of times the error continues is a predetermined number or more, and an error code is output (S70).
7) The error counter is cleared to 0 (S708).
【0101】中心優先法 次に、ライン検出装置の動作開始時には、複数映った白
線の中から自車両が沿うべき白線を選択しなければなら
ない。そこで、ライン検出装置の動作開始時には、CC
Dリニアセンサの中心座標付近の白線を選択することと
する。これは、通常の場合ライン検出の動作開始はドラ
イバが直進時において指示することが多いと考えられる
からである。このCCD中心優先法の動作フローについ
て図13に基づいて説明する。 Center Priority Method Next, at the start of the operation of the line detection device, the white line along which the vehicle should follow must be selected from the white lines reflected. Therefore, when the operation of the line detection device is started, CC
A white line near the center coordinates of the D linear sensor is selected. This is because, in a normal case, it is considered that the driver often gives an instruction to start the line detection operation when the vehicle is traveling straight ahead. The operation flow of this CCD center priority method will be described with reference to FIG.
【0102】まず、sc=sc−1として中心優先法を
行うべき回数を1減算しておく(S801)。ここで、
この変数scについては、初期設定として、6程度の値
にセットしておく。これによって6回の処理ループ(Δ
t×6の時間)については上述の推定値による方法では
なく、中心付近の白線を検出することが優先となる。次
に、jに1をセットし(S802)、jがwc1より大
きいか否かを判定する(S803)。このwc1は、左
エッジの検出数(右エッジの検出数も等しい)であり、
j≦wc1の場合には、次式によって白線の中心座標を
検出する(S804)。First, the number of times that the center-priority method should be performed is decremented by 1 with sc = sc-1 (S801). here,
This variable sc is set to a value of about 6 as an initial setting. As a result, 6 processing loops (Δ
For the time t × 6), the method based on the above-described estimated value is not used, but detection of the white line near the center has priority. Next, j is set to 1 (S802), and it is determined whether j is larger than wc1 (S803). This wc1 is the number of detected left edges (the number of detected right edges is also equal),
If j ≦ wc1, the center coordinates of the white line are detected by the following equation (S804).
【0103】 ax=(wn1[j]+wn2[j])/2 そして、このようにして算出した白線位置axをsuL
と比較する。このsuLはCCD画素数の約半分くらい
の値にセットしておく。そして、このsuLが最小の白
線を探すための下限値となっている。そこで、suLよ
りaxの方が小さい場合にはjに1を加算し(S80
6)、一方、ax≧suLであった場合には、ws0=
ws1,ws1=wsL、wsL=axとして(S80
7)、移動平均の値を更新すると共に、w0=w1、w
1=wL、wL=axとして(S808)、白線座標に
ついてのデータを更新する。Ax = (wn1 [j] + wn2 [j]) / 2 The white line position ax thus calculated is suL.
Compare with. This suL is set to a value about half the number of CCD pixels. Then, this suL is the lower limit value for searching for the minimum white line. Therefore, if ax is smaller than suL, 1 is added to j (S80
6) On the other hand, if ax ≧ suL, then ws0 =
ws1, ws1 = wsL, wsL = ax (S80
7), while updating the value of the moving average, w0 = w1, w
With 1 = wL and wL = ax (S808), the data on the white line coordinates are updated.
【0104】このようにして、中心優先法のループにい
る間は、移動平均は行わず、移動平均値についての変数
にも白線検出値を入力しておく。Thus, while in the loop of the center priority method, the moving average is not performed, and the white line detection value is also input to the variable for the moving average value.
【0105】そして、wLb=wL/8として今回の検
出白線位置を8ビットの値に換算して変数wLbに代入
する(S810)。更に、wLc=wLb+coff
(S811)として、wLcに白線位置から車線幅の1
/2離れた車線中心位置の座標値を入力する。Then, with wLb = wL / 8, the current detected white line position is converted into an 8-bit value and substituted into the variable wLb (S810). Furthermore, wLc = wLb + coff
As (S811), the width of the lane is 1 from the position of the white line to wLc.
/ 2 Enter the coordinate value of the lane center position away.
【0106】一方、S803においてjがwc1より大
きくなった場合には、白線がもう検出されていないた
め、suL=suL−8としてsuLの値を減少し(S
812)検出範囲を広げると共に、sc=sc+1とし
てscの値を元に戻した後(S813)wLc出力する
(S814)。On the other hand, when j becomes larger than wc1 in S803, the white line is not detected anymore, so suL = suL-8 is set and the value of suL is decreased (S
812) After widening the detection range and returning the value of sc to sc = sc + 1 (S813), wLc is output (S814).
【0107】このようにしてCCD中心優先法の場合に
は、検出した白線座標から中心付近のものを選択してこ
れを白線座標とする。As described above, in the case of the CCD center priority method, the one near the center is selected from the detected white line coordinates and set as the white line coordinates.
【0108】[0108]
【発明の効果】以上説明したように、本発明に係るライ
ン検出装置によれば、過去の検出白線位置を移動平均し
たものから、次回の白線位置を予測し、この予測結果に
応じてライン検出処理を行う対象を限定するため、処理
効率が上昇し、高速の処理が可能となるとともに、自車
両が沿うべきラインを見失うことを防止することができ
る。As described above, according to the line detecting apparatus of the present invention, the next white line position is predicted from the moving average of the past detected white line positions, and the line detection is performed according to this prediction result. Since the processing target is limited, the processing efficiency is increased, high-speed processing is possible, and it is possible to prevent the vehicle from losing sight of the line along which it should follow.
【図1】本発明に係るライン検出装置の一実施例を示す
構成ブロック図である。FIG. 1 is a configuration block diagram showing an embodiment of a line detection device according to the present invention.
【図2】CCDカメラにおける位置検出を説明するため
の説明図である。FIG. 2 is an explanatory diagram for explaining position detection in a CCD camera.
【図3】白線検出ECUにおける処理動作を説明するた
めのフローチャートである。FIG. 3 is a flowchart for explaining a processing operation in a white line detection ECU.
【図4】しきい値計算の動作を示すフローチャートであ
る。FIG. 4 is a flowchart showing the operation of threshold calculation.
【図5】エッジ検出、二値化処理の動作を示すフローチ
ャートである。FIG. 5 is a flowchart showing operations of edge detection and binarization processing.
【図6】エッジ検出、二値化処理の動作を示すフローチ
ャートである。FIG. 6 is a flowchart showing operations of edge detection and binarization processing.
【図7】エッジ補正の動作を示すフローチャートであ
る。FIG. 7 is a flowchart showing an edge correction operation.
【図8】白線座標出力、白線位置予測の動作を示すフロ
ーチャートである。FIG. 8 is a flowchart showing operations of white line coordinate output and white line position prediction.
【図9】白線座標出力、白線位置予測の動作を示すフロ
ーチャートである。FIG. 9 is a flowchart showing operations of white line coordinate output and white line position prediction.
【図10】白線座標出力、白線位置予測の動作を示すフ
ローチャートである。FIG. 10 is a flowchart showing operations of white line coordinate output and white line position prediction.
【図11】白線位置予測の手法を示す説明図である。FIG. 11 is an explanatory diagram showing a white line position prediction method.
【図12】エラー処理の動作を示すフローチャートであ
る。FIG. 12 is a flowchart showing an operation of error processing.
【図13】CCD中心有線方の動作を示すフローチャー
トである。FIG. 13 is a flow chart showing the operation of the CCD central wired method.
【図14】白線位置予測の例を示す説明図である。FIG. 14 is an explanatory diagram showing an example of white line position prediction.
10 CCDカメラ 20 白線検出ECU 24 AD変換器 26 CPU 10 CCD camera 20 White line detection ECU 24 AD converter 26 CPU
Claims (1)
ガイドラインを検出するライン検出装置であって、 所定範囲の道路の画像を繰返し出力するカメラと、 このカメラから出力される一回毎の画像を処理し、ガイ
ドラインを検出するライン検出手段と、 このライン検出手段によって検出されたライン位置を複
数回分記憶するライン位置記憶手段と、 このライン位置記憶手段に記憶されている複数のライン
位置を移動平均し、時間的経過に応じた複数の平均ライ
ン位置を算出する平均ライン位置算出手段と、 この平均ライン位置算出手段によって得られた時間的経
過に応じた複数のライン位置の変化状態から今回検出の
ライン位置を予測するライン位置予測手段と、 このライン位置予測手段によって得られた予測位置に最
も近い検出ラインを選択するライン選択手段と、 を有することを特徴とするライン検出装置。1. A line detection device mounted on a vehicle for detecting a guideline provided along a road, the camera repeatedly outputting an image of a road in a predetermined range, and each time output from the camera. Line detecting means for processing the image of the line and detecting the guideline, a line position storing means for storing the line positions detected by the line detecting means a plurality of times, and a plurality of line positions stored in the line position storing means. A moving average of the average line position calculation means for calculating a plurality of average line positions according to the passage of time, and a change state of the plurality of line positions according to the passage of time obtained by the average line position calculation means. The line position predicting means for predicting the line position of this time detection, and the detection line closest to the predicted position obtained by this line position predicting means. Line detection apparatus characterized by having a line selection means for selecting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3064789A JP2833248B2 (en) | 1991-03-28 | 1991-03-28 | Line detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3064789A JP2833248B2 (en) | 1991-03-28 | 1991-03-28 | Line detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05289743A true JPH05289743A (en) | 1993-11-05 |
JP2833248B2 JP2833248B2 (en) | 1998-12-09 |
Family
ID=13268354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3064789A Expired - Fee Related JP2833248B2 (en) | 1991-03-28 | 1991-03-28 | Line detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2833248B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001180631A (en) * | 1999-12-22 | 2001-07-03 | Sato Corp | Label printer and label position detecting method |
JP2002055718A (en) * | 2000-08-11 | 2002-02-20 | Meidensha Corp | Unmanned vehicle position detection system |
US6449383B1 (en) | 1998-01-27 | 2002-09-10 | Denso Corporation | Lane mark recognition system and vehicle traveling control system using the same |
EP1291808A2 (en) | 2001-09-06 | 2003-03-12 | Fuji Jukogyo Kabushiki Kaisha | Stop marker recognition apparatus of vehicle drive assist system |
US6591000B1 (en) | 1998-04-21 | 2003-07-08 | Denso Corporation | Apparatus and method for preprocessing a picked-up image, lane mark recognizing system, related vehicle traveling control system, and recording media |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006345626A (en) * | 2005-06-08 | 2006-12-21 | Sumitomonacco Materials Handling Co Ltd | Method and apparatus for correcting driving wheel speed |
-
1991
- 1991-03-28 JP JP3064789A patent/JP2833248B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6449383B1 (en) | 1998-01-27 | 2002-09-10 | Denso Corporation | Lane mark recognition system and vehicle traveling control system using the same |
DE19903187B4 (en) * | 1998-01-27 | 2007-01-25 | Denso Corp., Kariya | Lane mark detection system and vehicle travel control system for use thereof |
US6591000B1 (en) | 1998-04-21 | 2003-07-08 | Denso Corporation | Apparatus and method for preprocessing a picked-up image, lane mark recognizing system, related vehicle traveling control system, and recording media |
JP2001180631A (en) * | 1999-12-22 | 2001-07-03 | Sato Corp | Label printer and label position detecting method |
JP2002055718A (en) * | 2000-08-11 | 2002-02-20 | Meidensha Corp | Unmanned vehicle position detection system |
EP1291808A2 (en) | 2001-09-06 | 2003-03-12 | Fuji Jukogyo Kabushiki Kaisha | Stop marker recognition apparatus of vehicle drive assist system |
US7068154B2 (en) | 2001-09-06 | 2006-06-27 | Fuji Jukogyo Kabushiki Kaisha | Stop marker recognition apparatus of vehicle drive assist system |
EP2040199A1 (en) | 2001-09-06 | 2009-03-25 | Fuji Jukogyo Kabushiki Kaisha | Stop marker recognition apparatus for a vehicle drive assist system |
Also Published As
Publication number | Publication date |
---|---|
JP2833248B2 (en) | 1998-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6744380B2 (en) | Apparatus for monitoring area adjacent to vehicle | |
US5650944A (en) | Shutter speed control method and system | |
WO2016002405A1 (en) | Parking space recognition device | |
JP2002197444A (en) | Run lane recognition device for vehicle | |
JP2000339597A (en) | Object detector | |
JP4893212B2 (en) | Perimeter monitoring device | |
JP2000357233A (en) | Body recognition device | |
JPH05265547A (en) | On-vehicle outside monitoring device | |
JPH04313199A (en) | Distance between cars detector | |
JPH0728975A (en) | Road environment recognizing device | |
KR20180012802A (en) | A parallax image generating device, a parallax image generating method, a parallax image generating program, an object recognizing device, | |
JPH06107096A (en) | Forward monitoring method for vehicle | |
JP4155780B2 (en) | Image processing method | |
JP2005329779A (en) | Method and device for recognizing obstacle | |
JP4721278B2 (en) | Lane departure determination device, lane departure prevention device, and lane tracking support device | |
JP2001351193A (en) | Device for detecting passenger | |
JP2833248B2 (en) | Line detector | |
JPH11296660A (en) | Road white line detector | |
EP0546518B1 (en) | Inter-vehicle distance measuring device | |
JPH05242399A (en) | Inter-vehicle distance detector | |
JPH10267618A (en) | Distance measuring instrument | |
JPH1047954A (en) | Device for measuring distance between vehicles by facet-eye camera | |
JPH04299799A (en) | Line detector | |
JP2833249B2 (en) | Line detector | |
JP2002123820A (en) | Detecting method and device for obstacle being stationary on road obstacle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081002 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081002 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091002 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |