JP3433650B2 - Driving lane recognition device - Google Patents

Driving lane recognition device

Info

Publication number
JP3433650B2
JP3433650B2 JP16919197A JP16919197A JP3433650B2 JP 3433650 B2 JP3433650 B2 JP 3433650B2 JP 16919197 A JP16919197 A JP 16919197A JP 16919197 A JP16919197 A JP 16919197A JP 3433650 B2 JP3433650 B2 JP 3433650B2
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
traveling lane
white line
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16919197A
Other languages
Japanese (ja)
Other versions
JPH1115952A (en
Inventor
善紀 見市
吉英 中根
一弥 早舩
貴志 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP16919197A priority Critical patent/JP3433650B2/en
Publication of JPH1115952A publication Critical patent/JPH1115952A/en
Application granted granted Critical
Publication of JP3433650B2 publication Critical patent/JP3433650B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、テレビカメラ等に
よる撮影で得られた画像情報から、道路において白線で
代表される走行区分線により規定される走行レーン規定
形状の把握を行なうための、走行レーン認識装置に関
し、特に、前方道路上に存在する先行車等の障害物の存
在を考慮して走行レーン認識を行なう、走行レーン認識
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to traveling for grasping a traveling lane defining shape defined by a traveling lane dividing line represented by a white line on a road from image information obtained by photographing with a television camera or the like. The present invention relates to a lane recognition device, and more particularly, to a traveling lane recognition device that recognizes a traveling lane in consideration of the presence of an obstacle such as a preceding vehicle on a road ahead.

【0002】[0002]

【従来の技術】近年、自動車にテレビカメラを設置し
て、走行中の道路の形状把握や、道路に対する車両姿勢
の把握を行なって、自動車の自動走行制御に用いたり、
ドライバへの各種警告のために用いたりする技術が開発
されている。例えば車両に設置したカメラからの画像情
報のうち、明度の高い部分を白線候補点として、この中
から前回の画面情報で得た白線位置(白線認識情報)に
最も近い点を白線であると認識して、この道路白線に基
づいて走行レーンを把握して操舵を行なうようにした、
道路白線認識(走行レーン認識)に関する技術が、特開
平3−137798号公報等に開示されている。
2. Description of the Related Art In recent years, a television camera has been installed in an automobile to grasp the shape of a road while traveling and to grasp the posture of the vehicle with respect to the road and use it for automatic traveling control of the automobile.
Techniques have been developed that are used for various warnings to drivers. For example, in the image information from the camera installed in the vehicle, the part with high lightness is set as the white line candidate point, and the point closest to the white line position (white line recognition information) obtained from the previous screen information is recognized as the white line. Then, based on this road white line, I grasped the traveling lane and tried to steer,
A technique related to road white line recognition (running lane recognition) is disclosed in Japanese Patent Laid-Open No. 3-137798.

【0003】また、特開平7−85249号公報には、
画像情報に基づいて白線探索エリア内で横方向に明度変
化を探索して、明度変化が極めて少ない部分を道路部分
であると判断し、且つ、明度変化が極めて少ない道路部
分に隣接して明度変化が大きい部分について白線である
と認識する技術が開示されている。このような道路白線
認識装置(走行レーン認識装置)は、カメラ(撮像手
段)と、カメラからの画像情報の処理を行なうECU
(電子制御ユニット)とをそなえ、まず、カメラで画像
(実画像)を取得して、ECUでこの画像を処理する
が、このとき、ECUでは、画像(原画像)を平面視の
2次元画像に変換して、原画像の道路白線を平面視画像
の道路白線に変換した上で白線認識を行なう。
Further, in Japanese Patent Laid-Open No. 7-85249,
Based on the image information, search the brightness change in the horizontal direction in the white line search area, judge that the part where the brightness change is extremely small is the road part, and change the brightness next to the road part where the brightness change is very small. A technique for recognizing a large line as a white line is disclosed. Such a road white line recognition device (running lane recognition device) includes a camera (imaging unit) and an ECU that processes image information from the camera.
(Electronic control unit), first, the camera acquires an image (actual image), and the ECU processes the image. At this time, the ECU processes the image (original image) into a two-dimensional image in plan view. To convert the road white lines of the original image into road white lines of the planar image, and then perform white line recognition.

【0004】[0004]

【発明が解決しようとする課題】ところで、道路上の白
線(走行区分線)を認識する場合、カメラから白線まで
の間の空間に、障害物がないことが前提となる。つま
り、白線からカメラに至る光軸上に障害物があったら白
線をカメラでとらえることができず、当然、白線認識を
行なうことはできない。実際に走行する道路上前方に
は、先行車が走行していたり停止車両が存在することも
あり、これら前方の他車両が障害物となって、白線認識
が困難となる不具合や、前方の他車両のエッジ部分を白
線のエッジと認識してしまうなど、白線を誤認識してし
まう不具合がある。
By the way, in the case of recognizing a white line (traveling division line) on a road, it is premised that there is no obstacle in the space from the camera to the white line. That is, if there is an obstacle on the optical axis from the white line to the camera, the white line cannot be captured by the camera, and naturally the white line cannot be recognized. The preceding vehicle may be running or a stopped vehicle may exist in front of the road on which the vehicle actually travels, and other vehicles in front of this may become obstacles that make it difficult to recognize the white line. There is a problem that the white line is erroneously recognized, such as recognizing the edge portion of the vehicle as the edge of the white line.

【0005】したがって、白線(走行区分線)の認識に
際して、路上の先行車の影響を回避してより正しく白線
を認識できるようにしたい。特開平8−30770号公
報には、テレビカメラで撮影した走行区分線に関する画
像のうち、先行車等の障害物が存在する領域を処理禁止
領域としてこの禁止領域を除いた画像領域について処理
を行なうようにして、走行区分線の認識に際し前方道路
上の先行車の影響を回避する技術が開示されている。し
かし、この技術では、処理禁止領域の設定等のロジック
が複雑になり易く、画像処理装置に高い処理能力が要求
され、コスト高を招く。
Therefore, when recognizing a white line (a lane marking), it is desired to avoid the influence of a preceding vehicle on the road so that the white line can be recognized more accurately. In Japanese Patent Laid-Open No. 8-30770, processing is performed on an image area excluding the prohibited area, which is an area where an obstacle such as a preceding vehicle is present in the image regarding the traveling lane marking taken by a television camera. Thus, a technique for avoiding the influence of a preceding vehicle on a road ahead when recognizing a traveling lane marking is disclosed. However, with this technique, the logic for setting the processing prohibited area is likely to be complicated, and the image processing apparatus is required to have high processing capability, resulting in high cost.

【0006】本発明は、上述の課題に鑑み創案されたも
ので、画像処理による白線(走行区分線)の認識に際
し、画像処理系に大きな負担を与えることなく前方道路
上の先行車の影響を回避できるようにして、低コストで
より正しく走行レーンを認識できるようにした、走行レ
ーン認識装置を提供することを目的とする。
The present invention was devised in view of the above-described problems, and when recognizing a white line (traveling division line) by image processing, the influence of the preceding vehicle on the road ahead is affected without imposing a heavy load on the image processing system. It is an object of the present invention to provide a traveling lane recognition device which can be avoided so that a traveling lane can be recognized more accurately at low cost.

【0007】[0007]

【課題を解決するための手段】このため、請求項1記載
の本発明の走行レーン認識装置では、車両の前方道路を
撮像する撮像手段と、該撮像手段で撮像された画像情報
を処理する画像情報処理手段と、該画像情報処理手段で
処理された情報から得られる該前方道路上の左右の白線
位置に基づいて該車両に対する走行レーン位置を推定す
る推定手段とをそなえており、撮像手段で撮像された画
像情報を画像情報処理手段で処理して、この処理された
情報から得られる該前方道路上の左右の白線位置に基づ
いて推定手段が該車両に対する走行レーン位置を推定す
る。
Therefore, in the traveling lane recognition apparatus according to the present invention as set forth in claim 1, an image pickup means for picking up an image of the road ahead of the vehicle and an image for processing the image information picked up by the image pickup means. The image pickup means includes an information processing means and an estimating means for estimating a traveling lane position with respect to the vehicle based on left and right white line positions on the front road obtained from the information processed by the image information processing means. The captured image information is processed by the image information processing means, and the estimating means estimates the traveling lane position for the vehicle based on the left and right white line positions on the front road obtained from the processed information.

【0008】さらに、該前方道路上に障害物が存在する
場合に該障害物の位置を検出する障害物位置検出手段が
そなえられており、推定手段では、この障害物位置検出
手段により該前方道路上の該障害物とその位置が検出さ
て、車両前方に先行車等の障害物がない場合及び車両
前方に先行車等の障害物があるがこの障害物が前方道路
上で左右いずれにも偏在していない場合には、上記の左
右の白線位置に基づいて該走行レーン位置を推定する。
そして、既に推定して得られた該走行レーンにおいて該
障害物が左右いずれかに偏在していると、上記の左右の
白線のうち該障害物位置から離隔した側の白線位置に基
づいて該走行レーン位置の推定を行なう。
Further, an obstacle position detecting means for detecting the position of the obstacle when the obstacle exists on the forward road is provided, and the estimating means uses the obstacle position detecting means to detect the forward road. When the obstacle above and its position are detected and there is no obstacle such as a preceding vehicle in front of the vehicle and the vehicle
There is an obstacle such as a preceding vehicle ahead, but this obstacle is the road ahead
If there is no uneven distribution on the left or right, above left
The traveling lane position is estimated based on the position of the right white line.
If the obstacle is unevenly distributed to the left or right in the estimated driving lane, the white line position on the side separated from the obstacle position of the left and right white lines is used as a basis.
Then, the position of the traveling lane is estimated.

【0009】つまり、該障害物位置が左の白線側に偏在
していれば主として右側の白線情報に基づいて走行レー
ン位置を推定し、該障害物位置が右の白線側に偏在して
いれば主として左側の白線情報に基づいて走行レーン位
置を推定する。これにより、該障害物の影響を受けず
に、該走行レーン位置の推定が行なわれるようになる。
また、推定手段により推定された走行レーン位置の出力
を平滑化処理する手段が設けられているので、車両前方
に先行車等の障害物がない場合及び車両前方の障害物が
あるが左右いずれにも偏在していない場合と、車両前方
に先行車等の障害物がありしかもこの障害物が左右いず
れかに偏在している場合との間で、状態が切り替わった
場合には、この平滑化処理により、それまで推定してき
た道路中心線LCとの連続性が確保される。
That is, if the obstacle position is unevenly distributed on the left white line side, the traveling lane position is estimated mainly based on the right white line information, and if the obstacle position is unevenly distributed on the right white line side. The traveling lane position is estimated mainly based on the left-side white line information. As a result, the traveling lane position can be estimated without being affected by the obstacle.
Also, the output of the driving lane position estimated by the estimation means
Since a means for smoothing the
If there is no obstacle such as a preceding vehicle in
However, if there is no uneven distribution on the left or right,
There is an obstacle such as a preceding vehicle, and this obstacle is right and left
The state has been switched between when it is unevenly distributed
In this case, this smoothing process has
Continuity with the road center line LC is secured.

【0010】特に、該推定手段は、該障害物が既に推定
して得られた該走行レーンにおける左右いずれかに偏在
している状態で、該障害物位置検出手段の検出情報に基
づいて該障害物が該車両から白線認識距離以内に接近し
た場合に、上記の障害物位置から離隔した側の白線位置
に基づいて走行レーン位置の推定を行なうので、障害物
が白線認識距離以遠にある場合、即ち、障害物が白線の
認識に影響のない場合には、左右の白線情報に基づいて
該走行レーン位置の推定を行なうことになる。請求項
記載の本発明の走行レーン認識装置では、該走行レーン
位置は、該走行レーンの左右中心線の位置により特定さ
れ、該推定手段は、車両前方に先行車等の障害物がない
場合及び車両前方に先行車等の障害物があるがこの障害
物が前方道路上で左右いずれにも偏在していない場合に
は、上記の左の白線位置から求められる該左右中心線位
置と上記の右の白線位置から求められる該左右中心線位
置との平均値として該走行レーン位置を特定する。請求
項3記載の本発明の走行レーン認識装置では、車両の前
方道路を撮像する撮像手段と、該撮像手段で撮像された
画像情報を処理する画像情報処理手段と、該画像情報処
理手段で処理された情報から得られる該前方道路上の左
右の白線位置に基づいて該車両に対する走行レーン位置
を推定する推定手段とをそなえており、撮像手段で撮像
された画像情報を画像情報処理手段で処理して、この処
理された情報から得られる該前方道路上の左右の白線位
置に基づいて推定手段が該車両に対する走行レーン位置
を推定する。さらに、該前方道路上に障害物が存在する
場合に該障害物の位置を検出する障害物位置検出手段が
そなえられており、推定手段では、この障害物位置検出
手段により該前方道路上の該障害物とその位置が検出さ
れた場合には、既に推定して得られた該走行レーンにお
いて該障害物が左右いずれかに偏在していると、上記の
左右の白線のうち該障害物位置から離隔した側の白線情
報を主体として該走行レーン位置の推定を行なう。つま
り、該障害物位置が左の白線側に偏在していれば主とし
て右側の白線情報に基づいて走行レーン位置を推定し、
該障害物位置が右の白線側に偏在していれば主として左
側の白線情報に基づいて走行レーン位置を推定する。
れにより、該障害物の影響を受けずに、該走行レーン位
置の推定が行なわれるようになる。また、該走行レーン
位置は、該走行レーンの左右中心線の位置により特定さ
れ、該推定手段は、車両前方に先行車等の障害物がない
場合及び車両前方に先行車等の障害物があるがこの障害
物が前方道路上で左右いずれにも偏在していない場合に
は、上記の左の白線位置から求められる該左右中心線位
置と上記の右の白線位置から求められる該左右中心線位
置との平均値として該走行レーン位置を特定する。ま
た、推定手段により推定された走行レーン位置の出力を
平滑化処理する手段が設けられているので、車両前方に
先行車等の障害物がない場合及び車両前方の障害物があ
るが左右いずれにも偏在していない場合と、車両前方に
先行車等の障害物がありしかもこの障害物が左右いずれ
かに偏在している場合との間で、状態が切り替わった場
合には、この平滑化処理により、それまで推定してきた
道路中心線LCとの連続性が確保される。また、上記の
走行レーン位置の出力を平滑化処理する手段には、ロー
パスフィルタを用いることができる(請求項4)。
In particular , the estimating means is arranged so that the obstacle is unevenly distributed on the left or right side of the traveling lane obtained by the estimation, and the obstacle is detected based on the detection information of the obstacle position detecting means. When the object approaches the white line recognition distance from the vehicle, the traveling lane position is estimated based on the white line position on the side distant from the obstacle position, so if the obstacle is more than the white line recognition distance, That is, when the obstacle does not affect the recognition of the white line, the traveling lane position is estimated based on the left and right white line information. Claim 2
In the traveling lane recognition device of the present invention described, the traveling lane position is specified by the position of the left and right center lines of the traveling lane, and the estimating means is configured to detect the case where there is no obstacle such as a preceding vehicle ahead of the vehicle or the front of the vehicle. If there is an obstacle such as a preceding vehicle in the road, but this obstacle is not unevenly distributed on the left or right on the road ahead, the left and right center line positions obtained from the above left white line position and the above right white line The traveling lane position is specified as an average value of the left and right center line positions obtained from the position. Claim
According to the traveling lane recognition device of the present invention described in Item 3,
An image pickup means for picking up an image of a road and an image picked up by the image pickup means
Image information processing means for processing image information, and the image information processing means
Left on the road ahead obtained from the information processed by the logical means
Driving lane position for the vehicle based on the position of the right white line
It is equipped with an estimation means for estimating
The processed image information is processed by the image information processing means,
Left and right white line positions on the road ahead obtained from the processed information
Based on the position of the vehicle,
To estimate. Furthermore, there is an obstacle on the road ahead.
In this case, the obstacle position detecting means for detecting the position of the obstacle is
It is equipped with the estimation means to detect this obstacle position.
Means detect the obstacle and its position on the road ahead.
If the vehicle is hit, it will be in the driving lane that has already been estimated and obtained.
If the obstacle is unevenly distributed to the left or right,
Of the left and right white lines, the white line information on the side separated from the obstacle position
The position of the traveling lane is estimated mainly by the information. Tsuma
If the obstacle position is unevenly distributed on the left white line side,
Estimate the driving lane position based on the white line information on the right side,
If the obstacle position is unevenly distributed to the right white line side, it is mainly left
The traveling lane position is estimated based on the white line information on the side. This
As a result, the driving lane position is not affected by the obstacle.
The position estimation will be performed. Also, the driving lane
The position is specified by the position of the center line on the left and right of the driving lane.
The estimating means has no obstacle such as a preceding vehicle in front of the vehicle.
If there is an obstacle such as a preceding vehicle in the case or in front of the vehicle, this obstacle
If the object is not unevenly distributed on the left or right of the road ahead,
Is the left and right center line position obtained from the above left white line position.
Position and the center line position of the right and left obtained from the position of the right white line
The traveling lane position is specified as an average value of the position. Well
In addition, the output of the traveling lane position estimated by the estimation means
Since a means for smoothing is provided,
If there is no obstacle such as a preceding vehicle or there is an obstacle in front of the vehicle
However, if it is not unevenly distributed on either side,
There is an obstacle such as a preceding vehicle, and this obstacle is on the left or right
When the state is switched between
In this case, this smoothing process has been used to estimate
Continuity with the road center line LC is secured. A low-pass filter can be used as a means for smoothing the output of the traveling lane position (claim 4).

【0011】[0011]

【発明の実施の形態】以下、図面により、本発明の実施
の形態について説明すると、図1〜図5は本発明の一実
施形態としての走行レーン認識装置及び本走行レーン認
識装置を利用した自動操舵装置を示すものである。図
に示すように、車両1には、この車両前方の道路状態を
撮像する撮像手段としてのカメラ2と、車両前方に先行
車等の障害物が存在したらこの障害物位置に関して検出
する障害物位置検出手段3と、カメラ2からの画像情報
から画像情報を適宜処理して前方道路上の左右の白線位
置を認識する画像情報処理手段4と、この画像情報処理
手段4による白線位置画像情報と障害物位置検出手段3
からの障害物位置情報とから走行レーンの位置や特徴及
び自車両との位置関係を推定する走行レーン推定手段
(推定手段)5と、操舵輪22を転舵させるための操舵
アクチュエータ21と、走行レーン推定手段5の認識結
果に基づいて操舵アクチュエータ21を制御するコント
ローラ6とがそなえられている。なお、20はステアリ
ングホイールである。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIGS. 1 to 5 show a traveling lane recognition device and an automatic system using the traveling lane recognition device as one embodiment of the present invention. It shows a steering device. Figure 1
As shown in FIG. 1, the vehicle 1 has a camera 2 as an image pickup means for picking up an image of a road condition in front of the vehicle, and an obstacle position detection for detecting an obstacle position such as a preceding vehicle in front of the vehicle. Means 3, image information processing means 4 for appropriately processing the image information from the image information from the camera 2 to recognize the left and right white line positions on the road ahead, the white line position image information by this image information processing means 4 and obstacles Position detecting means 3
Traveling lane estimation means (estimation means) 5 for estimating the position and characteristics of the traveling lane and the positional relationship with the host vehicle from the obstacle position information from the vehicle, the steering actuator 21 for steering the steered wheels 22, and traveling A controller 6 for controlling the steering actuator 21 based on the recognition result of the lane estimation means 5 is provided. In addition, 20 is a steering wheel.

【0012】また、障害物位置検出手段3,画像情報処
理手段4,走行レーン推定手段5,コントローラ6は、
CPU,入出力インタフェース,ROM,RAM等をそ
なえてなる電子制御ユニットとして構成される。そし
て、本走行レーン認識装置は、撮像手段としてのカメラ
2と、画像情報処理手段4と、障害物位置検出手段と、
推定手段5とから構成されている。
The obstacle position detecting means 3, the image information processing means 4, the traveling lane estimating means 5, and the controller 6 are
It is configured as an electronic control unit including a CPU, an input / output interface, a ROM, a RAM and the like. The traveling lane recognition device includes a camera 2 as an image pickup unit, an image information processing unit 4, an obstacle position detection unit,
The estimation means 5 is included.

【0013】なお、カメラ2は、車両前方正面のやや下
方に向けて設置されており、車両が走行する前方の道路
の所定の撮影範囲で撮影しうる。障害物位置検出手段3
は、レーザレーダ3Aとこのレーザレーダ3Aからの情
報を処理するレーダ情報処理部3Bとをそなえている。
特に、レーザレーダ3Aは、車両1の前方道路上に先行
車等の何らかの物体(これらを障害物という)が存在す
るか否かを検出するとともに、障害物が存在したら障害
物の位置及び障害物までの距離検出する。
The camera 2 is installed in a slightly lower position in front of the front of the vehicle, and can take an image in a predetermined image capturing range on the road ahead of the vehicle. Obstacle position detecting means 3
Includes a laser radar 3A and a radar information processing unit 3B that processes information from the laser radar 3A.
In particular, the laser radar 3A detects whether or not any object such as a preceding vehicle (these are referred to as obstacles) is present on the road ahead of the vehicle 1, and if there is an obstacle, the position of the obstacle and the obstacle. Detect the distance to .

【0014】つまり、レーザレーダ3Aは、カメラ2と
対応するように検出方向を車体前方に向けられており、
このレーザレーダ3Aでとらえた物体のレーダからの距
離を検出しうるとともに、レーザレーダ3Aでとらえた
物体のレーダ上での位置をカメラ2でとらえた走行レー
ン位置に関する画像に対応させて把握することができる
ようになっている。
That is, the laser radar 3A has its detection direction directed toward the front of the vehicle body so as to correspond to the camera 2.
The distance of the object captured by the laser radar 3A from the radar can be detected, and the position of the object captured by the laser radar 3A on the radar can be grasped in association with the image of the traveling lane position captured by the camera 2. You can do it.

【0015】レーダ情報処理部3Bでは、レーザレーダ
3Aでとらえた物体のレーダ上での位置をカメラ2でと
らえた走行レーン位置に関する画像に対応させ、前方の
物体が既に把握した走行レーン位置に対して左右いずれ
に偏在しているかを判定する。画像情報処理手段4で
は、図2に示すように、カメラ2からの原画像41を取
り込み、この原画像41から道路白線の抽出して、抽出
した道路白線の画像を、鉛直上方から見たような平面視
画像42に変換する。道路白線の抽出については後述す
る。
In the radar information processing unit 3B, the position on the radar of the object captured by the laser radar 3A is made to correspond to the image of the traveling lane position captured by the camera 2, and the traveling lane position already grasped by the object in front is compared with the traveling lane position. It is determined which of the left and right is unevenly distributed. In the image information processing means 4, as shown in FIG. 2, the original image 41 from the camera 2 is taken in, the road white line is extracted from the original image 41, and the image of the extracted road white line is viewed from above in the vertical direction. It is converted into a flat plan image 42. The extraction of the road white line will be described later.

【0016】推定手段5では、画像情報処理手段4によ
り平面視画像42において認識された走行レーン左端又
は右端の路側線としての白線12L,12Rの位置情報
に基づいて走行レーン位置の推定を行なうようになって
おり、抽出された左右の道路白線12L,12Rで規定
される領域、又は、抽出された左右の道路白線12L,
12Rの一方と予め認識されているレーン幅とから規定
される領域を、走行レーンと推定するようになってい
る。
The estimating means 5 estimates the traveling lane position based on the positional information of the white lines 12L and 12R as the roadside lines at the left end or the right end of the traveling lane recognized in the planar view image 42 by the image information processing means 4. The area defined by the extracted left and right road white lines 12L, 12R, or the extracted left and right road white lines 12L, 12R,
An area defined by one of the 12Rs and the lane width recognized in advance is estimated as a traveling lane.

【0017】特に、本推定手段5では、障害物位置検出
手段3で検出した先行車等の障害物情報から、車両から
先行車等の物体までの距離及びこの物体の横方向位置
(既に検出された走行レーン情報に基づいた走行レーン
に対する位置)に応じて走行レーン位置を推定するよう
になっている。コントローラ6では、この推定手段5で
推定された走行レーンの左右中心線(道路中心線)位置
を基準に、自車両の左右偏差(横偏差)と、自車両の方
向(偏角β)と、走行レーンの曲率(道路曲率)とを算
出し、これらの算出結果に基づいて自動操舵制御を行な
うようになっている。
In particular, the estimating means 5 uses the obstacle information of the preceding vehicle or the like detected by the obstacle position detecting means 3 to determine the distance from the vehicle to the object such as the preceding vehicle and the lateral position of the object (already detected). The position of the traveling lane is estimated according to (the position with respect to the traveling lane based on the traveling lane information). In the controller 6, the lateral deviation (lateral deviation) of the own vehicle and the direction (deviation angle β) of the own vehicle are set on the basis of the left-right center line (road center line) position of the traveling lane estimated by the estimating means 5, The curvature of the traveling lane (road curvature) is calculated, and automatic steering control is performed based on the calculation results.

【0018】上述のように、走行レーン位置の推定は、
画像情報処理手段4により認識された走行レーン左端又
は右端の路側線としての白線12L,12Rの位置情報
に基づいて行なうが、ここで、白線12L,12Rの認
識について説明する。なお、ここでは、走行レーン左端
の路側線としての白線12Lの認識について説明する
が、走行レーン右端の白線12Rを基準とする場合につ
いても同様であるため、左端の白線12Lについては単
に白線12と称することにする。
As described above, the estimation of the traveling lane position is
This is performed based on the position information of the white lines 12L and 12R as the roadside lines at the left end or the right end of the traveling lane recognized by the image information processing means 4. Here, the recognition of the white lines 12L and 12R will be described. Here, the recognition of the white line 12L as the roadside line at the left end of the driving lane will be described, but the same applies to the case where the white line 12R at the right end of the driving lane is used as a reference, so the white line 12L at the left end is simply referred to as the white line 12. I will call it.

【0019】画像情報認識手段4では、まず、図3
(a)に示すように、車両1にそなえられたカメラ2に
より平地において車両前方の範囲(例えば5m〜30
m)の白黒画像情報を取り込み、この画像情報から画面
上で縦方向の画像を一部省略する。そして、この画面上
で等間隔になるような複数の水平線11を設定する。こ
の白黒画像情報の取り込みは、微小な制御周期毎に更新
されるようになっており、図3(b)に示すように、そ
れぞれの水平線11上において前回の画面での白線位置
の左右の所要の範囲(ここでは、左右50画素〔do
t〕)を白線探査エリア(処理対象領域)10として設
定する。また、初回の画面は、直線路における白線位置
を前回の画面データとして利用する。
In the image information recognition means 4, first, as shown in FIG.
As shown in (a), the camera 2 provided on the vehicle 1 allows a range (eg, 5 m to 30 m) in front of the vehicle on a level ground.
The black-and-white image information of m) is taken in, and a part of the vertical image on the screen is omitted from this image information. Then, a plurality of horizontal lines 11 are set so as to be evenly spaced on this screen. The acquisition of the black-and-white image information is updated at every minute control cycle, and as shown in FIG. 3 (b), it is necessary to set the right and left sides of the white line position on the previous screen on each horizontal line 11. Range (here, left and right 50 pixels [do
t]) is set as the white line search area (processing target area) 10. In the first screen, the white line position on the straight road is used as the previous screen data.

【0020】そして、図3(c)に示すように、各水平
線の明度をそれぞれ左から横方向に微分する。また、図
中の符号14はガードレールである。ところで、通常の
路面は輝度が低く、輝度変化も小さい。これに対して、
白線12は通常の路面に比較して輝度が非常に高いの
で、このように道路の明度を微分すると、通常の路面か
ら白線12への境界点で輝度変化がプラス、白線12か
ら通常の路面への境界点で輝度変化がマイナスとなるよ
うな微分データが得られる。このような微分データの一
例を図3(d)示す。
Then, as shown in FIG. 3 (c), the brightness of each horizontal line is differentiated from the left to the lateral direction. Reference numeral 14 in the drawing is a guardrail. By the way, a normal road surface has low brightness and a small change in brightness. On the contrary,
Since the brightness of the white line 12 is much higher than that of a normal road surface, when the brightness of the road is differentiated in this way, a change in brightness is positive at the boundary point from the normal road surface to the white line 12, and the white line 12 changes to the normal road surface. Differentiated data is obtained such that the luminance change becomes negative at the boundary point of. An example of such differential data is shown in FIG.

【0021】そして、各水平線11のデータそれぞれに
ついて、微分値のピークが左からプラス,マイナスの順
に並んで現れ、且つそれぞれのピークの間隔が白線12
として妥当と思われる程度(プラスのピークからマイナ
スのピークまでの間隔が例えば30dot以内)に納ま
っている組み合わせを白線候補として抽出し、図3
(e)に示すように、その中点を白線候補点15として
保存する。
For each data of each horizontal line 11, peaks of the differential value appear in the order of plus and minus from the left, and the intervals between the peaks are the white line 12.
3 are extracted as white line candidates, and combinations that are within the range considered to be appropriate (the interval from the positive peak to the negative peak is within 30 dots, for example) are extracted as shown in FIG.
As shown in (e), the midpoint is stored as the white line candidate point 15.

【0022】そして、これらの白線候補点15のうち、
画面中心に最も近いもののみを最終候補点として残す。
これは、例えば車両1が左側通行の場合、探索エリア1
0の中の右側が通常輝度変化の少ない道路面であり、こ
の通常の道路面に最も近い白線候補点15が白線12と
判断できる。したがって白線12よりもさらに左側に、
ノイズの原因となる物体(例えばガードレール14等)
が存在する場合であっても、カメラ2により撮像された
画像情報から白線12を確実に認識することができる。
Of these white line candidate points 15,
Only the one closest to the screen center is left as the final candidate point.
This is because, for example, when the vehicle 1 is driving on the left side, the search area 1
The right side of 0 is a road surface with little change in normal brightness, and the white line candidate point 15 closest to this normal road surface can be determined to be the white line 12. Therefore, to the left of the white line 12,
Objects that cause noise (eg guardrail 14)
Even if there is, the white line 12 can be surely recognized from the image information captured by the camera 2.

【0023】そして、図3(f)に示すように、最後に
各水平線データにおける白線候補点15の上下方向の連
続性を画面の下方から順次検証していく。まず、事前に
前画面での白線12の上下端間の傾きを計算しておく。
そして、最下点15Aを白線12とすると、一本上の水
平線11上の候補点15Bが、前回の白線12の傾き分
±50dotの範囲内に入っているかを検証する。
Then, as shown in FIG. 3F, finally, the continuity in the vertical direction of the white line candidate points 15 in each horizontal line data is sequentially verified from the bottom of the screen. First, the slope between the upper and lower ends of the white line 12 on the previous screen is calculated in advance.
Then, assuming that the lowest point 15A is the white line 12, it is verified whether the candidate point 15B on the one horizontal line 11 is within the range of the inclination of the white line 12 of the previous time ± 50 dots.

【0024】候補点15Bがこの範囲内に入っていれば
これを白線とし、入っていないときは候補点15Bは却
下されて、上述の傾きから補間計算した座標が白線位置
としてみなされる。そして、この検出を各水平線につい
て同様の作業を行なうことにより、連続した白線12を
認識することができるのである。そして、このような白
線認識の作業は、所要の周期で継続して行なわれ、その
都度白線12の認識が更新されるようになっている。
If the candidate point 15B is within this range, it is set as a white line, and if it is not included, the candidate point 15B is rejected, and the coordinate calculated by interpolation from the above-mentioned inclination is regarded as the white line position. By performing the same operation for each horizontal line for this detection, the continuous white line 12 can be recognized. The operation of recognizing the white line is continuously performed in a required cycle, and the recognition of the white line 12 is updated each time.

【0025】走行レーン右端の路側線としての白線12
Rの認識についも、これと同様に行なわれる。画像情報
処理手段4では、このように各認識周期で認識された原
画像41上の白線12R,12Lを平面視画像42に変
換して、走行レーン左端の白線12Lから推定しうる道
路中心線LCL と走行レーン右端の白線12Rから推定
しうる道路中心線LCR とに基づいて、障害物位置検出
手段3からの検出情報に応じて道路中心線LCの推定を
行なうようになっている。
White line 12 as the roadside line at the right end of the driving lane
The recognition of R is performed in the same manner. The image information processing unit 4 converts the white lines 12R and 12L on the original image 41 thus recognized in each recognition cycle into the planar view image 42, and can estimate the road center line LC from the white line 12L at the left end of the driving lane. based on the road centerline LC R which may be estimated from L and the traveling lane right end of the white line 12R, and performs the estimation of the road center line LC according to the detection information from the obstacle position detection means 3.

【0026】つまり、障害物位置検出手段3において、
レーザレーダ3Aでは、前方の道路上に先行車等の物体
(障害物)16をとらえると、車両からこの物体16ま
での距離と、レーダ上でのこの物体16の位置とを検出
する。また、レーダ情報処理部3Bでは、図4に示すよ
うに、レーザレーダ3Aでとらえた物体16のレーダ上
での位置を、カメラ2情報から、既に把握された走行レ
ーン位置に関する画像に対応させて、この物体16が既
に把握した走行レーン位置に対して左右いずれに偏在し
ているかを判定する。
That is, in the obstacle position detecting means 3,
When the object (obstacle) 16 such as a preceding vehicle is caught on the road ahead, the laser radar 3A detects the distance from the vehicle to the object 16 and the position of the object 16 on the radar. Further, in the radar information processing unit 3B, as shown in FIG. 4, the position on the radar of the object 16 captured by the laser radar 3A is associated with the image regarding the traveling lane position already grasped from the camera 2 information. It is determined whether the object 16 is unevenly distributed on the right or left with respect to the already-recognized traveling lane position.

【0027】ここでは、既に車両前方の所定範囲(例え
ば5m〜30m)の走行レーンについて把握しているの
で、レーダ情報処理部3Bでは、とらえた物体16がこ
の範囲内(即ち、例えば車両から30m以内の白線認識
距離以内)に入ったら、この地点(車両から30m付
近)の走行レーン位置(道路中心)に対して物体16が
どの位置にあるかを判定する。レーダ3Aでとらえた物
体16の左右方向中心16Aが車両から所定距離(30
m)における既に推定された走行レーン中心LCFに対
して左右いずれかに所定距離(L0)以上離隔していれ
ば、対応方向へ偏在していると判定する。
Here, since the traveling lane within a predetermined range (for example, 5 m to 30 m) in front of the vehicle is already known, the object 16 captured by the radar information processing unit 3B is within this range (that is, 30 m from the vehicle, for example). White line recognition within
When it enters within the distance ), it is determined which position the object 16 is at with respect to the traveling lane position (road center) at this point (near 30 m from the vehicle). The horizontal center 16A of the object 16 captured by the radar 3A is located at a predetermined distance (30
If the vehicle is separated from the already estimated traveling lane center LCF in m) by a predetermined distance (L0) or more to the left or right, it is determined to be unevenly distributed in the corresponding direction.

【0028】図4に示す例では、物体16の左右方向中
心16Aは、走行レーン中心LCFよりも距離L1(L
1>L0とする)だけ左側に偏在しており、物体16は
左白線12L側に偏在しているといえる。推定手段5で
は、このような障害物位置検出手段3からの検出情報に
応じて道路中心線LCの推定を行なう。
In the example shown in FIG. 4, the horizontal center 16A of the object 16 is located at a distance L1 (L
It can be said that the object 16 is unevenly distributed on the left white line 12L side. The estimating means 5 estimates the road center line LC according to the detection information from the obstacle position detecting means 3.

【0029】1.車両前方に先行車等の障害物がない場
合及び車両前方に先行車等の障害物があるがこの障害物
が前方道路上で左右いずれにも偏在していない場合に
は、各道路中心線LCL ,LCR を平均すること(例え
ば単純平均)により道路中心線LC(=LCL +L
R )を算出する。2.車両前方に先行車等の障害物が
ありこの障害物が前方道路上で左右いずれかに偏在して
いる場合には、各道路中心線LCL ,LCR のうち障害
物が偏在しないほうの情報に応じて道路中心線LCを算
出する。
1. If there is no obstacle such as a preceding vehicle in front of the vehicle, or if there is an obstacle such as a preceding vehicle in front of the vehicle but this obstacle is not unevenly distributed on the left or right of the road ahead, each road center line LC By averaging L and LC R (for example, simple averaging), the road center line LC (= LC L + L
Calculate C R ). 2. Case, information of better obstacle is not unevenly distributed among the road center line LC L, LC R vehicle forward there is an obstacle such as a preceding vehicle the obstacle are unevenly distributed in the right or left on the road ahead The road center line LC is calculated according to

【0030】つまり、障害物位置の中心位置がそれま
で算出した道路中心線LCよりも左方にあれば(図4参
照)、この障害物位置の存在する左側の白線に基づいた
道路中心線LCL は信頼性が低くなるため、残った右側
の白線に基づいた道路中心線LCR を道路中心線LCに
採用する。逆に、障害物位置の中心位置がそれまで算
出した道路中心線LCよりも右方にあれば、この障害物
位置の存在する右側の白線に基づいた道路中心線LCR
は信頼性が低くなるため、残った左側の白線に基づいた
道路中心線LCL を道路中心線LCに採用する。
That is, if the center position of the obstacle position is on the left side of the road center line LC calculated up to that time (see FIG. 4), the road center line LC based on the white line on the left side where the obstacle position exists. Since L becomes less reliable, the road center line LC R based on the remaining white line on the right side is adopted as the road center line LC. On the contrary, if the center position of the obstacle position is on the right side of the calculated road center line LC, the road center line LC R based on the white line on the right side where the obstacle position exists.
Since the reliability decreases, the remaining road centerline LC L based on the left of the white line to adopt a road center line LC.

【0031】ただし、1.の状態(車両前方に先行車等
の障害物がない場合及び車両前方の障害物があるが左右
いずれにも偏在していない場合)と、2.の状態(車両
前方に先行車等の障害物がありしかもこの障害物が左右
いずれかに偏在している場合)との間で、状態が切り替
わった場合には、それまで推定してきた道路中心線LC
との連続性を確保する必要がある。このため、推定した
道路中心線LC情報の出力に対して平滑化処理しうるロ
ーパスフィルタ43がそなえられている。
However, 1. 1. The state (when there is no obstacle such as a preceding vehicle in front of the vehicle or when there is an obstacle in front of the vehicle but not unevenly distributed on either side). When the state is switched to the state of (when there is an obstacle such as a preceding vehicle in front of the vehicle and these obstacles are unevenly distributed on the left or right), the road center line estimated so far LC
It is necessary to ensure continuity with. Therefore, a low-pass filter 43 that can perform smoothing processing on the output of the estimated road center line LC information is provided.

【0032】なお、このように道路中心線LCが推定さ
れると、この道路中心線LCに基づいて、横偏差及び偏
角βが算出され、自動操舵を行なうようになっている。
ところで、コントローラ6では、かかる推定手段5で推
定された車両1に対する走行レーン位置情報に基づい
て、操舵アクチュエータ21を制御して、自動操舵を行
なうようになっている。
When the road center line LC is estimated in this way, the lateral deviation and the deviation angle β are calculated based on the road center line LC, and automatic steering is performed.
By the way, the controller 6 controls the steering actuator 21 based on the travel lane position information for the vehicle 1 estimated by the estimation means 5 to perform automatic steering.

【0033】つまり、本車両1では、カメラ2で撮像さ
れた画像に基づいて操舵輪20を自動的に転舵させうる
自動操舵車両であって、コントローラ6では、推定手段
5で推定された車両1と走行レーンとの位置関係から車
両のとるべき操舵角(これを目標操舵角という)を設定
し、この設定した目標操舵角に応じて操舵アクチュエー
タ21の作動を制御し操舵輪20を転舵するようになっ
ている。
That is, the present vehicle 1 is an automatic steering vehicle capable of automatically steering the steered wheels 20 based on the image taken by the camera 2, and the vehicle estimated by the estimating means 5 in the controller 6 is the vehicle. The steering angle that the vehicle should take (this is called the target steering angle) is set based on the positional relationship between 1 and the traveling lane, and the operation of the steering actuator 21 is controlled according to the set target steering angle to steer the steered wheels 20. It is supposed to do.

【0034】ここで、車両1にそなえられた自動操舵装
置による制御について説明すると、この自動操舵装置
は、人為的な操舵操作(ドライバの操舵操作)にならっ
て自動操舵制御を行なうようになっている。例えば、ド
ライバが操舵操作(舵角の変更)を行なうのは、主に車
両1の走行方向が走行している道路(走行レーン)の方
向と合わなくなったときこれを修正する場合であり、さ
らに、車両1が走行レーンから左右にはみ出そうとして
いるときこれを修正するためにも行なう。走行方向が走
行レーン方向と合わなくなるのは、主に曲走路走行中で
あるが、直走路を走行しているときでも車両自体の姿勢
がヨー方向に動くことで走行方向が走行レーン方向から
外れる場合もある。
Here, the control by the automatic steering device provided for the vehicle 1 will be described. The automatic steering device performs automatic steering control in accordance with artificial steering operation (driver's steering operation). There is. For example, the driver performs a steering operation (changing the steering angle) mainly when the traveling direction of the vehicle 1 is not aligned with the direction of the road on which the vehicle 1 is traveling (traveling lane), and is corrected. , To correct this when the vehicle 1 is trying to extend to the left or right from the driving lane. The reason why the traveling direction does not match the traveling lane direction is mainly when traveling on a curved lane, but the traveling direction deviates from the traveling lane direction because the posture of the vehicle itself moves in the yaw direction even when traveling on a straight lane. In some cases.

【0035】そこで、この自動操舵装置では、主とし
て、車両1の走行方向を走行レーンの方向と合わせるよ
うに操舵を行なって、これに、車両1の横方向位置の修
正のための操舵要素を付加するようになっている。ま
た、人為的な操舵(ドライバ操舵)では、ドライバが視
覚で得た情報から、車両と道路との相対的な状況を判断
して、操舵操作を行なっている。つまり、ドライバは、
目から入った情報に基づいて、車両1の走行方向と走行
レーン方向との相対関係(偏角)や、車両1の横方向の
位置ずれ(横偏差)を判断し、これらを修正するように
操舵操作を行なっている。
Therefore, in this automatic steering device, steering is mainly performed so that the traveling direction of the vehicle 1 is aligned with the traveling lane direction, and a steering element for correcting the lateral position of the vehicle 1 is added thereto. It is supposed to do. Further, in artificial steering (driver steering), the driver performs a steering operation by judging the relative situation between the vehicle and the road from the information visually obtained by the driver. That is, the driver
Based on the information entered from the eyes, the relative relationship (deviation angle) between the traveling direction of the vehicle 1 and the traveling lane direction and the lateral displacement (lateral deviation) of the vehicle 1 are determined, and these are corrected. Steering operation is performed.

【0036】このようなドライバが視覚で得る情報を整
理すると、道路のカーブの半径,車速,乗り心地(横加
速度,横ジャーク)の3つの要素に分類することができ
る。また、一般に、曲走路の定常円及びこれに近い部分
や直走路等を走行している際(定常走行時)には、操舵
角を一定に保持しようとするので、ドライバは、操舵操
作は走路の曲率にあった操舵角δ0 を保持するように操
舵を行なう。
When the information visually obtained by such a driver is organized, it can be classified into three elements, that is, the radius of the curve of the road, the vehicle speed, and the riding comfort (lateral acceleration, lateral jerk). Further, in general, when the vehicle is traveling on a steady circle of a curved runway, a portion close to this, a straight runway, or the like (during steady run), the driver tries to keep the steering angle constant. The steering is performed so that the steering angle δ 0 that matches the curvature of is maintained.

【0037】これに対して、直走路から曲走路へ進入し
ようとする際(過渡走行時)には、曲走路のある程度手
前から操舵角δを曲走路の曲率に応じた操舵角δ0 に除
々に増加させていく。この場合、ドライバは、曲走路に
入る地点のどの程度手前から操舵を開始するか(すなわ
ち、操舵開始距離Dをどの程度にするか)、また、どの
程度の割合(操舵速度δV )で操舵角δを増加させてい
くかを、その時の車速や予想される乗り心地(横加速度
のかかり具合)等を考慮して設定する。
On the other hand, when an attempt is made to enter a curved runway from a straight runway (during transient running), the steering angle δ is gradually changed to a steering angle δ 0 corresponding to the curvature of the curved runway from some point before the curved runway. To increase. In this case, the driver should start steering before the point where the vehicle enters the curved road (that is, how much the steering start distance D should be), and at what ratio (steering speed δ V ). Whether to increase the angle δ is set in consideration of the vehicle speed at that time, the expected riding comfort (the degree of lateral acceleration), and the like.

【0038】つまり、ドライバが操舵操作に際して決定
する操舵要素を分類すると、操舵角δ0,操舵開始距離
(操舵開始タイミング)D,操舵速度δVに分けられ
る。本実施形態にかかる動操舵装置では、このよう
な、ドライバ操舵と同様な手法により自動操舵を行なう
ようになっている。このため、ドライバの視覚系に対応
する推定手段5と、ドライバのデータ処理系に対応する
ように、操舵に必要な各量、即ち、操舵角δ0,操舵開
始距離D,操舵速度δVを設定するコントローラ6とを
そなえているのである。
That is, when classifying the steering elements determined by the driver during the steering operation, they are classified into a steering angle δ 0 , a steering start distance (steering start timing) D, and a steering speed δ V. In automatic steering apparatus according to the present embodiment, such is adapted to perform the automatic steering by the driver steering the same method. Therefore, each amount necessary for steering, that is, the steering angle δ 0 , the steering start distance D, and the steering speed δ V are set so as to correspond to the estimation means 5 corresponding to the driver's visual system and the driver's data processing system. It has a controller 6 for setting.

【0039】そして、推定手段5で推定された平面視画
像42における道路中心線LCに基づいて、車両1から
所定距離だけ離れた地点(すなわち、平面視画像4B内
の所定の高さの地点)における偏角βを算出する。この
偏角βとは、図5に示すように、屈曲した道路中心線L
Cの接線と車両中心線方向とがなす角であり、車両から
所定距離だけ離れた第1検出点(図中には近地点と示
す)における基準線位置情報と、この近地点よりもさら
に車両1から所定量だけ離れた第2検出点(図中には遠
地点と示す)における基準線位置情報とから算出するこ
とができる。
Then, based on the road center line LC in the planar view image 42 estimated by the estimating means 5, a point separated from the vehicle 1 by a predetermined distance (that is, a point at a predetermined height in the planar view image 4B). The declination angle β at is calculated. This declination β means, as shown in FIG. 5, a curved road center line L
It is an angle formed by the tangent line of C and the direction of the vehicle center line, and the reference line position information at the first detection point (shown as a perigee in the figure) separated by a predetermined distance from the vehicle, and from the vehicle 1 further than this perigee It can be calculated from the reference line position information at the second detection point (shown as an apogee in the figure) separated by a predetermined amount.

【0040】つまり、偏角βは、これらの第1検出点と
第2検出点とを結んだ直線と、車両1の中心線とがなす
角として算出するようになっている。このようにして算
出される偏角は、第1検出点(近地点)と第2検出点
(遠地点)との中間地点(図中×印)における偏角であ
り、少なくとも車両1から一定以上前方の地点の偏角で
ある。なお、この例では、カメラ2による画像情報に基
づく道路中心線LCのうち車両に最も近い地点を第1検
出点としており、この第1検出点に基づいて横偏差を算
出し、さらに、算出された偏角βに基づいてカーブ半径
Rを推定するようになっている。
That is, the declination angle β is calculated as an angle formed by the straight line connecting the first detection point and the second detection point and the center line of the vehicle 1. The declination calculated in this way is the declination at the midpoint (marked by X in the figure) between the first detection point (perigee) and the second detection point (apogee), and at least a certain distance ahead of the vehicle 1 ahead. This is the declination of the point. In this example, the point closest to the vehicle on the road center line LC based on the image information from the camera 2 is set as the first detection point, and the lateral deviation is calculated based on the first detection point, and further calculated. The curve radius R is estimated based on the deviation angle β.

【0041】本発明の一実施形態としての走行レーン認
識装置は、上述のように構成されているので、本装置に
よる白線認識は、以下のように行なわれる。本装置で
は、走行レーン左端の白線12Lと、走行レーン右端の
白線12Rとに関して白線認識を行ない、この白線認識
から、車両の走行している走行レーンが車両に対してど
のような位置にあるか(逆に言えば、車両が走行レーン
に対してどのような位置にあるか)を推定するが、ま
ず、各白線12L、12Rの認識について、左側の白線
12Lを例に説明する。
Since the traveling lane recognition device as one embodiment of the present invention is configured as described above, the white line recognition by this device is performed as follows. In this device, the white line 12L at the left end of the traveling lane and the white line 12R at the right end of the traveling lane are recognized as white lines. From this white line recognition, the position of the traveling lane where the vehicle is traveling with respect to the vehicle is determined. (Conversely, the position of the vehicle with respect to the traveling lane) is estimated. First, the recognition of the white lines 12L and 12R will be described by taking the left white line 12L as an example.

【0042】まず、図3(a)に示すように、カメラ2
により平地において車両前方の範囲(例えば5m〜30
m)の白黒画像情報を微小な制御周期毎に取り込み、各
周期毎に、この画面上で等間隔になるような複数の水平
線11を設定する。そして、図3(b)に示すように、
それぞれの水平線11上において前回の画面での白線位
置の左右の所要の範囲(例えば左右50画素〔do
t〕)を白線探査エリア(処理対象領域)10として設
定する。なお、初期画面では、直線路における白線位置
を前回の画面データとして利用する。
First, as shown in FIG. 3A, the camera 2
Due to this, the range in front of the vehicle on flat ground (for example, 5 m to 30 m
The black-and-white image information of m) is taken in every minute control period, and a plurality of horizontal lines 11 are set so as to be evenly spaced on this screen for each period. Then, as shown in FIG.
A required range on the left and right of the position of the white line on the previous screen on each horizontal line 11 (for example, 50 pixels on the left and right [do]
t]) is set as the white line search area (processing target area) 10. In the initial screen, the white line position on the straight road is used as the previous screen data.

【0043】このような画像情報から、図3(c)に示
すように、各水平線の明度をそれぞれ左から横方向に微
分して、このような各水平線の微分データ〔図3(d)
参照〕から、微分値のピークが左からプラス,マイナス
の順に並んで現れ、且つそれぞれのピークの間隔が白線
12として妥当と思われる程度(プラスのピークからマ
イナスのピークまでの間隔が例えば30dot以内)に
納まっている組み合わせを白線候補として抽出し、その
中点を白線候補点15として保存する〔図3(e)参
照〕。
From such image information, as shown in FIG. 3C, the brightness of each horizontal line is differentiated laterally from the left, and the differential data of each such horizontal line [FIG. 3 (d)].
From the above], the peaks of the differential values appear from the left in the order of plus and minus, and the intervals between the respective peaks are considered to be appropriate as the white line 12 (the interval from the plus peak to the minus peak is within 30 dots, for example). ) Is extracted as a white line candidate, and the midpoint thereof is stored as a white line candidate point 15 (see FIG. 3 (e)).

【0044】そして、これらの白線候補点15のうち、
画面中心に最も近いもののみを最終候補点として残す。
このように白線候補点15を画面中心に最も近いものに
限定することにより、白線12よりもさらに外側に、ノ
イズの原因となる物体(例えばガードレール14や他の
走行レーンの車両等)が存在する場合であっても、カメ
ラ2による画像情報から白線12を確実に認識すること
ができる。
Of these white line candidate points 15,
Only the one closest to the screen center is left as the final candidate point.
By limiting the white line candidate point 15 to the one closest to the center of the screen in this way, an object causing noise (for example, a guardrail 14 or a vehicle in another traveling lane) exists outside the white line 12. Even in this case, the white line 12 can be surely recognized from the image information from the camera 2.

【0045】最後に、図3(f)に示すように、各水平
線データにおける白線候補点15の上下方向の連続性を
画面の下方から順次検証していく。まず、事前に前画面
での白線12の上下端間の傾きを計算しておく。そし
て、最下点15Aを白線12とすると、一本上の水平線
11上の候補点15Bが、前回の白線12の傾き分±5
0dotの範囲内に入っているかを比較して、候補点1
5Bがこの範囲内に入っていればこれを白線とし、入っ
ていないときは候補点15Bは却下されて、上述の傾き
から補間計算した座標を白線位置とみなす。
Finally, as shown in FIG. 3F, the vertical continuity of the white line candidate points 15 in each horizontal line data is sequentially verified from the bottom of the screen. First, the slope between the upper and lower ends of the white line 12 on the previous screen is calculated in advance. If the lowest point 15A is the white line 12, the candidate point 15B on the one horizontal line 11 is the inclination of the previous white line 12 ± 5.
Candidate point 1 by comparing whether it is within the range of 0 dot
If 5B is within this range, it is set as a white line, and if not, the candidate point 15B is rejected, and the coordinates interpolated from the above-described inclination are regarded as white line positions.

【0046】このような作業を各水平線について行なう
ことにより、連続した白線12を認識することができ
る。このような白線認識の作業は、所要の周期で継続し
て行なわれ、その都度白線12の認識を更新していく。
こうして、周期的に走行レーンの左右の白線12L,1
2Rの認識を行なうが、これと同様に行なわれる。
By performing such an operation for each horizontal line, the continuous white line 12 can be recognized. Such white line recognition work is continuously performed at a required cycle, and the recognition of the white line 12 is updated each time.
Thus, the white lines 12L, 1 on the left and right of the traveling lane are periodically
2R recognition is performed, but is performed in the same manner.

【0047】そして、走行レーン左端の白線12Lから
推定した道路中心線LCL と走行レーン右端の白線12
Rから推定した道路中心線LCR とに基づいて、障害物
位置検出手段3からの検出情報に応じて道路中心線LC
の推定を行なうようになっている。つまり、障害物位置
検出手段3において、レーザレーダ3Aでは、前方の道
路上に先行車等の物体をとらえると、車両からこの物体
までの距離と、レーダ上でのこの物体の位置とを検出す
る。また、レーダ情報処理部3Bでは、レーザレーダ3
Aでとらえた物体のレーダ上での位置をカメラ2でとら
えて既に把握した走行レーン位置に関する画像に対応さ
せて、この物体が既に把握した走行レーン位置に対して
左右いずれに偏在しているかを判定する。
[0047] and, with the center line of the road LC L estimated from the white line 12L of the traveling lane leftmost lane right edge of the white line 12
Based on the road center line LC R estimated from R, the road center line LC is detected according to the detection information from the obstacle position detecting means 3.
Is estimated. That is, in the obstacle position detection means 3, when the laser radar 3A catches an object such as a preceding vehicle on the road ahead, the distance from the vehicle to this object and the position of this object on the radar are detected. . Further, in the radar information processing unit 3B, the laser radar 3
The position of the object captured on A on the radar is captured by the camera 2 and is made to correspond to the image relating to the traveling lane position already grasped, and whether the object is unevenly distributed to the left or right with respect to the already traveling lane position. judge.

【0048】ここでは、既に車両前方の所定範囲(例え
ば5m〜30m)の走行レーンについて把握しているの
で、レーダ情報処理部3Bでは、とらえた物体が車両か
らこの範囲内(即ち、例えば30m以内)に入ったら、
走行レーン位置に対して物体がどの位置にあるかを判定
する。そして、レーダ3Aでとらえた物体の中心が既に
推定された走行レーン中心線に対して左右いずれかに所
定距離以上離隔していれば、対応方向へ偏在していると
判定する。
Here, since the traveling lane in the predetermined range (for example, 5 m to 30 m) in front of the vehicle is already known, the radar information processing unit 3B detects the captured object within the range (that is, within 30 m, for example) from the vehicle. ),
The position of the object with respect to the traveling lane position is determined. Then, if the center of the object captured by the radar 3A is separated from the estimated lane center line to the left or right by a predetermined distance or more, it is determined that the object is unevenly distributed in the corresponding direction.

【0049】そして、推定手段4では、障害物位置検出
手段3からの検出情報に応じて、車両前方に先行車等の
障害物がない場合及び車両前方に先行車等の障害物があ
るがこの障害物が前方道路上で左右いずれにも偏在して
いない場合には、各道路中心線LCL ,LCR を平均し
て道路中心線LC(=LCL +LCR )を算出する。ま
た、車両前方に先行車等の障害物がありこの障害物が前
方道路上で左右いずれかに偏在している場合には、各道
路中心線LCL ,LCR のうち障害物が偏在しないほう
の情報に応じて道路中心線LCを算出する。つまり、障
害物位置の中心位置がそれまで算出した道路中心線LC
よりも左方にあれば、残った右側の白線に基づいた道路
中心線LCR を道路中心線LCに採用する。逆に、障害
物位置の中心位置がそれまで算出した道路中心線LCよ
りも右方にあれば、残った左側の白線に基づいた道路中
心線LCL を道路中心線LCに採用する。
Then, in the estimating means 4, depending on the detection information from the obstacle position detecting means 3, there is no obstacle such as a preceding vehicle in front of the vehicle or there is an obstacle such as a preceding vehicle in front of the vehicle. obstacle when not unevenly distributed to the right or left on the road ahead calculates the road center line LC L, the center line of the road on average LC R LC a (= LC L + LC R) . Further, when the front of the vehicle there is an obstacle such as a preceding vehicle the obstacle are unevenly distributed in the right or left on the road ahead, each road center line LC L, better obstacle of LC R is not unevenly distributed The road center line LC is calculated according to the information of. That is, the center position of the obstacle position is the road center line LC calculated up to that point.
If the left than the remaining road centerline LC R, based on the right of the white line to adopt a road center line LC. Conversely, if the right of the center line of the road LC center position is calculated to its obstacle position, the remaining left road centerline LC L based on the white line to adopt a road center line LC.

【0050】こうして推定された道路中心線LCに基づ
いて、偏差の算出、角βの算出、行レーンの曲率
(道路曲率)の算出が行なわれて、これらの算出情報に
基づいて自動操舵制御を行なうことができる。このよう
にして、本走行レーン認識装置では、障害物が存在する
ため信頼性の低下した白線認識情報に基づくことなく、
障害物位置が存在せず信頼性の高い白線認識情報に基づ
いて、道路中心線LCが推定されるようになり、道路中
心線LCの推定、即ち、走行レーンの推定をより精度よ
く行なうことができるようになる利点がある。
[0050] Thus, based on the estimated road center line LC, the calculation of the lateral deviation, calculation of the deflection angle beta, is calculated in the curvature of the run line lane (road curvature) is performed, automatically on the basis of these calculation information Steering control can be performed. In this way, in the present traveling lane recognition device, without being based on the white line recognition information whose reliability has deteriorated due to the existence of obstacles,
The road centerline LC is estimated based on highly reliable white line recognition information that does not have an obstacle position, so that the road centerline LC, that is, the running lane can be estimated more accurately. There is an advantage that you will be able to.

【0051】しかも、障害物位置検出手段3の主体とな
るレーダレーザ3Aは、車間距離制御等を行なう車両で
は既に設置されているので、新たに設置する必要がな
く、低コストで本装置を装備することができ、また、画
像処理系に大きな負担を与えることもなく、低コストで
前方道路上の先行車等に影響されることなく、より正し
く走行レーンの認識を行なえるようになる。
Moreover, since the radar laser 3A which is the main body of the obstacle position detecting means 3 is already installed in the vehicle for controlling the inter-vehicle distance, it is not necessary to newly install the radar laser 3A and the present apparatus is equipped at low cost. Further, it is possible to recognize the traveling lane more accurately without giving a heavy load to the image processing system and at a low cost without being influenced by a preceding vehicle on the road ahead.

【0052】また、ローパスフィルタ43により、推定
手段5で推定した道路中心線LC情報が平滑化処理され
て出力されるので、道路中心線LCの位置が急変するこ
となく滑らかに連続するようになり、道路中心線LCの
位置に基づいた制御を安定させることができる。なお、
本実施形態では、左右の白線12L,12Rを認識し
て、それぞれに基づいて道路中心線LCL ,LCR を推
定した上で、障害物位置検出手段3の検出情報に基づい
て道路中心線LCを推定しているが、左右の白線12
L,12Rを認識する段階から、障害物位置検出手段3
の検出情報に基づき、障害物位置が存在する側の白線に
ついては認識しないで、障害物位置が存在しない側の白
線についてのみ認識するように構成して、この認識した
方の白線位置に基づいて道路中心線LCを推定するよう
に構成してもよい。この場合、画像処理系への負担が一
層軽減されることになる。
Further, since the road center line LC information estimated by the estimating means 5 is smoothed and output by the low-pass filter 43, the position of the road center line LC becomes smoothly continuous without sudden change. Therefore, the control based on the position of the road center line LC can be stabilized. In addition,
In the present embodiment, the left and right white lines 12L, recognizes 12R, road center line LC L based on each, after estimating the LC R, the road center line LC on the basis of the detection information of the obstacle position detection means 3 Is estimated, but left and right white lines 12
From the stage of recognizing L, 12R, the obstacle position detecting means 3
Based on the detection information of, the white line on the side where the obstacle position is present is not recognized, and the white line on the side where the obstacle position is not present is configured to be recognized, and based on the recognized white line position. It may be configured to estimate the road center line LC. In this case, the load on the image processing system is further reduced.

【0053】[0053]

【発明の効果】以上詳述したように、請求項1記載の本
発明の走行レーン認識装置によれば、撮像手段で撮像さ
れた画像情報を画像情報処理手段で処理し、さらに、
害物位置検出手段により前方道路上の該障害物とその位
置が検出されると、推定手段車両前方に先行車等の
障害物がない場合及び車両前方に先行車等の障害物があ
るがこの障害物が前方道路上で左右いずれにも偏在して
いない場合には、上記の左右の白線位置に基づいて該走
行レーン位置を推定し、該障害物が既に推定して得られ
た該走行レーンにおける左右いずれかに偏在している
合には、上記の左右の白線のうち該障害物位置から離隔
した側の白線位置に基づいて該走行レーン位置の推定を
行なうので、障害物が存在するため信頼性の低下した白
線認識情報に基づくことなく、障害物位置が存在せず信
頼性の高い白線認識情報に基づいて、道路中心線LCが
推定されるようになり、道路中心線LCの推定、即ち、
走行レーンの推定をより精度よく行なうことができるよ
うになる利点がある。また、推定された走行レーン位置
の出力を平滑化処理するので、車両前方に先行車等の障
害物がない場合及び車両前方の障害物があるが左右いず
れにも偏在していない場合と、車両前方に先行車等の障
害物がありしかもこの障害物が左右いずれかに偏在して
いる場合との間で、状態が切り替わった場合にも、この
平滑化処理により、それまで推定してきた道路中心線L
Cとの連続性が確保される。
As described above in detail, according to the traffic lane recognition apparatus of the present invention according to claim 1, processing the image information obtained by the image pickup means in the image information processing means, further disabilities
The obstacle and its position on the road ahead by the obstacle position detection means
If location is detected, estimating means, forward of the preceding vehicle such as the vehicle
If there are no obstacles or there is an obstacle such as a preceding vehicle in front of the vehicle.
However, this obstacle is unevenly distributed on the left and right of the road ahead.
If not, run based on the above left and right white line positions.
Estimating the line lane position, place which the obstacle is already localized either to the left or to the right in the traveling lane obtained by estimating
In this case, since the running lane position is estimated based on the white line position on the side separated from the obstacle position among the left and right white lines, white line recognition information with reduced reliability due to the presence of obstacles The road center line LC is estimated based on the reliable white line recognition information in which there is no obstacle position and the road center line LC is estimated, that is,
There is an advantage that the running lane can be estimated more accurately. Also, the estimated driving lane position
Since the output of the
If there is no obstacle or there is an obstacle in front of the vehicle
If the vehicle is not unevenly distributed to any of them, or if there is an obstacle such as a preceding vehicle in front of the vehicle.
There are harmful substances, and these obstacles are unevenly distributed on the left or right.
This also applies when the status is switched between
By the smoothing process, the road center line L estimated up to that point
Continuity with C is secured.

【0054】特に、該障害物が既に推定して得られた該
走行レーンにおける左右いずれかに偏在している状態
で、障害物が車両から白線認識距離以内に接近した場合
に、上記の障害物位置から離隔した側の白線情報を主体
とした走行レーン位置の推定を行ない、障害物が白線認
識距離以遠の白線の認識に影響のない位置にある場合に
は、左右の白線情報に基づいて該走行レーン位置の推定
を行なうことができ、走行レーン位置の推定精度を向上
させることができる。また、請求項2記載の本発明の走
行レーン認識装置によれば、該走行レーン位置は、該走
行レーンの左右中心線の位置により特定され、該推定手
段は、車両前方に先行車等の障害物がない場合及び車両
前方に先行車等の障害物があるがこの障害物が前方道路
上で左右いずれにも偏在していない場合には、上記の左
の白線位置から求められる該左右中心線位置と上記の右
の白線位置から求められる該左右中心線位置との平均値
として該走行レーン位置を特定することができ、走行レ
ーン位置の推定精度を向上させることができる。請求項
3記載の本発明の走行レーン認識装置によれば、撮像手
段で撮像された画像情報を画像情報処理手段で処理し、
さらに、障害物位置検出手段により前方道路上の該障害
物とその位置が検出されると、推定手段が、車両前方に
先行車等の障害物がない場合及び車両前方に先行車等の
障害物があるがこの障害物が前方道路上で左右いずれに
も偏在していない場合には、上記の左右の白線位置に基
づいて該走行レーン位置を推定し、該障害物が既に推定
して得られた該走行レーンにおける左右いずれかに偏在
している場合には、上記の左右の白線のうち該障害物位
置から離隔した側の白線位置に基づいて該走行レーン位
置の推定を行なうので、障害物が存在するため信頼性の
低下した白線認識情報に基づくことなく、障害物位置が
存在せず信頼性の高い白線認識情報に基づいて、道路中
心線LCが推定されるようになり、道路中心線LCの推
定、即ち、走行レーンの推定をより精度よく行なうこと
ができるようになる利点がある。また、推定された走行
レーン位置の出力を平滑化処理するので、車両前方に先
行車等の障害物がない場合及び車両前方の障害物がある
が左右いずれにも偏在していない場合と、車両前方に先
行車等の障害物がありしかもこの障害物が左右い ずれか
に偏在している場合との間で、状態が切り替わった場合
にも、この平滑化処理により、それまで推定してきた道
路中心線LCとの連続性が確保される。特に、該走行レ
ーン位置は、該走行レーンの左右中心線の位置により特
定され、該推定手段は、車両前方に先行車等の障害物が
ない場合及び車両前方に先行車等の障害物があるがこの
障害物が前方道路上で左右いずれにも偏在していない場
合には、上記の左の白線位置から求められる該左右中心
線位置と上記の右の白線位置から求められる該左右中心
線位置との平均値として該走行レーン位置を特定するこ
とができ、走行レーン位置の推定精度を向上させること
ができる。
In particular , when the obstacle approaches the white line recognition distance from the vehicle in a state where the obstacle is unevenly distributed to the left or right in the traveling lane, which has been already estimated, the above obstacle is detected. The running lane position is estimated based on the white line information on the side distant from the position, and if the obstacle is located at a position that does not affect the recognition of the white line beyond the white line recognition distance, the The traveling lane position can be estimated, and the traveling lane position estimation accuracy can be improved. Further, the running of the present invention according to claim 2
According to the row lane recognition device, the traveling lane position is
The estimated hand is identified by the position of the left and right centerlines of the row lane.
The steps are used when there is no obstacle such as a preceding vehicle in front of the vehicle
There is an obstacle such as a preceding vehicle ahead, but this obstacle is the road ahead
If there is no uneven distribution on the left or right, above left
The right and left center line positions obtained from the white line position of the
Mean value with the left and right center line positions obtained from the white line position of
The travel lane position can be specified as
It is possible to improve the accuracy of estimating the peak position. Claim
According to the traveling lane recognition device of the present invention described in 3,
Image information processed by the image information processing means,
Furthermore, the obstacle position detecting means detects the obstacle on the road ahead.
When the object and its position are detected, the estimation means
When there is no obstacle such as a preceding vehicle,
There is an obstacle, but this obstacle is on the left or right on the road ahead
If there is no uneven distribution, use the white line positions on the left and right
Then, the position of the driving lane is estimated, and the obstacle is already estimated.
Uneven distribution on the left or right in the driving lane obtained by
If there is, the obstacle position of the left and right white lines above
Based on the position of the white line on the side separated from the
Since the position is estimated, the reliability of the
Obstacle position can be determined without relying on degraded white line recognition information.
Based on highly reliable white line recognition information that does not exist,
The core line LC is now estimated, and the road center line LC is estimated.
Constant, that is, to estimate the driving lane more accurately
There is an advantage that you will be able to. Also estimated travel
The output of the lane position is smoothed, so
When there are no obstacles such as trains and there is an obstacle in front of the vehicle
Are not unevenly distributed to the left or right, and
There is an obstacle of the line cars, etc. In addition Zureka have left and right is the obstacle
When the state is switched between when it is unevenly distributed in
By this smoothing process,
Continuity with the road center line LC is secured. In particular,
The lane position depends on the position of the left and right centerlines of the driving lane.
The estimating means determines that an obstacle such as a preceding vehicle is in front of the vehicle.
If there is no obstacle or there is an obstacle such as a preceding vehicle in front of the vehicle
If obstacles are not unevenly distributed on the front road
In the case of the above, the center of the left and right obtained from the position of the left white line above
The center of the left and right obtained from the line position and the position of the right white line above
The driving lane position can be specified as an average value with the line position.
And improve the estimation accuracy of the driving lane position.
You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態としての走行レーン認識装
置を示すブロック図である。
FIG. 1 is a block diagram showing a traveling lane recognition device as an embodiment of the present invention.

【図2】本発明の一実施形態としての走行レーン認識装
置の模式的な構成図である。
FIG. 2 is a schematic configuration diagram of a traveling lane recognition device as one embodiment of the present invention.

【図3】本発明の一実施形態としての走行レーン認識装
置による道路白線認識を説明する模式図である。
FIG. 3 is a schematic diagram for explaining road white line recognition by the traveling lane recognition device as one embodiment of the present invention.

【図4】本発明の一実施形態としての走行レーン認識装
置における障害物位置の検出を説明する道路の平面視画
像の模式図である。
FIG. 4 is a schematic diagram of a plan view image of a road for explaining detection of an obstacle position in the traveling lane recognition device as one embodiment of the present invention.

【図5】本発明の一実施形態としての走行レーン認識装
置による推定結果から算出される偏角,横偏差を説明す
る道路の平面視画像の模式図である。
FIG. 5 is a schematic view of a plan view image of a road for explaining a deviation angle and a lateral deviation calculated from an estimation result by a traveling lane recognition device according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 車両 2 撮像手段としてのカメラ 3 障害物位置検出手段 3A レーザレーダ 3B レーダ情報処理部 4 画像情報処理手段 5 走行レーン推定手段(推定手段) 12,12L,12R 白線 16 物体(障害物) LC 道路中心線 1 vehicle 2 Camera as image capturing means 3 Obstacle position detection means 3A laser radar 3B Radar information processing unit 4 Image information processing means 5 Driving lane estimation means (estimation means) 12, 12L, 12R White line 16 objects (obstacles) LC Road center line

───────────────────────────────────────────────────── フロントページの続き (72)発明者 太田 貴志 東京都港区芝五丁目33番8号 三菱自動 車工業株式会社内 (56)参考文献 特開 平8−30770(JP,A) 特開 平5−265547(JP,A) 特開 平4−36878(JP,A) 特開 平5−151341(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 G06T 7/00 G08G 1/16 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Takashi Ota 5-3-8, Shiba, Minato-ku, Tokyo Mitsubishi Motors Corporation (56) Reference JP-A-8-30770 (JP, A) JP HEI 5-265547 (JP, A) JP HEI 4-36878 (JP, A) JP HEI 5-151341 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1 / 00 330 G06T 7/00 G08G 1/16 H04N 7/18

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両の前方道路を撮像する撮像手段と、
該撮像手段で撮像された画像情報を処理する画像情報処
理手段と、該画像情報処理手段で処理された情報から得
られる該前方道路上の左右の白線位置に基づいて該車両
に対する走行レーン位置を推定する推定手段とをそなえ
た、走行レーン認識装置において、 該前方道路上に障害物が存在する場合に該障害物の位置
を検出する障害物位置検出手段をそなえ、 該推定手段が、該障害物位置検出手段により該前方道路
上の該障害物とその位置が検出されると、車両前方に先
行車等の障害物がない場合及び車両前方に先行車等の障
害物があるがこの障害物が前方道路上で左右いずれにも
偏在していない場合には、上記の左右の白線位置に基づ
いて該走行レーン位置を推定し、該障害物が既に推定し
て得られた該走行レーンにおける左右いずれかに偏在し
ている状態で、該障害物位置検出手段の検出情報に基づ
いて該障害物が該車両から白線認識距離以内に接近した
場合には、上記の左右の白線のうち該障害物位置から離
隔した側の白線位置に基づいて該走行レーン位置の推定
を行なうように構成されるとともに、 該推定手段により推定された該走行レーン位置の出力を
平滑化処理する手段が設けられていることを特徴とす
る、走行レーン認識装置。
1. An image pickup means for picking up an image of a road ahead of a vehicle,
An image information processing unit that processes the image information captured by the image capturing unit, and a traveling lane position for the vehicle based on the left and right white line positions on the front road obtained from the information processed by the image information processing unit. A traveling lane recognition device having an estimating means for estimating, comprising obstacle position detecting means for detecting the position of the obstacle when an obstacle is present on the road ahead, and the estimating means for detecting the obstacle. When the obstacle and its position on the road ahead are detected by the object position detecting means, there is no obstacle such as a preceding vehicle in front of the vehicle and there is an obstacle such as a preceding vehicle in front of the vehicle. If the road is not unevenly distributed on the left or right side of the road ahead, the position of the traveling lane is estimated based on the positions of the left and right white lines, and the left and right of the traveling lane obtained by estimating the obstacle are obtained. To either In Mashimashi and has state, based on the detection information of the obstacle position detection means
If the obstacle approaches from the vehicle within the white line recognition distance, the running lane position is estimated based on the white line position on the side separated from the obstacle position among the left and right white lines. And a means for smoothing the output of the traveling lane position estimated by the estimating means.
【請求項2】 該走行レーン位置は、該走行レーンの左
右中心線の位置により特定され、 該推定手段は、車両前方に先行車等の障害物がない場合
及び車両前方に先行車等の障害物があるがこの障害物が
前方道路上で左右いずれにも偏在していない場合には、
上記の左の白線位置から求められる該左右中心線位置と
上記の右の白線位置から求められる該左右中心線位置と
の平均値として該走行レーン位置を特定する ことを特徴
とする、請求項1記載の走行レーン認識装置。
2. The driving lane position is on the left of the driving lane.
It is specified by the position of the right center line, and the estimating means determines that there is no obstacle such as a preceding vehicle in front of the vehicle.
And there is an obstacle such as a preceding vehicle ahead of the vehicle, but this obstacle
If there is no uneven distribution on the left or right on the road ahead,
The left and right center line positions obtained from the left white line position and
The left and right center line positions obtained from the above right white line position and
The traveling lane recognition device according to claim 1, wherein the traveling lane position is specified as an average value of
【請求項3】 車両の前方道路を撮像する撮像手段と、
該撮像手段で撮像された画像情報を処理する画像情報処
理手段と、該画像情報処理手段で処理された 情報から得
られる該前方道路上の左右の白線位置に基づいて該車両
に対する走行レーン位置を推定する推定手段とをそなえ
た、走行レーン認識装置において、 該前方道路上に障害物が存在する場合に該障害物の位置
を検出する障害物位置検出手段をそなえ、 該走行レーン位置は、該走行レーンの左右中心線の位置
により特定され、 該推定手段が、該障害物位置検出手段により該前方道路
上の該障害物とその位置が検出されると、車両前方に先
行車等の障害物がない場合及び車両前方に先行車等の障
害物があるがこの障害物が前方道路上で左右いずれにも
偏在していない場合には、上記の左の白線位置から求め
られる該左右中心線位置と上記の右の白線位置から求め
られる該左右中心線位置との平均値として該走行レーン
位置を特定し、該障害物が既に推定して得られた該走行
レーンにおける左右いずれかに偏在している場合には、
上記の左右の白線のうち該障害物位置から離隔した側の
白線位置に基づいて該走行レーン位置の推定を行なうよ
うに構成するとともに、 該推定手段により推定された該走行レーン位置の出力を
平滑化処理する手段が設けられている ことを特徴とす
る、走行レーン認識装置。
3. An image pickup means for picking up an image of a road ahead of a vehicle,
Image information processing for processing image information imaged by the imaging means
Obtained from the processing means and the information processed by the image information processing means.
The vehicle based on the left and right white line positions on the forward road
Estimating means for estimating the driving lane position with respect to
Further, in the traveling lane recognition device, when an obstacle exists on the road ahead, the position of the obstacle is detected.
The traveling lane position is specified by the position of the center line on the left and right of the traveling lane, and the estimating means is configured to detect the obstacle by the obstacle position detecting means.
When the obstacle and its position above are detected , there is no obstacle such as a preceding vehicle in front of the vehicle and there is an obstacle such as a preceding vehicle in front of the vehicle. if neither unevenly distributed identifies the traveling lane position as the mean value between the left and right center line position obtained from the left and right center line position and the right white line position obtained from the white line position in the left of the , The driving that the obstacle was already estimated and obtained
If it is unevenly distributed on the left or right of the lane,
Of the above left and right white lines on the side separated from the obstacle position
The position of the driving lane is estimated based on the position of the white line.
And the output of the traveling lane position estimated by the estimating means.
A traveling lane recognition device, characterized in that means for smoothing processing is provided .
【請求項4】 上記の走行レーン位置の出力を平滑化処
理する手段は、ローパスフィルタであることを特徴とす
る、請求項1〜3のいずれか1項に記載の走行レーン認
識装置。
4. The traveling lane recognition device according to claim 1, wherein the means for smoothing the output of the traveling lane position is a low-pass filter.
JP16919197A 1997-06-25 1997-06-25 Driving lane recognition device Expired - Fee Related JP3433650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16919197A JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16919197A JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Publications (2)

Publication Number Publication Date
JPH1115952A JPH1115952A (en) 1999-01-22
JP3433650B2 true JP3433650B2 (en) 2003-08-04

Family

ID=15881923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16919197A Expired - Fee Related JP3433650B2 (en) 1997-06-25 1997-06-25 Driving lane recognition device

Country Status (1)

Country Link
JP (1) JP3433650B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004016520D1 (en) 2003-07-11 2008-10-23 Toyota Motor Co Ltd IMPACT SAFETY VEHICLE CONTROL SYSTEM
JP4696539B2 (en) * 2004-11-26 2011-06-08 アイシン精機株式会社 Vehicle travel support device
JP2007241468A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Lane change detection device
JP4909030B2 (en) * 2006-11-28 2012-04-04 日立オートモティブシステムズ株式会社 Collision avoidance support system and vehicle equipped with the same

Also Published As

Publication number Publication date
JPH1115952A (en) 1999-01-22

Similar Documents

Publication Publication Date Title
US7742864B2 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
US6489887B2 (en) Lane-keep assisting system for vehicle
EP2103500B1 (en) Vehicle and steering control device for vehicle
US6665614B2 (en) Vehicle surroundings monitoring apparatus and vehicle traveling control system incorporating the apparatus
EP2422320B1 (en) Object detection device
US7191049B2 (en) Vehicle drive assist system
US6961661B2 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
JP3925488B2 (en) Image processing apparatus for vehicle
US20090192686A1 (en) Method and Driver Assistance System for Sensor-Based Drive-Off Control of a Motor Vehicle
CN106428209A (en) Steering assistant
US20100256910A1 (en) Vehicle surroundings monitoring apparatus and traveling control system incorporating the apparatus
WO2017065297A1 (en) Display control device and vehicle control device
US20150165973A1 (en) Lane Separation Mark Detection Apparatus and Drive Support System
JP3704987B2 (en) Vehicle travel control device
JP2007269312A (en) Driving operation auxiliary device for vehicle
JPH0781603A (en) Automatic steering gear for vehicle
JPH1196497A (en) Lane deviation prevention device
CN110614997A (en) Vehicle control device, vehicle control method, and recording medium
JP3807253B2 (en) Traveling path detection device
JP3433650B2 (en) Driving lane recognition device
JPH0781602A (en) Automatic steering gear for vehicle
JPH1172337A (en) Recognition apparatus for running lane
JP3690099B2 (en) Light distribution control device for automotive headlights
JP3296208B2 (en) Curve curvature estimator
KR20040067584A (en) Steering angle of the vehicle due to a travelling deviation revision / speed control data creation system and method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030430

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080530

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090530

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140530

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees