JP3341605B2 - Image processing device for vehicles - Google Patents

Image processing device for vehicles

Info

Publication number
JP3341605B2
JP3341605B2 JP32555396A JP32555396A JP3341605B2 JP 3341605 B2 JP3341605 B2 JP 3341605B2 JP 32555396 A JP32555396 A JP 32555396A JP 32555396 A JP32555396 A JP 32555396A JP 3341605 B2 JP3341605 B2 JP 3341605B2
Authority
JP
Japan
Prior art keywords
vehicle
shade
detecting
road
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32555396A
Other languages
Japanese (ja)
Other versions
JPH10171966A (en
Inventor
浩一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP32555396A priority Critical patent/JP3341605B2/en
Publication of JPH10171966A publication Critical patent/JPH10171966A/en
Application granted granted Critical
Publication of JP3341605B2 publication Critical patent/JP3341605B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両用画像処理装
置に関し、特に、道路画像より道路を抽出することがで
きる車両用画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle image processing apparatus, and more particularly to a vehicle image processing apparatus capable of extracting a road from a road image.

【0002】[0002]

【従来の技術】従来の車両用画像処理装置としては、例
えば特願平5−354605号記載のものが知られてい
る。その特徴は、先行車両や障害物を検出する方法とし
て、図7(a)に示すように、道路となりそうな台形領
域(イ)に予めウィンドウを設定し、図7(b)に示す
ように、そのウィンドウの中央下端部(ロ)を基準色と
してウィンドウ内の同一色領域(ハ)を抽出する。次
に、図7(c)に示すように、左直線(ニ)、右直線
(ホ)、上の境界となる直線(ヘ)を求め、上の境界と
なる直線(ヘ)のy方向の位置が、図7(a)において
設定したウィンドウの上底(ト)よりも低い場合には、
先行車両や障害物があると判断するようにしていること
である。
2. Description of the Related Art As a conventional image processing apparatus for a vehicle, for example, an apparatus described in Japanese Patent Application No. 5-354605 is known. The feature is that, as shown in FIG. 7A, a window is set in advance in a trapezoidal area (a) likely to become a road, as shown in FIG. 7A, as a method for detecting a preceding vehicle or an obstacle, and as shown in FIG. Then, the same color region (c) in the window is extracted using the lower center portion (b) of the window as a reference color. Next, as shown in FIG. 7C, a left straight line (d), a right straight line (e), and a straight line (f) serving as an upper boundary are obtained, and the straight line (f) serving as the upper boundary is determined in the y direction. If the position is lower than the upper bottom (g) of the window set in FIG.
That is, it is determined that there is a preceding vehicle or an obstacle.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
車両用画像処理装置にあっては、図7(d)に示すよう
に、走行中に建物(チ)等の日影(リ)がこのウィンド
ウを横切る場合には、図7(e)に示すように、道路の
領域(ヌ)が正確に抽出できなくなり、先行車両や障害
物が検出できなくなるといった問題があった。また、例
えば図7(d)に示すように、日影(リ)がx軸に平行
になって撮像される場合には、先行車両や障害物を誤検
出してしまうといった問題があった。本発明は上記に鑑
みてなされたもので、その目的は、道路画像中に日陰が
撮影されている場合にも、先行車両や障害物の誤検出の
低減に寄与することができる車両用画像処理装置を提供
することにある。
However, in the conventional image processing apparatus for a vehicle, as shown in FIG. 7, as shown in FIG. 7E, there is a problem that the road area (nu) cannot be accurately extracted, and the preceding vehicle and obstacles cannot be detected. Further, for example, as shown in FIG. 7 (d), when a shadow (R) is imaged parallel to the x-axis, there is a problem that a preceding vehicle or an obstacle is erroneously detected. The present invention has been made in view of the above, and an object of the present invention is to provide an image processing method for a vehicle that can contribute to reduction of erroneous detection of a preceding vehicle or an obstacle even when a shade is captured in a road image. It is to provide a device.

【0004】[0004]

【課題を解決するための手段】請求項1記載の発明は、
上記課題を解決するため、車両前方の道路画像を撮像す
る撮影手段と、撮影される撮影方向を検出する撮影方向
検出手段と、現在の日時を計時する計時手段と、自車両
の現在位置を検出する現在位置検出手段と、前記撮影方
向、現在日時および自車位置に基づいて、前記撮影され
た道路画像上に現れる日影形状を推定する日影形状推定
手段と、推定された日影形状に基づいて、道路上の障害
物または先行車両を検出する第1の対象物検出手段と、
前記撮影された道路画像内の路面の基準色と同系色の領
域を路面領域として抽出する路面領域抽出手段と、抽出
された路面領域の境界形状に基づいて障害物又は先行車
両を検出する第2の対象物検出手段とを備え、該路面領
域の境界形状が、前記推定された日影形状と類似した場
合には、抽出された路面領域を障害物または先行車両の
検出には用いず、さらに別の路面領域を抽出することを
要旨とする。
According to the first aspect of the present invention,
In order to solve the above problems, a photographing means for photographing a road image ahead of a vehicle, a photographing direction detecting means for detecting a photographing direction to be photographed, a time measuring means for measuring a current date and time, and a current position of the own vehicle are detected. Current position detecting means, and a shading shape estimating means for estimating a shading shape appearing on the photographed road image based on the photographing direction, the current date and time, and the position of the vehicle. First object detection means for detecting an obstacle or a preceding vehicle on the road based on the first object detection means;
A road surface area extracting means for extracting, as a road surface region, a region having a similar color to the reference color of the road surface in the photographed road image; and a second detecting device for detecting an obstacle or a preceding vehicle based on the boundary shape of the extracted road surface region. When the boundary shape of the road surface area is similar to the estimated shade shape, the extracted road surface area is not used for detecting an obstacle or a preceding vehicle, and The point is to extract another road surface area.

【0005】請求項2記載の発明は、上記課題を解決す
るため、前記撮影された道路画像上に現れる日影の傾き
値を推定する日影傾き推定手段を備え、前記抽出された
路面領域の境界を表す直線の傾き値が、前記推定された
日影の傾き値の近傍にある場合には、前記路面領域を障
害物または先行車両の検出には用いず、さらに別の路面
領域を抽出することを要旨とする。
According to a second aspect of the present invention, in order to solve the above-mentioned problem, there is provided a shade inclination estimating means for estimating a shade value of a shade appearing on the photographed road image, and If the slope value of the straight line representing the boundary is near the estimated shade value of the shade, the road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. That is the gist.

【0006】請求項3記載の発明は、上記課題を解決す
るため、前記撮影された道路画像上での傾きの値が、前
記推定された日影の傾き値の近傍にあるエッジを抽出す
るエッジ抽出手段を備え、前記抽出された路面領域の境
界を表す直線が、抽出されたエッジと一致する場合に、
抽出された路面領域の境界を表す直線の傾き値が、前記
推定された日影の傾き値の近傍にあるときには、該路面
領域を障害物または先行車両の検出には用いず、さらに
別の路面領域を抽出することを要旨とする。
According to a third aspect of the present invention, in order to solve the above-mentioned problem, an edge for extracting an edge whose inclination value on the photographed road image is in the vicinity of the estimated inclination value of the shade is described. Comprising extraction means, when the straight line representing the boundary of the extracted road surface area matches the extracted edge,
When the slope value of the straight line representing the boundary of the extracted road surface area is near the estimated shade value of the shade, the road area is not used for detecting an obstacle or a preceding vehicle, and another road surface is not used. The point is to extract a region.

【0007】請求項4記載の発明は、上記課題を解決す
るため、車両前方の道路画像を撮像する撮影手段と、撮
影される撮影方向を検出する撮影方向検出手段と、現在
の日時を計時する計時手段と、自車両の現在位置を検出
する現在位置検出手段と、前記撮影方向、現在日時およ
び自車位置に基づいて、前記撮影された道路画像上に現
れる日影形状を推定する日影形状推定手段と、推定され
た日影形状に基づいて、道路上の障害物または先行車両
を検出する第1の対象物検出手段と、前記撮影された道
路画像内に設定された複数の検出領域の輝度分布を比較
する輝度分布比較手段と、該輝度分布の比較結果に基づ
いて障害物または先行車両を検出する第3の対象物検出
手段と、前記撮影された道路画像上での傾き値が、前記
推定された日影の傾き値の近傍にあるエッジを抽出する
エッジ抽出手段とを備え、前記第3の対象物検出手段
は、抽出されたエッジが検出領域内に存在する場合に
は、障害物や先行車両の検出を中断するか、または前回
の検出結果を保持することを要旨とする。
According to a fourth aspect of the present invention, there is provided a photographing means for photographing a road image ahead of a vehicle, a photographing direction detecting means for detecting a photographing direction to be photographed, and a current date and time. A clock means, a current position detecting means for detecting a current position of the own vehicle, and a shading shape for estimating a shading shape appearing on the photographed road image based on the photographing direction, the current date and time, and the own vehicle position. Estimating means, first object detecting means for detecting an obstacle or a preceding vehicle on a road based on the estimated shade shape, and detecting a plurality of detection areas set in the photographed road image. A brightness distribution comparing means for comparing the brightness distribution, a third object detecting means for detecting an obstacle or a preceding vehicle based on a result of the brightness distribution comparison, and a slope value on the photographed road image, Of the estimated shade Edge extraction means for extracting an edge near the threshold value, wherein the third object detection means detects an obstacle or a preceding vehicle when the extracted edge exists in the detection area. The gist is to interrupt or keep the previous detection result.

【0008】[0008]

【0009】[0009]

【発明の効果】請求項1記載の本発明によれば、車両前
方の道路画像を撮像する撮影手段と、撮影される撮影方
向を検出する撮影方向検出手段と、現在の日時を計時す
る計時手段と、自車両の現在位置を検出する現在位置検
出手段と、撮影方向、現在日時および自車位置に基づい
て、撮影された道路画像上に現れる日影形状を推定する
日影形状推定手段と、推定された日影形状に基づいて、
道路上の障害物または先行車両を検出する第1の対象物
検出手段と、撮影された道路画像内の路面の基準色と同
系色の領域を路面領域として抽出する路面領域抽出手段
と、抽出された路面領域の境界形状に基づいて障害物又
は先行車両を検出する第2の対象物検出手段とを用意
し、この路面領域の境界形状が、推定された日影形状と
類似した場合には、抽出された路面領域を障害物または
先行車両の検出には用いず、さらに別の路面領域を抽出
するようにしているので、道路画像中に日影が撮影され
ている場合にも、先行車両や障害物の誤検出の低減に寄
与することができる。
According to the first aspect of the present invention, a photographing means for photographing a road image ahead of a vehicle, a photographing direction detecting means for detecting a photographing direction to be photographed, and a clocking means for clocking a current date and time. A current position detecting means for detecting the current position of the vehicle, a shading shape estimating means for estimating a shading shape appearing on the photographed road image based on the photographing direction, the current date and time and the vehicle position, Based on the estimated shade shape,
First object detection means for detecting an obstacle or a preceding vehicle on the road; road surface area extraction means for extracting, as a road surface area, an area having a similar color to the reference color of the road surface in the captured road image; A second object detecting means for detecting an obstacle or a preceding vehicle based on the boundary shape of the road surface area, and when the boundary shape of the road surface area is similar to the estimated shade shape, The extracted road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. This can contribute to a reduction in erroneous detection of obstacles.

【0010】また、請求項2記載の本発明によれば、撮
影された道路画像上に現れる日影の傾き値を推定する日
影傾き推定手段を用意し、抽出された路面領域の境界を
表す直線の傾き値が、推定された日影の傾き値の近傍に
ある場合には、路面領域を障害物または先行車両の検出
には用いず、さらに別の路面領域を抽出するようにして
いるので、道路画像中に日影が撮影されている場合に
も、先行車両や障害物の誤検出の低減に寄与することが
できる。
According to the second aspect of the present invention, a shade inclination estimating means for estimating a slope value of a shade appearing on a photographed road image is prepared, and the boundary of the extracted road surface area is represented. If the inclination value of the straight line is near the estimated inclination value of the shade, the road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. In addition, even when a shadow is photographed in a road image, it is possible to contribute to a reduction in erroneous detection of a preceding vehicle or an obstacle.

【0011】また、請求項3記載の本発明によれば、撮
影された道路画像上での傾きの値が、推定された日影の
傾き値の近傍にあるエッジを抽出するエッジ抽出手段を
用意し、抽出された路面領域の境界を表す直線が、抽出
されたエッジと一致する場合に、抽出された路面領域の
境界を表す直線の傾き値が、推定された日影の傾き値の
近傍にあるときには、この路面領域を障害物または先行
車両の検出には用いず、さらに別の路面領域を抽出する
ようにしているので、道路画像中に日影が撮影されてい
る場合にも、先行車両や障害物の誤検出の低減に寄与す
ることができる。
According to the third aspect of the present invention, there is provided an edge extracting means for extracting an edge whose inclination value on the photographed road image is in the vicinity of the estimated inclination value of the shade. Then, when the straight line representing the boundary of the extracted road surface area coincides with the extracted edge, the slope value of the straight line representing the boundary of the extracted road surface area is close to the estimated shade value of the shade. In some cases, this road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. Therefore, even when a shadow is captured in a road image, the preceding vehicle is not detected. And erroneous detection of obstacles can be reduced.

【0012】また、請求項4記載の本発明によれば、車
両前方の道路画像を撮像する撮影手段と、撮影される撮
影方向を検出する撮影方向検出手段と、現在の日時を計
時する計時手段と、自車両の現在位置を検出する現在位
置検出手段と、撮影方向、現在日時および自車位置に基
づいて、撮影された道路画像上に現れる日影形状を推定
する日影形状推定手段と、推定された日影形状に基づい
て、道路上の障害物または先行車両を検出する第1の対
象物検出手段と、撮影された道路画像内に設定された複
数の検出領域の輝度分布を比較する輝度分布比較手段
と、この輝度分布の比較結果に基づいて障害物または先
行車両を検出する第3の対象物検出手段と、撮影された
道路画像上での傾き値が、推定された日影の傾き値の近
傍にあるエッジを抽出するエッジ抽出手段とを用意し、
第3の対象物検出手段は、抽出されたエッジが検出領域
内に存在する場合には、障害物や先行車両の検出を中断
するか、または前回の検出結果を保持するようにしてい
るので、道路画像中に日影が撮影されている場合にも、
先行車両や障害物の誤検出の低減に寄与することができ
る。
According to the present invention, a photographing means for photographing a road image ahead of the vehicle, a photographing direction detecting means for detecting a photographing direction to be photographed, and a time measuring means for clocking a current date and time. A current position detecting means for detecting the current position of the vehicle, a shading shape estimating means for estimating a shading shape appearing on the photographed road image based on the photographing direction, the current date and time and the vehicle position, Based on the estimated shade shape, the first object detecting means for detecting an obstacle or a preceding vehicle on the road is compared with the luminance distribution of a plurality of detection areas set in the photographed road image. A brightness distribution comparing means, a third object detecting means for detecting an obstacle or a preceding vehicle based on a result of the comparison of the brightness distribution, and a slope value of the estimated shade on the photographed road image. Extract edges near the slope value Prepare an edge extracting means for,
The third object detection means interrupts the detection of the obstacle or the preceding vehicle or holds the previous detection result when the extracted edge exists in the detection area. Even if a shadow is taken in the road image,
This can contribute to a reduction in erroneous detection of a preceding vehicle or an obstacle.

【0013】[0013]

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。 (第1の実施の形態)図1は、本発明の第1の実施の形
態に係る車両用画像処理装置のシステム構成を示す図で
ある。同図において、車両用画像処理装置1は、CCD
カメラ等を用いて道路画像を撮像する画像入力部11
と、GPS衛星からの信号を受信して自車両位置を測定
する自車位置測定部13と、ジャイロ等を用いて画像入
力部11の撮影方向を検出する撮影方向検出部14と、
現在の日時を計時する時計部15と、撮影方向と現在日
時および自車位置に基づいて画像入力部11が撮影する
画面上の日影方向を演算して日影形状を推定する日影方
向演算部16と、画像入力部11と日影方向演算部16
からの出力に基づいて先行車両や障害物等の対象物を検
出する画像処理部12と、画像処理部12によって検出
された検出結果を用いて車両の制御特性を決定する車両
制御部17から構成される。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a diagram showing a system configuration of a vehicular image processing apparatus according to a first embodiment of the present invention. In FIG. 1, a vehicle image processing apparatus 1 includes a CCD.
Image input unit 11 that captures a road image using a camera or the like
A vehicle position measuring unit 13 that receives a signal from a GPS satellite to measure a vehicle position, a photographing direction detecting unit 14 that detects a photographing direction of the image input unit 11 using a gyro, and the like,
A clock unit 15 that measures the current date and time, and a shade direction calculation that estimates a shade shape by calculating a shade direction on a screen to be shot by the image input unit 11 based on the shooting direction, the current date and time, and the position of the vehicle. Unit 16, image input unit 11, and shade direction calculation unit 16
An image processing unit 12 for detecting an object such as a preceding vehicle or an obstacle based on an output from a vehicle, and a vehicle control unit 17 for determining a control characteristic of the vehicle using a detection result detected by the image processing unit 12. Is done.

【0015】なお、画像入力部11は、車両前方の道路
画像を撮影するために、車両の先端部を向いて例えばC
CDカメラが取付けられているものとする。また、自車
位置測定部13は、GPS衛星の信号のみによって自車
位置を検出するものではなく、地図情報に現在位置を適
合させるマップマッチング処理や、車両速度を用いて自
車位置の測定精度を向上するように構成してもよく、自
車位置測定部13と撮影方向検出部14に搭載された各
機能は一つのナビゲーション装置としてまとめて構成し
てもよい。
The image input unit 11 faces the front end of the vehicle to capture a road image in front of the vehicle.
It is assumed that a CD camera is mounted. In addition, the vehicle position measurement unit 13 does not detect the vehicle position only by the signal of the GPS satellite, but performs a map matching process for adapting the current position to the map information, and a measurement accuracy of the vehicle position using the vehicle speed. The functions mounted on the vehicle position measuring unit 13 and the photographing direction detecting unit 14 may be configured as a single navigation device.

【0016】次に、図2を参照しつつ、日影方向演算部
16での日影方向の求め方について説明する。日影方向
演算部16では、まず、図2(b)に示す日影曲線を用
い、自車位置と時刻とに基づいて、図2(a)に示す太
陽の位置の方位角および高度を求めることができる。こ
れにより、自車位置と時刻とに基づいて求められ太陽の
方位角と、撮影方向の方位角に基づいて、撮影画面上の
日影方向を求め日影形状を推定することができる。
Next, with reference to FIG. 2, a method of calculating the shade direction by the shade direction calculation unit 16 will be described. The shade direction calculating unit 16 first obtains the azimuth and altitude of the sun position shown in FIG. 2A based on the vehicle position and the time using the shade curve shown in FIG. 2B. be able to. This makes it possible to obtain a shade direction on the photographing screen based on the azimuth angle of the sun obtained based on the position and time of the vehicle and the azimuth angle of the photographing direction, and to estimate the shade shape.

【0017】[0017]

【0018】次に、ステップS20では、撮影方向検出
部14によって検出される撮影方向の方位角βと日影の
方位角αに基づいて、画像入力部11で撮影する平面上
での日影の傾きWsを求めると、 Ws=tan(β−α) となる。次に、ステップS30では、画像処理部12
は、まず図4によって導かれる下記の式に従って、撮影
画面全体を撮影画像内の座標系(x,y)から撮影され
る平面上での座標系(xr,yr)に変換する。
Next, in step S20, based on the azimuth angle β of the photographing direction and the azimuth angle α of the shade detected by the photographing direction detecting unit 14, the shade of the shade on the plane photographed by the image input unit 11 is determined. When the slope Ws is obtained, Ws = tan (β−α). Next, in step S30, the image processing unit 12
First converts the entire photographing screen from the coordinate system (x, y) in the photographed image to the coordinate system (xr, yr) on the plane photographed according to the following equation derived from FIG.

【0019】yr=1−l1 但し、 l=H/tanθ, l1=H/tan(dθ1+θ), dθ1=arctan(y/f), xr=l3 tan(dθ3) 但し、 l3=H+l1, dθ3=arctan(x/f) そして、座標系を変換した後の画面に基づいて、ステッ
プS20で求めた日影の傾きWsと同方向のエッジを抽
出する。さらに、抽出した日影の傾きWsと同方向の各
エッジを撮影画像内の座標系(x,y)に戻したときの
傾きWciを求める。なお、エッジを抽出する簡単な手
法としては、周知のSobel変換を用いるようにすれ
ばよい。
Yr = 1-11, where l = H / tan θ, l1 = H / tan (dθ1 + θ), dθ1 = arctan (y / f), xr = 13 tan (dθ3) where l3 = H + 11, dθ3 = arctan (X / f) Then, based on the screen after the transformation of the coordinate system, an edge in the same direction as the shade Ws of the shade obtained in step S20 is extracted. Further, an inclination Wci when each edge in the same direction as the extracted shade Ws of the shade is returned to the coordinate system (x, y) in the captured image is obtained. As a simple method of extracting an edge, a well-known Sobel transform may be used.

【0020】次に、ステップS40では、画像処理部1
2は、図7(a)に示す道路領域を検出するためのウィ
ンドウを設定する。このウィンドウは左右端は前回の道
路領域の認識結果より少し広めに、上端は固定したy座
標Wyに設定する。道路幅が既知の場合には、ウィンド
ウを固定するようにしてもよい。次に、ステップS50
では、画像処理部12は、路面である確率が高いウィン
ドウ下端部の中央付近の色を基準色として、ウィンドウ
内での同様な色の領域を抽出する。
Next, in step S40, the image processing unit 1
2 sets a window for detecting the road area shown in FIG. In this window, the left and right ends are set slightly wider than the previous recognition result of the road area, and the upper end is set to a fixed y coordinate Wy. If the road width is known, the window may be fixed. Next, step S50
Then, the image processing unit 12 extracts a region of a similar color in the window using a color near the center of the lower end of the window having a high probability of being a road surface as a reference color.

【0021】次に、ステップS60では、画像処理部1
2は、ステップS50で抽出した図7(b)に示すよう
な道路領域の左右および上の境界点を直線に適合させ
る。この直線適合の方法としては、周知のHough変
換や最小自乗法を用いるようにすればよい。ここで、ス
テップS70では、画像処理部12は、ステップS30
で求めた日影の傾きWciの中で、ステップS60で求
めた道路領域の境界となる直線の傾きと一致するものが
ある場合には、図7(e)に示すように、道路領域が日
影によって区切られて抽出されたと考え、基準色を再設
定してステップS50に戻る。このとき、基準色はウィ
ンドウ中央付近において道路領域として抽出された領域
以外の最下部の色とする。
Next, in step S60, the image processing unit 1
2 fits the left, right, and upper boundary points of the road area as shown in FIG. 7B extracted in step S50 to a straight line. As a straight line fitting method, a well-known Hough transform or a least square method may be used. Here, in step S70, the image processing unit 12 determines in step S30
If there is any of the shades Wci of the shade obtained in step S60 that matches the slope of the straight line that is the boundary of the road area obtained in step S60, as shown in FIG. Considering that the image is extracted by being separated by the shadow, the reference color is reset, and the process returns to step S50. At this time, the reference color is the lowermost color other than the area extracted as the road area near the center of the window.

【0022】次に、ステップS80では、画像処理部1
2は、先行車両の検出を行う。一般に車両は水平エッジ
成分を多く含むので、ステップS50で抽出した道路領
域の上部の境界を水平な直線を用いて適合させる。そし
て、得られた直線yを、 y=c として、 c<Wy の場合には、先行車両があると判定する。
Next, in step S80, the image processing unit 1
2 detects the preceding vehicle. In general, since the vehicle includes many horizontal edge components, the upper boundary of the road area extracted in step S50 is adapted using a horizontal straight line. Then, the obtained straight line y is set as y = c, and if c <Wy, it is determined that there is a preceding vehicle.

【0023】次に、車両制御部17は、画像処理部12
によって検出された検出結果を用いて車両の制御特性を
決定する。なお、ステップS30において、日影方向の
エッジを直線に適合した式を求め、ステップS70で道
路領域の境界となる直線の式と一致するものがあるか否
かを判定するように構成すれば、撮影画像内の日影の傾
きが水平の場合でも、先行車両や障害物の誤検出の低減
に寄与することができる。
Next, the vehicle control unit 17 controls the image processing unit 12
The control characteristic of the vehicle is determined using the detection result detected by the control unit. In step S30, an expression that matches the edge in the shade direction to a straight line is obtained, and in step S70, it is determined whether or not there is a match with a straight line expression that is a boundary of the road area. Even when the shade of the shade in the captured image is horizontal, it can contribute to reducing false detection of a preceding vehicle or an obstacle.

【0024】このように、車両前方の道路画像を撮影す
る画像入力部11と、撮影される撮影方向を検出する撮
影方向検出部14と、現在の日時を計時する時計部15
と、自車両の現在位置を検出する現在位置計測部13と
を用意し、撮影方向、現在日時および自車位置に基づい
て、撮影された道路画像上に現われる日影形状を日影方
向演算部16によって推定し、推定された日影形状に基
づいて、道路上の障害物または先行車両を画像処理部1
2によって検出することで、道路画像中に日陰が撮影さ
れている場合にも、先行車両や障害物の誤検出の低減に
寄与することができる。
As described above, the image input unit 11 for photographing the road image ahead of the vehicle, the photographing direction detecting unit 14 for detecting the photographing direction to be photographed, and the clock unit 15 for clocking the current date and time.
And a current position measuring unit 13 for detecting the current position of the own vehicle, and based on the photographing direction, the current date and time, and the position of the own vehicle, calculate a shade shape appearing on the photographed road image in a shade direction calculating unit. 16 and an obstacle or a preceding vehicle on the road is determined based on the estimated shade shape by the image processing unit 1.
The detection by 2 can contribute to a reduction in erroneous detection of a preceding vehicle or an obstacle even when a shade is captured in a road image.

【0025】また、画像処理部12は、画像入力部11
によって撮影された道路画像内の路面の基準色と同系色
の領域を路面領域として抽出し、抽出された路面領域の
境界形状に基づいて障害物または先行車両を検出するこ
とで、この路面領域の境界形状が、推定された日影形状
と類似した場合には、抽出された路面領域を障害物また
は先行車両の検出には用いず、さらに別の路面領域を抽
出するようにしているので、道路画像中に日陰が撮影さ
れている場合にも、先行車両や障害物の誤検出の低減に
寄与することができる。
Further, the image processing unit 12 includes an image input unit 11
By extracting a region having a similar color to the reference color of the road surface in the road image captured as a road surface region, and detecting an obstacle or a preceding vehicle based on the boundary shape of the extracted road surface region, When the boundary shape is similar to the estimated shade shape, the extracted road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. Even when a shade is photographed in the image, it can contribute to reduction of erroneous detection of a preceding vehicle or an obstacle.

【0026】さらに、画像処理部12は、画像入力部1
1によって撮影された道路画像上に現われる日影の傾き
値を推定することで、抽出された路面領域の境界を表す
直線の傾き値が、推定された日影の傾き値の近傍にある
場合には、路面領域を障害物または先行車両の検出には
用いず、さらに別の路面領域を抽出するようにしている
ので、道路画像中に日陰が撮影されている場合にも、先
行車両や障害物の誤検出の低減に寄与することができ
る。
Further, the image processing unit 12 includes the image input unit 1
By estimating the slope value of the shade appearing on the road image photographed in step 1, the slope value of the straight line representing the boundary of the extracted road surface area is close to the estimated slope value of the shade. Does not use the road surface area for detection of obstacles or preceding vehicles, and extracts another road surface area.Therefore, even when the road image is shaded, Can be reduced.

【0027】さらにまた、画像処理部12は、画像入力
部11によって撮影された道路画像上での傾きの値が、
推定された日影の傾き値の近傍にあるエッジを抽出する
ことで、抽出された路面領域の境界を表す直線が、抽出
されたエッジと一致する場合に、抽出された路面領域の
境界を表す直線の傾き値が、推定された日影の傾き値の
近傍にあるときには、この路面領域を障害物または先行
車両の検出には用いず、さらに別の路面領域を抽出する
ようにしているので、道路画像中に日陰が撮影されてい
る場合にも、先行車両や障害物の誤検出の低減に寄与す
ることができる。
Further, the image processing unit 12 calculates the inclination value on the road image taken by the image input unit 11 as:
By extracting edges near the estimated shade value of the shade, if the straight line representing the boundary of the extracted road surface area matches the extracted edge, it represents the boundary of the extracted road surface area When the slope value of the straight line is near the estimated shade value of the shade, this road surface area is not used for detecting an obstacle or a preceding vehicle, and another road surface area is extracted. Even when a shade is photographed in a road image, it can contribute to reduction of erroneous detection of a preceding vehicle or an obstacle.

【0028】(第2の実施の形態)本発明の第2の実施
の形態に係る車両用画像処理装置のシステム構成は、図
1に示す第1の実施の形態に用いられた構成図と同様の
ものである。このため、その説明を省略する。次に、図
5を参照しつつ、図6に示すフローチャートを用いて車
両用画像処理装置1の動作を説明する。なお、ステップ
S210〜S230に示すように、撮影画像内の日影の
傾きおよび日影のエッジの直線適合処理は、第1の実施
の形態におけるステップS10〜S30と同様の処理で
あるので、この説明を省略する。また、以下の処理は画
像処理部12において処理を施されるものである。
(Second Embodiment) The system configuration of a vehicular image processing apparatus according to a second embodiment of the present invention is the same as the configuration diagram used in the first embodiment shown in FIG. belongs to. Therefore, the description is omitted. Next, the operation of the vehicle image processing apparatus 1 will be described with reference to FIG. 5 and the flowchart shown in FIG. Note that, as shown in steps S210 to S230, the straight line fitting processing of the inclination of the shade and the edge of the shade in the captured image is the same as that of steps S10 to S30 in the first embodiment. Description is omitted. The following processing is performed in the image processing unit 12.

【0029】ステップS240では、日影のエッジを表
す直線がエリアAまたはエリアBを通過するか否かを判
定する。日影のエッジを表す直線式を、 fi(x)=Sa(x−xs)+ys とし、エリアAの領域の頂点の座標がそれぞれA(x
1,y1),B(x1,y2),C(x2,y2),D
(x2,y1)とすると、 y2>y1 のとき、 y2>fi(x1)>y1 または、 y2>fi(x2)>y1 のいずれかを満たす場合は、エリアAを日影のエッジを
表す直線が通過することとして判定する。また、エリア
Bについても同様の処理を行う。そして、エリアA,B
のいずれかを日影のエッジを表わす直線が通過すると判
定した場合には、先行車両や障害物の判定を中断してス
テップS270に進む。
In step S240, it is determined whether or not the straight line representing the edge of the shade passes through area A or area B. The straight line expression representing the edge of the shade is represented by fi (x) = Sa (x-xs) + ys, and the coordinates of the vertices of the area A are represented by A (x
1, y1), B (x1, y2), C (x2, y2), D
Assuming that (x2, y1), when y2> y1, if either y2> fi (x1)> y1 or y2> fi (x2)> y1, the area A is a straight line representing the edge of the shade. Is determined to pass. The same processing is performed for area B. And areas A and B
If it is determined that the straight line representing the edge of the shade passes through any of the above, the determination of the preceding vehicle or obstacle is interrupted, and the process proceeds to step S270.

【0030】ステップS270では、車両が走行中の時
にはエリアAまたはエリアBを日影のエッジが通過する
時間は短時間であるので、前回の先行車両や障害物の検
出結果を保持しておくようにする。これにより、エリア
AまたはエリアBに日影と日向の境界が現われた場合で
の誤検出を低減させることができる。一方、ステップS
250では、ウィンドウA内の輝度の分散σaおよびウ
ィンドウB内の輝度の分散σbを演算する。
In step S270, since the time during which the edge of the shade passes through the area A or the area B when the vehicle is running is short, the previous detection result of the preceding vehicle or obstacle is held. To Thereby, it is possible to reduce erroneous detection when a boundary between a shade and a sun appears in the area A or the area B. On the other hand, step S
At 250, the variance σa of the luminance in the window A and the variance σb of the luminance in the window B are calculated.

【0031】次に、ステップS260では、先行車や障
害物がウィンドウB内に現われると、 σb>σa となるので、輝度の分散σa,σbの差が、 σb−σa≧一定値 になると、先行車や障害物を検出したこととして判定す
る。
Next, in step S260, when a preceding vehicle or an obstacle appears in the window B, σb> σa, so that when the difference between the luminance variances σa, σb becomes σb−σa ≧ constant value, It is determined that a car or an obstacle has been detected.

【0032】従って、図5に示すように、路面である確
率が高い撮影画像の下端部付近のエリアAと、先行車両
や障害物が現われる確率が高い撮影画像の中心部のエリ
アBとに対応するそれぞれの輝度の分布を比較すること
によって、日影のエッジエリアAまたはエリアBを通過
する場合には、検出を中断するか、または、前回の検出
結果を保持することで、日影と日向の境界による誤検出
を防止することができる。
Accordingly, as shown in FIG. 5, an area A near the lower end of the photographed image having a high probability of being a road surface corresponds to an area B at the center of the photographed image having a high probability that a preceding vehicle or an obstacle appears. By comparing the distributions of the respective luminances, when passing through the edge area A or the area B of the shade, the detection is interrupted, or the previous detection result is retained, so that the shade and the sun are maintained. Can be prevented from being erroneously detected due to the boundary of.

【0033】このように、画像処理部12は、画像入力
部11によって撮影された道路画像内に設定された複数
の検出領域の輝度分布を比較し、この輝度分布の比較結
果に基づいて障害物または先行車両を検出し、さらに、
撮影された道路画像上での傾き値が、推定された日影の
傾き値の近傍にあるエッジを抽出することで、抽出され
たエッジが検出領域内に存在する場合には、障害物や先
行車両の検出を中断するか、または前回の検出結果を保
持するようにしているので、道路画像中に日陰が撮影さ
れている場合にも、先行車両や障害物の誤検出の低減に
寄与することができる。
As described above, the image processing unit 12 compares the luminance distributions of a plurality of detection areas set in the road image photographed by the image input unit 11, and based on the comparison result of the luminance distributions, Or detect the preceding vehicle,
By extracting an edge whose inclination value on the photographed road image is close to the estimated inclination value of the shade, if the extracted edge exists in the detection area, an obstacle or a preceding obstacle is detected. Because the detection of vehicles is interrupted or the results of the previous detection are retained, even when shade is captured in the road image, it contributes to the reduction of erroneous detection of preceding vehicles and obstacles. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係る車両用画像処
理装置のシステム構成を示す図である。
FIG. 1 is a diagram showing a system configuration of a vehicular image processing apparatus according to a first embodiment of the present invention.

【図2】太陽の位置の方位角および高度(a)と、日影
曲線(b)を示す図である。
FIG. 2 is a diagram showing the azimuth and altitude of the position of the sun (a) and the shade curve (b).

【図3】本発明の第1の実施の形態に係る車両用画像処
理装置1の動作を説明するためのフローチャートであ
る。
FIG. 3 is a flowchart for explaining an operation of the vehicle image processing device 1 according to the first embodiment of the present invention.

【図4】撮影画像内の座標系から撮影される平面上の座
標系への変換を示す図である。
FIG. 4 is a diagram illustrating conversion from a coordinate system in a captured image to a coordinate system on a plane to be captured.

【図5】本発明の第2の実施の形態に係る車両用画像処
理装置の動作を説明するための図である。
FIG. 5 is a diagram for explaining an operation of the vehicular image processing device according to the second embodiment of the present invention.

【図6】本発明の第2の実施の形態に係る車両用画像処
理装置1の動作を説明するためのフローチャートであ
る。
FIG. 6 is a flowchart for explaining the operation of the vehicular image processing device 1 according to the second embodiment of the present invention.

【図7】従来の車両用画像処理装置の動作を説明するた
めの図である。
FIG. 7 is a diagram for explaining the operation of a conventional vehicle image processing device.

【符号の説明】[Explanation of symbols]

11 画像入力部 12 画像処理部 13 現在位置計測部 14 撮影方向検出部 15 時計部 16 日影方向演算部 Reference Signs List 11 Image input unit 12 Image processing unit 13 Current position measurement unit 14 Shooting direction detection unit 15 Clock unit 16 Shadow direction calculation unit

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 B60R 21/00 624 G06T 7/20 200 Continuation of front page (58) Field surveyed (Int.Cl. 7 , DB name) G06T 1/00 330 B60R 21/00 624 G06T 7/20 200

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 車両前方の道路画像を撮像する撮影手段
と、 撮影される撮影方向を検出する撮影方向検出手段と、 現在の日時を計時する計時手段と、 自車両の現在位置を検出する現在位置検出手段と、 前記撮影方向、現在日時および自車位置に基づいて、前
記撮影された道路画像上に現れる日影形状を推定する日
影形状推定手段と、 推定された日影形状に基づいて、道路上の障害物または
先行車両を検出する第1の対象物検出手段と 前記撮影された道路画像内の路面の基準色と同系色の領
域を路面領域として抽出する路面領域抽出手段と、 抽出された路面領域の境界形状に基づいて障害物又は先
行車両を検出する第2の対象物検出手段とを備え、 該路面領域の境界形状が、前記推定された日影形状と類
似した場合には、抽出された路面領域を障害物または先
行車両の検出には用いず、さらに別の路面領域を抽出す
ることを特徴とする車両用画像処理装置。
1. A photographing means for photographing a road image ahead of a vehicle, a photographing direction detecting means for detecting a photographing direction to be photographed, a time measuring means for measuring a current date and time, and a current detecting means for detecting a current position of the own vehicle. A position detecting unit; a shading shape estimating unit for estimating a shading shape appearing on the photographed road image based on the photographing direction, the current date and time, and the position of the vehicle; and a shading shape estimating unit based on the estimated shading shape. first and object detecting means, the reference color and similar colors Ryo of the road surface of the captured in road image for detecting an obstacle or a preceding vehicle on the road
Road area extraction means for extracting the area as a road area, and an obstacle or a destination based on the boundary shape of the extracted road area.
Second object detection means for detecting a running vehicle , wherein the boundary shape of the road surface area is similar to the estimated shade shape.
If they are similar, the extracted road surface area is
Extract another road surface area without using it for vehicle detection
An image processing device for a vehicle.
【請求項2】 前記撮影された道路画像上に現れる日影
の傾き値を推定する日影傾き推定手段を備え、 前記抽出された路面領域の境界を表す直線の傾き値が、
前記推定された日影の傾き値の近傍にある場合には、前
記路面領域を障害物または先行車両の検出には用いず、
さらに別の路面領域を抽出することを特徴とする請求項
1に記載の車両用画像処理装置。
2. A shade appearing on the photographed road image.
A shade gradient estimating means for estimating the gradient value of the, the gradient value of a straight line representing the boundary of the extracted road surface area,
If it is near the estimated shade value of the shade,
Do not use the road surface area for detecting obstacles or preceding vehicles,
The method according to claim 1, wherein another road surface area is extracted.
2. The vehicle image processing device according to 1.
【請求項3】 前記撮影された道路画像上での傾きの値
が、前記推定された日影の傾き値の近傍にあるエッジを
抽出するエッジ抽出手段を備え、 前記抽出された路面領域の境界を表す直線が、抽出され
たエッジと一致する場合に、抽出された路面領域の境界
を表す直線の傾き値が、前記推定された日影の傾き値の
近傍にあるときには、該路面領域を障害物または先行車
両の検出には用いず、さらに別の路面領域を抽出するこ
とを特徴とする請求項1に記載の車両用画像処理装置。
3. A value of a slope on the photographed road image.
Is an edge near the estimated shade value of the shade.
An edge extracting means for extracting a straight line representing a boundary of the extracted road surface area;
The boundary of the extracted road surface area
Is the slope value of the estimated shade value of the shade.
When the vehicle is in the vicinity, the road surface area is
It is not used for both detections, and it is necessary to extract another road surface area.
The vehicle image processing device according to claim 1, wherein:
【請求項4】 車両前方の道路画像を撮像する撮影手段
と、 撮影される撮影方向を検出する撮影方向検出手段と、 現在の日時を計時する計時手段と、 自車両の現在位置を検出する現在位置検出手段と、 前記撮影方向、現在日時および自車位置に基づいて、前
記撮影された道路画像上に現れる日影形状を推定する日
影形状推定手段と、 推定された日影形状に基づいて、道路上の障害物または
先行車両を検出する第1の対象物検出手段と、 前記撮影された道路画像内に設定された複数の検出領域
の輝度分布を比較する輝度分布比較手段と、 該輝度分布の比較結果に基づいて障害物または先行車両
を検出する第3の対象物検出手段と、 前記撮影された道路画像上での傾き値が、前記推定され
た日影の傾き値の近傍にあるエッジを抽出するエッジ抽
出手段とを備え、 前記第3の対象物検出手段は、 抽出されたエッジが検出領域内に存在する場合には、障
害物や先行車両の検出を中断するか、または前回の検出
結果を保持することを特徴とする車両用画像処理装置。
4. A photographing means for photographing a road image ahead of a vehicle.
When the photographing direction detection means for detecting a photographing direction that is captured, and counting means for counting the current time, the current position detecting means for detecting a current position of the vehicle, the photographing direction, the current date and time and the vehicle position Based on the previous
Day for estimating the shadow shape appearing on the road image taken
Based on the shadow shape estimating means and the estimated shadow shape,
First object detection means for detecting a preceding vehicle, and a plurality of detection areas set in the photographed road image
Brightness distribution comparing means for comparing the brightness distributions of the obstacles or the preceding vehicle based on the comparison result of the brightness distributions
A third object detecting means for detecting the inclination, and a slope value on the photographed road image,
Edge extraction to extract the edge near the shade value of the shade
Output means, and the third object detection means, when the extracted edge exists in the detection area,
Suspend detection of harmful object or preceding vehicle or previous detection
An image processing apparatus for a vehicle, which stores a result.
JP32555396A 1996-12-05 1996-12-05 Image processing device for vehicles Expired - Fee Related JP3341605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32555396A JP3341605B2 (en) 1996-12-05 1996-12-05 Image processing device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32555396A JP3341605B2 (en) 1996-12-05 1996-12-05 Image processing device for vehicles

Publications (2)

Publication Number Publication Date
JPH10171966A JPH10171966A (en) 1998-06-26
JP3341605B2 true JP3341605B2 (en) 2002-11-05

Family

ID=18178186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32555396A Expired - Fee Related JP3341605B2 (en) 1996-12-05 1996-12-05 Image processing device for vehicles

Country Status (1)

Country Link
JP (1) JP3341605B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JP3307335B2 (en) 1998-07-22 2002-07-24 日本電気株式会社 Vehicle region detection device and vehicle region verification method
AU2003225228A1 (en) 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4596566B2 (en) * 2005-03-31 2010-12-08 アイシン・エィ・ダブリュ株式会社 Self-vehicle information recognition device and self-vehicle information recognition method
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
JP5136071B2 (en) * 2008-01-15 2013-02-06 日産自動車株式会社 Vehicle rear monitoring device and vehicle rear monitoring method
JP5929330B2 (en) * 2012-03-05 2016-06-01 日産自動車株式会社 Step detection device
JP5858897B2 (en) * 2012-10-09 2016-02-10 株式会社京三製作所 Position detection system and position detection method
JP6459124B2 (en) * 2014-08-21 2019-01-30 パナソニックIpマネジメント株式会社 Detection device, detection system, and program
JP7072641B2 (en) * 2018-04-16 2022-05-20 三菱電機株式会社 Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method

Also Published As

Publication number Publication date
JPH10171966A (en) 1998-06-26

Similar Documents

Publication Publication Date Title
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
JP4603970B2 (en) Road marking line detection device
JP3341605B2 (en) Image processing device for vehicles
EP3026651B1 (en) Vehicle monitoring device and vehicle monitoring method
EP2282295A1 (en) Object recognizing device and object recognizing method
JP2006329776A (en) Car position detection method, vehicle speed detection method, and device
JPH08329393A (en) Preceding vehicle detector
JP2019020956A (en) Vehicle surroundings recognition device
JP3812384B2 (en) Leading vehicle recognition device
JPH11195127A (en) Method for recognizing white line and device therefor
JPH1173514A (en) Recognition device for vehicle
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
KR102100047B1 (en) Method for position recognition of vehicle using lane-end-point detection algorithm and method for evaluating performance of the same
JP5097681B2 (en) Feature position recognition device
JP2008040736A (en) Vehicle detector and vehicle detecting method
US11620908B2 (en) Image processor and image processing method
WO2022009537A1 (en) Image processing device
JPH1049662A (en) Device for discriminating vehicle
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
JP3771729B2 (en) Traffic flow measurement system
JP2001250199A (en) Travel course estimating device
JP2001092979A (en) Unsuitable image detecting method
JPH11219493A (en) Method for processing traffic information
JPH1166490A (en) Vehicle detecting method
JP2946620B2 (en) Automatic number reading device with speed measurement function

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees