JP2001041741A - Stereoscopic car-outside monitoring device - Google Patents

Stereoscopic car-outside monitoring device

Info

Publication number
JP2001041741A
JP2001041741A JP11216713A JP21671399A JP2001041741A JP 2001041741 A JP2001041741 A JP 2001041741A JP 11216713 A JP11216713 A JP 11216713A JP 21671399 A JP21671399 A JP 21671399A JP 2001041741 A JP2001041741 A JP 2001041741A
Authority
JP
Japan
Prior art keywords
road
data
distance data
road surface
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11216713A
Other languages
Japanese (ja)
Other versions
JP3235831B2 (en
Inventor
Itaru Seta
至 瀬田
Keiji Hanawa
圭二 塙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP21671399A priority Critical patent/JP3235831B2/en
Publication of JP2001041741A publication Critical patent/JP2001041741A/en
Application granted granted Critical
Publication of JP3235831B2 publication Critical patent/JP3235831B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic car-outside monitoring device capable of detecting precisely the road surface state from imaged images. SOLUTION: This stereoscopic car-outside monitoring device for detecting the road surface state of a road from a pair of imaged images has cameras 1, 2 for obtaining a pair of image data by imaging the scenery outside a car, a stereoscopic image processing part 6 for calculating distance data of an object based on a parallax of the object relative to the pair of the image data, a road recognition part 10 for recognizing a three-dimensional shape of the road based on the image data and the distance data, and a fail determination part 12. The fail determination part 12 sets a distant data monitoring region in a road region recognized by the road recognition part 10, and calculates the number of the distance data existing on the lower side than the road surface position of the road as the number of wet data, among the distance data existing in the monitoring region, and detects the road surface state based on the number of the wet data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、走行路の路面状
況、特に濡れた路面を撮像画像対から検出するステレオ
式車外監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereo exterior monitoring device for detecting a road surface condition of a traveling road, particularly a wet road surface, from a pair of captured images.

【0002】[0002]

【従来の技術】近年、CCD等の固体撮像素子を内蔵し
た一対の車載カメラ(ステレオカメラ)を用いたステレ
オ式車外監視装置が注目されている。この監視装置は、
車載カメラにより撮像された一対の画像に基づいて、走
行環境(例えば、車外の対象物と自車輌との間の距離
等)を認識する。そして、必要に応じてドライバーに注
意を喚起したり、シフトダウンによる減速等の車輌制御
を行う。走行環境の認識手法としては、まず、撮像され
た画像対における同一対象物の位置的なずれ(視差)を
ステレオマッチング法により求める。そして、算出され
た視差から三角測量の原理を用いて、走行路の道路形状
(直線またはカーブの状態)や先行車との車間距離など
を特定することができる。
2. Description of the Related Art In recent years, attention has been paid to a stereo exterior monitoring device using a pair of in-vehicle cameras (stereo cameras) incorporating a solid-state imaging device such as a CCD. This monitoring device
The traveling environment (for example, the distance between an object outside the vehicle and the vehicle) is recognized based on the pair of images captured by the on-vehicle camera. Then, if necessary, the driver is alerted, and vehicle control such as deceleration by downshifting is performed. As a method of recognizing a traveling environment, first, a positional shift (parallax) of the same object in a captured image pair is obtained by a stereo matching method. Then, from the calculated parallax, it is possible to specify the road shape (straight or curved state) of the traveling path, the inter-vehicle distance to the preceding vehicle, and the like using the principle of triangulation.

【0003】このような車外監視装置を実用化するにあ
たっては、装置の安全動作を保証するために、走行路の
路面状況や道路形状を的確に検出することが重要であ
る。検出すべき路面状況には様々なものがあるが、その
一つとして、降雨等により路面が濡れている状況が挙げ
られる。路面が濡れていると、路面が乾いている場合と
比べて路面の摩擦係数μが著しく低下する。したがっ
て、路面の摩擦係数μが低い状況でシフトダウン等の制
動力を発揮しようとする場合、車輌がスリップしてしま
わないように、通常制御時よりも緩やかな制動を行う必
要がある。
[0003] In putting such an outside monitoring device into practical use, it is important to accurately detect the road surface condition and the road shape of the traveling road in order to guarantee the safe operation of the device. There are various road surface conditions to be detected. One of them is a condition in which the road surface is wet due to rainfall or the like. When the road surface is wet, the friction coefficient μ of the road surface is significantly reduced as compared with the case where the road surface is dry. Therefore, when a braking force such as a downshift is to be exerted in a situation where the friction coefficient μ of the road surface is low, it is necessary to perform gentler braking than in the normal control so that the vehicle does not slip.

【0004】。ステレオ式車外監視装置の安全性を高い
次元で確保するという観点で言えば、濡れた路面を的確
に検出することが重要である。それとともに、路面の状
況に応じてフェールセーフを含めた適切な制御を行うこ
とも重要である。なお、本明細書でいう「フェールセー
フ」とは、通常制御と異なる監視制御を行うという広い
概念である。したがって、通常の監視制御を一時的に中
断することはもとより、通常制御時よりも緩やかな制動
力で車輌制御を行うような制御も、ここでいう「フェー
ルセーフ」の概念に含まれる。
[0004] From the viewpoint of ensuring the safety of the stereo exterior monitoring device at a high level, it is important to accurately detect a wet road surface. At the same time, it is important to perform appropriate control including fail-safe depending on the road surface condition. It should be noted that “fail-safe” in the present specification is a broad concept of performing monitoring control different from normal control. Therefore, not only the normal monitoring control is temporarily interrupted, but also the control of performing the vehicle control with a gentler braking force than in the normal control is included in the concept of the “fail safe”.

【0005】[0005]

【発明が解決しようとする課題】このように、従来の車
外監視装置においては、路面の状況を的確に検出するた
めの手法が確立されておらず、装置の安全性を高い次元
で確保するための課題が残されていた。
As described above, in the conventional vehicle exterior monitoring device, a method for accurately detecting the road surface condition has not been established, and the safety of the device has to be ensured at a high level. Challenges were left.

【0006】そこで、本発明の目的は、路面の状況を撮
像画像から精度よく検出することができるステレオ式車
外監視装置を提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereo exterior monitoring device capable of accurately detecting a road surface condition from a captured image.

【0007】また、本発明の別の目的は、路面の状況に
必要に応じて適切な制御を行い得るステレオ式車外監視
装置を提供することである。
Another object of the present invention is to provide a stereo type external monitoring apparatus capable of performing appropriate control as necessary according to the condition of the road surface.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
めに、本発明は、撮像された画像対から道路の路面状況
を検出するステレオ式車外監視装置において、車外の景
色を撮像することにより、一対の画像データを得るステ
レオ撮像手段と、画像データ対における対象物の視差に
基づいて、当該対象物の距離データを算出する距離算出
手段と、画像データと距離データとに基づいて、道路の
三次元的な形状を認識する認識手段と、認識手段により
認識された道路領域内に距離データ監視領域を設定する
設定手段と、距離データ監視領域内に存在する距離デー
タのうち、認識手段により認識された道路の路面位置よ
りも下側に存在する距離データの数をウェットデータ数
として算出すると共に、当該ウェットデータ数に基づい
て路面状況を検出する検出手段とを有するステレオ式車
外監視装置を提供する。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a stereo exterior monitoring device for detecting the road surface condition of a road from a pair of captured images, by capturing a scene outside the vehicle. Stereo imaging means for obtaining a pair of image data; distance calculating means for calculating distance data of the target object based on the parallax of the target object in the image data pair; and tertiary of the road based on the image data and the distance data. Recognizing means for recognizing the original shape, setting means for setting a distance data monitoring area in the road area recognized by the recognizing means, and, among distance data existing in the distance data monitoring area, recognized by the recognizing means. Calculated the number of distance data existing below the road surface position of the road as the number of wet data, and detected the road surface condition based on the number of wet data. Providing a stereoscopic vehicle surroundings monitoring apparatus having a detecting means that.

【0009】ここで、認識手段は、道路の三次元的な形
状から自車輌が進むべき走行経路を予測した予測走行線
を算出することが好ましい。この場合、設定手段は、予
測走行線を基準として、車幅方向における範囲と車長方
向における範囲とを規定することにより、距離データ監
視領域を設定する。
Here, it is preferable that the recognizing means calculates a predicted travel line which predicts a travel route to be followed by the vehicle from the three-dimensional shape of the road. In this case, the setting means sets the distance data monitoring area by defining a range in the vehicle width direction and a range in the vehicle length direction based on the predicted traveling line.

【0010】また、検出手段は、距離データ監視領域内
に存在する距離データのうち、認識手段により認識され
た道路の路面位置に存在する距離データの数をドライデ
ータ数として算出すると共に、ドライデータ数とウェッ
トデータ数との比を、判定しきい値と比較することによ
り、路面が濡れているか否かを判定することが好まし
い。
The detecting means calculates the number of distance data existing at the road surface position of the road recognized by the recognizing means among the distance data existing in the distance data monitoring area as the number of dry data. It is preferable to determine whether or not the road surface is wet by comparing the ratio between the number and the wet data number with a determination threshold value.

【0011】さらに、検出手段は、上記の判定結果に基
づいて、車輌制御に関する制御パラメータを変更しても
よい。
Further, the detection means may change a control parameter relating to vehicle control based on the result of the determination.

【0012】[0012]

【発明の実施の形態】図1は、本実施例にかかる車外監
視装置のブロック図である。CCD等のイメージセンサ
を内蔵した一対のカメラ1,2は、自動車等の車輌の車
幅方向において所定の間隔で、ルームミラーの近傍に取
り付けられており、車輌前方の景色を撮像する。メイン
カメラ1は、ステレオ処理を行う際に必要な基準画像
(右画像)を撮像し、サブカメラ2は、この処理におけ
る比較画像(左画像)を撮像する。互いの同期している
状態において、カメラ1,2から出力された各アナログ
画像は、A/Dコンバータ3,4により、所定の輝度階
調(例えば、256階調のグレースケール)のデジタル
画像に変換される。デジタル化された画像は、画像補正
部5において、輝度の補正や画像の幾何学的な変換等が
行われる。通常、一対のカメラ1,2の取付位置は、程
度の差こそあれ誤差があるため、それに起因したずれが
左右の画像に存在している。このずれを補正するため
に、アフィン変換等を用いて、画像の回転や平行移動等
の幾何学的な変換が行われる。このようにして補正され
た基準画像および比較画像は、元画像メモリ8に格納さ
れる。
FIG. 1 is a block diagram of a vehicle exterior monitoring apparatus according to this embodiment. A pair of cameras 1 and 2 having a built-in image sensor such as a CCD are mounted near a rearview mirror at predetermined intervals in a vehicle width direction of a vehicle such as an automobile, and capture an image of a scene in front of the vehicle. The main camera 1 captures a reference image (right image) necessary for performing stereo processing, and the sub camera 2 captures a comparison image (left image) in this processing. In a state where the images are synchronized with each other, the analog images output from the cameras 1 and 2 are converted into digital images of a predetermined luminance gradation (for example, 256 gray scales) by the A / D converters 3 and 4. Is converted. The digitized image is subjected to luminance correction, geometric conversion of the image, and the like in the image correction unit 5. Usually, since the mounting positions of the pair of cameras 1 and 2 have an error to some extent, a shift caused by the error exists in the left and right images. In order to correct this displacement, geometric transformation such as rotation or translation of the image is performed using affine transformation or the like. The reference image and the comparative image corrected in this way are stored in the original image memory 8.

【0013】一方、ステレオ画像処理部6は、画像補正
部5により補正された基準画像および比較画像から、画
像中の同一対象物の三次元位置(自車輌から対象物まで
の距離を含む)を算出する。この距離は、4×4画素の
画素ブロック単位で算出され、左右画像における同一対
象物(画素ブロック)の位置に関する相対的なずれか
ら、三角測量の原理に基づき算出することができる。こ
のようにして算出された画像の距離情報は、距離データ
メモリ7に格納される。
On the other hand, the stereo image processing unit 6 calculates the three-dimensional position (including the distance from the vehicle to the object) of the same object in the image from the reference image and the comparison image corrected by the image correction unit 5. calculate. This distance is calculated in pixel block units of 4 × 4 pixels, and can be calculated based on the principle of triangulation from the relative displacement of the position of the same object (pixel block) in the left and right images. The distance information of the image thus calculated is stored in the distance data memory 7.

【0014】マイクロコンピュータ9は、元画像メモリ
8および距離データメモリ7に格納された各情報に基づ
き、白線検出を含めた車輌前方の道路形状(直線やカー
ブ曲率)を認識する(道路認識部10)。また、車輌前
方の立体物(走行車)等も認識する(立体物認識部1
1)。処理部13は、これらの認識部10,11からの
情報から警報が必要と判定された場合、モニタやスピー
カー等の警報装置19によりドライバーに注意を促した
り、或いは、必要に応じて、各種制御部14〜18を制
御する。例えば、AT(自動変速機)制御部14に対し
て、シフトダウンを実行すべき旨を指示する。また、エ
ンジン制御部18に対してエンジン出力を低下すべき旨
を指示してもよい。その他にも、アンチロックブレーキ
システム(ABS)制御部15、トラクションコントロ
ールシステム(TCS)制御部16、或いは、各車輪の
トルク配分や回転数を制御する車輌挙動制御部17に対
して、適切な車輌制御を指示することも可能である。
The microcomputer 9 recognizes the road shape (straight line or curve curvature) ahead of the vehicle including white line detection based on the information stored in the original image memory 8 and the distance data memory 7 (road recognition unit 10). ). In addition, a three-dimensional object (running vehicle) ahead of the vehicle is also recognized (the three-dimensional object recognition unit 1)
1). When it is determined from the information from the recognition units 10 and 11 that an alarm is required, the processing unit 13 alerts the driver by an alarm device 19 such as a monitor or a speaker, or performs various control as needed. It controls the units 14-18. For example, it instructs an AT (automatic transmission) control unit 14 to execute downshifting. Further, it may instruct the engine control unit 18 to reduce the engine output. In addition, a vehicle suitable for the anti-lock brake system (ABS) control unit 15, the traction control system (TCS) control unit 16, or the vehicle behavior control unit 17 for controlling the torque distribution and the rotation speed of each wheel. It is also possible to instruct control.

【0015】さらに、フェール判定部12は、元画像メ
モリ8に記憶された画像データ、距離データメモリ7に
記憶された距離データ、および道路認識部10で算出さ
れた予測走行線Lに基づいて、後述するルーチンに従っ
てフェール判定を行う。フェール判定部12からフェー
ルセーフが指示された場合、処理部13はフェールセー
フを実行する。これにより、例えば、道路等の誤認識に
ともなう装置の誤動作を防ぐために、上述した車輌制御
等が一時的に中断される。また、通常制御時よりも緩や
かな車輌制動力が生じるように、上記の制御部14〜1
8の各種制動パラメータを変更する。
Further, the failure determination unit 12 determines the failure based on the image data stored in the original image memory 8, the distance data stored in the distance data memory 7, and the predicted travel line L calculated by the road recognition unit 10. Fail determination is performed according to a routine described later. When fail safe is instructed from the fail determination unit 12, the processing unit 13 executes fail safe. As a result, for example, the above-described vehicle control or the like is temporarily interrupted in order to prevent a malfunction of the device due to erroneous recognition of a road or the like. Further, the control units 14 to 1 are controlled so that the vehicle braking force is gentler than that in the normal control.
8 are changed.

【0016】図2は、本実施例にかかるフェールの判定
ルーチンを示したフローチャートである。このフローチ
ャートは、所定の制御周期ごとに繰り返し実行される。
このルーチンにより、現在の走行環境がフェール条件に
合致すると判断された場合、フェール判定部12は処理
部13に対して、フェールセーフの実行を指示する。
FIG. 2 is a flowchart showing a failure determination routine according to the present embodiment. This flowchart is repeatedly executed for each predetermined control cycle.
When it is determined by this routine that the current traveling environment matches the fail condition, the fail determining unit 12 instructs the processing unit 13 to execute fail safe.

【0017】まず、ステップ1において、フェール判定
部12は、元画像メモリ8に記憶された画像データと、
距離データメモリ7に記憶された距離データと、道路認
識部10にて算出された予測走行線Lとを読み込む。予
測走行線Lは、自車輌が進むべき走行経路を予測したラ
インであり、検出された白線に基づいて算出される。予
測走行線Lは、図3に示したように、認識された道路形
状から算出される。すなわち、ステレオカメラ1,2に
より得られた画像対に映し出されたある対象物(例えば
道路や先行車)の視差dが算出されると、下式に基づい
て、その対象物までの距離Zを算出することができる。
ここで、rは、ステレオカメラ1,2間の取り付け間
隔、fはステレオカメラ1,2の焦点距離である。
First, in step 1, the failure determining unit 12 determines whether the image data stored in the original image memory 8 is
The distance data stored in the distance data memory 7 and the predicted travel line L calculated by the road recognition unit 10 are read. The predicted travel line L is a line that predicts a travel route to be followed by the vehicle, and is calculated based on the detected white line. The predicted travel line L is calculated from the recognized road shape as shown in FIG. That is, when the parallax d of an object (for example, a road or a preceding car) projected on the image pair obtained by the stereo cameras 1 and 2 is calculated, the distance Z to the object is calculated based on the following equation. Can be calculated.
Here, r is an attachment interval between the stereo cameras 1 and 2, and f is a focal length of the stereo cameras 1 and 2.

【0018】[0018]

【数1】Z=(r・f)/d## EQU1 ## Z = (rf) / d

【0019】また、撮像画像の座標系は、撮像画像の左
下隅を原点として、水平方向をi座標軸、垂直方向をj
座標軸とする(単位は画素)。一方、自車輌の位置を基
準に設定された実空間の座標系は、ステレオカメラ1,
2の中央真下の道路面を原点として、車幅方向をX軸
(右方向を正)、車高方向をY軸(上方向を正)、車長
方向をZ軸(前方向を正)とする。したがって、走行路
が水平ならば、XZ平面(Y=0)は路面と一致する。
撮像画像に映し出された対象物の距離データ(i,j,
Z)が特定されると、下式の座標変換式に従って、その
三次元位置(X,Y,Z)も一意に特定することができ
る。ここで、同式におけCHはステレオカメラ1,2の
取り付けた高さ(定数)、rはステレオカメラ1,2の
取り付け間隔(定数)、PWは1画素当たりの視野角
(定数)、そして、IV、JVは車輌の真正面における
無限遠点の画像上のiまたはj座標の値(定数)であ
る。
The coordinate system of the captured image is such that the origin is the lower left corner of the captured image, the horizontal direction is the i coordinate axis, and the vertical direction is j.
Coordinate axes (unit is pixel). On the other hand, the coordinate system of the real space set based on the position of the vehicle is a stereo camera 1,
With the road surface just below the center of 2 as the origin, the vehicle width direction is defined as the X axis (right direction is positive), the vehicle height direction is defined as the Y axis (upward direction is positive), and the vehicle length direction is defined as the Z axis (forward direction is positive). I do. Therefore, if the traveling road is horizontal, the XZ plane (Y = 0) matches the road surface.
Distance data (i, j,
When Z) is specified, its three-dimensional position (X, Y, Z) can be uniquely specified according to the following coordinate conversion formula. Here, in the same formula, CH is the height (constant) at which the stereo cameras 1 and 2 are attached, r is the attachment interval (constant) between the stereo cameras 1 and 2, PW is the viewing angle per pixel (constant), and , IV, and JV are the values (constants) of the i or j coordinates on the image of the point at infinity in front of the vehicle.

【0020】[0020]

【数2】X = r/2 + Z・PW・(i−IV) Y = CH − Z・PW・(j−JV)X = r / 2 + Z · PW · (i-IV) Y = CH−Z · PW · (j−JV)

【0021】なお、実空間の三次元座標(X、Y、X)
から撮像画像の二次元座標(i,j)への変換式は下式
のようになる。
The three-dimensional coordinates (X, Y, X) of the real space
Is converted into the two-dimensional coordinates (i, j) of the captured image as follows.

【0022】[0022]

【数3】i = (X−r/2)/(Z・PW)+IV j = (CH−Y)/(Z・PW) +JVI = (X−r / 2) / (Z · PW) + IV j = (CH−Y) / (Z · PW) + JV

【0023】道路認識部10は、道路と先行車とが重な
って映し出されている場合、先行車や白線の位置情報
(高さY)を利用して白線だけを分離して抽出すること
で、「道路形状の認識」を行う。三次元空間において白
線は路面位置にあり(理想的な状態ではY=0)、先行
車などの立体物は路面よりも高い位置にある(理想的な
状態ではY>0)。したがって、路面の高さ、すなわち
Y座標の値が特定できれば、白線と立体物とを区別する
ことができる。ここで、「道路形状の認識」とは、道路
形状を表現した関数(道路モデル)の各パラメータを、
三次元的な道路形状と合致するように設定することであ
る。本実施例における道路モデルは、認識範囲(例えば
カメラ位置から車輌前方84m先まで)の走行路におけ
る左右の白線(サイドライン)を、所定区間ごとに三次
元の直線式で近似し、これを折れ線状に連結することに
より表現される。図3の例では、認識範囲を所定の距離
(Z1〜Z7)ごとに7つの区間に分けて、それぞれの
区間において、下式で近似された直線式のパラメータ
a,b,c,dが走行路のサイドライン毎に導出され
る。そして、左右のサイドラインで挟まれた領域が走行
路ということになる。なお、この道路モデルは、水平方
向(X方向)のみならず、垂直方向(Y方向)の直線式
をも有しているため、道路の勾配や起伏といった上下方
向の道路形状も表現している。
When the road and the preceding vehicle are displayed overlapping each other, the road recognizing unit 10 separates and extracts only the white line using the position information (height Y) of the preceding vehicle and the white line. Perform "recognition of road shape". In the three-dimensional space, the white line is at the road surface position (Y = 0 in an ideal state), and a three-dimensional object such as a preceding vehicle is at a position higher than the road surface (Y> 0 in an ideal state). Therefore, if the height of the road surface, that is, the value of the Y coordinate can be specified, the white line and the three-dimensional object can be distinguished. Here, “recognition of road shape” means that each parameter of a function (road model) expressing the road shape is
The setting is to match the three-dimensional road shape. The road model according to the present embodiment approximates left and right white lines (side lines) in a recognition range (for example, from the camera position to a point 84 m ahead of the vehicle) by a three-dimensional linear equation for each predetermined section, and then approximates the broken lines. It is expressed by connecting in a shape. In the example of FIG. 3, the recognition range is divided into seven sections for each predetermined distance (Z1 to Z7), and in each section, the parameters a, b, c, and d of the linear equation approximated by the following equation are used. It is derived for each side line of the road. Then, an area sandwiched between the left and right side lines is a traveling path. Since this road model has not only a horizontal (X direction) but also a vertical (Y direction) linear formula, it expresses a vertical road shape such as a gradient or undulation of the road. .

【0024】[0024]

【数4】(左サイドライン) X = aL・Z + bL Y = cL・Z + dL (右サイドライン) X = aR・Z + bR Y = cR・Z + dR (Left side line) X = a L · Z + b L Y = c L · Z + d L (right side line) X = a R · Z + b R Y = c R · Z + d R

【0025】このようにして算出された左右のサイドラ
インから予測走行線Lを算出することができる。予測走
行線Lは、走行路の中央線、すなわち、上記の数式4に
より近似された左右のサイドラインの中間線として求め
ることができる。このようにして算出された予測走行線
Lがフェール判定部12に出力される。
The predicted running line L can be calculated from the left and right side lines thus calculated. The predicted travel line L can be obtained as the center line of the travel path, that is, the intermediate line between the left and right side lines approximated by the above equation (4). The predicted running line L calculated in this way is output to the failure determination unit 12.

【0026】ステップ1に続くステップ2において、距
離データ監視領域Rが設定される。この監視領域Rは、
距離データの出力数をカウントする対象範囲である。図
4は、距離データ監視領域Rを説明するための図であ
る。この監視領域Rは、演算量の増加を抑えるために、
ステップ1で読み込まれた予測走行線Lを基準として、
自車輌の前方向に40m(0≦Z≦40)、左右の幅を
それぞれ2m(−2≦X≦2)として設定される。な
お、図4には、Z方向に直線的に延在した予測走行線L
が図示されているが、カーブにおいて、予測走行線Lは
X方向への変位量をもつ。
In step 2 following step 1, a distance data monitoring region R is set. This monitoring area R is
This is a target range for counting the number of output distance data. FIG. 4 is a diagram for explaining the distance data monitoring region R. This monitoring area R is used to suppress an increase in the amount of calculation.
Based on the predicted travel line L read in step 1,
It is set as 40 m (0 ≦ Z ≦ 40) in the forward direction of the own vehicle, and 2 m (−2 ≦ X ≦ 2) in both left and right widths. FIG. 4 shows a predicted travel line L extending linearly in the Z direction.
, The predicted travel line L has a displacement amount in the X direction in the curve.

【0027】次に、ステップ3において、距離データ監
視領域R内に存在する距離データから有効距離データが
特定される。有効距離データとは、画像の水平方向(横
方向)の輝度エッジを所定数以上有する画素ブロックに
関する距離データをいう。図6は、距離データの算出単
位である画素ブロックに関する横方向の輝度エッジの算
出手法を説明するための図である。上述したように、距
離データは、4×4の画素ブロック単位で1つ算出され
る。この画素ブロックにおいて、まず、横方向に隣接し
た画素対の輝度変化量(絶対値)ΔPを算出する。ただ
し、一番左側の画素列(P11,P12,P13,P14)に関
しては、左側に隣接した画素ブロックにおける一番右側
の画素列とから輝度変化量ΔPを算出する。したがっ
て、1つの画素ブロックに関して16個の輝度変化量Δ
Pが算出される。次に、これらの16個の輝度変化量Δ
Pのうち、所定のしきい値(以下、DCDXしきい値と
いう)以上のものの数をカウントする。このDCDXし
きい値は、3から7の範囲において適切に設定された値
である。そして、このDCDXしきい値以上の輝度変化
量ΔPの数が4つ以上の画素ブロックに関する距離デー
タを有効距離データとする。路面状況の評価は、監視領
域R内に存在するすべての距離データに基づいて行うの
ではなく、横方向の輝度変化に関して特徴を有する画素
ブロックに係る有効距離データのみを対象としている。
これにより、路面の凹凸等に起因して算出されたノイズ
的な距離データを除外できるため、路面状況の評価に関
する精度を向上させることができる。
Next, in step 3, effective distance data is specified from the distance data existing in the distance data monitoring region R. The effective distance data refers to distance data relating to a pixel block having a predetermined number or more of luminance edges in the horizontal direction (horizontal direction) of an image. FIG. 6 is a diagram for explaining a method of calculating a luminance edge in the horizontal direction for a pixel block that is a unit for calculating distance data. As described above, one distance data is calculated for each 4 × 4 pixel block. In this pixel block, first, the luminance change amount (absolute value) ΔP of a pair of pixels adjacent in the horizontal direction is calculated. However, for the leftmost pixel column (P 11, P 12, P 13, P 14), calculates the luminance variation ΔP from the rightmost pixel column in the pixel blocks adjacent to the left side. Therefore, for one pixel block, 16 luminance change amounts Δ
P is calculated. Next, these 16 luminance change amounts Δ
Among the P, the number of Ps that are equal to or more than a predetermined threshold (hereinafter, referred to as DCDX threshold) is counted. This DCDX threshold is a value appropriately set in the range of 3 to 7. Then, distance data relating to a pixel block in which the number of luminance change amounts ΔP equal to or greater than the DCDX threshold value is four or more is defined as effective distance data. The evaluation of the road surface condition is not performed based on all the distance data existing in the monitoring area R, but is performed only on the effective distance data related to the pixel block having the characteristic regarding the luminance change in the horizontal direction.
Accordingly, noise-like distance data calculated due to unevenness of the road surface or the like can be excluded, so that the accuracy of the evaluation of the road surface condition can be improved.

【0028】それに続くステップ4,5において、上記
のステップ3で算出された距離データ監視領域R内の有
効距離データから、ドライデータ数DRYおよびウェッ
トデータ数WETがそれぞれカウントされる。図5は、
距離データ監視領域R内における距離データの分布を説
明するための図である。なお、同図は、予測走行線Lの
高さ方向(Y方向)の変位をZ軸上に正規化して図示し
ている。上述した数式2の変換式から、距離データ
(i,j,Z)は、実空間の三次元座標(X、Y、Z)
に変換でき、両者は一対一の関係にある。そこで、距離
データをその高さ(Yの値)に基づいて以下の3つに分
類する。
In subsequent steps 4 and 5, the number of dry data DRY and the number of wet data WET are counted from the effective distance data in the distance data monitoring area R calculated in step 3 above. FIG.
FIG. 6 is a diagram for explaining distribution of distance data in a distance data monitoring region R. In the figure, the displacement of the predicted traveling line L in the height direction (Y direction) is shown normalized on the Z axis. From the above-described conversion formula of Expression 2, the distance data (i, j, Z) is represented by the three-dimensional coordinates (X, Y, Z) of the real space.
And both are in a one-to-one relationship. Therefore, the distance data is classified into the following three based on the height (the value of Y).

【0029】(1)立体物データ 立体物データは、先行車などの立体物に起因して算出さ
れた距離データである。理想的な状態では、立体物に関
する距離データを上記の数式2で変換するとY>0(す
なわち路面より上側)となる。しかしながら、実際の走
行環境では、自車輌のピッチングや路面の起伏により、
白線等の距離データ(理想的にはY=0)がY>0とな
ることがある。そこで、このような点を考慮して、Y>
0.3(単位はm)の距離データを立体物データとして
いる。
(1) Three-dimensional object data Three-dimensional object data is distance data calculated based on a three-dimensional object such as a preceding vehicle. In an ideal state, when the distance data relating to the three-dimensional object is converted by the above equation 2, Y> 0 (that is, above the road surface). However, in an actual driving environment, due to pitching of the vehicle and undulation of the road surface,
Distance data such as a white line (ideally, Y = 0) may satisfy Y> 0. Therefore, considering such a point, Y>
The distance data of 0.3 (the unit is m) is set as three-dimensional object data.

【0030】(2)ドライデータ ドライデータは、走行路の路面(白線、路面のわだち、
砂利等)に起因して算出された距離データである。理想
的な状態では、白線等に関する距離データを数式2で変
換するとY=0(すなわち路面)となる。しかしなが
ら、上述したように実際の走行環境では、そのような距
離データが高さ方向に正や負の値を有することがあるの
で、−0.4≦Y≦0.3の距離データをドライデータ
としている。
(2) Dry data Dry data is obtained from the road surface (white line, road rut,
This is distance data calculated due to gravel or the like. In an ideal state, if the distance data relating to the white line and the like is converted by Expression 2, Y = 0 (that is, the road surface). However, as described above, in an actual driving environment, such distance data may have a positive or negative value in the height direction. And

【0031】(3)ウエットデータ 雨等により濡れた路面では、立体物が路面に映り込むこ
とがあるため、それに起因した距離データが算出され
る。映り込みにより生じたこの偽りの距離データは、理
想的な状態ではY<0となるが、実際の走行環境を考慮
して、Y<−0.4の距離データをウエットデータとし
ている。
(3) Wet Data On a road surface that is wet due to rain or the like, a three-dimensional object may be reflected on the road surface, and distance data resulting therefrom is calculated. The false distance data caused by the reflection is Y <0 in an ideal state, but in consideration of the actual traveling environment, the distance data of Y <−0.4 is used as the wet data.

【0032】したがって、ステップ4で算出されるドラ
イデータ数DRYは、予測走行線Lを基準とした場合
に、以下の条件を満たす有効距離データの個数である。
Therefore, the dry data number DRY calculated in step 4 is the number of effective distance data that satisfies the following condition based on the predicted travel line L.

【0033】(ドライデータの条件) −2 ≦ X ≦ 2 −0.4 ≦ Y ≦ 0.3 0 ≦ Z ≦ 40(Dry Data Conditions) -2≤X≤2-0.4≤Y≤0.30≤Z≤40

【0034】また、ステップ5で算出されるウエットデ
ータ数WETは、予測走行線Lを基準とした場合に、以
下の条件を満たす有効距離データの個数である。
The wet data number WET calculated in step 5 is the number of effective distance data that satisfies the following condition based on the predicted travel line L.

【0035】(ウェットデータの条件) −2 ≦ X ≦ 2 Y ≦ -0.4 0 ≦ Z ≦ 40(Condition of Wet Data) -2≤X≤2 Y≤-0.40≤Z≤40

【0036】そして、ステップ4,5で算出されたドラ
イデータ数DRYおよびウエットデータ数WETから、
下式にしたがって、ウエットデータ率RTが算出される
(ステップ6)。ウエットデータ率RTは、立体物が路
面へ映り込む程度を示しており、濡れた路面に映り込む
立体物が多くなるほど、ウエットデータ率RTが高くな
る。
Then, from the number of dry data DRY and the number of wet data WET calculated in steps 4 and 5,
The wet data rate RT is calculated according to the following equation (step 6). The wet data rate RT indicates the degree to which a three-dimensional object is reflected on a road surface. The more three-dimensional objects reflected on a wet road surface, the higher the wet data rate RT.

【0037】[0037]

【数5】RT=WET/DRY## EQU5 ## RT = WET / DRY

【0038】そして、ステップ6において算出されたウ
エットデータ率RTが、適切に設定された判定しきい値
RTthよりも大きいか否かが判定される(ステップ
7)。ステップ7で肯定判定された場合、すなわち、路
面に立体物が多く映り込んでいる場合は、濡れた路面で
あると判断して、フェールフラグNGが1にセットされ
る(ステップ8)。フェールフラグNGが1にセットさ
れている期間において、フェール判定部12は、処理部
13に対してフェールセーフの実行を指示する。これに
より、通常の監視制御が中止され、フェールセーフとし
て、例えば通常制御時よりも緩やかな制動力を発揮する
ように、車輌制御に関する各種制御パラメータが変更さ
れる。また、ワイパーが作動している場合においては、
降雨であると判断して、それを考慮した車両制御(例え
ば、より緩やかな制動力の設定等)を行ってもよい。一
方、ステップ7で否定判定された場合、すなわち、路面
に映り込む立体物が少ない場合は、乾いた路面であると
判断して、フェールフラグNGが0にセットされる(ス
テップ9)。フェールフラグNGが0にセットされてい
る期間においては、通常の監視制御が継続される。
Then, it is determined whether or not the wet data rate RT calculated in step 6 is larger than an appropriately set determination threshold value RTth (step 7). If an affirmative determination is made in step 7, that is, if a lot of three-dimensional objects are reflected on the road surface, it is determined that the road surface is wet, and the fail flag NG is set to 1 (step 8). During a period in which the fail flag NG is set to 1, the fail determining unit 12 instructs the processing unit 13 to execute fail safe. As a result, the normal monitoring control is stopped, and various control parameters related to vehicle control are changed as a fail-safe so that, for example, a braking force that is gentler than that during the normal control is exerted. When the wiper is operating,
It may be determined that it is rainfall, and vehicle control (for example, setting of a gentler braking force) taking this into consideration may be performed. On the other hand, if a negative determination is made in step 7, that is, if there are few three-dimensional objects reflected on the road surface, it is determined that the road is dry and the fail flag NG is set to 0 (step 9). While the fail flag NG is set to 0, normal monitoring control is continued.

【0039】以上の説明から明らかなように、本実施例
にかかるステレオ式車外監視装置は、道路が存在するで
あろうと予測される自車輌の前方に距離データ監視領域
Rを設定し、この監視領域R内に存在する距離データに
関して、高さ方向の分布を評価している。すなわち、算
出された距離データに関する三次元空間における高さ
(Y方向の値)を求め、立体物が路面に映り込んでいる
ことに起因した距離データ数をウエットデータ数として
カウントしている。濡れた路面では、ドライな路面と比
べて、多数の距離データが路面位置より下に算出される
という特性がある。このような特性に鑑み、距離データ
監視領域R内にウェットデータが多数存在する場合、ウ
ェットな路面状況にあると判断している。これにより、
車外監視の信頼性および制御の安全性を高い次元で確保
することができる。発明者が実際に走行テストを繰り返
した結果、以上の判定手順で良好な判定結果を得られる
ことが確認できた。
As is clear from the above description, the stereo type external monitoring apparatus according to the present embodiment sets the distance data monitoring area R in front of the own vehicle where a road is predicted to exist, and monitors this area. With respect to the distance data existing in the region R, the distribution in the height direction is evaluated. That is, the height (value in the Y direction) of the calculated distance data in the three-dimensional space is obtained, and the number of distance data due to the three-dimensional object being reflected on the road surface is counted as the number of wet data. On a wet road surface, compared to a dry road surface, there is a characteristic that a larger amount of distance data is calculated below the road surface position. In consideration of such characteristics, when a large amount of wet data exists in the distance data monitoring region R, it is determined that the vehicle is in a wet road surface condition. This allows
The reliability of outside monitoring and the safety of control can be ensured at a high level. As a result of the inventor actually repeating the running test, it was confirmed that a good judgment result can be obtained by the above judgment procedure.

【0040】なお、車外監視の信頼性および制御の安定
性の双方を確保する観点でいえば、ウエットデータ率R
Tが判定しきい値RTthより大きくなる状況が複数の制
御周期に渡って継続した場合に(例えば10秒相当)、
フェールフラグNGを1にセットすることが好ましい。
同様の観点から、ウエットデータ率RTが判定しきい値
RTth以下になる状況が複数の制御周期に渡って継続し
たならば(例えば20秒相当)、フェールフラグNGを
0にセットする。
From the viewpoint of ensuring both the reliability of monitoring outside the vehicle and the stability of control, the wet data rate R
If the situation where T becomes larger than the determination threshold value RTth continues over a plurality of control cycles (for example, equivalent to 10 seconds),
It is preferable to set the fail flag NG to 1.
From a similar viewpoint, if the situation where the wet data rate RT becomes equal to or less than the determination threshold value RTth continues over a plurality of control cycles (for example, corresponding to 20 seconds), the fail flag NG is set to 0.

【0041】また、フェール状況の検出精度を向上させ
るために、上記のフェール判定ルーチンは走行状況に応
じて実行するようにしてもよい。例えば、自車輌と先行
車との車間距離が13m以上、車速が20km/h以上、か
つ、舵角±23°以下の場合のみフェール判定を実行す
る。先行車との車間距離が短い場合、ウェットな路面へ
の映り込みが生じていたとしても、その大半が先行車に
よってマスクされてしまうため、そのような状況を精度
よく検出することが困難となる。また、特に、各フレー
ム毎にウェットデータ率RTを算出し、所定のフレーム
間隔でその評価を行う手法を用いた場合において、車速
が低いとフェール判定精度が低下してしまう可能性があ
る。車速が低い場合は自車輌の移動量の少ないので、局
所的な路面しか監視対象にならない。この局所的な路面
が、偶然、フェール状況に合致してしまうような未想定
の状態である場合、適切でないフェール判定がなされて
しまうおそれがある。車速が高いことをフェール判定の
実行条件とすれば、このような路面が局所的に存在した
としても、誤ってフェールと判定してしまうことを回避
できる。さらに、舵角を考慮した理由は、カメラの視野
に入る景色のパターンをある程度限定することで、判定
精度を向上させるためである。
Further, in order to improve the detection accuracy of the failure situation, the above-described failure determination routine may be executed according to the traveling situation. For example, the failure determination is performed only when the inter-vehicle distance between the own vehicle and the preceding vehicle is 13 m or more, the vehicle speed is 20 km / h or more, and the steering angle is ± 23 ° or less. If the inter-vehicle distance with the preceding vehicle is short, even if the reflection on the wet road surface occurs, most of it is masked by the preceding vehicle, making it difficult to accurately detect such a situation. . Further, in particular, when a method of calculating the wet data rate RT for each frame and performing the evaluation at a predetermined frame interval is used, if the vehicle speed is low, there is a possibility that the fail determination accuracy may be reduced. When the vehicle speed is low, the moving amount of the own vehicle is small, so that only a local road surface is to be monitored. If the local road surface is in an unpredicted state that accidentally matches the failure situation, an inappropriate failure determination may be made. If the high vehicle speed is used as a condition for executing the failure determination, it is possible to avoid erroneously determining a failure even if such a road surface exists locally. Further, the reason for taking the steering angle into consideration is to improve the determination accuracy by limiting the pattern of the scenery in the field of view of the camera to some extent.

【0042】さらに、路面状況を判断するための距離デ
ータは、横方向の輝度エッジが大きい画素ブロックに関
する距離データのみを対象としている。そのため、ノイ
ズ等に起因して算出された誤った距離データを除外する
ことができ、濡れた路面状況を一層精度よく検出するこ
とが可能となる。
Further, the distance data for judging the road surface condition targets only distance data relating to a pixel block having a large horizontal luminance edge. Therefore, erroneous distance data calculated due to noise or the like can be excluded, and a wet road surface condition can be detected with higher accuracy.

【0043】なお、上記の実施例はドライデータ数とウ
エットデータ数との比に基づいて、路面の状況を判断し
ている。しかしながら、本発明は、これに限定されるも
のではなく、ウェットデータ数に基づいて路面状況を判
定する手法について、広く適用することができる。例え
ば、ドライデータ数をカウントすることなく、ウエット
データ数を所定のしきい値と比較するような手法を用い
てもよい。
In the above embodiment, the condition of the road surface is determined based on the ratio of the number of dry data to the number of wet data. However, the present invention is not limited to this, and can be widely applied to a method of determining a road surface condition based on the number of wet data. For example, a method of comparing the number of wet data with a predetermined threshold value without counting the number of dry data may be used.

【0044】[0044]

【発明の効果】このように、本発明では、距離データ監
視領域内に存在する距離データのうち、路面位置よりも
下側に存在する距離データの数(ウェットデータ数)に
基づいて、路面が濡れているか否かを判定している。こ
れにより、路面の状況を撮像画像から精度よく検出する
ことができ、路面状況に応じて適切な車輌制御を行うこ
とが可能となる。その結果、車外監視装置の安全性をよ
り高い次元で確保することが可能となる。
As described above, according to the present invention, the road surface is determined based on the number of distance data (the number of wet data) existing below the road surface position among the distance data existing in the distance data monitoring area. It is determined whether or not it is wet. Thereby, the condition of the road surface can be accurately detected from the captured image, and appropriate vehicle control can be performed according to the condition of the road surface. As a result, it is possible to ensure the safety of the vehicle exterior monitoring device at a higher level.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例にかかる車外監視装置のブロック図FIG. 1 is a block diagram of a vehicle exterior monitoring device according to an embodiment;

【図2】実施例にかかるフェール判定ルーチンを示した
フローチャート
FIG. 2 is a flowchart illustrating a fail determination routine according to the embodiment;

【図3】予測走行線を説明するための図FIG. 3 is a diagram for explaining a predicted traveling line;

【図4】距離データ監視領域を説明するための図FIG. 4 is a diagram for explaining a distance data monitoring area;

【図5】距離データ監視領域の距離データの分布を説明
するための図
FIG. 5 is a diagram for explaining distribution of distance data in a distance data monitoring area.

【図6】横方向の輝度エッジの算出手法を説明するため
の図
FIG. 6 is a diagram for explaining a method of calculating a luminance edge in the horizontal direction.

【符号の説明】[Explanation of symbols]

1 メインカメラ、 2 サブカメラ、3,
4 A/Dコンバータ、 5 画像補正部、6 ステ
レオ画像処理部、 7 距離データメモリ、8 元
画像メモリ、 9 マイクロコンピュータ、
10 道路認識部、 11 立体物認識部、
12 フェール判定部、 13 処理部、14
AT制御部、 15 ABS制御部、16
TCS制御部、 17 車輌挙動制御、18
エンジン制御部、 19 警報装置
1 main camera, 2 sub camera, 3,
4 A / D converter, 5 image correction unit, 6 stereo image processing unit, 7 distance data memory, 8 source image memory, 9 microcomputer,
10 road recognition unit, 11 three-dimensional object recognition unit,
12 failure judgment unit, 13 processing unit, 14
AT control unit, 15 ABS control unit, 16
TCS control unit, 17 Vehicle behavior control, 18
Engine control unit, 19 alarm device

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA06 BB05 BB15 DD03 FF05 FF24 JJ03 JJ26 QQ03 QQ21 QQ24 QQ25 QQ32 SS09 SS13 2F112 AC03 AC06 BA06 CA05 CA12 FA03 FA09 FA21 5B057 AA16 AA19 CC03 DA07 DB03 DC02  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA04 AA06 BB05 BB15 DD03 FF05 FF24 JJ03 JJ26 QQ03 QQ21 QQ24 QQ25 QQ32 SS09 SS13 2F112 AC03 AC06 BA06 CA05 CA12 FA03 FA09 FA21 5B057 AA16 AA19 CC03 DA07 DC03 DB03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】撮像された画像対から道路の路面状況を検
出するステレオ式車外監視装置において、 車外の景色を撮像することにより、一対の画像データを
得るステレオ撮像手段と、 前記画像データ対における対象物の視差に基づいて、当
該対象物の距離データを算出する距離算出手段と、 前記画像データと前記距離データとに基づいて、道路の
三次元的な形状を認識する認識手段と、 前記認識手段により認識された道路領域内に距離データ
監視領域を設定する設定手段と、 前記距離データ監視領域内に存在する前記距離データの
うち、前記認識手段により認識された道路の路面位置よ
りも下側に存在する前記距離データの数をウェットデー
タ数として算出すると共に、当該ウェットデータ数に基
づいて路面状況を検出する検出手段とを有することを特
徴とするステレオ式車外監視装置。
1. A stereo-type outside monitoring device for detecting a road surface condition of a road from a pair of captured images, a stereo imaging unit for obtaining a pair of image data by capturing a scene outside the vehicle, A distance calculating unit that calculates distance data of the target object based on the parallax of the target object; a recognition unit that recognizes a three-dimensional shape of the road based on the image data and the distance data; Setting means for setting a distance data monitoring area in the road area recognized by the means; and a part of the distance data present in the distance data monitoring area below the road surface position of the road recognized by the recognition means. Detecting means for calculating the number of the distance data existing in the area as the number of wet data and detecting a road surface condition based on the number of wet data. Stereo type vehicle surroundings monitoring apparatus according to claim Rukoto.
【請求項2】前記認識手段は、道路の三次元的な形状か
ら自車輌が進むべき走行経路を予測した予測走行線を算
出し、 前記設定手段は、前記予測走行線を基準として、車幅方
向における範囲と車長方向における範囲とを規定するこ
とにより、前記距離データ監視領域を設定することを特
徴とする請求項1に記載されたステレオ式車外監視装
置。
2. The method according to claim 1, wherein the recognizing means calculates a predicted travel line that predicts a travel route to be followed by the vehicle based on a three-dimensional shape of the road, and the setting means determines a vehicle width based on the predicted travel line. The stereo type outside monitoring apparatus according to claim 1, wherein the distance data monitoring area is set by defining a range in a direction and a range in a vehicle length direction.
【請求項3】前記検出手段は、前記距離データ監視領域
内に存在する前記距離データのうち、前記認識手段によ
り認識された道路の路面位置に存在する前記距離データ
の数をドライデータ数として算出すると共に、 前記ドライデータ数と前記ウェットデータ数との比を、
判定しきい値と比較することにより、路面が濡れている
か否かを判定することを特徴とする請求項1に記載され
たステレオ式車外監視装置。
3. The method according to claim 1, wherein the detecting means calculates the number of the distance data existing at the road surface position of the road recognized by the recognizing means as the number of dry data among the distance data existing in the distance data monitoring area. And the ratio between the number of dry data and the number of wet data is
The stereo type outside monitoring apparatus according to claim 1, wherein it is determined whether or not the road surface is wet by comparing with a determination threshold value.
【請求項4】前記検出手段は、前記判定結果に基づい
て、車輌制御に関する制御パラメータを変更することを
特徴とする請求項3に記載されたステレオ式車外監視装
置。
4. A stereo outside monitoring apparatus according to claim 3, wherein said detecting means changes control parameters relating to vehicle control based on the determination result.
JP21671399A 1999-07-30 1999-07-30 Stereo exterior monitoring device Expired - Lifetime JP3235831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21671399A JP3235831B2 (en) 1999-07-30 1999-07-30 Stereo exterior monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21671399A JP3235831B2 (en) 1999-07-30 1999-07-30 Stereo exterior monitoring device

Publications (2)

Publication Number Publication Date
JP2001041741A true JP2001041741A (en) 2001-02-16
JP3235831B2 JP3235831B2 (en) 2001-12-04

Family

ID=16692763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21671399A Expired - Lifetime JP3235831B2 (en) 1999-07-30 1999-07-30 Stereo exterior monitoring device

Country Status (1)

Country Link
JP (1) JP3235831B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028728A (en) * 2002-06-25 2004-01-29 Fuji Heavy Ind Ltd Topography recognition device and topography recognition method
JP2007085773A (en) * 2005-09-20 2007-04-05 Toyota Motor Corp Vehicle image processor
JP2009069119A (en) * 2007-09-18 2009-04-02 Mazda Motor Corp Road surface condition estimating device for vehicle
JP2009083765A (en) * 2007-10-02 2009-04-23 Jtekt Corp Vehicle control device
JP2012146135A (en) * 2011-01-12 2012-08-02 Denso Corp Boundary detector and boundary detection program
DE102014115017A1 (en) 2013-10-31 2015-04-30 Fuji Jukogyo Kabushiki Kaisha Vehicle control system
JP2017161491A (en) * 2015-07-29 2017-09-14 ヤマハ発動機株式会社 Abnormal image detection device, image processing system including abnormal image detection device, and vehicle mounted with image processing system
JP2019149071A (en) * 2018-02-28 2019-09-05 日立オートモティブシステムズ株式会社 Stereo camera device
US20190299948A1 (en) * 2018-03-28 2019-10-03 Subaru Corporation Control apparatus for vehicle and control method for vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3462467B2 (en) 2000-11-14 2003-11-05 富士重工業株式会社 Outside monitoring device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028728A (en) * 2002-06-25 2004-01-29 Fuji Heavy Ind Ltd Topography recognition device and topography recognition method
JP2007085773A (en) * 2005-09-20 2007-04-05 Toyota Motor Corp Vehicle image processor
JP2009069119A (en) * 2007-09-18 2009-04-02 Mazda Motor Corp Road surface condition estimating device for vehicle
JP2009083765A (en) * 2007-10-02 2009-04-23 Jtekt Corp Vehicle control device
JP2012146135A (en) * 2011-01-12 2012-08-02 Denso Corp Boundary detector and boundary detection program
US9676333B2 (en) 2013-10-31 2017-06-13 Fuji Jukogyo Kabushiki Kaisha Vehicle control system
CN104590258A (en) * 2013-10-31 2015-05-06 富士重工业株式会社 Vehicle control system
JP2015088048A (en) * 2013-10-31 2015-05-07 富士重工業株式会社 Vehicle control system
DE102014115017A1 (en) 2013-10-31 2015-04-30 Fuji Jukogyo Kabushiki Kaisha Vehicle control system
DE102014115017B4 (en) 2013-10-31 2020-01-02 Subaru Corporation Vehicle control system
JP2017161491A (en) * 2015-07-29 2017-09-14 ヤマハ発動機株式会社 Abnormal image detection device, image processing system including abnormal image detection device, and vehicle mounted with image processing system
JP2019149071A (en) * 2018-02-28 2019-09-05 日立オートモティブシステムズ株式会社 Stereo camera device
WO2019167531A1 (en) * 2018-02-28 2019-09-06 日立オートモティブシステムズ株式会社 Stereo camera device
US11302020B2 (en) 2018-02-28 2022-04-12 Hitachi Astemo, Ltd. Stereo camera device
US20190299948A1 (en) * 2018-03-28 2019-10-03 Subaru Corporation Control apparatus for vehicle and control method for vehicle
CN110316167A (en) * 2018-03-28 2019-10-11 株式会社斯巴鲁 The control device of vehicle and the control method of vehicle
US11077835B2 (en) * 2018-03-28 2021-08-03 Subaru Corporation Control apparatus for vehicle and control method for vehicle
CN110316167B (en) * 2018-03-28 2023-03-03 株式会社斯巴鲁 Vehicle control device and vehicle control method

Also Published As

Publication number Publication date
JP3235831B2 (en) 2001-12-04

Similar Documents

Publication Publication Date Title
JP3352655B2 (en) Lane recognition device
JP4714104B2 (en) Object tilt detection device
JP4763250B2 (en) Object detection device
US9704404B2 (en) Lane detection apparatus and operating method for the same
US7580548B2 (en) Abnormality detecting apparatus for imaging apparatus
JP2002096702A (en) Vehicle-to-vehicle distance estimation device
JP3301995B2 (en) Stereo exterior monitoring device
JP2001160137A (en) Device for correcting distance of monitoring system and device for correcting vanishing point of monitoring system
JP2009110168A (en) Object detector and contact avoidance system
US10740592B2 (en) Three-dimensional object ground-contact determining apparatus
JP6936098B2 (en) Object estimation device
KR20060021922A (en) Two camera based obstacle detection method and device
JP3235831B2 (en) Stereo exterior monitoring device
JPH06229759A (en) System for estimating distance and speed of preceding vehicle using image
JP4695566B2 (en) Lane departure judging device and lane departure avoidance system
JP4719996B2 (en) Object detection device
JP5027710B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP3925285B2 (en) Road environment detection device
JP3402075B2 (en) Vehicle lane recognition device
JP3272701B2 (en) Outside monitoring device
JP3272694B2 (en) Outside monitoring device with fail-safe function
JP3649327B2 (en) Stereo exterior monitoring system with fail-safe function
JPH0979821A (en) Obstacle recognizing device
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010913

R150 Certificate of patent or registration of utility model

Ref document number: 3235831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080928

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080928

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090928

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090928

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term