JP6322024B2 - Outside monitoring device - Google Patents
Outside monitoring device Download PDFInfo
- Publication number
- JP6322024B2 JP6322024B2 JP2014069711A JP2014069711A JP6322024B2 JP 6322024 B2 JP6322024 B2 JP 6322024B2 JP 2014069711 A JP2014069711 A JP 2014069711A JP 2014069711 A JP2014069711 A JP 2014069711A JP 6322024 B2 JP6322024 B2 JP 6322024B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- white line
- optical axis
- lateral movement
- recognition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 7
- 230000003287 optical effect Effects 0.000 claims description 72
- 230000014509 gene expression Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 22
- 230000005856 abnormality Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 8
- 101100513046 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) eth-1 gene Proteins 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Description
本発明は、車載カメラで撮像した画像に基づいて車外環境を認識する車外監視装置に関する。 The present invention relates to an out-of-vehicle monitoring device that recognizes an out-of-vehicle environment based on an image captured by an in-vehicle camera.
近年、車両の安全性向上を図るため、積極的にドライバの運転操作を支援する運転支援システムが開発されている。この種の運転支援システムとしては、例えば、車載カメラによって車外環境を撮像し、撮像した画像から、路面に敷設された白線や路面上の先行車等の立体物を認識し、これらの認識情報に基づいて、車速制御や操舵支援制御等の各種運転支援制御を行うものが知られている。 In recent years, in order to improve vehicle safety, driving support systems that actively support driving operations by drivers have been developed. As this type of driving support system, for example, the vehicle exterior environment is imaged by an in-vehicle camera, and a solid object such as a white line laid on the road surface or a preceding vehicle on the road surface is recognized from the captured image, and the recognition information is On the basis of this, there is known one that performs various driving support controls such as vehicle speed control and steering support control.
ところで、このような運転支援システムに採用される車外監視装置では、カメラ精度や画像処理精度等を極めて高精度とすることが要求され、これらの要求に伴い、カメラの光軸が車体に対して高精度に調整されていることが特に重要となる。例えば、自車前方の車外監視において、白線等の認識を精度良く安定的に行うためには、車体の前後軸に対し、カメラの光軸が水平方向に高精度に調整されていることが重要となる。 By the way, in the outside monitoring apparatus adopted in such a driving support system, it is required that the camera accuracy, the image processing accuracy, and the like be extremely high. It is particularly important that the adjustment is performed with high accuracy. For example, in order to accurately and stably recognize white lines and the like when monitoring the outside of the vehicle in front of the vehicle, it is important that the optical axis of the camera is adjusted with high accuracy in the horizontal direction with respect to the longitudinal axis of the vehicle body. It becomes.
これに対し、例えば、特許文献1には、検査工場等において、路面に表示した模擬的なレーンマーキング(具体的には走行路区分線と同様な平行な2直線)の検出処理を行い、検出された模擬レーンマーキング位置を初期設定のカメラパラメータを用いて実平面上の座標に変換し、模擬レーンマーキングの実平面上での中心線と車両ローカル座標系の縦軸との偏角を検出することで、カメラパラメータ補正値を算出する技術が開示されている。
On the other hand, for example, in
しかしながら、上述の特許文献1に開示された技術は、路面に左右の白線(レーンマーキング)存在し、且つ、これらの白線が互いに平行であることが保証されている等、所定の条件が既知である検査工場等でなければカメラの撮像光軸のズレ(傾き)を検出することが困難である。
However, the technique disclosed in
本発明は上記事情に鑑みてなされたもので、撮像光軸のズレを様々な走行環境下においてリアルタイムに検出することができる車外監視装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an out-of-vehicle monitoring device capable of detecting in real time a shift in the imaging optical axis under various traveling environments.
本発明の一態様による車外監視装置は、自車前方の車外環境を撮像する撮像手段と、前記撮像手段によって撮像された画像に基づいて自車走行路を区画する白線を1次以上の近似式で近似する白線近似手段と、自車が設定時間走行したときの前記白線に対する自車の横位置の変化量を前記近似式の定数に基づいて第1の横方向移動量として算出する第1の横方向移動量算出手段と、自車が前記設定時間走行したときの前記白線に対する自車の横位置の変化量を前記近似式の1次係数に基づいて第2の横方向移動量として算出する第2の横方向移動量算出手段と、前記第1の横方向移動量と前記第2の横方向移動量との差が予め設定された閾値以上であるとき前記撮像手段の水平方向への光軸ズレが発生していることを判定する光軸ズレ判定手段と、を備えたものである。 An out-of-vehicle monitoring device according to an aspect of the present invention includes an imaging unit that images an environment outside a vehicle in front of the host vehicle, and a white line that divides the traveling path of the host vehicle based on an image captured by the imaging unit. A white line approximating means for approximating at a first time, and calculating a first lateral movement amount based on a constant of the approximate expression, based on the constant of the approximate expression, the amount of change in the lateral position of the vehicle with respect to the white line when the vehicle travels for a set time. A lateral movement amount calculating means and a change amount of the lateral position of the vehicle with respect to the white line when the vehicle has traveled for the set time are calculated as a second lateral movement amount based on the first order coefficient of the approximate expression. Light in the horizontal direction of the imaging means when the difference between the second lateral movement amount calculating means and a difference between the first lateral movement amount and the second lateral movement amount is greater than or equal to a preset threshold value Optical axis misalignment judgment hand that determines that an axis misalignment has occurred When, those having a.
本発明の車外監視装置によれば、撮像光軸のズレを様々な走行環境下においてリアルタイムに検出することができる。 According to the outside monitoring apparatus of the present invention, it is possible to detect the deviation of the imaging optical axis in real time under various traveling environments.
以下、図面を参照して本発明の形態を説明する。図面は本発明の第1の実施形態に係わり、図1は車両用運転支援システムの概略構成図、図2は撮像画像から切り出される有効領域を示す説明図、図3は車外環境の撮像画像の一例を模式的に示す説明図、図4は図3の画像から検出される白線候補点を示す説明図、図5は検索ライン上における輝度の変化の一例を示す説明図、図6は実空間に投影される白線候補点を示す説明図、図7(a)は走行による自車の移動量を示す説明図であって(b)は前フレームで検出した白線候補点の自車に対する相対的な移動量を示す説明図、図8は白線候補点を用いて演算された白線近似線及び次フレームで用いる白線検出領域を示す説明図、図9はシステム停止判定ルーチンを示すフローチャート、図10は水平方向への光軸ズレ判定サブルーチンを示すフローチャートである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to the first embodiment of the present invention, FIG. 1 is a schematic configuration diagram of a vehicle driving support system, FIG. 2 is an explanatory diagram showing an effective area cut out from a captured image, and FIG. 3 is a captured image of an environment outside the vehicle FIG. 4 is an explanatory diagram schematically showing an example, FIG. 4 is an explanatory diagram showing white line candidate points detected from the image of FIG. 3, FIG. 5 is an explanatory diagram showing an example of a change in luminance on the search line, and FIG. FIG. 7A is an explanatory diagram showing the amount of movement of the host vehicle due to traveling, and FIG. 7B is a relative diagram of the white line candidate point detected in the previous frame relative to the host vehicle. FIG. 8 is an explanatory diagram showing a white line approximation line calculated using white line candidate points and a white line detection area used in the next frame, FIG. 9 is a flowchart showing a system stop determination routine, and FIG. The optical axis misalignment determination subroutine in the horizontal direction It is to flow chart.
図1において、符号1は自動車等の車両(自車両)であり、この車両1には運転支援システム2が搭載されている。この運転支援システム2は、例えば、撮像手段としてのステレオカメラ3、ステレオ画像認識装置4、制御ユニット5等を有して構成されている。なお、これらの構成のうち、本実施形態においては、主としてステレオカメラ3及びステレオ画像認識装置4により、自車前方の車外環境を認識する車外監視装置が構成されている。
In FIG. 1,
また、自車両1には、自車速Vを検出する車速センサ11、ヨーレートγを検出するヨーレートセンサ12、運転支援制御の各機能のON−OFF切換等を行うメインスイッチ13、ステアリングホイールに連結するステアリング軸に対設されて舵角θstを検出する舵角センサ14、ドライバによるアクセルペダル踏込量(アクセル開度)θaccを検出するアクセル開度センサ15等が設けられている。
The
ステレオカメラ3は、ステレオ光学系として、例えば電荷結合素子(CCD)等の固体撮像素子を用いた1組のCCDカメラで構成されている。これら左右のCCDカメラは、それぞれ車室内の天井前方に一定の間隔を持って取り付けられ、車外の対象を異なる視点からステレオ撮像し、画像データをステレオ画像認識装置4に出力する。なお、以下の説明において、ステレオ撮像された画像のうち一方の画像(例えば、右側の画像)を基準画像と称し、他方の画像(例えば、左側の画像)を比較画像と称す。 The stereo camera 3 is constituted by a set of CCD cameras using a solid-state imaging device such as a charge coupled device (CCD) as a stereo optical system. These left and right CCD cameras are each mounted at a certain distance in front of the ceiling in the vehicle interior, take a stereo image of an object outside the vehicle from different viewpoints, and output image data to the stereo image recognition device 4. In the following description, one image (for example, the right image) of the stereo images is referred to as a reference image, and the other image (for example, the left image) is referred to as a comparative image.
ここで、本実施形態において、ステレオ画像認識装置4は、例えば、図2に示すように、ステレオカメラ3から入力された各画像データ(撮像画像)のうち、所定サイズの領域を有効領域Agとして切り出し、切り出された基準画像及び比較画像に対し、例えば、以下に示す各種画像処理等を行う。なお、有効領域Agは、例えば、初期設定の状態において、撮像画像の略中央に設定されている。 Here, in the present embodiment, the stereo image recognition device 4 uses, for example, an area of a predetermined size as the effective area Ag among the image data (captured images) input from the stereo camera 3 as shown in FIG. For example, the following various image processing is performed on the cut-out and cut-out reference image and comparison image. Note that the effective area Ag is set, for example, in the approximate center of the captured image in the initial setting state.
すなわち、ステレオ画像認識装置4は、先ず、基準画像を例えば4×4画素の小領域に分割し、それぞれの小領域の輝度或いは色のパターンを比較画像と比較して対応する領域を見つけ出し、基準画像全体に渡る距離分布を求める。さらに、ステレオ画像認識装置4は、基準画像上の各画素について隣接する画素との輝度差を調べ、これらの輝度差が閾値を超えているものをエッジ点として抽出するとともに、抽出した画素(エッジ点)に距離情報を付与することで、距離画像(距離情報を備えたエッジ点の分布画像)を生成する。そして、ステレオ画像認識装置4は、生成した距離画像に対して既知のグルーピング処理を行い、予め記憶しておいた3次元的な枠(ウインドウ)と比較することで、自車前方の白線、側壁、立体物等を認識する。 That is, the stereo image recognition apparatus 4 first divides the reference image into small areas of, for example, 4 × 4 pixels, finds a corresponding area by comparing the luminance or color pattern of each small area with the comparative image, Find the distance distribution over the entire image. Further, the stereo image recognition device 4 examines the luminance difference between each pixel on the reference image and an adjacent pixel, extracts those whose luminance difference exceeds a threshold value as an edge point, and extracts the extracted pixel (edge A distance image (a distribution image of edge points having distance information) is generated by giving distance information to (point). Then, the stereo image recognition device 4 performs a known grouping process on the generated distance image and compares it with a pre-stored three-dimensional frame (window), so that a white line and a side wall in front of the vehicle Recognize three-dimensional objects.
ここで、本実施形態において認識対象となる白線とは、例えば、単一の車線区画線や車線区画線の内側に視線誘導線等が併設された多重線(二重線等)のように、道路上に延在して自車走行レーンを区画する線を総称するものであり、各線の形態としては、実線、破線等を問わず、さらに、黄色線等をも含む。また、本実施形態の白線認識においては、道路上に実在する白線が二重白線等であっても、左右それぞれ単一の近似式(1次以上の直線或いは曲線近似式)によって近似して認識するものとする。 Here, the white line to be recognized in the present embodiment is, for example, a single lane line or a multiple line (double line or the like) in which a line of sight guide line is provided inside the lane line, Lines that extend on the road and divide the vehicle lane are collectively referred to, and the form of each line includes a solid line, a broken line, and the like, and further includes a yellow line and the like. In the white line recognition of the present embodiment, even if the white line existing on the road is a double white line or the like, it is recognized by approximating it with a single approximate expression (a linear or curved approximate expression of the first or higher order). It shall be.
ところで、実際の道路上に敷設された白線には上述のように各種バリエーションが存在する他、白線の形態は走行路の分岐や合流等に伴って変化する。加えて、道路上には路面補修跡や、水溜まり、雪等の各種ノイズが存在する。従って、画一的な処理によって、全ての場面で精度よく白線を認識することは困難となる。そこで、ステレオ画像認識装置4は、上述のような距離画像に基づくパターンマッチングを用いた白線認識のみに頼ることなく、各種方式を用いた白線認識を補完的に行い、これらの認識結果を総合的に判断して最終的な白線を認識する。 By the way, the white line laid on the actual road has various variations as described above, and the form of the white line changes with the branching or merging of the traveling road. In addition, there are various noises such as road surface repair marks, water pools and snow on the road. Therefore, it is difficult to accurately recognize the white line in all scenes by uniform processing. Therefore, the stereo image recognition device 4 complementarily performs white line recognition using various methods without relying only on white line recognition using pattern matching based on the distance image as described above, and comprehensively recognizes these recognition results. Judgment to recognize the final white line.
このような白線認識の一つとして、ステレオ画像認識装置4は、自車前方を撮像した一方の画像(例えば、図3に示す基準画像)上の水平方向の輝度変化に基づいて左右の白線認識を行う。 As one of such white line recognition, the stereo image recognition device 4 recognizes the left and right white lines based on a change in luminance in the horizontal direction on one image (for example, the reference image shown in FIG. 3) taken in front of the vehicle. I do.
具体的に説明すると、例えば、図4に示すように、ステレオ画像認識装置4は、画像上に左右の白線検出領域Ad(Adl,Adr)を設定し、各白線検出領域Ad内で水平方向に延在する複数の検索ラインlに対し、検索ラインl毎に車幅方向内側から外側に向けて輝度変化を調べる。そして、ステレオ画像認識装置4は、例えば、図5に示すように、車幅方向外側の画素の輝度が内側の画素の輝度に対して相対的に高く、且つ、その変化量を示す輝度の微分値がプラス側の設定閾値以上となる点(エッジ点)を検出する。そして、ステレオ画像認識装置4は、各白線検出領域Ad内の各検索ラインl上において、輝度が暗から明に所定以上変化する最初のエッジ点を白線候補点Pとしてそれぞれ注出し、実空間上に投影する(図6参照)。
More specifically, for example, as shown in FIG. 4, the stereo image recognition device 4 sets left and right white line detection areas Ad (Adl, Adr) on the image, and horizontally in each white line detection area Ad. For a plurality of
また、ステレオ画像認識装置4は、例えば、図7(a)に示す関係から、自車1の車速Vと、ヨーレートγから求まるヨー角θとに基づき、撮像画像の1フレームあたり(撮像画像が1フレーム更新されるまでの間t)の自車1の移動量Δx,Δzを、以下の(1)式及び(2)式を用いて演算する。
Δx=V×sinθ …(1)
Δz=V×cosθ …(2)
そして、ステレオ画像認識装置4は、以下の(3)式及び(4)式に示すように、前フレーム以前に検出した白線候補点Pold(Xold,Zold)に対し、自車移動量Δx,Δzを減算した後、現在のフレームにおける車両固定座標系(X,Z)への座標変換を行うことにより、自車1の後方所定距離以内に存在する白線候補点Ppreの座標を演算する(図7(b)参照)。
Xpre=(Xold・Δx)×cosθ−(Zold・Δz)×sinθ …(3)
Zpre=(Zold・Δx)×sinθ+(Zold・Δz)×cosθ …(4)
そして、ステレオ画像認識装置4は、現フレームにおいて検出した白線候補点Pと、前フレーム以前の白線候補点Poldを座標変換して求めた白線候補点Ppreと、からなる点列に基づき、左右の白線近似線Ll,Lrを、最小二乗法を用いて、以下の(5)式及び(6)式に示す近似式で定義する(図8参照)。
Δx = V × sin θ (1)
Δz = V × cos θ (2)
Then, as shown in the following formulas (3) and (4), the stereo image recognition device 4 performs the own vehicle movement amount Δx, Δz with respect to the white line candidate point Pold (Xold, Zold ) detected before the previous frame. Then, the coordinates of the white line candidate point Ppre existing within a predetermined distance behind the
Xpre = (Xold · Δx) × cos θ− (Zold · Δz) × sin θ (3)
Zpre = (Zold · Δx) × sin θ + (Zold · Δz) × cos θ (4)
Then, the stereo image recognition device 4 is based on a point sequence including the white line candidate point P detected in the current frame and the white line candidate point Ppre obtained by coordinate conversion of the white line candidate point Pold before the previous frame. The white line approximate lines Ll and Lr are defined by the approximate expression shown in the following expressions (5) and (6) using the least square method (see FIG. 8).
ここで、(5)、(6)式において、2次係数A(Al,Ar)は白線の曲率成分を示すパラメータであり、1次係数B(Bl,Br)は車線ヨー角成分(自車1に対する白線の傾き成分)を示すパラメータであり、C(Cl,Cr)は車線位置(自車1に対する白線の横位置)を示すパラメータである。 Here, in the equations (5) and (6), the secondary coefficient A (Al, Ar) is a parameter indicating the curvature component of the white line, and the primary coefficient B (Bl, Br) is the lane yaw angle component (own vehicle) Is a parameter indicating a lane position (a horizontal position of the white line with respect to the host vehicle 1).
さらに、ステレオ画像認識装置4は、左右の白線近似線Ll,Lrを車幅方向内側及び外側にそれぞれΔEオフセットさせることにより、次フレームでの白線検出領域Adl,Adrを設定する(図8参照)。 Further, the stereo image recognition device 4 sets the white line detection areas Adl and Adr in the next frame by offsetting the left and right white line approximate lines Ll and Lr by ΔE respectively in the vehicle width direction inside and outside (see FIG. 8). .
ステレオ画像認識装置4は、このように白線近似式の算出を設定時間毎に繰り返し行うことで、自車1が設定時間T0(例えば、T0=数十秒〜数分)走行したときの白線に対する自車1の横位置の変化量(第1の横方向移動量Xc)を白線近似式の定数Cに基づいて算出するとともに、自車が設定時間T0走行したときの白線に対する自車の横位置の変化量(第2の横方向移動量Xb)を白線近似式の1次係数Bに基づいて算出する。そして、ステレオ画像認識装置4は、第1の横方向移動量Xcと第2の横方向移動量Xbとを比較し、これらの差である横方向移動量誤差Errが予め設定された閾値Eth1以上であるとき、ステレオカメラ3の水平方向への光軸ズレが発生していることを判定する。
The stereo image recognition device 4 repeats the calculation of the white line approximation formula every set time in this way, so that the self-
ここで、本実施形態のステレオカメラ3は左右のカメラが図示しないステー等を介して一体的に保持された構成をなしており、左右のカメラ間の光軸は工場等において厳密に調整されるものである。このため、原則的には、左右のカメラの光軸間にはズレが発生しない。従って、本実施形態において想定する光軸ズレとは、例えば、乗員等がステレオカメラ3に強い衝撃を加えた場合や車体の経年変化等に起因して、自車1に対してステレオカメラ3全体の光軸にズレが生じた場合をいう。すなわち、本実施形態におけるステレオカメラ3の光軸ズレとは、例えば、自車1の前後軸に対して左右のカメラの光軸がともに同様の角度で水平方向に傾くことをいう。
Here, the stereo camera 3 of the present embodiment is configured such that the left and right cameras are integrally held via a stay or the like (not shown), and the optical axis between the left and right cameras is strictly adjusted in a factory or the like. Is. Therefore, in principle, no deviation occurs between the optical axes of the left and right cameras. Therefore, the optical axis shift assumed in the present embodiment is, for example, when the occupant or the like applies a strong impact to the stereo camera 3 or due to secular change of the vehicle body, etc. This is a case where the optical axis is displaced. That is, the optical axis shift of the stereo camera 3 in the present embodiment means that, for example, the optical axes of the left and right cameras are inclined in the horizontal direction at the same angle with respect to the longitudinal axis of the
なお、本実施形態におけるステレオカメラ3の光軸ズレ検出において、第1,第2の横方向移動量Xc,Xbには、例えば、左右の白線それぞれについて算出される横方向移動量の平均値が用いられる。但し、白線が左側或いは右側の何れか一方のみしか検出されていない場合には、検出された白線について算出される横方向移動量がそのまま第1,第2の横方向移動量Xc,Xbとして用いられる。 In the detection of the optical axis deviation of the stereo camera 3 in the present embodiment, the first and second lateral movement amounts Xc and Xb are, for example, average values of the lateral movement amounts calculated for the left and right white lines. Used. However, when only one of the left and right sides of the white line is detected, the lateral movement amount calculated for the detected white line is used as it is as the first and second lateral movement amounts Xc and Xb. It is done.
また、ステレオ画像認識装置4は、ステレオカメラ3に水平方向の光軸ズレが発生したと判定した場合、ステレオカメラ3で撮像した左右の撮像画像から切り出す有効領域Agの位置を、第1,第2の横方向移動量Xc,Xbの差Errに応じた補正量Δiにて補正する(図2中の破線参照)。すなわち、ステレオ画像認識装置4は、ステレオカメラ3の光軸ズレを切り出し位置の調整によって補正する。 Further, when the stereo image recognition device 4 determines that the horizontal optical axis shift has occurred in the stereo camera 3, the position of the effective area Ag cut out from the left and right captured images captured by the stereo camera 3 is determined as the first and first positions. 2 is corrected with a correction amount Δi corresponding to the difference Err between the lateral movement amounts Xc and Xb (see the broken line in FIG. 2). That is, the stereo image recognition device 4 corrects the optical axis shift of the stereo camera 3 by adjusting the cutout position.
また、ステレオ画像認識装置4は、ステレオカメラ3に水平方向の光軸ズレが発生したと判定した場合、ステレオ画像から認識した車外環境(走行環境情報)に基づく車両制御を停止する旨の判定を行い、制御ユニット5に対し、各種運転支援制御の停止を指示する。さらに、ステレオ画像認識装置4は、ステレオカメラ3の光軸ズレが切り出し位置の調整によって補正可能な範囲を超えていると判定したとき、ディーラ等において光軸調整を行う旨の警報を出力する。 When the stereo image recognition device 4 determines that the horizontal optical axis shift has occurred in the stereo camera 3, the stereo image recognition device 4 determines that the vehicle control based on the vehicle exterior environment (travel environment information) recognized from the stereo image is stopped. The control unit 5 is instructed to stop various driving support controls. Further, when the stereo image recognition device 4 determines that the optical axis shift of the stereo camera 3 exceeds the range that can be corrected by adjusting the cut-out position, the stereo image recognition device 4 outputs a warning that the optical axis adjustment is performed in a dealer or the like.
このように、本実施形態において、ステレオ画像認識装置4は、白線近似手段、第1の横移動量算出手段、第2の横移動量算出手段、光軸ズレ判定手段、有効領域補正手段、及び、制御停止判定手段としての各機能を実現する。 As described above, in the present embodiment, the stereo image recognition device 4 includes the white line approximation unit, the first lateral movement amount calculation unit, the second lateral movement amount calculation unit, the optical axis deviation determination unit, the effective area correction unit, and Each function as a control stop determination means is realized.
制御ユニット5には、ステレオ画像認識装置4で認識された自車両1前方の走行環境情報が入力される。さらに、制御ユニット5には、自車両1の走行情報として、車速センサ11からの車速V、ヨーレートセンサ12からのヨーレートγ等が入力されると共に、ドライバによる操作入力情報として、メインスイッチ13からの操作信号、舵角センサ14からの舵角θst、アクセル開度センサ15からのアクセル開度θacc等が入力される。
The control unit 5 receives driving environment information in front of the
そして、例えば、ドライバによるメインスイッチ13の操作を通じて、運転支援制御の機能の1つであるACC(Adaptive Cruise Control)機能の実行が指示されると、制御ユニット5は、ステレオ画像認識装置4で認識した先行車方向を読み込み、自車走行路上に追従対象の先行車が走行しているか否かを識別する。
For example, when an execution of an ACC (Adaptive Cruise Control) function which is one of the functions of the driving support control is instructed through the operation of the
その結果、追従対象の先行車が検出されていない場合は、スロットル弁16の開閉制御(エンジンの出力制御)を通じて、ドライバが設定したセット車速に自車両1の車速Vを維持させる定速走行制御を実行する。
As a result, when the preceding vehicle to be tracked is not detected, the constant speed traveling control for maintaining the vehicle speed V of the
一方、追従対象車両である先行車が検出され、且つ、当該先行車の車速がセット車速以下の場合は、先行車との車間距離を目標車間距離に収束させた状態で追従する追従走行制御が実行される。この追従走行制御時において、制御ユニット5は、基本的にはスロットル弁16の開閉制御(エンジンの出力制御)を通じて、先行車との車間距離を目標車間距離に収束させる。さらに、先行車の急な減速等によりスロットル弁16の制御のみでは十分な減速度が得られないと判断した場合、制御ユニット5は、アクティブブースタ17からの出力液圧の制御(ブレーキの自動介入制御)を併用し、車間距離を目標車間距離に収束させる。
On the other hand, when a preceding vehicle that is a tracking target vehicle is detected and the vehicle speed of the preceding vehicle is equal to or lower than the set vehicle speed, the following traveling control is performed in which the following distance is converged to the target inter-vehicle distance. Executed. During this follow-up running control, the control unit 5 basically converges the inter-vehicle distance to the target inter-vehicle distance through the opening / closing control of the throttle valve 16 (engine output control). Furthermore, when it is determined that sufficient deceleration cannot be obtained only by controlling the
また、ドライバによるメインスイッチ13の操作を通じて、運転支援制御の機能の1つである車線逸脱防止機能の実行が指示されると、制御ユニット5は、例えば、自車走行レーンを規定する左右の白線(ステレオ画像認識装置4で認識した白線の近似線)に基づいて警報判定用ラインを設定するとともに、自車両1の車速Vとヨーレートγとに基づいて自車進行経路を推定する。そして、制御ユニット5は、例えば、自車前方の設定距離(例えば、10〜16[m])内において、自車進行経路が左右何れかの警報判定用ラインを横切っていると判定した場合、自車両1が現在の自車走行車線を逸脱する可能性が高いと判定し、車線逸脱警報を行う。
Further, when execution of the lane departure prevention function, which is one of the functions of the driving support control, is instructed through the operation of the
次に、ステレオカメラ3の光軸状態に基づくシステム停止判定について、図9のシステム停止判定ルーチンに従って説明する。このルーチンは、ステレオ画像認識装置4において、設定時間毎に繰り返し実行されるものであり、ルーチンがスタートすると、ステレオ画像認識装置4は、先ず、ステップS101において、運転支援システム2がリセット状態から復帰した直後であるか否かを調べる。ここで、運転支援システム2がリセットされ得る場面としては、例えば、ディーラ等においてステレオカメラ3の交換或いは修理等が行われる場合等が想定される。
Next, system stop determination based on the optical axis state of the stereo camera 3 will be described according to the system stop determination routine of FIG. This routine is repeatedly executed every set time in the stereo image recognition device 4. When the routine starts, the stereo image recognition device 4 first returns the driving
そして、ステップS101において、運転支援システム2がリセット状態から復帰した直後であると判定した場合、ステレオ画像認識装置4は、ステップS102に進み、ステレオカメラ3に水平方向の光軸ズレが発生していることを示す異常判定フラグFを「1」にセットした後、ステップS103に進む。すなわち、運転支援システム2がリセット状態から復帰した場合、ステレオ画像認識装置4は、ステレオカメラ3の光軸ズレが発生していないことが検証されるまでの間、異常判定フラグFを「1」にセットする。
If it is determined in step S101 that the driving
一方、ステップS101において、運転支援システム2はリセット状態から復帰した直後ではないと判定した場合、ステレオ画像認識装置4は、そのままステップS103に進む。
On the other hand, if it is determined in step S101 that the driving
ステップS101或いはステップS102からステップS103に進むと、ステレオ画像認識装置4は、ステレオカメラ3の光軸ズレ判定を行う。 When the process proceeds from step S101 or step S102 to step S103, the stereo image recognition device 4 performs optical axis misalignment determination of the stereo camera 3.
この光軸ズレ判定は、例えば、図10に示す水平方向への光軸ズレ判定サブルーチンのフローチャートに従って実行されるものであり、サブルーチンがスタートすると、ステレオ画像認識装置4は、ステップS201において、上述の(5)、(6)式で示した白線近似式の1次係数B及び定数Cを取得する。すなわち、ステレオ画像認識装置4は、自車走行レーンを規定する白線情報として、自車1に対する白線の傾き情報、及び、自車1に対する白線の横位置情報を取得する。
This optical axis misalignment determination is executed, for example, according to the flowchart of the optical axis misalignment determination subroutine in the horizontal direction shown in FIG. 10, and when the subroutine starts, the stereo image recognition device 4 performs the above-mentioned in step S201. The first order coefficient B and the constant C of the white line approximate expression shown by the expressions (5) and (6) are acquired. That is, the stereo image recognition device 4 acquires white line inclination information with respect to the
続くステップS202において、ステレオ画像認識装置4は、自車1が走行を開始してから設定時間T0以上経過しているか否か(すなわち、自車1が必要なサンプリング時間T0走行しているか否か)を調べる。
In subsequent step S202, the stereo image recognition device 4 determines whether or not the set time T0 has elapsed since the
そして、ステップS202において、自車1の走行開始から設定時間T0以上が経過していないと判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。
If it is determined in step S202 that the set time T0 or more has not elapsed since the start of traveling of the
一方、ステップS202において、自車1の走行開始から設定時間T0以上が経過していると判定した場合、ステレオ画像認識装置4は、ステップS203に進み、取得した定数Cに基づいて、過去設定時間T0の自車1の走行に伴う白線に対する横方向移動量(第1の横方向移動量Xc)を算出する。すなわち、現時点における白線に対する自車位置がC2であり、白線に対する設定時間T0前における白線に対する自車位置がC1である場合、ステレオ画像認識装置4は、第1の横方向移動量Xcを、以下の(7)式により算出する。
Xc=C2−C1 …(7)
そして、ステップS203からステップS204に進むと、ステレオ画像認識装置4は、取得した1次係数Bに基づいて、過去設定時間T0の自車1の走行に伴う白線に対する横方向移動量(第2の横方向移動量Xb)を算出する。すなわち、現時点における時刻がt2であり、設定時間T0前における時刻がt1である場合、ステレオ画像認識装置4は、第2の横方向移動量Xbを、以下の(8)式により算出する。
Xc = C2-C1 (7)
Then, when the process proceeds from step S203 to step S204, the stereo image recognition device 4 is based on the acquired primary coefficient B, and the amount of lateral movement relative to the white line accompanying the travel of the
そして、ステップS205に進むと、ステレオ画像認識装置4は、以下の(9)式により、第1の横方向移動量Xcと第2の横方向移動量Xbとの差を、横方向移動量誤差Errとして算出する。
Err=Xc−Xb …(9)
ここで、横方向移動量誤差Errは、基本的には、ステレオカメラ3の光軸方向が正しく調整されている場合には略零となる値である。
In step S205, the stereo image recognition device 4 calculates the difference between the first lateral movement amount Xc and the second lateral movement amount Xb by the following equation (9). Calculated as Err.
Err = Xc−Xb (9)
Here, the lateral movement amount error Err is basically a value that becomes substantially zero when the optical axis direction of the stereo camera 3 is correctly adjusted.
すなわち、上述の(5)、(6)式に示した白線近似式において、定数Cは、自車1の側方における白線との相対位置を示すものであるため、ステレオカメラ3の水平方向の光軸ズレによってはさほど影響を受けない値となる。従って、定数Cをパラメータとして用いて算出される第1の横方向移動量Xcは、仮にステレオカメラ3に水平方向の光軸ズレが発生したとしても、自車1の実際の横方向移動量に対して略誤差なく算出することが可能となる。一方、1次係数Bは、自車1に対する白線の傾きを示す係数であるため、ステレオカメラ3の水平方向の光軸ズレに大きな影響を受ける値である。従って、1次係数Bをパラメータとして用いて算出される第2の横方向移動量Xbは、ステレオカメラ3に水平方向の光軸ズレが発生している場合、自車1の実際に横方向移動量に対して誤差を有する値が算出される。これらの理由から、上述の(9)式において算出される横方向移動量誤差Errは、ステレオカメラ3に水平方向の光軸ズレが発生していない場合には略零となり、光軸ズレが発生している場合には、その絶対値が所定以上の大きさの値となる。
That is, in the white line approximation formulas shown in the above formulas (5) and (6), the constant C indicates the relative position to the white line on the side of the
ステップS205からステップS206に進むと、ステレオ画像認識装置4は、異常判定フラグFが「1」にセットされているか否かを調べる。 When the process proceeds from step S205 to step S206, the stereo image recognition device 4 checks whether or not the abnormality determination flag F is set to “1”.
そして、ステップS206において、異常判定フラグFが「1」にセットされておらず「0」にクリアされていると判定した場合、ステレオが画像認識装置4は、ステップS207に進み、横方向移動誤差の絶対値|Err|が予め設定された閾値Eth1以上の状態にあり、且つ、当該状態が予め設定された時間T1以上維持されているか否かを調べる。 If it is determined in step S206 that the abnormality determination flag F is not set to “1” and is cleared to “0”, the stereo image recognition apparatus 4 proceeds to step S207, and the lateral movement error is determined. It is checked whether the absolute value | Err | is equal to or greater than a preset threshold value Eth1, and whether or not the state is maintained for a preset time T1 or more.
そして、ステップS207において、横方向移動誤差の絶対値|Err|が閾値Eth1未満であると判定した場合、或いは、横方向移動誤差の絶対値|Err|が閾値以上であっても設定時間T1以上維持されていないと判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。 In step S207, when it is determined that the absolute value | Err | of the lateral movement error is less than the threshold Eth1, or even if the absolute value | Err | of the lateral movement error is greater than or equal to the threshold, the set time T1 or more. If it is determined that it is not maintained, the stereo image recognition device 4 exits the subroutine as it is.
一方、ステップS207において、横方向移動誤差の絶対値|Err|が閾値Eth1以上の状態が設定時間T1以上維持されていると判定した場合、ステレオ画像認識装置4は、ステップS208に進み、異常判定フラグFを「1」にセットした後、サブルーチンを抜ける。 On the other hand, if it is determined in step S207 that the state in which the absolute value | Err | of the lateral movement error is equal to or greater than the threshold Eth1 is maintained for the set time T1 or more, the stereo image recognition device 4 proceeds to step S208 and determines abnormality. After the flag F is set to “1”, the subroutine is exited.
また、ステップS206において、異常判定フラグFが「1」にセットされていると判定した場合、ステレオ画像認識装置4は、ステップS209に進み、横方向移動誤差の絶対値|Err|が予め設定された閾値Eth2未満の状態にあり、且つ、当該状態が予め設定された時間T2以上維持されているか否かを調べる。なお、閾値Eth2及び設定時間T2は、例えば、上述の閾値Err1及びT1とそれぞれ同様の値であっても良い。 If it is determined in step S206 that the abnormality determination flag F is set to “1”, the stereo image recognition device 4 proceeds to step S209, and the absolute value | Err | of the lateral movement error is preset. It is checked whether the state is less than the threshold value Eth2 and the state is maintained for a preset time T2 or more. The threshold Eth2 and the set time T2 may be the same values as the thresholds Err1 and T1 described above, for example.
そして、ステップS209において、横方向移動誤差の絶対値|Err|が閾値Eth2以上であると判定した場合、或いは、横方向移動誤差Errが閾値Eth2未満であっても設定時間T2以上維持されていないと判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。 In step S209, when it is determined that the absolute value | Err | of the lateral movement error is equal to or greater than the threshold Eth2, or even when the lateral movement error Err is less than the threshold Eth2, the set time T2 is not maintained. If it is determined that the stereo image recognition device 4 has left, the subroutine is exited.
一方、ステップS209において、横方向移動誤差の絶対値|Err|が閾値Eth2未満の状態が設定時間T2以上維持されていると判定した場合、ステレオ画像認識装置4は、ステップS210に進み、異常判定フラグFを「0」にクリアした後、サブルーチンを抜ける。 On the other hand, if it is determined in step S209 that the state in which the absolute value | Err | of the lateral movement error is less than the threshold Eth2 is maintained for the set time T2 or longer, the stereo image recognition device 4 proceeds to step S210 and determines whether there is an abnormality. After the flag F is cleared to “0”, the subroutine is exited.
図9に示すメインルーチンにおいて、ステップS103からステップS104に進むと、ステレオ画像認識装置4は、異常判定フラグFが「1」にセットされているか否かを調べる。 In the main routine shown in FIG. 9, when the process proceeds from step S103 to step S104, the stereo image recognition device 4 checks whether or not the abnormality determination flag F is set to “1”.
そして、ステップS104において、異常判定フラグFが「0」にクリアされていると判定した場合、ステレオ画像認識装置4は、ステップS105に進み、制御ユニット5等に対してシステム実行許可を行った後、ルーチンを抜ける。これにより、制御ユニット5等は、ステレオ画像によって認識した車外環境(走行環境情報)に基づく車両制御の実行が許可され、メインスイッチ13等を通じたドライバ等による設定状況等に応じて、車速制御や操舵支援制御等の各種車両制御を適宜実施することが可能となる。 If it is determined in step S104 that the abnormality determination flag F has been cleared to “0”, the stereo image recognition device 4 proceeds to step S105 and permits the control unit 5 and the like to execute the system. , Exit the routine. As a result, the control unit 5 or the like is permitted to execute vehicle control based on the environment outside the vehicle (traveling environment information) recognized by the stereo image. Various vehicle controls such as steering assist control can be appropriately implemented.
一方、ステップS104において、異常判定フラグFが「1」にセットされていると判定した場合、ステレオ画像認識装置4は、ステップS106に進み、異常判定フラグFが「1」にセットされている要因が運転支援システム2のリセットによるものであるか否かを調べる。
On the other hand, if it is determined in step S104 that the abnormality determination flag F is set to “1”, the stereo image recognition device 4 proceeds to step S106, and the cause that the abnormality determination flag F is set to “1”. Is determined to be due to the reset of the driving
そして、ステップS106において、異常判定フラグFが「1」にセットされている要因が運転支援システム2のリセットであると判定した場合、ステレオ画像認識装置4は、ステップS111に進む。
If it is determined in step S106 that the cause of the abnormality determination flag F being set to “1” is reset of the driving
一方、ステップS106において、異常判定フラグFが「1」にセットされている要因が運転支援システム2のリセットでないと判定した場合、ステレオ画像認識装置4は、ステップS107に進み、ステレオカメラ3によって撮像された左右の撮像画像から切り出される有効領域Agが補正可能な状態にあるか否かを調べる。ここで、有効領域Agを補正可能な状態とは、例えば、撮像画像上において有効領域Agが水平方向の右端或いは左端に到達しておらず、補正によって有効領域Agを撮像画像上の水平方向に移動させる余地がある状態をいう。
On the other hand, if it is determined in step S106 that the cause that the abnormality determination flag F is set to “1” is not the reset of the driving
そして、ステップS107において、撮像画像に対して有効領域Agを補正可能な状態にないと判定した場合、ステレオ画像認識装置4は、ステップS110に進み、ステレオカメラ3に光軸ズレが発生している旨をドライバに報知するための警報を出力した後、ステップS111に進む。 If it is determined in step S107 that the effective area Ag is not correctable for the captured image, the stereo image recognition device 4 proceeds to step S110, and an optical axis shift has occurred in the stereo camera 3. After outputting an alarm for notifying the driver of the fact, the process proceeds to step S111.
一方、ステップS107において、撮像画像に対して有効領域Agを補正可能な状態にあると判定した場合、ステレオ画像認識装置4は、ステップS108に進み、有効領域Agの補正が行われてから設定時間T0以上が経過しているか否かを調べる。 On the other hand, if it is determined in step S107 that the effective area Ag is correctable for the captured image, the stereo image recognition device 4 proceeds to step S108, and after the correction of the effective area Ag is performed, the set time is reached. It is checked whether T0 or more has elapsed.
そして、ステップS108において、有効領域Agの補正が過去に行われており、当該有効領域Agの補正が行われてから未だ設定時間T0以上が経過していないと判定した場合、ステレオ画像認識装置4は、ステップS111に進む。すなわち、有効領域Agの補正が過去に行われている場合、設定時間T0が経過するまでの間は、当該補正によって光軸ズレが解消されたか否かの判断が上述のステップS103において困難であるため、新たに有効領域Agの補正を行うことなく、ステップS111に進む。 If it is determined in step S108 that the effective area Ag has been corrected in the past and the set time T0 or more has not yet elapsed since the effective area Ag has been corrected, the stereo image recognition device 4 Advances to step S111. That is, when the effective area Ag has been corrected in the past, it is difficult to determine whether or not the optical axis deviation has been eliminated by the correction until the set time T0 has elapsed in the above-described step S103. Therefore, the process proceeds to step S111 without newly correcting the effective area Ag.
一方、ステップS108において、有効領域Agの補正が過去に行われていないと判定した場合、或いは、有効領域Agの補正が過去に行われている場合であって且つ当該補正から設定時間T0以上が経過していると判定した場合、ステレオ画像認識装置4は、ステップS109に進み、例えば、撮像画像上の有効領域Agの切り出し位置を横方向移動誤差Errに応じた補正量Δiにて水平方向に補正した後、ステップS111に進む。すなわち、ステレオ画像認識装置4には、例えば、横方向移動誤差Errに応じた補正量Δiを示すマップ等が予め設定されており、ステレオ画像認識装置4は、このマップ等を参照して求めた補正量Δiにて有効領域Agの補正を行う。 On the other hand, if it is determined in step S108 that the correction of the effective area Ag has not been performed in the past, or if the correction of the effective area Ag has been performed in the past and the correction time has exceeded the set time T0. If it is determined that the time has elapsed, the stereo image recognition device 4 proceeds to step S109, and for example, the cutout position of the effective area Ag on the captured image is set in the horizontal direction with the correction amount Δi corresponding to the lateral movement error Err. After the correction, the process proceeds to step S111. That is, for example, a map indicating the correction amount Δi corresponding to the lateral movement error Err is set in advance in the stereo image recognition device 4, and the stereo image recognition device 4 is obtained with reference to this map and the like. The effective area Ag is corrected with the correction amount Δi.
そして、ステップS106、ステップS108、ステップS109、或いは、ステップS110からステップS111に進むと、ステレオ画像認識装置4は、制御ユニット5等に対してシステムを停止する旨の指示を行った後、ルーチンを抜ける。これにより、制御ユニット5等においては、ステレオ画像から認識した車外情報に基づく各種車両制御が停止される。 When the process proceeds from step S106, step S108, step S109, or step S110 to step S111, the stereo image recognition device 4 instructs the control unit 5 and the like to stop the system, and then executes the routine. Exit. Thereby, in the control unit 5 or the like, various vehicle controls based on the outside information recognized from the stereo image are stopped.
このような実施形態によれば、ステレオカメラ3によって撮像された画像に基づいて自車走行路を区画する白線を1次以上の近似式で近似し、自車1が設定時間T0走行したときの白線に対する自車1の横位置の変化量(第1の横方向移動量Xc)を近似式の定数Cに基づいて算出するとともに、自車1が設定時間T0走行したときの白線に対する自車1の横位置の変化量(第2の横方向移動量Xb)を近似式の1次係数Bに基づいて算出し、これら第1の横方向移動量Xcと第2の横方向移動量Xbとの差である横方向移動誤差の絶対値|Err|が設定閾値Eth1以上であるとき、自車1に対するステレオカメラ3の水平方向への光軸ズレが発生していることを判定することにより、撮像光軸のズレを様々な走行環境下においてリアルタイムに検出することができる。
According to such an embodiment, when the
すなわち、撮像画像に基づいて認識される白線近似式の特性上、自車1の側方における白線との相対位置を示す定数Cはステレオカメラ3の光軸ズレによってはさほど影響を受けないという性質を有する一方、自車1に対する白線の傾きを示す1次係数Bはステレオカメラ3の光軸ズレに大きな影響を受けるという性質に着目し、これらに基づいてそれぞれ算出した第1,第2の横方向移動量Xc,Xbの差(横方向移動誤差)の絶対値|Err|が設定閾値Eth1以上である場合にはステレオカメラ3の光軸ズレが発生していることを判定することにより、自車走行路を区画する左右の白線のうち少なくとも何れか一方が検出されている環境下において光軸ズレをリアルタイムに検出することができる。
That is, on the characteristic of the white line approximation formula recognized based on the captured image, the constant C indicating the relative position to the white line on the side of the
この場合において、光軸ズレが発生していることを判定した場合には、横方向移動誤差Errに応じた補正量Δiにて撮像画像上の有効領域Agを補正することにより、軽微な光軸ズレであれば整備工場等において機械的な光軸調整を行うことなく、自車1において直ちに光軸補正を行うことができる。
In this case, when it is determined that the optical axis deviation has occurred, the minor optical axis is corrected by correcting the effective area Ag on the captured image with the correction amount Δi corresponding to the lateral movement error Err. If there is a deviation, the optical axis can be corrected immediately in the
次に、図11乃至図14は本発明の第2の実施形態に係わり、図11は垂直方向への光軸ズレ判定サブルーチンを示すフローチャート、図12は自車両から白線候補点までの距離の計算方法を示す説明図、図13は自車両を基準とする白線候補点の高さ計算方法を示す説明図、図14は自車両を基準とした路面の傾斜状態を示す説明図である。なお、本実施形態は、上述の第1の実施形態に対し、ステレオカメラ3の垂直方向への光軸ズレ判定を追加したものである。 Next, FIGS. 11 to 14 relate to the second embodiment of the present invention, FIG. 11 is a flowchart showing an optical axis misalignment determination subroutine in the vertical direction, and FIG. 12 is a calculation of the distance from the own vehicle to the white line candidate point. FIG. 13 is an explanatory diagram showing a method for calculating the height of white line candidate points with reference to the own vehicle, and FIG. 14 is an explanatory diagram showing an inclined state of the road surface with reference to the own vehicle. Note that the present embodiment is obtained by adding optical axis misalignment determination in the vertical direction of the stereo camera 3 to the first embodiment described above.
すなわち、本実施形態においては、第1の実施形態で示したステップS103の処理において、水平方向のみならず垂直方向への光軸ズレについても判定される。また、詳細な説明については省略するが、ステップS103において垂直方向への光軸ズレが判定されると、本実施形態のステレオ画像認識装置4は、図9に示すステップS104以下の処理について、水平方向への光軸ズレに対する判定結果に対する処理と略同様の処理を行う。但し、ステレオ画像認識装置4は、ステップS104以下の処理において、水平方向或いは垂直方向の少なくとも何れか一方への光軸ズレ等に基づいて異常警報の出力やシステム停止等を行い、また、垂直方向に光軸ズレが発生している旨の判定がなされ手いる場合、ステレオ画像認識装置4は、ステップS109において、有効領域Agを垂直方向に補正する。 That is, in this embodiment, in the process of step S103 shown in the first embodiment, the optical axis shift in the vertical direction as well as the horizontal direction is determined. Although detailed description is omitted, when the optical axis shift in the vertical direction is determined in step S103, the stereo image recognition device 4 according to the present embodiment performs horizontal processing for the processes in and after step S104 shown in FIG. A process substantially similar to the process for the determination result for the optical axis shift in the direction is performed. However, the stereo image recognition device 4 outputs an abnormal alarm, stops the system, etc. based on an optical axis shift in at least one of the horizontal direction and the vertical direction in the processing of step S104 and the subsequent steps. If it is determined that the optical axis deviation has occurred in step S109, the stereo image recognition device 4 corrects the effective area Ag in the vertical direction in step S109.
垂直方向への光軸ズレ判定は、例えば、図11に示す光軸ズレ判定サブルーチンのフローチャートに従って実行されるものであり、このサブルーチンがスタートすると、ステレオ画像認識装置4は、先ず、ステップS301において、路面の傾斜を表す近似式を算出する。すなわち、ステレオ画像認識装置4は、例えば、ステレオカメラを構成する左右のカメラ31L,31Rの光軸が自車1の水平方向に対して誤差なく調整されているとの過程のもと、路面の傾斜を算出する。
The optical axis misalignment determination in the vertical direction is executed, for example, according to the flowchart of the optical axis misalignment determination subroutine shown in FIG. 11, and when this subroutine starts, the stereo image recognition device 4 firstly performs step S301. An approximate expression representing the slope of the road surface is calculated. In other words, the stereo image recognition device 4 is, for example, in the process that the optical axes of the left and
具体的に説明すると、ステレオ画像認識装置4は、先ず、白線候補点Pnについて、左右のカメラ31L,31Rの視差に基づき、光軸方向の距離(白線までの距離z)を求める。すなわち、例えば、図12に示すように、自車までの距離をz[mm]、カメラ間距離をL[mm]、各カメラ31L,31Rのレンズ光学系31La,31Raから撮像素子31Lb,31Rbまでの焦点間距離をf[mm]、右カメラ31Rを基準とする左右カメラ31L,31R間の視差(ピクセル数)をd[pix]、画素ピッチ(横)をWi[mm/pix]とすると、比例関係から、例えば、以下の(10)式が導かれる。
Specifically, the stereo image recognition device 4 first obtains the distance in the optical axis direction (distance z to the white line) for the white line candidate point Pn based on the parallax between the left and
L:z=d・Wi:f …(10)
さらに、この(10)式を変形すると、以下の(11)式を得ることができる。
z=(L・f)/(d・Wi) …(11)
また、例えば、図13に示すように、各カメラ31L,31Rの地表からの高さをCAHM[mm]、光軸jvを基準とする白線候補点Pnの結像位置の座標をj[pix]、画素ピッチをWj[mm/pix]とすると、白線候補点Pnの高さyについて、例えば、以下の(12)式が導かれる。
L: z = d · Wi: f (10)
Further, when the equation (10) is modified, the following equation (11) can be obtained.
z = (L · f) / (d · Wi) (11)
Also, for example, as shown in FIG. 13, the height from the ground surface of each
(CAHM−y)/z=(Wi・(j−jv))/f …(12)
さらに、この(12)式を変形すると、以下の(13)式を得ることができる。
y=((Wi・(j−jv))/f)・z+CAHM …(13)
従って、上記した(11)式及び(13)式から、白線候補点PnのZ座標及びY座標を算出することができる。
(CAHM-y) / z = (Wi · (j−jv)) / f (12)
Furthermore, when the equation (12) is modified, the following equation (13) can be obtained.
y = ((Wi · (j−jv)) / f) · z + CAHM (13)
Therefore, the Z coordinate and the Y coordinate of the white line candidate point Pn can be calculated from the above equations (11) and (13).
ステレオ画像認識装置4は、このような計算を距離画像上における各白線候補点に対して行い、これらの分布を、例えば、図14に示すように、各点の座標をZ−Y平面上で,以下の(14)式によって直線近似する。
Y=a・Z+b …(14)
これにより、ステレオ画像認識装置4では、カメラ31L,31Rの光軸を基準とした道路の傾きa及び高さbの変動(換言すれば、自車走行路が平坦路であると仮定した場合の自車両(カメラ)の傾き及び高さの変動)を検出することができる。
The stereo image recognition device 4 performs such calculation for each white line candidate point on the distance image, and distributes the coordinates of each point on the ZY plane as shown in FIG. Approximate a straight line by the following equation (14).
Y = a · Z + b (14)
Thereby, in the stereo image recognition apparatus 4, the fluctuation | variation of the inclination a of the road and height b on the basis of the optical axis of the
ステップS301からステップS302に進むと、ステレオ画像認識装置4は、自車1の走行開始から設定時間T0以上が経過しているか否かを調べる。
When the process proceeds from step S301 to step S302, the stereo image recognition device 4 checks whether or not the set time T0 or more has elapsed since the
そして、ステップS302において、自車1の走行開始から設定時間T0以上が経過していないと判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。
If it is determined in step S302 that the set time T0 or more has not elapsed since the start of traveling of the
一方、ステップS302において、自車1の走行開始から設定時間T0以上が経過していると判定した場合、ステレオ画像認識装置4は、ステップS303に進み、算出した(14)式中において路面の傾きを示す1次係数aの過去設定時間T0の履歴に基づき、路面の傾きの平均値a_aveを算出する。
On the other hand, if it is determined in step S302 that the set time T0 or more has elapsed since the start of traveling of the
そして、ステップS303からステップS304に進むと、ステレオ画像認識装置4は、ステレオカメラ3の垂直方向への光軸ズレが発生していることを示す異常判定フラグF2が「1」にセットされているか否かを調べる。 Then, when the process proceeds from step S303 to step S304, the stereo image recognition apparatus 4 has the abnormality determination flag F2 indicating that the optical axis shift in the vertical direction of the stereo camera 3 is set to “1”. Check for no.
そして、ステップS304において、異常判定フラグF2が「1」にセットされておらず「0」にクリアされていると判定した場合、ステレオ画像認識装置4は、ステップS305に進み、路面の傾きの平均値の絶対値|a_ave|が予め設定された閾値ath1以上であるか否かを調べる。 If it is determined in step S304 that the abnormality determination flag F2 is not set to “1” and is cleared to “0”, the stereo image recognition device 4 proceeds to step S305 and averages the road surface inclination. It is checked whether or not the absolute value | a_ave | of the value is greater than or equal to a preset threshold value ath1.
そして、ステップS305において、傾きの平均値の絶対値|a_ave|が閾値ath1未満であると判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。 If it is determined in step S305 that the absolute value | a_ave | of the average value of the slopes is less than the threshold value ath1, the stereo image recognition device 4 directly exits the subroutine.
一方、ステップS305において、傾きの平均値の絶対値|a_ave|が閾値ath1以上であると判定した場合、ステレオ画像認識装置4は、ステップS306に進み、異常判定フラグF2を「1」にセットした後、サブルーチンを抜ける。 On the other hand, when it is determined in step S305 that the absolute value | a_ave | of the average value of the slopes is equal to or greater than the threshold value ath1, the stereo image recognition device 4 proceeds to step S306 and sets the abnormality determination flag F2 to “1”. Then exit the subroutine.
また、ステップS304において、異常判定フラグF2が「1」にセットされていると判定した場合、ステレオ画像認識装置4は、ステップS307に進み、傾きの平均値の絶対値|a_ave|が予め設定された閾値ath2未満であるか否かを調べる。なお、閾値ath2は、上述の閾値ath1と同様の値であっても良い。 If it is determined in step S304 that the abnormality determination flag F2 is set to “1”, the stereo image recognition device 4 proceeds to step S307, and the absolute value | a_ave | of the average value of the inclination is set in advance. It is checked whether it is less than the threshold value ath2. The threshold value ath2 may be the same value as the threshold value ath1 described above.
そして、ステップS307において、傾きの平均値の絶対値|a_ave|が閾値ath2以上であると判定した場合、ステレオ画像認識装置4は、そのまま、サブルーチンを抜ける。 If it is determined in step S307 that the absolute value | a_ave | of the average value of the slopes is equal to or greater than the threshold value ath2, the stereo image recognition device 4 directly exits the subroutine.
一方、ステップS307において、傾きの平均値の絶対値|a_ave|が閾値ath2未満であると判定した場合、ステレオ画像認識装置4は、ステップS308に進み、異常判定フラグF2を「0」にクリアした後、サブルーチンを抜ける。 On the other hand, when it is determined in step S307 that the absolute value | a_ave | of the average value of the slopes is less than the threshold value ath2, the stereo image recognition device 4 proceeds to step S308 and clears the abnormality determination flag F2 to “0”. Then exit the subroutine.
このような実施形態によれば、上述の第1の実施形態と同様の効果を奏することができる。 According to such an embodiment, the same effects as those of the first embodiment described above can be obtained.
なお、本発明は、以上説明した各実施形態に限定されることなく、種々の変形や変更が可能であり、それらも本発明の技術的範囲内である。例えば、上述の各実施形態においては、ステレオカメラの光軸ズレについて説明したが、特に水平方向の光軸ズレに関しては、車外を監視するための撮像手段が単眼カメラであっても、当該単眼カメラで撮像した画像に基づいて自車走行路を区画する白線を1次以上の近似式で近似することができる場合には、本発明を適用可能であることは勿論である。 In addition, this invention is not limited to each embodiment described above, A various deformation | transformation and change are possible, and they are also in the technical scope of this invention. For example, in each of the above-described embodiments, the optical axis deviation of the stereo camera has been described. However, particularly with respect to the optical axis deviation in the horizontal direction, even if the imaging means for monitoring the outside of the vehicle is a monocular camera, the monocular camera is concerned. Of course, the present invention can be applied to the case where the white line that divides the host vehicle travel path can be approximated by an approximate expression of the first order or higher based on the image captured in (1).
1 … 自車両(自車)
2 … 運転支援システム
3 … ステレオカメラ(撮像手段)
4 … ステレオ画像認識装置(白線近似手段、第1の横方向移動量算出手段、第2の横方向移動量算出手段、光軸ズレ判定手段、有効領域補正手段、制御停止判定手段)
5 … 制御ユニット
11 … 車速センサ
12 … ヨーレートセンサ
13 … メインスイッチ
14 … 舵角センサ
15 … アクセル開度センサ
16 … スロットル弁
17 … アクティブブースタ
31L,31R … 左右のカメラ
31La,31Ra … レンズ光学系
31Lb,31Rb … 撮像素子
1 ... Own vehicle (own vehicle)
2 ... Driving support system 3 ... Stereo camera (imaging means)
4 ... Stereo image recognition device (white line approximation means, first lateral movement amount calculation means, second lateral movement amount calculation means, optical axis deviation determination means, effective area correction means, control stop determination means)
DESCRIPTION OF SYMBOLS 5 ...
Claims (3)
前記撮像手段によって撮像された画像に基づいて自車走行路を区画する白線を1次以上の近似式で近似する白線近似手段と、
自車が設定時間走行したときの前記白線に対する自車の横位置の変化量である第1の横方向移動量を、現時点における前記近似式の定数と前記設定時間前の前記近似式の定数の差に基づいて算出する第1の横方向移動量算出手段と、
自車が前記設定時間走行したときの前記白線に対する自車の横位置の変化量である第2の横方向移動量を、前記近似式の1次係数と車速から求まる自車の前記白線に対する相対速度の横方向の速度成分の前記設定時間前から現時点までの積分値に基づいて算出する第2の横方向移動量算出手段と、
前記第1の横方向移動量と前記第2の横方向移動量との差が予め設定された閾値以上であるとき前記撮像手段の水平方向への光軸ズレが発生していることを判定する光軸ズレ判定手段と、を備えたことを特徴とする車外監視装置。 Imaging means for imaging the environment outside the vehicle in front of the vehicle;
White line approximating means for approximating a white line that divides the vehicle traveling path based on an image picked up by the image pickup means with a first-order or higher approximation formula;
The first lateral movement amount, which is the amount of change in the lateral position of the vehicle with respect to the white line when the vehicle travels for a set time , is expressed by the constant of the approximate expression at the present time and the constant of the approximate expression before the set time. a first lateral moving amount calculating means for de San based on the difference,
The second lateral movement amount, which is the amount of change in the lateral position of the vehicle relative to the white line when the host vehicle has traveled for the set time , is determined relative to the white line of the vehicle obtained from the primary coefficient of the approximate expression and the vehicle speed. a second lateral movement amount calculation means for output calculated based on the integrated value from the previous the set time of the transverse velocity component of the velocity to the present time,
When the difference between the first lateral movement amount and the second lateral movement amount is equal to or greater than a preset threshold value, it is determined that an optical axis deviation in the horizontal direction of the imaging unit has occurred. An outside-of-vehicle monitoring device comprising: an optical axis misalignment determining unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014069711A JP6322024B2 (en) | 2014-03-28 | 2014-03-28 | Outside monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014069711A JP6322024B2 (en) | 2014-03-28 | 2014-03-28 | Outside monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015191548A JP2015191548A (en) | 2015-11-02 |
JP6322024B2 true JP6322024B2 (en) | 2018-05-09 |
Family
ID=54425962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014069711A Active JP6322024B2 (en) | 2014-03-28 | 2014-03-28 | Outside monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6322024B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7013727B2 (en) * | 2017-08-25 | 2022-02-01 | 株式会社デンソー | Vehicle control device |
JP6895403B2 (en) | 2018-03-20 | 2021-06-30 | 株式会社東芝 | Image processing equipment, driving support system, and image processing method |
JP6956051B2 (en) | 2018-09-03 | 2021-10-27 | 株式会社東芝 | Image processing equipment, driving support system, image processing method and program |
US20240169574A1 (en) * | 2021-01-27 | 2024-05-23 | Sony Group Corporation | Mobile body, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001243457A (en) * | 2000-03-01 | 2001-09-07 | Nissan Motor Co Ltd | Front image pickup device for vehicle |
JP2004173037A (en) * | 2002-11-21 | 2004-06-17 | Kyocera Corp | Optical-axis deviation detecting apparatus of vehicle-mounted camera |
JP5875232B2 (en) * | 2011-02-16 | 2016-03-02 | 富士通テン株式会社 | Object detection apparatus and object detection method |
-
2014
- 2014-03-28 JP JP2014069711A patent/JP6322024B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015191548A (en) | 2015-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6294928B1 (en) | Vehicle travel control device | |
US11097726B2 (en) | Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control | |
US8175797B2 (en) | Vehicle drive assist system | |
US10286952B2 (en) | Vehicle traveling control apparatus | |
JP5363921B2 (en) | Vehicle white line recognition device | |
JP5363920B2 (en) | Vehicle white line recognition device | |
JP5603687B2 (en) | Vehicle white line recognition device | |
JP6335155B2 (en) | Vehicle travel control device | |
US11119210B2 (en) | Vehicle control device and vehicle control method | |
JP7007856B2 (en) | White line recognition device for vehicles | |
JP6322024B2 (en) | Outside monitoring device | |
US9783198B2 (en) | Vehicle travel control device | |
JP5538098B2 (en) | Vehicle white line recognition device | |
JP6609292B2 (en) | Outside environment recognition device | |
JP5444130B2 (en) | Vehicle white line recognition device | |
KR102335987B1 (en) | Apparatus and method for drive controlling of vehicle | |
JP6259239B2 (en) | Vehicle white line recognition device | |
JP7216695B2 (en) | Surrounding vehicle monitoring device and surrounding vehicle monitoring method | |
JP5568029B2 (en) | Vehicle white line recognition device | |
JP5452518B2 (en) | Vehicle white line recognition device | |
JP6879881B2 (en) | White line recognition device for vehicles | |
JP6259238B2 (en) | Vehicle white line recognition device | |
JP6014534B2 (en) | Vehicle white line recognition device | |
JP6082293B2 (en) | Vehicle white line recognition device | |
JP2005235017A (en) | Device for recognizing vehicle traveling state |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6322024 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |