JP6169949B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP6169949B2 JP6169949B2 JP2013227356A JP2013227356A JP6169949B2 JP 6169949 B2 JP6169949 B2 JP 6169949B2 JP 2013227356 A JP2013227356 A JP 2013227356A JP 2013227356 A JP2013227356 A JP 2013227356A JP 6169949 B2 JP6169949 B2 JP 6169949B2
- Authority
- JP
- Japan
- Prior art keywords
- preceding vehicle
- parallax
- image
- correction
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 144
- 238000012937 correction Methods 0.000 claims description 133
- 238000004364 calculation method Methods 0.000 claims description 76
- 238000001514 detection method Methods 0.000 claims description 43
- 238000003384 imaging method Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 15
- 238000000034 method Methods 0.000 description 81
- 230000008569 process Effects 0.000 description 66
- 230000005540 biological transmission Effects 0.000 description 14
- 238000009825 accumulation Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 239000000446 fuel Substances 0.000 description 4
- 238000003702 image correction Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000498 cooling water Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて被写体の視差及び距離を算出する画像処理装置についての技術分野に関する。 The present invention relates to a technical field relating to an image processing apparatus that calculates a parallax and a distance of a subject based on a pair of captured images obtained by stereo imaging of the traveling direction of a host vehicle.
例えば、車外環境を認識する車両システムにおいては、自車両の進行方向を一対のカメラでステレオ撮像して得られた撮像画像に基づいて被写体を認識するものがある。また、このように自車両の進行方向に存在する被写体を認識するシステムでは、被写体までの距離の情報も含めた被写体の三次元位置情報(実空間上における位置の情報)を生成するシステムがある。具体的には、上記のステレオ撮像により視点の異なる撮像画像を得、それら撮像画像に基づいて被写体の視差を算出し、該視差に基づいて被写体の三次元位置情報を生成するものである。 For example, in a vehicle system that recognizes the environment outside the vehicle, there is a vehicle system that recognizes a subject based on a captured image obtained by performing stereo imaging with a pair of cameras in the traveling direction of the host vehicle. In addition, in such a system for recognizing a subject existing in the traveling direction of the host vehicle, there is a system that generates three-dimensional position information (position information in real space) of the subject including information on the distance to the subject. . Specifically, captured images with different viewpoints are obtained by the above-described stereo imaging, the parallax of the subject is calculated based on the captured images, and the three-dimensional position information of the subject is generated based on the parallax.
上記の三次元位置情報は、一対のカメラの中央真下の点を原点とし、一対のカメラを結ぶ方向にX軸、上下方向にY軸、前後方向にZ軸ととった場合の空間上の点(X,Y,Z)で表される。三次元位置情報は、三角測量の手法に基づき生成されるもので、具体的には、画像上の画素を座標(i,j)で表し、視差をdp、一対のカメラの間隔をCD、1画素当たりの視野角をPW、一対のカメラの取り付け高さをCH、カメラ正面の無限遠点の画像上でのi座標、j座標をそれぞれIV、JVとしたときに、下記[式1]〜[式3]で表される座標変換により求まる。
X=CD/2+Z×PW×(i−IV) …[式1]
Y=CH+Z×PW×(j−JV) …[式2]
Z=CD/{PW×(dp−DP)} …[式3]
但し、上記[式3]における「DP」は視差オフセット値であり、一対のカメラの車両への取り付け時に決定され、それ以降は決定された値に固定されるものである。
The above three-dimensional position information is a point in space when the point directly below the center of the pair of cameras is the origin, the X axis is the direction connecting the pair of cameras, the Y axis is the vertical direction, and the Z axis is the front-back direction. It is represented by (X, Y, Z). The three-dimensional position information is generated based on the triangulation method. Specifically, the pixel on the image is represented by coordinates (i, j), the parallax is dp, the distance between the pair of cameras is CD, 1 When the viewing angle per pixel is PW, the mounting height of the pair of cameras is CH, and the i coordinate and the j coordinate on the image at the infinity point in front of the camera are IV and JV, respectively, It is obtained by coordinate transformation represented by [Formula 3].
X = CD / 2 + Z × PW × (i-IV) [Formula 1]
Y = CH + Z × PW × (j−JV) [Formula 2]
Z = CD / {PW × (dp−DP)} [Formula 3]
However, “DP” in the above [Expression 3] is a parallax offset value, which is determined when the pair of cameras are attached to the vehicle, and is fixed to the determined value thereafter.
視差オフセット値DPは、カメラが自車両に対して所定に取り付けられた状態を基準として定められた値であるため、例えば車両の使用により生じる振動や熱等に起因してカメラの取付状態が所定状態から変化してしまうと、上記[式3]により距離Zの値を正しく算出することができなくなってしまう。
そこで、このようなカメラの取付状態の経時的な変化に伴い生じる視差オフセット値DPの誤差を補正するための技術として、先に本出願人は上記特許文献1に記載される補正技術を提案している。具体的に、特許文献1では、異なる2つの時点においてそれぞれ先行車両の見かけの大きさと視差dpの計4値(大きさb1、b2、視差dp1、dp2)を取得し、これら4値から実際に算出された視差dpと真の視差dp*との誤差である視差誤差εを算出し、視差誤差εにより視差オフセット値DPを補正している。
Since the parallax offset value DP is a value determined based on a state in which the camera is attached to the host vehicle in a predetermined manner, for example, the camera attachment state is predetermined due to vibration or heat generated by use of the vehicle. If it changes from the state, the value of the distance Z cannot be calculated correctly by the above [Equation 3].
Therefore, as a technique for correcting an error in the parallax offset value DP caused by such a change in the camera mounting state over time, the present applicant previously proposed a correction technique described in
上記特許文献1に記載の技術によれば、視差オフセット値DPの補正にあたって所定のテスト用被写体を撮像させる必要性がなく、実際の車両の使用環境下において適正な補正を行うことができる。
According to the technique described in
しかしながら、上記特許文献1では、先行車両が検出されている期間の全期間を対象として視差オフセット値DPの補正に係る処理を実行しているため、視差オフセット値DPの補正に比較的長い時間を要する虞がある。具体的に、特許文献1では、或る時点で先行車両の見かけの大きさb1と視差dp1を取得した後、先行車両の視差dpが或る程度変化するのを待ってから見かけの大きさb2と視差dp2を取得しているが、このとき、例えば自車両が先行車両とほぼ速度差なく巡航していたとすると、視差dpの値が変化しないため大きさb2と視差dp2を取得できず、視差オフセット値DPの補正が行われるまでに長時間を要してしまう虞がある。
However, in
また、先行車両が検出されている期間の全期間が対象とされているため、先行車両との距離変化が期待できない間も補正値の算出に係る処理が継続されてしまい、結果として処理負担の増大化を招く虞もある。 In addition, since the entire period of the period in which the preceding vehicle is detected is targeted, the process related to the calculation of the correction value is continued even while the distance change from the preceding vehicle cannot be expected, resulting in a processing burden. There is also a risk of increase.
そこで、本発明は上記した問題点を克服し、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to overcome the above-described problems and to shorten the time required for correction and reduce the processing load related to the correction in a system for correcting a calculation formula for calculating a distance from parallax. .
第1に、本発明に係る画像処理装置は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて算出した被写体の視差に基づき前記被写体までの距離を算出する距離算出手段と、前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段と、前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段とを備え、前記補正手段は、前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始するものである。 First, the image processing apparatus according to the present invention calculates a distance to the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle. Means, a preceding vehicle detecting means for detecting a preceding vehicle existing in the traveling direction of the host vehicle based on the captured image and the distance calculated by the distance calculating means, and a preceding vehicle detected by the preceding vehicle detecting means. Correction means for correcting a calculation formula for calculating the distance from the parallax based on the parallax corresponding to the vehicle and the change in the apparent size of the preceding vehicle, the correction means comprising: Based on the result of determining whether or not the brake lamp is lit, a process for calculating a correction value for correcting the calculation formula is started.
これにより、先行車両が減速状態となる、すなわち先行車両の視差及びみかけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能とされる。 As a result, it is possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a decelerating state, that is, when the change in the parallax and the apparent magnitude of the preceding vehicle can be reliably expected.
第2に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、例えば点灯中の左右ブレーキランプとして検出された物体が同一先行車両の左右ブレーキランプでない可能性が高い場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Second, in the above-described image processing apparatus according to the present invention, the correction unit converts a frame image determined that the real space upper width between the left and right brake lamps of the preceding vehicle is equal to or smaller than a predetermined value to the correction value. It is desirable to exclude from the processing target related to the calculation.
As a result, for example, there is a high possibility that the object detected as the left and right brake lamps that are lit is not the left and right brake lamps of the same preceding vehicle, or there is a possibility that some detection error factor has occurred. Frame images are excluded from processing targets related to calculation of correction values.
第3に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、例えば一方のブレーキランプのみに順光が当たっているケースなどで左右ブレーキランプの幅に差が生じている信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Thirdly, in the above-described image processing apparatus according to the present invention, the correction means calculates a correction value based on a frame image that has been determined that the difference in width between the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. It is desirable to exclude them from such processing.
As a result, for example, a frame image with low reliability in which the width of the left and right brake lamps is different in a case where only one brake lamp is lit, etc., is excluded from the processing related to the calculation of the correction value. Is done.
第4に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、自車両や先行車両が旋回中でロール角をもっていたり左右ブレーキランプの一方にブレーキランプ以外の赤色発光体を誤検出している場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Fourth, in the above-described image processing apparatus according to the present invention, the correction means calculates a correction value for a frame image that has been determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. It is desirable to exclude it from the target of processing related to.
As a result, if the host vehicle or the preceding vehicle is turning and has a roll angle, or if a red light emitter other than the brake lamp is erroneously detected on one of the left and right brake lamps, or there may be some detection error factor For example, a frame image with low reliability such as the above is excluded from processing targets related to calculation of correction values.
第5に、上記した本発明に係る画像処理装置においては、前記補正手段は、自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、自車両が先行車両の後面と正対しておらず先行車両の見かけの大きさが不正確となる場合に得られたフレーム画像については補正値の算出に係る処理の対象から除外される。
Fifth, in the above-described image processing apparatus according to the present invention, the correction unit excludes a frame image when it is determined that the host vehicle is turning from a target of processing related to the calculation of the correction value. Is desirable.
As a result, the frame image obtained when the host vehicle is not directly facing the rear surface of the preceding vehicle and the apparent size of the preceding vehicle is inaccurate is excluded from the processing related to the calculation of the correction value. .
本発明によれば、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることができる。 According to the present invention, in a system that corrects a calculation formula for calculating a distance from parallax, it is possible to shorten the time required for correction and reduce the processing load related to the correction.
<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備えた車両制御システム1の構成を示している。なお、図1では、車両制御システム1の構成のうち主に本発明に係る要部の構成のみを抽出して示している。
車両制御システム1は、自車両に対して設けられた撮像部2、画像処理部3、メモリ4、運転支援制御部5、表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9、センサ・操作子類10、表示部11、エンジン関連アクチュエータ12、トランスミッション関連アクチュエータ13、ブレーキ関連アクチュエータ14、及びバス15を備えて構成される。
<1. Overall system configuration>
FIG. 1 shows a configuration of a
The
画像処理部3は、撮像部2が自車両の進行方向(本例では前方)を撮像して得られた撮像画像データに基づき、車外環境の認識に係る所定の画像処理を実行する。画像処理部3による画像処理は、例えば不揮発性メモリ等とされたメモリ4を用いて行われる。なお、撮像部2の内部構成や画像処理部3が実行する具体的な処理の詳細については後述する。
The
運転支援制御部5は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータで構成され、画像処理部3による画像処理の結果やセンサ・操作子類10で得られる検出情報や操作入力情報等に基づき、運転支援のための各種の制御処理(以下「運転支援制御処理」と表記)を実行する。
運転支援制御部5は、同じくマイクロコンピュータで構成された表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9の各制御部とバス15を介して接続されており、これら各制御部との間で相互にデータ通信を行うことが可能とされる。運転支援制御部5は、上記の各制御部のうち必要な制御部に対して指示を行って運転支援に係る動作を実行させる。
The driving
The driving
センサ・操作子類10は、自車両に設けられた各種のセンサや操作子を包括的に表している。センサ・操作子類10が有するセンサとしては、自車両の速度を検出する速度センサ10A、ブレーキペダルの操作/非操作に応じてON/OFFされるブレーキスイッチ10B、アクセルペダルの踏込み量からアクセル開度を検出するアクセル開度センサ10C、操舵角を検出する舵角センサ10D、ヨーレート(Yaw Rate)を検出するヨーレートセンサ10E、及び加速度を検出するGセンサ10Fがある。また、図示は省略したが、他のセンサとして、例えばエンジン回転数センサ、吸入空気量を検出する吸入空気量センサ、吸気通路に介装されてエンジンの各気筒に供給する吸入空気量を調整するスロットル弁の開度を検出するスロットル開度センサ、エンジン温度を示す冷却水温を検出する水温センサ、車外の気温を検出する外気温センサ等も有する。
また、操作子としては、エンジンの始動/停止を指示するためのイグニッションスイッチや、AT(オートマティックトランスミッション)車における自動変速モード/手動変速モードの選択や手動変速モード時におけるシフトアップ/ダウンの指示を行うためのセレクトレバーや、後述する表示部11に設けられたMFD(Multi Function Display)における表示情報の切り換えを行うための表示切換スイッチなどがある。
The sensors /
In addition, as an operator, an ignition switch for instructing start / stop of the engine, selection of an automatic transmission mode / manual transmission mode in an AT (automatic transmission) vehicle, and an instruction for up / down in the manual transmission mode are given. There are a select lever for performing, a display changeover switch for switching display information in an MFD (Multi Function Display) provided in the
表示部11は、運転者の前方に設置されたメータパネル内に設けられるスピードメータやタコメータ等の各種メータやMFD、及びその他運転者に情報提示を行うための表示デバイスを包括的に表している。MFDには、自車両の総走行距離や外気温、瞬間燃費等といった各種の情報を同時又は切り換えて表示可能とされる。
The
表示制御部6は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、表示部11による表示動作を制御する。例えば、運転支援制御部5からの指示に基づき、運転支援の一環として表示部11(例えばMFDの所定領域)に所定の注意喚起メッセージを表示させることが可能とされている。
The
エンジン制御部7は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、エンジン関連アクチュエータ12として設けられた各種アクチュエータを制御する。エンジン関連アクチュエータ12としては、例えばスロットル弁を駆動するスロットルアクチュエータや燃料噴射を行うインジェクタ等のエンジン駆動に係る各種のアクチュエータが設けられる。
例えばエンジン制御部7は、前述したイグニッションスイッチの操作に応じてエンジンの始動/停止制御を行う。また、エンジン制御部7は、エンジン回転数センサやアクセル開度センサ10C等の所定のセンサからの検出信号に基づき、燃料噴射タイミング、燃料噴射パルス幅、スロットル開度等の制御も行う。
The engine control unit 7 controls various actuators provided as the engine-related
For example, the engine control unit 7 performs engine start / stop control according to the operation of the ignition switch described above. The engine control unit 7 also controls the fuel injection timing, the fuel injection pulse width, the throttle opening, and the like based on detection signals from predetermined sensors such as an engine speed sensor and an
トランスミッション制御部8は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、トランスミッション関連アクチュエータ13として設けられた各種のアクチュエータを制御する。トランスミッション関連アクチュエータ13としては、例えば自動変速機の変速制御を行うコントロールバルブや、ロックアップクラッチをロックアップ動作させるロックアップアクチュエータ等のトランスミッション関連の各種アクチュエータが設けられる。
例えばトランスミッション制御部8は、前述したセレクトレバーによって自動変速モードが選択されている際には、所定の変速パターンに従い変速信号をコントロールバルブに出力して変速制御を行う。
また、トランスミッション制御部8は、手動変速モードの設定時には、セレクトレバーによるシフトアップ/ダウン指示に従った変速信号をコントロールバルブに出力して変速制御を行う。
The
For example, when the automatic shift mode is selected by the select lever described above, the
Further, when the manual shift mode is set, the
ブレーキ制御部9は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、ブレーキ関連アクチュエータ14として設けられた各種のアクチュエータを制御する。ブレーキ関連アクチュエータ14としては、例えばブレーキブースターからマスターシリンダへの出力液圧やブレーキ液配管内の液圧をコントロールするための液圧制御アクチュエータ等、ブレーキ関連の各種のアクチュエータが設けられる。例えばブレーキ制御部9は、運転支援制御部5よりブレーキをONする指示が為された場合に上記の液圧制御アクチュエータを制御して自車両を制動させる。またブレーキ制御部9は、所定のセンサ(例えば車軸の回転速度センサや車速センサ10A)の検出情報から車輪のスリップ率を計算し、スリップ率に応じて上記の液圧制御アクチュエータにより液圧を加減圧させることで、所謂ABS(Antilock Brake System)制御を実現する。
The
<2.本実施の形態で実行される画像処理>
図2により、本実施の形態で実行される画像処理について説明する。
なお、図2では画像処理について説明するため、画像処理部3の構成と共に図1に示した撮像部2の内部構成及びメモリ4も併せて示している。先ず、画像処理に用いる撮像画像データを得るための撮像部2について簡単に説明しておく。
撮像部2には、第1カメラ部20−1、第2カメラ部20−2、A/D変換器21−1、A/D変換器21−2、及び画像補正部22が設けられている。
第1カメラ部20−1、第2カメラ部20−2は、それぞれカメラ光学系とCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えて構成され、前記カメラ光学系により前記撮像素子の撮像面に被写体像が結像され、該撮像素子にて受光光量に応じた電気信号が画素単位で得られる。
第1カメラ部20−1、第2カメラ部20−2は、いわゆるステレオ撮像法による測距が可能となるように設置される。すなわち、視点の異なる複数の撮像画像が得られるように配置されている。本例における第1カメラ部20−1、第2カメラ部20−2は、自車両のフロントガラス上部近傍において、車幅方向に所定間隔を空けて配置されている。第1カメラ部20−1、第2カメラ部20−2の光軸は平行とされ、焦点距離はそれぞれ同値とされる。また、フレーム周期は同期し、フレームレートも一致している。
<2. Image processing executed in this embodiment>
The image processing executed in this embodiment will be described with reference to FIG.
In FIG. 2, in order to describe image processing, the internal configuration of the imaging unit 2 and the memory 4 shown in FIG. 1 are shown together with the configuration of the
The imaging unit 2 includes a first camera unit 20-1, a second camera unit 20-2, an A / D converter 21-1, an A / D converter 21-2, and an
Each of the first camera unit 20-1 and the second camera unit 20-2 includes a camera optical system and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). A subject image is formed on the imaging surface of the imaging element by the system, and an electrical signal corresponding to the amount of received light is obtained in pixel units by the imaging element.
The first camera unit 20-1 and the second camera unit 20-2 are installed so as to enable distance measurement by a so-called stereo imaging method. That is, they are arranged so that a plurality of captured images with different viewpoints can be obtained. The first camera unit 20-1 and the second camera unit 20-2 in this example are arranged at a predetermined interval in the vehicle width direction in the vicinity of the upper part of the windshield of the host vehicle. The optical axes of the first camera unit 20-1 and the second camera unit 20-2 are parallel, and the focal lengths are the same. Also, the frame periods are synchronized and the frame rates are the same.
第1カメラ部20−1の撮像素子で得られた電気信号はA/D変換器21−1に、第2カメラ部20−2の撮像素子で得られた電気信号はA/D変換器21−2に供給され、それぞれA/D変換が行われる。これにより、画素単位で所定階調による輝度値を表すデジタル画像信号(画像データ)が得られる。本実施の形態において、第1カメラ部20−1及び第2カメラ部20−2はR(赤),G(緑),B(青)によるカラー撮像画像を得ることが可能とされており、上記の輝度値としてはR,G,Bのそれぞれに対応した値が得られる。また、本例の場合、第1カメラ部20−1、第2カメラ部20−2が有する撮像素子の有効画素数は水平方向1280画素×垂直方向960画素とされている。 The electrical signal obtained by the imaging device of the first camera unit 20-1 is sent to the A / D converter 21-1, and the electrical signal obtained by the imaging device of the second camera unit 20-2 is sent by the A / D converter 21. -2 and A / D conversion is performed respectively. As a result, a digital image signal (image data) representing a luminance value with a predetermined gradation in pixel units is obtained. In the present embodiment, the first camera unit 20-1 and the second camera unit 20-2 can obtain color captured images of R (red), G (green), and B (blue). As the luminance value, values corresponding to R, G, and B are obtained. In the case of this example, the number of effective pixels of the image sensor included in the first camera unit 20-1 and the second camera unit 20-2 is 1280 pixels in the horizontal direction × 960 pixels in the vertical direction.
画像補正部22には、A/D変換器21−1を介して得られる第1カメラ部20−1による撮像画像に基づく画像データ(以下「第1撮像画像データ」と表記)と、A/D変換器21−2を介して得られる第2カメラ部20−2による撮像画像に基づく画像データ(以下「第2撮像画像データ」と表記)とが入力される。画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対し、第1カメラ部20−1、第2カメラ部20−2の取り付け位置の誤差に起因するずれの補正を例えばアフィン変換等を用いて行う。また画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対しノイズの除去等を含む輝度値の補正も行う。
The
撮像部2で得られた第1撮像画像データ、第2撮像画像データは、画像処理部3によってメモリ4に記録・保持される。
The first captured image data and the second captured image data obtained by the imaging unit 2 are recorded and held in the memory 4 by the
ここで、本例の場合、撮像部2においては、第1撮像画像データ及び第2撮像画像データのそれぞれについて互いにシャッタースピードの異なる明画像と暗画像の2種を生成している。暗画像は、明画像よりも速いシャッタースピードで撮像された画像であり、明画像と比較して全体的に暗い画像とされている。第1カメラ部20−1、第2カメラ部20−2は、1フレーム期間(例えば1/60秒)ごとにシャッタースピードを変更した撮像を行って明画像、暗画像を交互に出力する。これにより、第1カメラ部20−1により得られる第1撮像画像データ、及び第2カメラ部20−2により得られる第2撮像画像データとしては、それぞれ明画像、暗画像が1フレーム期間ごとに交互に切り替わることになる。
暗画像は、後述する視差オフセット値補正処理部3Eが先行車両のブレーキランプの点灯等を検出する際に用いられる。後述する三次元位置情報の生成や先行車両検出処理部3Dによる物体検出処理には、明画像が用いられる。
Here, in the case of this example, the imaging unit 2 generates two types of images, a bright image and a dark image, having different shutter speeds for each of the first captured image data and the second captured image data. The dark image is an image captured at a shutter speed faster than that of the bright image, and is an overall dark image compared to the bright image. The first camera unit 20-1 and the second camera unit 20-2 perform imaging with the shutter speed changed every frame period (for example, 1/60 seconds) and alternately output a bright image and a dark image. Thereby, as the 1st picked-up image data obtained by the 1st camera part 20-1, and the 2nd picked-up image data obtained by the 2nd camera part 20-2, a bright image and a dark image are respectively for every frame period. It will be switched alternately.
The dark image is used when a parallax offset value
画像処理部3は、例えばマイクロコンピュータで構成され、起動されたプログラムに従って第1撮像画像データ、第2撮像画像データに基づく各種の画像処理を実行する。
図2においては、画像処理部3が実行する各種の画像処理を機能ごとに分けてブロック化して示している。図のように画像処理部3は、機能ごとに大別すると、三次元位置情報生成処理部3A、車線検出処理部3B、車線モデル形成処理部3C、先行車両検出処理部3D、及び視差オフセット値補正処理部3Eを有している。
The
In FIG. 2, various types of image processing executed by the
三次元位置情報生成処理部3Aが実行する三次元位置情報生成処理は、メモリ4に保持された明画像としての第1撮像画像データ、第2撮像画像データに基づき三次元位置情報を生成する処理となる。具体的に、三次元位置情報生成処理は、第1撮像画像データと第2撮像画像データ(つまりステレオ撮像された一対の画像データ)の間の対応点をパターンマッチングにより検出し、検出された対応点間の座標のずれを視差dpとして算出し、視差dpを用いて三角測量の原理により実空間上における対応点の位置の情報を三次元位置情報として生成する処理である。
上記のような視差dpとしての座標のずれを算出するにあたっては、予め第1撮像画像データ、第2撮像画像データのうちの一方が「基準画像」、他方が「比較画像」として定められる。比較画像は、基準画像上の水平方向端部に位置する物体についての視差dpの算出を可能とするため、基準画像よりも水平方向画素数が多い画像として生成されている。
The three-dimensional position information generation processing executed by the three-dimensional position information
In calculating the coordinate shift as the parallax dp as described above, one of the first captured image data and the second captured image data is determined in advance as a “reference image” and the other as a “comparison image”. The comparison image is generated as an image having a larger number of pixels in the horizontal direction than the reference image in order to allow the calculation of the parallax dp for the object located at the horizontal end on the reference image.
ここで、三次元位置情報は、一対のカメラ(第1カメラ部20−1と第2カメラ部20−2)の中央真下の点を原点とし、一対のカメラを結ぶ方向にX軸、上下方向にY軸、前後方向にZ軸ととった場合の空間上の点(X,Y,Z)として表される情報である。
三次元位置情報としてのX,Y,Zの各値は、基準画像における水平方向に平行な軸をi軸、垂直方向に平行な軸をj軸としたときの画素の座標を(i,j)で表し、一対のカメラの間隔をCD、1画素当たりの視野角をPW、一対のカメラの取り付け高さをCH、カメラ正面の無限遠点の基準画像上でのi座標、j座標をそれぞれIV、JVとしたときに、下記[式1]〜[式3]で表される座標変換により求まる。
X=CD/2+Z×PW×(i−IV) …[式1]
Y=CH+Z×PW×(j−JV) …[式2]
Z=CD/{PW×(dp−DP)} …[式3]
上記[式3]における「DP」は、消失点視差や無限遠対応点などとも称されるが、要するに基準画像と比較画像の間の対応点間の視差dpと、対応点までの実空間上での距離Zとが上記[式3]を満たすようにして決定される値である。以下、この「DP」については「視差オフセット値DP」と表記する。
Here, the three-dimensional position information is based on a point directly below the center of the pair of cameras (the first camera unit 20-1 and the second camera unit 20-2) as the origin, and the X-axis and the vertical direction in the direction connecting the pair of cameras. Is the information expressed as a point (X, Y, Z) in space when the Y axis is taken as the Z axis in the front-rear direction.
The respective values of X, Y, and Z as the three-dimensional position information are expressed as pixel coordinates (i, j) when the axis parallel to the horizontal direction in the reference image is i-axis and the axis parallel to the vertical direction is j-axis. ), The distance between the pair of cameras is CD, the viewing angle per pixel is PW, the mounting height of the pair of cameras is CH, and the i-coordinate and j-coordinate on the reference image at the infinity point in front of the camera are When IV and JV are set, they are obtained by coordinate transformation represented by the following [Formula 1] to [Formula 3].
X = CD / 2 + Z × PW × (i-IV) [Formula 1]
Y = CH + Z × PW × (j−JV) [Formula 2]
Z = CD / {PW × (dp−DP)} [Formula 3]
“DP” in [Expression 3] is also referred to as a vanishing point parallax, an infinite distance corresponding point, or the like, but in short, the parallax dp between corresponding points between the reference image and the comparison image, and in the real space up to the corresponding point Is a value determined so as to satisfy the above [Equation 3]. Hereinafter, this “DP” is expressed as “parallax offset value DP”.
車線検出処理部3Bが実行する車線検出処理は、明画像としての基準画像(つまり第1撮像画像データ又は第2撮像画像データのうち予め設定された方の画像データ)と、上記の三次元位置情報生成処理で生成された三次元位置情報(対応点としての画素ごとの距離Zを含む)とに基づき、自車両が走行する路面上に形成された車線を検出する処理となる。具体的に、車線検出処理では、先ず基準画像の各画素の輝度値と各画素の実空間における距離Zとに基づいて基準画像上に車線候補点を検出し、検出した車線候補点に基づいて自車両の左右の車線位置を検出する。例えば、基準画像上の1画素幅の水平ライン上を左右方向に1画素ずつオフセットしながら探索し、基準画像の各画素の輝度値に基づいて各画素の輝度微分値(=エッジ強度)が閾値以上に大きく変化する条件を満たす画素を車線候補点として検出する。この処理を、上記探索の対象とする水平ラインを基準画像の例えば下側から上向きに1画素幅ずつオフセットさせながら順次行う。これにより、自車両の右側領域及び左側領域のそれぞれに車線候補点を検出する。
The lane detection processing executed by the lane
車線モデル形成処理部3Cが実行する車線モデル形成処理は、上記の車線検出で検出された左右の車線候補点の情報に基づき、X,Y,Zの各軸で定義される三次元空間上における車線モデルを形成する処理である。具体的には、車線検出部で検出された車線候補点の三次元位置(X,Y,Z)を例えば最小二乗法等で直線近似して、三次元空間上における車線モデルを形成する。このように形成された車線モデルにより、自車両が走行する路面の高さ情報も得られたことになる。
The lane model formation processing executed by the lane model
先行車両検出処理部3Dが実行する先行車両検出処理は、明画像としての基準画像と三次元位置情報とに基づき自車両の前方に存在する先行車両を検出する処理である。この先行車両検出処理では、先ず、三次元位置情報に基づき物体検出処理を行い、画像内に存在する物体を該物体までの距離Zの情報も含めて検出する。例えばこの物体検出処理では、先の視差dpの算出過程で検出された各対応点をその距離Zの値を対応づけて画像上に表した距離画像を生成し、該距離画像を縦方向に仕切る複数の縦領域に分割し、縦領域ごとに画像縦方向(j方向)の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離Zをその縦領域内に存在する物体の代表距離とする。そして、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離Zや方向などの関係性から、同一物体とみなされる画素範囲をグループ化し、画像内に存在する各物体の範囲を特定する。これにより、画像内に存在する物体が該物体までの距離Zの情報も含めて検出される。
ここで、上記の距離画像はフレームごとに順次得られるものである。先行車両検出処理では、複数フレームにわたって検出物体の距離Zの情報をモニタすることで、自車両の走行路上に存在する物体であって、自車両と略同じ方向に所定の速度で移動するものを先行車両として抽出する。このとき、車両以外の物体の誤検出を抑制するために、基準画像を用いたパターンマッチング(例えばブレーキランプ部分等の車両の特徴点に基づくパターンマッチング)も併せて行う。
先行車両を検出した場合は、先行車両検出情報として先行車距離(=自車両との車間距離)、先行車速度(=車間距離の変化割合+自車速)、先行車加速度(=先行車速の微分値)を算出・保持する。
なお、上記の先行車両検出処理の手法は特開2012−66759号公報に開示された手法と同様であり、詳しくは該文献を参照されたい。
The preceding vehicle detection process executed by the preceding vehicle
Here, the distance image is obtained sequentially for each frame. In the preceding vehicle detection process, by monitoring the information of the distance Z of the detected object over a plurality of frames, an object that exists on the traveling path of the own vehicle and moves at a predetermined speed in substantially the same direction as the own vehicle. Extract as a preceding vehicle. At this time, in order to suppress erroneous detection of an object other than the vehicle, pattern matching using the reference image (for example, pattern matching based on a feature point of the vehicle such as a brake lamp portion) is also performed.
When the preceding vehicle is detected, the preceding vehicle detection information includes the preceding vehicle distance (= inter-vehicle distance), the preceding vehicle speed (= change ratio of the inter-vehicle distance + own vehicle speed), and the preceding vehicle acceleration (= differential of the preceding vehicle speed). Value).
Note that the method of the preceding vehicle detection process is the same as the method disclosed in Japanese Patent Application Laid-Open No. 2012-66759. For details, refer to this document.
また、先行車両検出処理部3Dは、先行車両の入れ替わりを検出可能とされている。先行車両の入れ替わりとは、検出中であった先行車両が自車両の前方から離脱したことに伴いその前方にある車両が新たに先行車両として検出された場合や、検出中であった先行車両と自車両との間に他の車両が割り込んで当該他の車両が新たに先行車両として検出されるなど、検出中であった先行車両に変わって他の車両が新たに先行車両として検出された場合を意味する。
The preceding vehicle
視差オフセット値補正処理部3Eが実行する視差オフセット値補正処理は、先行車両検出処理部3Dにより検出された先行車両の視差及び見かけの大きさの変化に基づいて、視差dpから距離Zを算出する計算式(すなわち先の[式3])についての補正を行う処理である。前述のように、カメラの取付状態の経時的な変化に起因して[式3]における視差オフセット値DPには現実のカメラ取付状態に対応した最適値からの誤差が発生してしまうため、これを補正するものである。
In the parallax offset value correction processing executed by the parallax offset value
ここで、視差オフセット値補正処理として実行する具体的な処理内容の説明に先立ち、本例で行われる視差オフセット値DPの補正処理の概要について説明しておく。
撮像画像中に検出された先行車両の視差及び見かけの大きさの変化に基づいて補正を行う点は先に挙げた特許文献1の場合と同様であるが、本例では、先行車両の見かけの大きさについては先行車両の左右ブレーキランプ間の幅の情報を用いる。
ここで、「先行車両の見かけの大きさ」とは、自車位置を基準として見える先行車両の大きさを意味するものである。
Here, prior to description of specific processing contents executed as the parallax offset value correction processing, an outline of the parallax offset value DP correction processing performed in this example will be described.
The point of performing correction based on the change in the parallax and the apparent size of the preceding vehicle detected in the captured image is the same as in the case of
Here, the “apparent size of the preceding vehicle” means the size of the preceding vehicle that can be seen with reference to the vehicle position.
また、本例の補正処理は、特許文献1に記載の補正手法のように異なる2つの時点においてそれぞれ先行車両の見かけの大きさと視差の計4値(大きさb1、b2、視差dp1、dp2)を少なくとも取得し、それらの値から視差オフセット値DPの補正値を算出するという概念は共通するが、特許文献1のように視差誤差εを求めて該視差誤差εにより視差オフセット値DPを補正するものではない。
本例においては、少なくとも異なる2つの時点において先行車両の見かけの大きさとしてのブレーキランプ間幅と先行車両の視差(本例では後述するブレーキランプ視差)の計4値を取得し、取得した少なくとも4値を、横軸/縦軸にそれぞれ見かけの大きさ(ブレーキランプ間幅)/視差をとった二次元座標空間上に展開した際に得られる少なくとも2点の座標に基づく近似直線(y=ax+b)を求め、当該近似直線の切片(b)の値により視差オフセット値DPの補正を行う。
Further, the correction processing of this example is a total of four values of the apparent magnitude and the parallax of the preceding vehicle (magnitudes b 1 , b 2 , parallax dp 1) at two different times as in the correction method described in Patent Document 1. , Dp 2 ) at least, and the concept of calculating the correction value of the parallax offset value DP from these values is common, but as in
In this example, at least two different time points are acquired, and a total of four values of the brake lamp width and the parallax of the preceding vehicle (brake lamp parallax described later in this example) as the apparent size of the preceding vehicle are acquired, Approximate straight lines based on coordinates of at least two points obtained when the four values are developed on a two-dimensional coordinate space in which the horizontal axis / vertical axis are the apparent size (width between brake lamps) / parallax, respectively (y = ax + b) is obtained, and the parallax offset value DP is corrected by the value of the intercept (b) of the approximate straight line.
図3は、ブレーキランプ間幅とブレーキランプ視差(先行車両のブレーキランプの視差dp)との関係を例示した図である。なお、図中の◆印は、複数の異なる時点でそれぞれ取得した[ブレーキランプ間幅,ブレーキレーキランプ視差]の組を縦軸/横軸にそれぞれブレーキランプ間幅/ブレーキランプ視差をとった二次元座標空間上に展開して表したものである。 FIG. 3 is a diagram illustrating the relationship between the brake lamp width and the brake lamp parallax (the parallax dp of the brake lamp of the preceding vehicle). In the figure, the ◆ marks indicate the combinations of [brake lamp width, brake rake lamp parallax] obtained at a plurality of different time points, with the brake lamp width / brake lamp parallax on the vertical and horizontal axes, respectively. It is expressed in a dimensional coordinate space.
先行車両のブレーキランプ間幅は、先行車両が自車両に対して近いほどその値が大きくなり、逆に自車両から遠いほどその値が小さくなる。同様に、ブレーキランプ視差としても、先行車両が自車両に対して近いほどその値が大きくなり、自車両から遠いほどその値が小さくなる。このため、ブレーキランプ間幅とブレーキランプ視差との間には概ね比例関係が成り立つとみなすことができ、ブレーキランプ間幅とブレーキランプ視差との関係は「y=ax+b」としての一次関数で表すことができる。 The width between brake lamps of the preceding vehicle increases as the preceding vehicle becomes closer to the own vehicle, and conversely decreases as the distance from the own vehicle increases. Similarly, the value of the brake lamp parallax increases as the preceding vehicle becomes closer to the host vehicle, and decreases as the distance from the host vehicle increases. For this reason, it can be considered that a proportional relationship is generally established between the brake lamp width and the brake lamp parallax, and the relationship between the brake lamp width and the brake lamp parallax is expressed by a linear function as “y = ax + b”. be able to.
ここで、先行車両が無限遠点にあるときは、ブレーキランプ間幅の値は「0」である。また、先行車両が無限遠点にあるとき、ブレーキランプ視差の値は理想的には「0」である。このため、理想的には、上記のようにブレーキランプ間幅とブレーキランプ視差との関係を表す一次関数においては、切片bの値が「0」となるべきである。
しかしながら、上述のようにカメラの取付状態の経時的な変化が生じると、先行車両が無限遠点にあるときのブレーキランプ視差の値は「0」にならず、切片bの値に所要のオフセットが生じる。
Here, when the preceding vehicle is at an infinite point, the value of the brake lamp width is “0”. Further, when the preceding vehicle is at the infinity point, the value of the brake lamp parallax is ideally “0”. For this reason, ideally, the value of the intercept b should be “0” in the linear function representing the relationship between the brake lamp width and the brake lamp parallax as described above.
However, when the camera mounting state changes with time as described above, the value of the brake lamp parallax when the preceding vehicle is at the infinity point does not become “0”, and the required offset to the value of the intercept b Occurs.
そこで、本例の補正処理では、前述のように少なくとも異なる2つの時点においてブレーキランプ間幅とブレーキランプ視差を取得し、取得したブレーキランプ間幅とブレーキランプ視差に基づいてブレーキランプ間幅とブレーキランプ視差との関係を表す直線を一次近似により求め、求めた近似直線の切片bの値に基づいて視差オフセット値DPを補正する。具体的には、切片bの符号を反転させた値を補正値として、「DP+(−b)」により視差オフセット値DPを補正する。 Therefore, in the correction process of this example, the brake lamp width and the brake lamp parallax are acquired at least at two different times as described above, and the brake lamp width and the brake light are calculated based on the acquired brake lamp width and the brake lamp parallax. A straight line representing the relationship with the lamp parallax is obtained by primary approximation, and the parallax offset value DP is corrected based on the value of the intercept b of the obtained approximate straight line. Specifically, the parallax offset value DP is corrected by “DP + (− b)” using a value obtained by inverting the sign of the intercept b as a correction value.
<3.実施の形態の補正処理>
上記した補正処理の概要を踏まえ、以下、画像処理部3が視差オフセット値補正処理として実行する具体的な処理の手順を説明する。
図4は、画像処理部3が実行する視差オフセット値補正処理におけるメイン処理のフローチャートである。なお、図4に示すメイン処理は、明画像と暗画像が一組得られるごとに繰り返し実行されるものである。
<3. Correction Processing of Embodiment>
Based on the outline of the correction process described above, a specific process procedure executed by the
FIG. 4 is a flowchart of the main process in the parallax offset value correction process executed by the
先ず、画像処理部3はステップS101で、自車両が旋回中であるか否かを判別する。自車両が旋回中であるか否かの判別は、舵角センサ10Dやヨーレートセンサ10Eによる検出信号に基づき行う。
自車両が旋回中であるとの肯定結果が得られた場合、画像処理部3は図4に示すメイン処理を終える。
First, in step S101, the
If a positive result is obtained that the host vehicle is turning, the
ここで、自車両が旋回中である場合は自車両が先行車両の後面と正対していないことから、先行車両の見かけの大きさが不正確となり、従ってそのような場合に得られたフレーム画像に基づき視差オフセット値DPを補正するための補正値を算出することは望ましくない。そこで、上記のようにメイン処理を終了して当該フレーム画像については処理対象から除外することで、補正値の精度の向上を図っている。 Here, when the host vehicle is turning, since the host vehicle does not face the rear surface of the preceding vehicle, the apparent size of the preceding vehicle becomes inaccurate. Therefore, the frame image obtained in such a case It is not desirable to calculate a correction value for correcting the parallax offset value DP based on the above. Therefore, the accuracy of the correction value is improved by terminating the main processing as described above and excluding the frame image from the processing target.
一方、画像処理部3は、自車両が旋回中でないとの否定結果が得られた場合は、ステップS102に進んで先行車両があり且つ入れ替わりがないか否かを判別する。すなわち、上述した先行車両検出処理によって先行車両が検出され且つ先行車両の入れ替わりが検出されていないか否かを判別する。
先行車両があり且つ入れ替わりがないとの条件が満たされていないとして否定結果が得られた場合、画像処理部3はステップS107に進んで蓄積データをクリアし、図4に示すメイン処理を終える。すなわち、次に説明するステップS103で蓄積したブレーキランプ視差及びブレーキランプ間幅の蓄積データをクリア(消去)し、メイン処理を終える。
これにより、異なる先行車両についてそれぞれ蓄積されたブレーキランプ視差及びブレーキランプ間幅のデータに基づいて不正確な補正値が算出されてしまうことが防止され、補正精度の向上が図られる。
On the other hand, if a negative result is obtained that the host vehicle is not turning, the
If a negative result is obtained that the condition that there is a preceding vehicle and there is no replacement is not satisfied, the
As a result, it is possible to prevent an incorrect correction value from being calculated based on the brake lamp parallax and brake lamp width data accumulated for different preceding vehicles, thereby improving the correction accuracy.
また、画像処理部3は、先行車両があり且つ入れ替わりがないとの条件が満たされているとして肯定結果が得られた場合には、ステップS103に進んでブレーキランプ視差及びブレーキランプ間幅蓄積処理を実行する。このステップS103の蓄積処理は、複数の時点で先行車両についてのブレーキランプ視差及びブレーキランプ間幅のデータを蓄積するための処理であるが、詳細は後述する。
Further, when a positive result is obtained that the condition that there is a preceding vehicle and there is no replacement is satisfied, the
画像処理部3は、ステップS103の蓄積処理を実行したことに応じて、ステップS104でデータ蓄積数が所定数以上となったか否かを判別する。すなわち、ブレーキランプ視差及びブレーキランプ間幅のデータの蓄積数が所定数以上となったか否かを判別する。先の説明から理解されるように、ブレーキランプ間幅とブレーキランプ視差の関係を表す近似直線を算出するにあたっては、ブレーキランプ間幅とブレーキランプ視差のサンプル数は少なくとも2以上であればよく、上記の「所定数」としては少なくとも「2」以上を設定すればよい。なお、補正精度向上のためには「所定数」の値としては多い方が望ましい。
In response to the execution of the accumulation process in step S103, the
データ蓄積数が所定数以上でないとの否定結果が得られた場合、画像処理部3は図4に示すメイン処理を終える。
If a negative result is obtained that the data accumulation number is not equal to or greater than the predetermined number, the
一方、データ蓄積数が所定数以上であるとの肯定結果が得られた場合、画像処理部3はステップS105に進んで近似直線算出処理を実行する。ステップS105の近似直線算出処理は、ステップS103の処理で蓄積したデータに基づいて前述したブレーキランプ間幅とブレーキランプ視差の関係を表す近似直線を算出する処理である。なお、近似直線算出処理の詳細は後述する。
On the other hand, when an affirmative result is obtained that the number of accumulated data is greater than or equal to the predetermined number, the
画像処理部3は、ステップS105で近似直線を算出したことに応じて、ステップS106で近似直線の切片bの値に基づき視差オフセット値を補正する処理を実行し、図4に示すメイン処理を終える。上記もしたように、本例の補正処理では、切片bの符号を反転させた値を補正値として算出し「DP+(−b)」により視差オフセット値DPを補正する。
In response to the calculation of the approximate line in step S105, the
図5は、ブレーキランプ視差及びブレーキランプ間幅データ蓄積処理(S103)のフローチャートである。
画像処理部3は、先ずステップS201で、先行車両の左右ブレーキランプが点灯しているか否かを判別する。このステップS201の判別処理は、前述した暗画像を用いて行う。具体的には、暗画像中における先行車両が検出されている画像範囲と同じ画像範囲内において、赤色の輝度値が所定値以上となる画像部分が二箇所以上存在するか否かを判別する。
FIG. 5 is a flowchart of the brake lamp parallax and brake lamp width data accumulation process (S103).
First, in step S201, the
先行車両の左右ブレーキランプが点灯しているとの肯定結果が得られた場合、画像処理部3はステップS202に処理を進める。すなわち、以降で説明するブレーキランプ視差とブレーキランプ間幅のデータ蓄積のための処理が実行される。
一方、左右ブレーキランプが点灯していないとの否定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、以降で説明するブレーキランプ視差とブレーキランプ間幅のデータ蓄積のための処理は実行されない。
If a positive result is obtained that the left and right brake lamps of the preceding vehicle are lit, the
On the other hand, if a negative result is obtained that the left and right brake lamps are not lit, the
ここで、前述のような近似直線を精度良く求めるにあたっては、先行車両の視差に相当するブレーキランプ視差、及び先行車両の見かけの大きさに相当するブレーキランプ間幅についてはできるだけ離散した値を取得できることが望ましい。すなわち、先行車両との車間距離が比較的大きく変化する際に取得できることが望ましい。
この点に鑑み、本実施の形態では、視差オフセット値DPの補正値の算出にあたって上記のように先行車両のブレーキランプが点灯しているか否かを判定し、当該判定結果に基づいて補正値の算出に係る処理を開始する(又は開始しない)こととしている。これにより、先行車両が減速状態となる、すなわち先行車両の視差及び見かけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能となり、先行車両の視差及び見かけの大きさについて離散した値を効率的に取得することができる。
Here, when accurately obtaining the approximate straight line as described above, the brake lamp parallax corresponding to the parallax of the preceding vehicle and the brake lamp width corresponding to the apparent size of the preceding vehicle are obtained as discrete values as possible. It is desirable to be able to do it. That is, it is desirable that the distance can be acquired when the inter-vehicle distance from the preceding vehicle changes relatively large.
In view of this point, in the present embodiment, in calculating the correction value of the parallax offset value DP, it is determined whether the brake lamp of the preceding vehicle is lit as described above, and the correction value is calculated based on the determination result. The processing related to the calculation is started (or not started). As a result, it becomes possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a deceleration state, that is, when the parallax and the apparent magnitude of the preceding vehicle can be reliably expected. It is possible to efficiently acquire discrete values for the parallax and the apparent size.
画像処理部3は、ステップS201で肯定結果が得られた場合は、ステップS202で左右のブレーキランプ幅、左右ブレーキランプ中心座標、ブレーキランプ間画像上幅、ブレーキランプ視差をそれぞれ計算する。
ここで、左右のブレーキランプ幅は、図6に示すように先行車両の左側のブレーキランプの幅WL、右側ブレーキランプの幅WRである。これら幅WL、WRについては、暗画像における先行車両の画像範囲と同範囲内に検出された赤色輝度値が所定値以上の画像部分(赤色発光部分)の幅をそれぞれ求める。
なお、先行車両の車種によってはハイマウントストップランプなど左右ブレーキランプの間に赤色発光体が検出される場合もある。先行車両の画像範囲内に3以上の赤色発光部分が検出されている場合は、そのうちの左右の両端にある赤色発光部分のみを抽出してこれを左右ブレーキランプと定める。
If an affirmative result is obtained in step S201, the
Here, the left and right brake lamp widths are the left brake lamp width WL and the right brake lamp width WR of the preceding vehicle as shown in FIG. For these widths WL and WR, the widths of the image portions (red light emission portions) in which the red luminance value detected in the same range as the image range of the preceding vehicle in the dark image is equal to or greater than a predetermined value are obtained.
Depending on the type of the preceding vehicle, a red light emitter may be detected between the left and right brake lamps such as a high-mount stop lamp. When three or more red light emitting portions are detected in the image range of the preceding vehicle, only the red light emitting portions at the left and right ends of them are extracted and defined as left and right brake lamps.
また、左右ブレーキランプ中心座標は、図6において黒丸により表すものであり、上記のように求めた左右ブレーキランプとしての赤色発光部分それぞれの中心座標である。
さらに、ブレーキランプ間画像上幅は、図6において「BW」で表すものであり、上記のように求めた左右ブレーキランプ中心座標間の幅を意味する。
また、ブレーキランプ視差は、前述もしたように先行車両のブレーキランプの視差dpである。本例では、ブレーキランプ視差として、左右ブレーキランプそれぞれの視差dpの平均値を計算する。このとき、左右ブレーキランプそれぞれの視差dpは、左側ブレーキランプの中心座標と右側ブレーキランプの中心座標を第1撮像画像データ側と第2撮像画像データ側の双方で求め、それら中心座標間の視差dpとしてそれぞれ求める。
なお、ブレーキランプ視差は、左右ブレーキランプのうち一方の視差dpとしてもよい。
Further, the left and right brake lamp center coordinates are represented by black circles in FIG. 6, and are the center coordinates of the red light emitting portions as the left and right brake lamps obtained as described above.
Further, the upper image width between brake lamps is represented by “BW” in FIG. 6, and means the width between the left and right brake lamp center coordinates obtained as described above.
The brake lamp parallax is the parallax dp of the brake lamp of the preceding vehicle as described above. In this example, the average value of the parallax dp of each of the left and right brake lamps is calculated as the brake lamp parallax. At this time, the parallax dp of each of the left and right brake lamps is obtained by obtaining the center coordinates of the left brake lamp and the center coordinates of the right brake lamp on both the first captured image data side and the second captured image data side. It calculates | requires as dp, respectively.
The brake lamp parallax may be the parallax dp of one of the left and right brake lamps.
画像処理部3は、ステップS202で左右のブレーキランプ幅、左右ブレーキランプ中心座標、ブレーキランプ間画像上幅、ブレーキランプ視差をそれぞれ計算したことに応じて、ステップS203でブレーキランプ間実空間上幅を計算し、ステップS204でブレーキランプ間実空間上幅が所定値以下であるか否かを判別する。ブレーキランプ間実空間幅は、ステップS202で計算したブレーキランプ間画像幅を実空間上(三次元空間上)での幅に換算したものである。そして、ステップS204の判別処理では、ブレーキランプ間実空間上幅が例えば1m以下であるか否かを判別する。
ステップS204においてブレーキランプ間実空間上幅が所定値以下であるとの肯定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、ブレーキランプ間実空間上幅が所定値以下であると判定されたフレーム画像については、後述する補正値算出用のブレーキランプ視差及びブレーキランプ間幅の計算(S207)やその蓄積(S208)が行われず、補正値の算出に係る処理の対象から除外される。
In step S202, the
If an affirmative result is obtained in step S204 that the upper space between the brake lamps is equal to or smaller than the predetermined value, the
ここで、点灯中の左右ブレーキランプとして検出された物体間の幅があまりにも狭い場合には当該左右の物体は同一先行車両の左右ブレーキランプでない可能性が高い。或いは、同一先行車両の左右ブレーキランプを検出しているものの、例えば外部環境やシステム上の不具合等による何らかの一時的な検出誤差要因が生じている可能性もある。そこで、上記のように左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像については処理対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。 Here, if the width between the objects detected as the left and right brake lamps that are lit is too narrow, there is a high possibility that the left and right objects are not the left and right brake lamps of the same preceding vehicle. Alternatively, although the left and right brake lamps of the same preceding vehicle are detected, there may be some temporary detection error factors due to, for example, an external environment or a malfunction in the system. Therefore, as described above, the correction of the correction value based on the low-reliability frame image is performed by excluding the frame image that is determined to have the upper real space width between the left and right brake lamps equal to or less than the predetermined value. This prevents the breakage and improves the accuracy of the correction value.
画像処理部3は、ステップS204でブレーキランプ間実空間上幅が所定値以下ではないとの否定結果が得られた場合は、ステップS205に進んで左右のブレーキランプ幅の差(図6におけるWLとWRの差)が所定値以上であるか否か、例えば2画素以上であるか否かを判別する。
左右のブレーキランプ幅の差が所定値以上であるとの肯定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、現在のフレーム画像は補正値の算出に係る処理対象から除外される。
If a negative result is obtained in step S204 that the upper space between the brake lamps is not less than or equal to the predetermined value, the
If a positive result is obtained that the difference between the left and right brake lamp widths is greater than or equal to a predetermined value, the
通常、ブレーキランプは左右対称形状で設けられているため、自車両が先行車両の後面に対して正対していれば検出サイズは同等となるべきである。これに反して左右のブレーキランプ幅に差があるということは、何らかの異常が生じているとみなすことができる。例えば、早朝や夕方の時間帯等において先行車両の一方のブレーキランプにのみ比較的強く順光が当たっているケースなどでは一方のブレーキランプの検出サイズが大きくなる場合がある。或いは、上記の順光等の外部環境のみでなく、システム上の不具合等による何らかの一時的な検出誤差要因が生じている場合にも左右ブレーキランプの幅に差が生じ得る。左右ブレーキランプの幅に差があるということは、前述した左右ブレーキランプ中心座標のうち少なくとも一方は不正確であり、これに伴い先行車両の見かけの大きさに相当するブレーキランプ間幅の値も不正確になる。
そこで、上記のように先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を処理対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。
Usually, since the brake lamp is provided in a symmetrical shape, the detection size should be equal if the host vehicle is facing the rear surface of the preceding vehicle. On the other hand, if there is a difference between the left and right brake lamp widths, it can be considered that some abnormality has occurred. For example, in a case where only one brake lamp of the preceding vehicle is relatively strongly lit in the early morning or evening time zone, the detection size of one brake lamp may be large. Alternatively, the width of the left and right brake lamps may be different not only in the external environment such as the above-mentioned direct light but also in the case where some temporary detection error factor is generated due to a problem on the system. The difference in the width of the left and right brake lamps means that at least one of the left and right brake lamp center coordinates described above is inaccurate, and accordingly, the value of the width between the brake lamps corresponding to the apparent size of the preceding vehicle is also obtained. Become inaccurate.
Therefore, the correction value is calculated based on the unreliable frame image by excluding the frame image determined as having the difference between the left and right brake lamp widths of the preceding vehicle being equal to or greater than the predetermined value as described above. This prevents the breakage and improves the accuracy of the correction value.
画像処理部3は、ステップS205で左右ブレーキランプの幅の差が所定値以上ではないとの否定結果が得られた場合は、ステップS206に進んで左右ブレーキランプの縦位置の差が所定値以上であるか否かを判別する。ここで、左右個々のブレーキランプの縦位置は、図6にそれぞれ「JL」「JR」と示すように前述した中心座標の縦位置(j座標)とする。ステップS206ではこれら縦位置の差が例えば4画素以上であるか否かを判別する。
画像処理部3は、左右のブレーキランプ幅の差が所定値以上であるとの肯定結果が得られた場合は図5に示す処理を終える。すなわち、現在のフレーム画像は補正値の算出に係る処理対象から除外される。
If a negative result is obtained in step S205 that the difference between the left and right brake lamp widths is not equal to or greater than the predetermined value, the
When a positive result is obtained that the difference between the left and right brake lamp widths is equal to or greater than a predetermined value, the
ここで、検出した左右ブレーキランプの縦位置に差がある場合には、自車両や先行車両が旋回中でロール角をもち撮像画像内でブレーキランプが斜めに配置されていたり、同一先行車両の左右ブレーキランプとして検出したはずの左右一対の物体のうちの一方がブレーキランプ以外の赤色発光体であったなど、先行車両のブレーキランプ以外が誤検出されている可能性がある。或いは、同一先行車両の左右ブレーキランプを検出しているものの外部環境やシステム上の不具合等による何らかの一時的な検出誤差要因が生じている可能性もある。これらの場合において補正値を算出するのは望ましくないため、上記のように縦位置の差が所定値以上であると判定したフレーム画像を補正値の算出に係る処理の対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。 Here, when there is a difference in the detected vertical position of the left and right brake lamps, the host vehicle or the preceding vehicle is turning, has a roll angle, and the brake lamp is arranged obliquely in the captured image, or the same preceding vehicle There is a possibility that other than the brake lamp of the preceding vehicle is erroneously detected, such as one of the pair of left and right objects that should have been detected as the left and right brake lamps is a red light emitter other than the brake lamp. Alternatively, although the left and right brake lamps of the same preceding vehicle are detected, there may be some temporary detection error factors due to an external environment or a problem on the system. Since it is not desirable to calculate the correction value in these cases, by excluding the frame image determined that the difference in the vertical position is equal to or greater than the predetermined value as described above from the processing target related to the calculation of the correction value, The calculation of the correction value based on the frame image with low reliability is prevented, and the accuracy of the correction value is improved.
画像処理部3は、ステップS206で左右ブレーキランプの縦位置の差が所定値以上でないとの否定結果が得られた場合は、ステップS207に進んで補正値算出用ブレーキランプ視差、及び補正値算出用ブレーキランプ間幅を計算する。補正値算出用ブレーキランプ視差は、ステップS202で求めたブレーキランプ視差の値を用いて下記のように計算する。
補正値算出用ブレーキランプ視差=基線長/(画素ピッチ*焦点距離)/ブレーキランプ視差+視差オフセット値DP …[式4]
また、補正値算出用ブレーキランプ間幅は、ステップS202で求めたブレーキランプ間画像幅の値を用いて下記のように計算する。
補正値算出用ブレーキランプ間幅=(基線長*ブレーキランプ間画像幅)/{基線長/(画素ピッチ*焦点距離)}/距離 …[式5]
但し、[式5]において、「距離」は先行車両までの距離を意味し、例えばステップS202で求めたブレーキランプ視差の値を用いて先の[式3]で計算される距離Zの値を用いる。或いは、前述した先行車検出処理で求めた先行車距離の値を用いてもよい。
If a negative result is obtained in step S206 that the difference between the vertical positions of the left and right brake lamps is not equal to or greater than a predetermined value, the
Brake lamp parallax for calculating correction value = base line length / (pixel pitch * focal length) / brake lamp parallax + parallax offset value DP [Equation 4]
Also, the brake lamp width for calculating the correction value is calculated as follows using the value of the brake lamp image width obtained in step S202.
Correction value calculation brake lamp width = (base line length * brake lamp image width) / {base line length / (pixel pitch * focal length)} / distance [Equation 5]
However, in [Expression 5], “distance” means the distance to the preceding vehicle. For example, the value of the distance Z calculated in [Expression 3] using the brake lamp parallax value obtained in step S202 is used. Use. Or you may use the value of the preceding vehicle distance calculated | required by the preceding vehicle detection process mentioned above.
ここで、上記のように計算される補正値算出用ブレーキランプ視差及び補正値算出用ブレーキランプ間幅としては、共に視差オフセット値DPを取り入れた値とされている(補正値算出用ブレーキランプ間幅は最終的に距離で除算しているため視差オフセット値DPが取り入れられている)。本実施の形態では、このようにブレーキランプ視差とブレーキランプ間幅の値として、画素数単位によるブレーキランプ視差及びブレーキランプ間幅(ブレーキランプ間画像幅)の値をそのまま用いるものとはせず、それらの値を視差オフセット値DPを取り入れたかたちに換算し、それら換算した値を用いてステップS105での近似直線の算出(つまり補正値の算出)を行う。これにより、画素数単位によるブレーキランプ視差及びブレーキランプ間幅の値をそのまま用いた近似直線の算出を行う場合よりも補正値の精度の向上が図られる。 Here, the correction value calculation brake lamp parallax and the correction value calculation brake lamp parallax calculated as described above are both values incorporating the parallax offset value DP (between the correction value calculation brake lamps). Since the width is finally divided by the distance, the parallax offset value DP is taken in). In this embodiment, as described above, the values of the brake lamp parallax and the brake lamp width (the image width between brake lamps) are not used as they are as the values of the brake lamp parallax and the brake lamp width. These values are converted into a form in which the parallax offset value DP is taken in, and an approximate straight line is calculated (that is, a correction value is calculated) in step S105 using the converted values. Thereby, the accuracy of the correction value can be improved as compared with the case of calculating an approximate straight line using the values of the brake lamp parallax and the brake lamp width in units of the number of pixels as they are.
なお、確認のため述べておくと、補正値算出用ブレーキランプ間幅は、[式5]で最終的に距離で除算されていることからも理解されるように、先行車両が自車両から遠ざかるほど値が小さくなり、逆に近づくほど値が大きくなる。従って、補正値算出用ブレーキランプ間幅としても、先行車両の見かけの大きさを表すものであることに変わりはない。 For confirmation, as will be understood from the fact that the distance between the brake lamps for calculating the correction value is finally divided by the distance in [Equation 5], the preceding vehicle moves away from the own vehicle. The value decreases as the value approaches, and the value increases as the value approaches. Therefore, the width between the brake lamps for calculating the correction value still represents the apparent size of the preceding vehicle.
画像処理部3は、ステップS207で補正値算出用ブレーキランプ視差、及び補正値算出用ブレーキランプ間幅を計算したことに応じて、ステップS208でそれら計算した補正値算出用ブレーキランプ視差と補正値算出用ブレーキランプ間幅をメモリ4に蓄積する処理を実行し、図5に示す処理を終える。
The
図7は、近似直線算出処理(S105)のフローチャートである。
画像処理部3は、先のステップS104でデータ蓄積数が所定数以上であるとの肯定結果が得られたことに応じて、図7に示すステップS301で処理回数カウント値nを0リセットし、ステップS302で蓄積データに基づき最小自乗法ににより近似直線を計算する。すなわち、先のステップS208の処理によって蓄積された[補正値算出用ブレーキランプ視差,補正値算出用ブレーキランプ間幅]のデータに基づき、ブレーキランプ視差とブレーキランプ間幅の関係を表す近似直線(y=ax+b)を最小自乗法によって計算する。
FIG. 7 is a flowchart of the approximate line calculation process (S105).
The
ステップS302で近似直線を計算したことに応じ、画像処理部3はステップS303に進んで蓄積データのうち近似直線に対して残差が過大なデータとブレーキランプ間幅の値が逸脱しているデータを除去する処理を実行する。すなわち、複数蓄積された[補正値算出用ブレーキランプ視差,補正値算出用ブレーキランプ間幅]のデータのうち、ステップS302で計算した近似直線に対する残差が過大とされるデータ(残差が所定値以上のデータ)と、補正値算出用ブレーキランプ間幅の値が他のデータにおける補正値算出用ブレーキランプ間幅の値に対して逸脱しているとされるデータとを除去する。このとき、補正値算出用ブレーキランプ間幅の値が逸脱しているか否かは、例えば蓄積された複数の補正値算出用ブレーキランプ間幅の値の平均値を求め、該平均値との差が所定値以上であるか否かにより判別する。
In response to the calculation of the approximate straight line in step S302, the
続くステップS304で画像処理部3は、蓄積データに基づき最小自乗法により近似直線を再計算する。すなわち、ステップS303で除去したデータを除いた蓄積データに基づいて近似直線を再計算する。
In subsequent step S304, the
次のステップS305で画像処理部3は、処理回数カウント値nが上限値N以上であるか否かを判別し、否定結果が得られた場合はステップS306で処理回数カウント値をインクリメント(n←n+1)し、ステップS303に戻る。一方、ステップS305で肯定結果が得られた場合、画像処理部3は図7に示す処理を終える。
これにより、処理回数カウント値nが上限値Nに達するまでステップS303によるデータ除去処理とステップS304による近似直線の再計算処理とが繰り返される。この繰り返しにより、近似直線としてより精度の高い直線を算出でき、従って補正値の精度の向上が図られる。なお、本例では上限値N=1として、最小自乗法による近似直線の算出が計3回行われるようにしている。
In the next step S305, the
As a result, the data removal process in step S303 and the approximate straight line recalculation process in step S304 are repeated until the processing count value n reaches the upper limit value N. By repeating this, a straight line with higher accuracy can be calculated as the approximate straight line, and thus the accuracy of the correction value can be improved. In this example, the upper limit value N = 1, and the approximate straight line is calculated three times by the least square method.
画像処理部3は、上記のようなステップS105の近似直線算出処理を実行したことに応じて、前述したステップS106の補正処理を実行する。この場合のステップS106の処理では、上記のような繰り返し処理によって最終的に算出された近似直線の切片bの値に基づいて視差オフセット値DPの補正が行われる。
これにより、カメラの取付状態の経時的な変化に伴い生じる視差オフセット値DPの誤差を適正に補正することができる。すなわち、視差dpから距離Zを算出する計算式の補正を適正に行うことができる。
In response to the execution of the approximate straight line calculation process of step S105 as described above, the
Thereby, the error of the parallax offset value DP caused by the change with time of the camera mounting state can be corrected appropriately. That is, the calculation formula for calculating the distance Z from the parallax dp can be appropriately corrected.
<4.実施の形態のまとめ>
上記のように本実施の形態の画像処理装置(画像処理部3)は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて算出した被写体の視差に基づき前記被写体までの距離を算出する距離算出手段(三次元位置情報生成処理部3A)と、前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段(先行車両検出処理部3D)と、前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段(視差オフセット値補正処理部3E)とを備えている。
そして、前記補正手段は、前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始する。
<4. Summary of Embodiment>
As described above, the image processing apparatus (image processing unit 3) according to the present embodiment is able to reach the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle. A preceding vehicle existing in the traveling direction of the host vehicle is detected based on the distance calculation means (three-dimensional position information
And the said correction | amendment means starts the process which concerns on calculation of the correction value for correct | amending the said calculation formula based on the result of having determined whether the brake lamp of the said preceding vehicle is lighting.
これにより、先行車両が減速状態となる、すなわち先行車両の視差及び見かけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能とされる。
従って、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることができる。
Accordingly, it is possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a deceleration state, that is, when the parallax and the apparent magnitude of the preceding vehicle can be reliably expected.
Therefore, in the system that corrects the calculation formula for calculating the distance from the parallax, the time required for the correction can be shortened and the processing load related to the correction can be reduced.
また、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、例えば点灯中の左右ブレーキランプとして検出された物体が同一先行車両の左右ブレーキランプでない可能性が高い場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Further, in the image processing apparatus according to the present embodiment, the correction unit relates to the calculation of the correction value for a frame image determined that the real space width between the left and right brake lamps of the preceding vehicle is equal to or less than a predetermined value. Exclude from processing.
As a result, for example, there is a high possibility that the object detected as the left and right brake lamps that are lit is not the left and right brake lamps of the same preceding vehicle, or there is a possibility that some detection error factor has occurred. Frame images are excluded from processing targets related to calculation of correction values.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.
さらに、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、例えば一方のブレーキランプのみに順光が当たっているケースなどで左右ブレーキランプの幅に差が生じている信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Furthermore, in the image processing apparatus according to the present embodiment, the correction unit performs processing related to calculation of the correction value for a frame image that is determined that the difference in width between the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. Exclude from the target.
As a result, for example, a frame image with low reliability in which the width of the left and right brake lamps is different in a case where only one brake lamp is lit, etc., is excluded from the processing related to the calculation of the correction value. Is done.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.
さらにまた、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、自車両や先行車両が旋回中でロール角をもっていたり左右ブレーキランプの一方にブレーキランプ以外の赤色発光体を誤検出している場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Furthermore, in the image processing apparatus according to the present embodiment, the correction means relates to the calculation of the correction value for a frame image that has been determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. Exclude from processing.
As a result, if the host vehicle or the preceding vehicle is turning and has a roll angle, or if a red light emitter other than the brake lamp is erroneously detected on one of the left and right brake lamps, or there may be some detection error factor For example, a frame image with low reliability such as the above is excluded from processing targets related to calculation of correction values.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.
加えて、本実施の形態の画像処理装置においては、前記補正手段は、自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、自車両が先行車両の後面と正対しておらず先行車両の見かけの大きさが不正確となる場合に得られたフレーム画像については補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
In addition, in the image processing apparatus according to the present embodiment, the correction unit excludes the frame image when it is determined that the host vehicle is turning from the processing target related to the calculation of the correction value.
As a result, the frame image obtained when the host vehicle is not directly facing the rear surface of the preceding vehicle and the apparent size of the preceding vehicle is inaccurate is excluded from the processing related to the calculation of the correction value. .
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.
<5.変形例>
以上、本発明の実施の形態について説明したが、本発明は上記で説明した具体例に限定されず、多様な変形例が考えられるものである。
例えば、補正値の算出に係る処理の対象から除外するフレーム画像の条件は、上記で例示したものに限定されない。例えば、自車両の前/後ピッチ量が所定値以上の場合には補正値の算出精度の低下が懸念されるため、そのような場合に得られたフレーム画像は処理対象から除外することもできる。なお、自車両の前/後ピッチ量はGセンサ10Fの検出信号に基づき得ることができる。また、自車両がブレーキON状態では前方向へのピッチが生じるため、ブレーキスイッチ10BがONであることが判定された場合のフレーム画像を処理対象から除外してもよい。
さらに、自車両が旋回中であるか否かの判定(ステップS101)に代えて、自車両の進行路上の所定距離内にカーブがあるか否かを判定してもよい。
<5. Modification>
While the embodiments of the present invention have been described above, the present invention is not limited to the specific examples described above, and various modifications can be considered.
For example, the conditions of the frame image excluded from the processing target related to the calculation of the correction value are not limited to those exemplified above. For example, when the front / rear pitch amount of the host vehicle is greater than or equal to a predetermined value, there is a concern that the calculation accuracy of the correction value may be reduced. Therefore, the frame image obtained in such a case can be excluded from the processing target. . The front / rear pitch amount of the host vehicle can be obtained based on the detection signal of the
Further, instead of determining whether the host vehicle is turning (step S101), it may be determined whether there is a curve within a predetermined distance on the traveling path of the host vehicle.
また、上記で例示した距離の計算式の補正手法は一例に過ぎず、例えば特許文献1に記載のように視差誤差εを補正値として算出する補正手法を採ることもできる。また、補正値算出用のブレーキランプ視差、ブレーキランプ間幅を計算せずに、画素数単位によるブレーキランプ視差及びブレーキランプ間幅(ブレーキランプ間画像幅)の値をそのまま用いて近似直線を算出することもできる。
Moreover, the correction method of the distance calculation formula illustrated above is only an example, and a correction method for calculating the parallax error ε as a correction value as described in
1…車両制御システム、2…撮像部、3…画像処理部、3A…三次元位置情報生成処理部、3D…先行車両検出処理部、3E…視差オフセット値補正処理部
DESCRIPTION OF
Claims (5)
前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段と、
前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段とを備え、
前記補正手段は、
前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始する
画像処理装置。 Distance calculating means for calculating a distance to the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle;
Preceding vehicle detection means for detecting a preceding vehicle existing in the traveling direction of the host vehicle based on the captured image and the distance calculated by the distance calculation means;
Correction means for correcting a calculation formula for calculating the distance from the parallax based on the parallax corresponding to the preceding vehicle detected by the preceding vehicle detection means and a change in the apparent size of the preceding vehicle. ,
The correction means includes
An image processing apparatus that starts processing related to calculation of a correction value for correcting the calculation formula based on a result of determining whether or not a brake lamp of the preceding vehicle is lit.
前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1に記載の画像処理装置。 The correction means includes
The image processing apparatus according to claim 1, wherein a frame image that is determined to have an upper real space width between the left and right brake lamps of the preceding vehicle that is equal to or less than a predetermined value is excluded from processing targets related to the calculation of the correction value.
前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1又は請求項2に記載の画像処理装置。 The correction means includes
The image processing apparatus according to claim 1, wherein a frame image that is determined that a difference in width between left and right brake lamps of the preceding vehicle is equal to or greater than a predetermined value is excluded from processing targets related to calculation of the correction value.
前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1乃至請求項3の何れかに記載の画像処理装置。 The correction means includes
The frame image determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value is excluded from the processing related to the calculation of the correction value. Image processing device.
自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1乃至請求項4の何れかに記載の画像処理装置。 The correction means includes
The image processing apparatus according to any one of claims 1 to 4, wherein a frame image when it is determined that the host vehicle is turning is excluded from processing targets related to the calculation of the correction value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013227356A JP6169949B2 (en) | 2013-10-31 | 2013-10-31 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013227356A JP6169949B2 (en) | 2013-10-31 | 2013-10-31 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015087323A JP2015087323A (en) | 2015-05-07 |
JP6169949B2 true JP6169949B2 (en) | 2017-07-26 |
Family
ID=53050236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013227356A Active JP6169949B2 (en) | 2013-10-31 | 2013-10-31 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6169949B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6600177B2 (en) * | 2015-06-19 | 2019-10-30 | 株式会社Subaru | Image processing device |
JP6619590B2 (en) * | 2015-09-02 | 2019-12-11 | 株式会社Subaru | Image processing device |
US11222218B2 (en) | 2019-03-11 | 2022-01-11 | Subaru Corporation | Vehicle exterior environment detection apparatus |
JP6990222B2 (en) * | 2019-03-11 | 2022-01-12 | 株式会社Subaru | External environment detection device |
JP7307699B2 (en) * | 2020-03-31 | 2023-07-12 | 株式会社Soken | object detector |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08241500A (en) * | 1995-03-07 | 1996-09-17 | Hitachi Ltd | Front vehicle recognition device and alarm device on vehicle |
US8164628B2 (en) * | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
JP5234894B2 (en) * | 2007-06-28 | 2013-07-10 | 富士重工業株式会社 | Stereo image processing device |
-
2013
- 2013-10-31 JP JP2013227356A patent/JP6169949B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015087323A (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9690995B2 (en) | Image processing apparatus | |
JP5893601B2 (en) | Vehicle control system | |
US10518772B2 (en) | Vehicle position detecting apparatus | |
JP6169949B2 (en) | Image processing device | |
JP5863536B2 (en) | Outside monitoring device | |
JP4714104B2 (en) | Object tilt detection device | |
WO2014091877A1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
JP4937933B2 (en) | Outside monitoring device | |
JP5363920B2 (en) | Vehicle white line recognition device | |
JP6936098B2 (en) | Object estimation device | |
JP6828602B2 (en) | Target detection device | |
JP2016068684A (en) | Drive support control device | |
JP6185367B2 (en) | Driving assistance device | |
JP6828603B2 (en) | Target detection device | |
JP2019156308A (en) | Parking support device | |
JP6178632B2 (en) | Engine surge control device | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP2010018223A (en) | Device for detecting vehicle traveling road surface | |
JP2015088049A (en) | Vehicle control system | |
JP6082293B2 (en) | Vehicle white line recognition device | |
JP6404609B2 (en) | Steering support control device | |
JP6222768B2 (en) | Lane departure warning control device | |
JP2014123301A (en) | White line detection device | |
JP2012185665A (en) | Vehicle external monitoring device | |
US20240051535A1 (en) | Vehicle control apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6169949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |