JP6169949B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6169949B2
JP6169949B2 JP2013227356A JP2013227356A JP6169949B2 JP 6169949 B2 JP6169949 B2 JP 6169949B2 JP 2013227356 A JP2013227356 A JP 2013227356A JP 2013227356 A JP2013227356 A JP 2013227356A JP 6169949 B2 JP6169949 B2 JP 6169949B2
Authority
JP
Japan
Prior art keywords
preceding vehicle
parallax
image
correction
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013227356A
Other languages
Japanese (ja)
Other versions
JP2015087323A (en
Inventor
恭平 大谷
恭平 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2013227356A priority Critical patent/JP6169949B2/en
Publication of JP2015087323A publication Critical patent/JP2015087323A/en
Application granted granted Critical
Publication of JP6169949B2 publication Critical patent/JP6169949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて被写体の視差及び距離を算出する画像処理装置についての技術分野に関する。   The present invention relates to a technical field relating to an image processing apparatus that calculates a parallax and a distance of a subject based on a pair of captured images obtained by stereo imaging of the traveling direction of a host vehicle.

特開2009−8539号公報JP 2009-8539 A

例えば、車外環境を認識する車両システムにおいては、自車両の進行方向を一対のカメラでステレオ撮像して得られた撮像画像に基づいて被写体を認識するものがある。また、このように自車両の進行方向に存在する被写体を認識するシステムでは、被写体までの距離の情報も含めた被写体の三次元位置情報(実空間上における位置の情報)を生成するシステムがある。具体的には、上記のステレオ撮像により視点の異なる撮像画像を得、それら撮像画像に基づいて被写体の視差を算出し、該視差に基づいて被写体の三次元位置情報を生成するものである。   For example, in a vehicle system that recognizes the environment outside the vehicle, there is a vehicle system that recognizes a subject based on a captured image obtained by performing stereo imaging with a pair of cameras in the traveling direction of the host vehicle. In addition, in such a system for recognizing a subject existing in the traveling direction of the host vehicle, there is a system that generates three-dimensional position information (position information in real space) of the subject including information on the distance to the subject. . Specifically, captured images with different viewpoints are obtained by the above-described stereo imaging, the parallax of the subject is calculated based on the captured images, and the three-dimensional position information of the subject is generated based on the parallax.

上記の三次元位置情報は、一対のカメラの中央真下の点を原点とし、一対のカメラを結ぶ方向にX軸、上下方向にY軸、前後方向にZ軸ととった場合の空間上の点(X,Y,Z)で表される。三次元位置情報は、三角測量の手法に基づき生成されるもので、具体的には、画像上の画素を座標(i,j)で表し、視差をdp、一対のカメラの間隔をCD、1画素当たりの視野角をPW、一対のカメラの取り付け高さをCH、カメラ正面の無限遠点の画像上でのi座標、j座標をそれぞれIV、JVとしたときに、下記[式1]〜[式3]で表される座標変換により求まる。
X=CD/2+Z×PW×(i−IV) …[式1]
Y=CH+Z×PW×(j−JV) …[式2]
Z=CD/{PW×(dp−DP)} …[式3]
但し、上記[式3]における「DP」は視差オフセット値であり、一対のカメラの車両への取り付け時に決定され、それ以降は決定された値に固定されるものである。
The above three-dimensional position information is a point in space when the point directly below the center of the pair of cameras is the origin, the X axis is the direction connecting the pair of cameras, the Y axis is the vertical direction, and the Z axis is the front-back direction. It is represented by (X, Y, Z). The three-dimensional position information is generated based on the triangulation method. Specifically, the pixel on the image is represented by coordinates (i, j), the parallax is dp, the distance between the pair of cameras is CD, 1 When the viewing angle per pixel is PW, the mounting height of the pair of cameras is CH, and the i coordinate and the j coordinate on the image at the infinity point in front of the camera are IV and JV, respectively, It is obtained by coordinate transformation represented by [Formula 3].
X = CD / 2 + Z × PW × (i-IV) [Formula 1]
Y = CH + Z × PW × (j−JV) [Formula 2]
Z = CD / {PW × (dp−DP)} [Formula 3]
However, “DP” in the above [Expression 3] is a parallax offset value, which is determined when the pair of cameras are attached to the vehicle, and is fixed to the determined value thereafter.

視差オフセット値DPは、カメラが自車両に対して所定に取り付けられた状態を基準として定められた値であるため、例えば車両の使用により生じる振動や熱等に起因してカメラの取付状態が所定状態から変化してしまうと、上記[式3]により距離Zの値を正しく算出することができなくなってしまう。
そこで、このようなカメラの取付状態の経時的な変化に伴い生じる視差オフセット値DPの誤差を補正するための技術として、先に本出願人は上記特許文献1に記載される補正技術を提案している。具体的に、特許文献1では、異なる2つの時点においてそれぞれ先行車両の見かけの大きさと視差dpの計4値(大きさb1、b2、視差dp1、dp2)を取得し、これら4値から実際に算出された視差dpと真の視差dp*との誤差である視差誤差εを算出し、視差誤差εにより視差オフセット値DPを補正している。
Since the parallax offset value DP is a value determined based on a state in which the camera is attached to the host vehicle in a predetermined manner, for example, the camera attachment state is predetermined due to vibration or heat generated by use of the vehicle. If it changes from the state, the value of the distance Z cannot be calculated correctly by the above [Equation 3].
Therefore, as a technique for correcting an error in the parallax offset value DP caused by such a change in the camera mounting state over time, the present applicant previously proposed a correction technique described in Patent Document 1 above. ing. Specifically, in Patent Document 1, a total of four values (size b 1 , b 2 , parallax dp 1 , dp 2 ) of the apparent size of the preceding vehicle and the parallax dp are acquired at two different times, respectively. A parallax error ε that is an error between the parallax dp actually calculated from the value and the true parallax dp * is calculated, and the parallax offset value DP is corrected by the parallax error ε.

上記特許文献1に記載の技術によれば、視差オフセット値DPの補正にあたって所定のテスト用被写体を撮像させる必要性がなく、実際の車両の使用環境下において適正な補正を行うことができる。   According to the technique described in Patent Document 1, it is not necessary to image a predetermined test subject in correcting the parallax offset value DP, and appropriate correction can be performed under the actual use environment of the vehicle.

しかしながら、上記特許文献1では、先行車両が検出されている期間の全期間を対象として視差オフセット値DPの補正に係る処理を実行しているため、視差オフセット値DPの補正に比較的長い時間を要する虞がある。具体的に、特許文献1では、或る時点で先行車両の見かけの大きさb1と視差dp1を取得した後、先行車両の視差dpが或る程度変化するのを待ってから見かけの大きさb2と視差dp2を取得しているが、このとき、例えば自車両が先行車両とほぼ速度差なく巡航していたとすると、視差dpの値が変化しないため大きさb2と視差dp2を取得できず、視差オフセット値DPの補正が行われるまでに長時間を要してしまう虞がある。 However, in Patent Document 1 described above, since the process related to the correction of the parallax offset value DP is executed for the entire period in which the preceding vehicle is detected, a relatively long time is required for the correction of the parallax offset value DP. It may take. Specifically, in Patent Document 1, after obtaining the apparent size b 1 and the parallax dp 1 of the preceding vehicle at a certain time, the apparent size after waiting for the parallax dp of the preceding vehicle to change to some extent. B 2 and the parallax dp 2 are acquired. At this time, for example, if the host vehicle is cruising with almost no speed difference from the preceding vehicle, the value of the parallax dp does not change, so the magnitude b 2 and the parallax dp 2 Cannot be obtained, and it may take a long time to correct the parallax offset value DP.

また、先行車両が検出されている期間の全期間が対象とされているため、先行車両との距離変化が期待できない間も補正値の算出に係る処理が継続されてしまい、結果として処理負担の増大化を招く虞もある。   In addition, since the entire period of the period in which the preceding vehicle is detected is targeted, the process related to the calculation of the correction value is continued even while the distance change from the preceding vehicle cannot be expected, resulting in a processing burden. There is also a risk of increase.

そこで、本発明は上記した問題点を克服し、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to overcome the above-described problems and to shorten the time required for correction and reduce the processing load related to the correction in a system for correcting a calculation formula for calculating a distance from parallax. .

第1に、本発明に係る画像処理装置は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて算出した被写体の視差に基づき前記被写体までの距離を算出する距離算出手段と、前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段と、前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段とを備え、前記補正手段は、前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始するものである。   First, the image processing apparatus according to the present invention calculates a distance to the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle. Means, a preceding vehicle detecting means for detecting a preceding vehicle existing in the traveling direction of the host vehicle based on the captured image and the distance calculated by the distance calculating means, and a preceding vehicle detected by the preceding vehicle detecting means. Correction means for correcting a calculation formula for calculating the distance from the parallax based on the parallax corresponding to the vehicle and the change in the apparent size of the preceding vehicle, the correction means comprising: Based on the result of determining whether or not the brake lamp is lit, a process for calculating a correction value for correcting the calculation formula is started.

これにより、先行車両が減速状態となる、すなわち先行車両の視差及びみかけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能とされる。   As a result, it is possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a decelerating state, that is, when the change in the parallax and the apparent magnitude of the preceding vehicle can be reliably expected.

第2に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、例えば点灯中の左右ブレーキランプとして検出された物体が同一先行車両の左右ブレーキランプでない可能性が高い場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Second, in the above-described image processing apparatus according to the present invention, the correction unit converts a frame image determined that the real space upper width between the left and right brake lamps of the preceding vehicle is equal to or smaller than a predetermined value to the correction value. It is desirable to exclude from the processing target related to the calculation.
As a result, for example, there is a high possibility that the object detected as the left and right brake lamps that are lit is not the left and right brake lamps of the same preceding vehicle, or there is a possibility that some detection error factor has occurred. Frame images are excluded from processing targets related to calculation of correction values.

第3に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、例えば一方のブレーキランプのみに順光が当たっているケースなどで左右ブレーキランプの幅に差が生じている信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Thirdly, in the above-described image processing apparatus according to the present invention, the correction means calculates a correction value based on a frame image that has been determined that the difference in width between the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. It is desirable to exclude them from such processing.
As a result, for example, a frame image with low reliability in which the width of the left and right brake lamps is different in a case where only one brake lamp is lit, etc., is excluded from the processing related to the calculation of the correction value. Is done.

第4に、上記した本発明に係る画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、自車両や先行車両が旋回中でロール角をもっていたり左右ブレーキランプの一方にブレーキランプ以外の赤色発光体を誤検出している場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
Fourth, in the above-described image processing apparatus according to the present invention, the correction means calculates a correction value for a frame image that has been determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. It is desirable to exclude it from the target of processing related to.
As a result, if the host vehicle or the preceding vehicle is turning and has a roll angle, or if a red light emitter other than the brake lamp is erroneously detected on one of the left and right brake lamps, or there may be some detection error factor For example, a frame image with low reliability such as the above is excluded from processing targets related to calculation of correction values.

第5に、上記した本発明に係る画像処理装置においては、前記補正手段は、自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外することが望ましい。
これにより、自車両が先行車両の後面と正対しておらず先行車両の見かけの大きさが不正確となる場合に得られたフレーム画像については補正値の算出に係る処理の対象から除外される。
Fifth, in the above-described image processing apparatus according to the present invention, the correction unit excludes a frame image when it is determined that the host vehicle is turning from a target of processing related to the calculation of the correction value. Is desirable.
As a result, the frame image obtained when the host vehicle is not directly facing the rear surface of the preceding vehicle and the apparent size of the preceding vehicle is inaccurate is excluded from the processing related to the calculation of the correction value. .

本発明によれば、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることができる。   According to the present invention, in a system that corrects a calculation formula for calculating a distance from parallax, it is possible to shorten the time required for correction and reduce the processing load related to the correction.

実施の形態の車両制御システムの構成を示した図である。It is the figure which showed the structure of the vehicle control system of embodiment. 実施の形態で実行される画像処理について説明するための図である。It is a figure for demonstrating the image processing performed in embodiment. ブレーキランプ間幅とブレーキランプ視差との関係を例示した図である。It is the figure which illustrated the relationship between the width between brake lamps and brake lamp parallax. 視差オフセット値補正処理におけるメイン処理のフローチャートである。It is a flowchart of the main process in a parallax offset value correction process. ブレーキランプ視差及びブレーキランプ間幅蓄積処理のフローチャートである。It is a flowchart of a brake lamp parallax and a brake lamp width accumulation process. ブレーキランプ視差及びブレーキランプ間幅蓄積処理で計算する情報についての説明図である。It is explanatory drawing about the information calculated by brake lamp parallax and the brake lamp width | variety accumulation process. 近似直線算出処理のフローチャートである。It is a flowchart of an approximate line calculation process.

<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備えた車両制御システム1の構成を示している。なお、図1では、車両制御システム1の構成のうち主に本発明に係る要部の構成のみを抽出して示している。
車両制御システム1は、自車両に対して設けられた撮像部2、画像処理部3、メモリ4、運転支援制御部5、表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9、センサ・操作子類10、表示部11、エンジン関連アクチュエータ12、トランスミッション関連アクチュエータ13、ブレーキ関連アクチュエータ14、及びバス15を備えて構成される。
<1. Overall system configuration>
FIG. 1 shows a configuration of a vehicle control system 1 including an image processing apparatus as an embodiment according to the present invention. In FIG. 1, only the configuration of the main part according to the present invention is extracted and shown from the configuration of the vehicle control system 1.
The vehicle control system 1 includes an imaging unit 2, an image processing unit 3, a memory 4, a driving support control unit 5, a display control unit 6, an engine control unit 7, a transmission control unit 8, and a brake control unit provided for the host vehicle. 9, sensor / operator 10, display unit 11, engine-related actuator 12, transmission-related actuator 13, brake-related actuator 14, and bus 15.

画像処理部3は、撮像部2が自車両の進行方向(本例では前方)を撮像して得られた撮像画像データに基づき、車外環境の認識に係る所定の画像処理を実行する。画像処理部3による画像処理は、例えば不揮発性メモリ等とされたメモリ4を用いて行われる。なお、撮像部2の内部構成や画像処理部3が実行する具体的な処理の詳細については後述する。   The image processing unit 3 executes predetermined image processing related to recognition of the environment outside the vehicle based on captured image data obtained by the imaging unit 2 imaging the traveling direction of the host vehicle (front in this example). The image processing by the image processing unit 3 is performed using a memory 4 which is a non-volatile memory, for example. Details of the internal configuration of the imaging unit 2 and specific processing executed by the image processing unit 3 will be described later.

運転支援制御部5は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータで構成され、画像処理部3による画像処理の結果やセンサ・操作子類10で得られる検出情報や操作入力情報等に基づき、運転支援のための各種の制御処理(以下「運転支援制御処理」と表記)を実行する。
運転支援制御部5は、同じくマイクロコンピュータで構成された表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9の各制御部とバス15を介して接続されており、これら各制御部との間で相互にデータ通信を行うことが可能とされる。運転支援制御部5は、上記の各制御部のうち必要な制御部に対して指示を行って運転支援に係る動作を実行させる。
The driving support control unit 5 is configured by a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Various control processes for driving support (hereinafter referred to as “driving support control process”) are executed based on detection information, operation input information, and the like obtained by the operators 10.
The driving support control unit 5 is connected to each control unit of the display control unit 6, the engine control unit 7, the transmission control unit 8, and the brake control unit 9 which are also configured by a microcomputer via a bus 15. Data communication can be performed with the control unit. The driving support control unit 5 instructs a necessary control unit among the above control units to execute an operation related to driving support.

センサ・操作子類10は、自車両に設けられた各種のセンサや操作子を包括的に表している。センサ・操作子類10が有するセンサとしては、自車両の速度を検出する速度センサ10A、ブレーキペダルの操作/非操作に応じてON/OFFされるブレーキスイッチ10B、アクセルペダルの踏込み量からアクセル開度を検出するアクセル開度センサ10C、操舵角を検出する舵角センサ10D、ヨーレート(Yaw Rate)を検出するヨーレートセンサ10E、及び加速度を検出するGセンサ10Fがある。また、図示は省略したが、他のセンサとして、例えばエンジン回転数センサ、吸入空気量を検出する吸入空気量センサ、吸気通路に介装されてエンジンの各気筒に供給する吸入空気量を調整するスロットル弁の開度を検出するスロットル開度センサ、エンジン温度を示す冷却水温を検出する水温センサ、車外の気温を検出する外気温センサ等も有する。
また、操作子としては、エンジンの始動/停止を指示するためのイグニッションスイッチや、AT(オートマティックトランスミッション)車における自動変速モード/手動変速モードの選択や手動変速モード時におけるシフトアップ/ダウンの指示を行うためのセレクトレバーや、後述する表示部11に設けられたMFD(Multi Function Display)における表示情報の切り換えを行うための表示切換スイッチなどがある。
The sensors / operators 10 comprehensively represent various sensors and operators provided in the host vehicle. The sensor / operator 10 includes a speed sensor 10A that detects the speed of the host vehicle, a brake switch 10B that is turned on / off in response to the operation / non-operation of the brake pedal, and an accelerator opening based on the depression amount of the accelerator pedal. There is an accelerator opening sensor 10C that detects the degree, a steering angle sensor 10D that detects the steering angle, a yaw rate sensor 10E that detects the yaw rate, and a G sensor 10F that detects the acceleration. Although not shown, other sensors include, for example, an engine speed sensor, an intake air amount sensor that detects the intake air amount, and an intake air amount that is interposed in the intake passage and supplied to each cylinder of the engine. A throttle opening sensor that detects the opening of the throttle valve, a water temperature sensor that detects the cooling water temperature indicating the engine temperature, an outside air temperature sensor that detects the temperature outside the vehicle, and the like are also provided.
In addition, as an operator, an ignition switch for instructing start / stop of the engine, selection of an automatic transmission mode / manual transmission mode in an AT (automatic transmission) vehicle, and an instruction for up / down in the manual transmission mode are given. There are a select lever for performing, a display changeover switch for switching display information in an MFD (Multi Function Display) provided in the display unit 11 described later, and the like.

表示部11は、運転者の前方に設置されたメータパネル内に設けられるスピードメータやタコメータ等の各種メータやMFD、及びその他運転者に情報提示を行うための表示デバイスを包括的に表している。MFDには、自車両の総走行距離や外気温、瞬間燃費等といった各種の情報を同時又は切り換えて表示可能とされる。   The display unit 11 comprehensively represents various meters such as speedometers and tachometers and MFDs provided in a meter panel installed in front of the driver, and other display devices for presenting information to the driver. . Various information such as the total travel distance of the host vehicle, the outside air temperature, and instantaneous fuel consumption can be displayed on the MFD simultaneously or by switching.

表示制御部6は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、表示部11による表示動作を制御する。例えば、運転支援制御部5からの指示に基づき、運転支援の一環として表示部11(例えばMFDの所定領域)に所定の注意喚起メッセージを表示させることが可能とされている。   The display control unit 6 controls the display operation by the display unit 11 based on a detection signal from a predetermined sensor in the sensor / operator 10, operation input information by the operator, and the like. For example, based on an instruction from the driving support control unit 5, a predetermined alert message can be displayed on the display unit 11 (for example, a predetermined area of the MFD) as part of driving support.

エンジン制御部7は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、エンジン関連アクチュエータ12として設けられた各種アクチュエータを制御する。エンジン関連アクチュエータ12としては、例えばスロットル弁を駆動するスロットルアクチュエータや燃料噴射を行うインジェクタ等のエンジン駆動に係る各種のアクチュエータが設けられる。
例えばエンジン制御部7は、前述したイグニッションスイッチの操作に応じてエンジンの始動/停止制御を行う。また、エンジン制御部7は、エンジン回転数センサやアクセル開度センサ10C等の所定のセンサからの検出信号に基づき、燃料噴射タイミング、燃料噴射パルス幅、スロットル開度等の制御も行う。
The engine control unit 7 controls various actuators provided as the engine-related actuator 12 based on a detection signal from a predetermined sensor in the sensor / operator 10 or operation input information by the operator. As the engine-related actuator 12, for example, various actuators related to engine driving such as a throttle actuator that drives a throttle valve and an injector that performs fuel injection are provided.
For example, the engine control unit 7 performs engine start / stop control according to the operation of the ignition switch described above. The engine control unit 7 also controls the fuel injection timing, the fuel injection pulse width, the throttle opening, and the like based on detection signals from predetermined sensors such as an engine speed sensor and an accelerator opening sensor 10C.

トランスミッション制御部8は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、トランスミッション関連アクチュエータ13として設けられた各種のアクチュエータを制御する。トランスミッション関連アクチュエータ13としては、例えば自動変速機の変速制御を行うコントロールバルブや、ロックアップクラッチをロックアップ動作させるロックアップアクチュエータ等のトランスミッション関連の各種アクチュエータが設けられる。
例えばトランスミッション制御部8は、前述したセレクトレバーによって自動変速モードが選択されている際には、所定の変速パターンに従い変速信号をコントロールバルブに出力して変速制御を行う。
また、トランスミッション制御部8は、手動変速モードの設定時には、セレクトレバーによるシフトアップ/ダウン指示に従った変速信号をコントロールバルブに出力して変速制御を行う。
The transmission control unit 8 controls various actuators provided as the transmission-related actuator 13 based on a detection signal from a predetermined sensor in the sensor / operator 10 or operation input information by the operator. As the transmission-related actuator 13, there are provided various transmission-related actuators such as a control valve that performs shift control of an automatic transmission and a lockup actuator that locks up a lockup clutch.
For example, when the automatic shift mode is selected by the select lever described above, the transmission control unit 8 performs a shift control by outputting a shift signal to the control valve according to a predetermined shift pattern.
Further, when the manual shift mode is set, the transmission control unit 8 performs a shift control by outputting a shift signal according to a shift up / down instruction from the select lever to the control valve.

ブレーキ制御部9は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、ブレーキ関連アクチュエータ14として設けられた各種のアクチュエータを制御する。ブレーキ関連アクチュエータ14としては、例えばブレーキブースターからマスターシリンダへの出力液圧やブレーキ液配管内の液圧をコントロールするための液圧制御アクチュエータ等、ブレーキ関連の各種のアクチュエータが設けられる。例えばブレーキ制御部9は、運転支援制御部5よりブレーキをONする指示が為された場合に上記の液圧制御アクチュエータを制御して自車両を制動させる。またブレーキ制御部9は、所定のセンサ(例えば車軸の回転速度センサや車速センサ10A)の検出情報から車輪のスリップ率を計算し、スリップ率に応じて上記の液圧制御アクチュエータにより液圧を加減圧させることで、所謂ABS(Antilock Brake System)制御を実現する。   The brake control unit 9 controls various actuators provided as the brake-related actuators 14 based on detection signals from predetermined sensors in the sensors / operators 10 and operation input information by the operators. As the brake-related actuator 14, for example, various brake-related actuators such as a hydraulic pressure control actuator for controlling the hydraulic pressure output from the brake booster to the master cylinder and the hydraulic pressure in the brake fluid piping are provided. For example, when an instruction to turn on the brake is issued from the driving support control unit 5, the brake control unit 9 controls the hydraulic pressure control actuator to brake the host vehicle. The brake controller 9 calculates the slip ratio of the wheel from the detection information of a predetermined sensor (for example, the axle rotation speed sensor or the vehicle speed sensor 10A), and applies the hydraulic pressure by the hydraulic control actuator according to the slip ratio. By reducing the pressure, so-called ABS (Antilock Brake System) control is realized.

<2.本実施の形態で実行される画像処理>
図2により、本実施の形態で実行される画像処理について説明する。
なお、図2では画像処理について説明するため、画像処理部3の構成と共に図1に示した撮像部2の内部構成及びメモリ4も併せて示している。先ず、画像処理に用いる撮像画像データを得るための撮像部2について簡単に説明しておく。
撮像部2には、第1カメラ部20−1、第2カメラ部20−2、A/D変換器21−1、A/D変換器21−2、及び画像補正部22が設けられている。
第1カメラ部20−1、第2カメラ部20−2は、それぞれカメラ光学系とCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えて構成され、前記カメラ光学系により前記撮像素子の撮像面に被写体像が結像され、該撮像素子にて受光光量に応じた電気信号が画素単位で得られる。
第1カメラ部20−1、第2カメラ部20−2は、いわゆるステレオ撮像法による測距が可能となるように設置される。すなわち、視点の異なる複数の撮像画像が得られるように配置されている。本例における第1カメラ部20−1、第2カメラ部20−2は、自車両のフロントガラス上部近傍において、車幅方向に所定間隔を空けて配置されている。第1カメラ部20−1、第2カメラ部20−2の光軸は平行とされ、焦点距離はそれぞれ同値とされる。また、フレーム周期は同期し、フレームレートも一致している。
<2. Image processing executed in this embodiment>
The image processing executed in this embodiment will be described with reference to FIG.
In FIG. 2, in order to describe image processing, the internal configuration of the imaging unit 2 and the memory 4 shown in FIG. 1 are shown together with the configuration of the image processing unit 3. First, the imaging unit 2 for obtaining captured image data used for image processing will be briefly described.
The imaging unit 2 includes a first camera unit 20-1, a second camera unit 20-2, an A / D converter 21-1, an A / D converter 21-2, and an image correction unit 22. .
Each of the first camera unit 20-1 and the second camera unit 20-2 includes a camera optical system and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). A subject image is formed on the imaging surface of the imaging element by the system, and an electrical signal corresponding to the amount of received light is obtained in pixel units by the imaging element.
The first camera unit 20-1 and the second camera unit 20-2 are installed so as to enable distance measurement by a so-called stereo imaging method. That is, they are arranged so that a plurality of captured images with different viewpoints can be obtained. The first camera unit 20-1 and the second camera unit 20-2 in this example are arranged at a predetermined interval in the vehicle width direction in the vicinity of the upper part of the windshield of the host vehicle. The optical axes of the first camera unit 20-1 and the second camera unit 20-2 are parallel, and the focal lengths are the same. Also, the frame periods are synchronized and the frame rates are the same.

第1カメラ部20−1の撮像素子で得られた電気信号はA/D変換器21−1に、第2カメラ部20−2の撮像素子で得られた電気信号はA/D変換器21−2に供給され、それぞれA/D変換が行われる。これにより、画素単位で所定階調による輝度値を表すデジタル画像信号(画像データ)が得られる。本実施の形態において、第1カメラ部20−1及び第2カメラ部20−2はR(赤),G(緑),B(青)によるカラー撮像画像を得ることが可能とされており、上記の輝度値としてはR,G,Bのそれぞれに対応した値が得られる。また、本例の場合、第1カメラ部20−1、第2カメラ部20−2が有する撮像素子の有効画素数は水平方向1280画素×垂直方向960画素とされている。   The electrical signal obtained by the imaging device of the first camera unit 20-1 is sent to the A / D converter 21-1, and the electrical signal obtained by the imaging device of the second camera unit 20-2 is sent by the A / D converter 21. -2 and A / D conversion is performed respectively. As a result, a digital image signal (image data) representing a luminance value with a predetermined gradation in pixel units is obtained. In the present embodiment, the first camera unit 20-1 and the second camera unit 20-2 can obtain color captured images of R (red), G (green), and B (blue). As the luminance value, values corresponding to R, G, and B are obtained. In the case of this example, the number of effective pixels of the image sensor included in the first camera unit 20-1 and the second camera unit 20-2 is 1280 pixels in the horizontal direction × 960 pixels in the vertical direction.

画像補正部22には、A/D変換器21−1を介して得られる第1カメラ部20−1による撮像画像に基づく画像データ(以下「第1撮像画像データ」と表記)と、A/D変換器21−2を介して得られる第2カメラ部20−2による撮像画像に基づく画像データ(以下「第2撮像画像データ」と表記)とが入力される。画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対し、第1カメラ部20−1、第2カメラ部20−2の取り付け位置の誤差に起因するずれの補正を例えばアフィン変換等を用いて行う。また画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対しノイズの除去等を含む輝度値の補正も行う。   The image correction unit 22 includes image data (hereinafter referred to as “first captured image data”) based on an image captured by the first camera unit 20-1 obtained via the A / D converter 21-1, A / D Image data (hereinafter referred to as “second captured image data”) based on an image captured by the second camera unit 20-2 obtained via the D converter 21-2 is input. For example, the image correction unit 22 corrects a shift caused by an error in the attachment positions of the first camera unit 20-1 and the second camera unit 20-2 for each of the first captured image data and the second captured image data. Use affine transformation or the like. The image correction unit 22 also corrects the luminance value including noise removal for each of the first captured image data and the second captured image data.

撮像部2で得られた第1撮像画像データ、第2撮像画像データは、画像処理部3によってメモリ4に記録・保持される。   The first captured image data and the second captured image data obtained by the imaging unit 2 are recorded and held in the memory 4 by the image processing unit 3.

ここで、本例の場合、撮像部2においては、第1撮像画像データ及び第2撮像画像データのそれぞれについて互いにシャッタースピードの異なる明画像と暗画像の2種を生成している。暗画像は、明画像よりも速いシャッタースピードで撮像された画像であり、明画像と比較して全体的に暗い画像とされている。第1カメラ部20−1、第2カメラ部20−2は、1フレーム期間(例えば1/60秒)ごとにシャッタースピードを変更した撮像を行って明画像、暗画像を交互に出力する。これにより、第1カメラ部20−1により得られる第1撮像画像データ、及び第2カメラ部20−2により得られる第2撮像画像データとしては、それぞれ明画像、暗画像が1フレーム期間ごとに交互に切り替わることになる。
暗画像は、後述する視差オフセット値補正処理部3Eが先行車両のブレーキランプの点灯等を検出する際に用いられる。後述する三次元位置情報の生成や先行車両検出処理部3Dによる物体検出処理には、明画像が用いられる。
Here, in the case of this example, the imaging unit 2 generates two types of images, a bright image and a dark image, having different shutter speeds for each of the first captured image data and the second captured image data. The dark image is an image captured at a shutter speed faster than that of the bright image, and is an overall dark image compared to the bright image. The first camera unit 20-1 and the second camera unit 20-2 perform imaging with the shutter speed changed every frame period (for example, 1/60 seconds) and alternately output a bright image and a dark image. Thereby, as the 1st picked-up image data obtained by the 1st camera part 20-1, and the 2nd picked-up image data obtained by the 2nd camera part 20-2, a bright image and a dark image are respectively for every frame period. It will be switched alternately.
The dark image is used when a parallax offset value correction processing unit 3E described later detects lighting of a brake lamp of a preceding vehicle or the like. A bright image is used for generation of three-dimensional position information, which will be described later, and object detection processing by the preceding vehicle detection processing unit 3D.

画像処理部3は、例えばマイクロコンピュータで構成され、起動されたプログラムに従って第1撮像画像データ、第2撮像画像データに基づく各種の画像処理を実行する。
図2においては、画像処理部3が実行する各種の画像処理を機能ごとに分けてブロック化して示している。図のように画像処理部3は、機能ごとに大別すると、三次元位置情報生成処理部3A、車線検出処理部3B、車線モデル形成処理部3C、先行車両検出処理部3D、及び視差オフセット値補正処理部3Eを有している。
The image processing unit 3 is configured by, for example, a microcomputer, and executes various types of image processing based on the first captured image data and the second captured image data according to the activated program.
In FIG. 2, various types of image processing executed by the image processing unit 3 are shown in blocks for each function. As shown in the figure, the image processing unit 3 is roughly divided into functions, and the three-dimensional position information generation processing unit 3A, the lane detection processing unit 3B, the lane model formation processing unit 3C, the preceding vehicle detection processing unit 3D, and the parallax offset value A correction processing unit 3E is provided.

三次元位置情報生成処理部3Aが実行する三次元位置情報生成処理は、メモリ4に保持された明画像としての第1撮像画像データ、第2撮像画像データに基づき三次元位置情報を生成する処理となる。具体的に、三次元位置情報生成処理は、第1撮像画像データと第2撮像画像データ(つまりステレオ撮像された一対の画像データ)の間の対応点をパターンマッチングにより検出し、検出された対応点間の座標のずれを視差dpとして算出し、視差dpを用いて三角測量の原理により実空間上における対応点の位置の情報を三次元位置情報として生成する処理である。
上記のような視差dpとしての座標のずれを算出するにあたっては、予め第1撮像画像データ、第2撮像画像データのうちの一方が「基準画像」、他方が「比較画像」として定められる。比較画像は、基準画像上の水平方向端部に位置する物体についての視差dpの算出を可能とするため、基準画像よりも水平方向画素数が多い画像として生成されている。
The three-dimensional position information generation processing executed by the three-dimensional position information generation processing unit 3A is a process of generating three-dimensional position information based on the first captured image data and the second captured image data as bright images held in the memory 4 It becomes. Specifically, in the three-dimensional position information generation process, corresponding points between the first captured image data and the second captured image data (that is, a pair of image data captured in stereo) are detected by pattern matching, and the detected correspondence is detected. This is a process of calculating a coordinate shift between points as a parallax dp and generating information on the position of the corresponding point in the real space as three-dimensional position information by using the parallax dp.
In calculating the coordinate shift as the parallax dp as described above, one of the first captured image data and the second captured image data is determined in advance as a “reference image” and the other as a “comparison image”. The comparison image is generated as an image having a larger number of pixels in the horizontal direction than the reference image in order to allow the calculation of the parallax dp for the object located at the horizontal end on the reference image.

ここで、三次元位置情報は、一対のカメラ(第1カメラ部20−1と第2カメラ部20−2)の中央真下の点を原点とし、一対のカメラを結ぶ方向にX軸、上下方向にY軸、前後方向にZ軸ととった場合の空間上の点(X,Y,Z)として表される情報である。
三次元位置情報としてのX,Y,Zの各値は、基準画像における水平方向に平行な軸をi軸、垂直方向に平行な軸をj軸としたときの画素の座標を(i,j)で表し、一対のカメラの間隔をCD、1画素当たりの視野角をPW、一対のカメラの取り付け高さをCH、カメラ正面の無限遠点の基準画像上でのi座標、j座標をそれぞれIV、JVとしたときに、下記[式1]〜[式3]で表される座標変換により求まる。
X=CD/2+Z×PW×(i−IV) …[式1]
Y=CH+Z×PW×(j−JV) …[式2]
Z=CD/{PW×(dp−DP)} …[式3]
上記[式3]における「DP」は、消失点視差や無限遠対応点などとも称されるが、要するに基準画像と比較画像の間の対応点間の視差dpと、対応点までの実空間上での距離Zとが上記[式3]を満たすようにして決定される値である。以下、この「DP」については「視差オフセット値DP」と表記する。
Here, the three-dimensional position information is based on a point directly below the center of the pair of cameras (the first camera unit 20-1 and the second camera unit 20-2) as the origin, and the X-axis and the vertical direction in the direction connecting the pair of cameras. Is the information expressed as a point (X, Y, Z) in space when the Y axis is taken as the Z axis in the front-rear direction.
The respective values of X, Y, and Z as the three-dimensional position information are expressed as pixel coordinates (i, j) when the axis parallel to the horizontal direction in the reference image is i-axis and the axis parallel to the vertical direction is j-axis. ), The distance between the pair of cameras is CD, the viewing angle per pixel is PW, the mounting height of the pair of cameras is CH, and the i-coordinate and j-coordinate on the reference image at the infinity point in front of the camera are When IV and JV are set, they are obtained by coordinate transformation represented by the following [Formula 1] to [Formula 3].
X = CD / 2 + Z × PW × (i-IV) [Formula 1]
Y = CH + Z × PW × (j−JV) [Formula 2]
Z = CD / {PW × (dp−DP)} [Formula 3]
“DP” in [Expression 3] is also referred to as a vanishing point parallax, an infinite distance corresponding point, or the like, but in short, the parallax dp between corresponding points between the reference image and the comparison image, and in the real space up to the corresponding point Is a value determined so as to satisfy the above [Equation 3]. Hereinafter, this “DP” is expressed as “parallax offset value DP”.

車線検出処理部3Bが実行する車線検出処理は、明画像としての基準画像(つまり第1撮像画像データ又は第2撮像画像データのうち予め設定された方の画像データ)と、上記の三次元位置情報生成処理で生成された三次元位置情報(対応点としての画素ごとの距離Zを含む)とに基づき、自車両が走行する路面上に形成された車線を検出する処理となる。具体的に、車線検出処理では、先ず基準画像の各画素の輝度値と各画素の実空間における距離Zとに基づいて基準画像上に車線候補点を検出し、検出した車線候補点に基づいて自車両の左右の車線位置を検出する。例えば、基準画像上の1画素幅の水平ライン上を左右方向に1画素ずつオフセットしながら探索し、基準画像の各画素の輝度値に基づいて各画素の輝度微分値(=エッジ強度)が閾値以上に大きく変化する条件を満たす画素を車線候補点として検出する。この処理を、上記探索の対象とする水平ラインを基準画像の例えば下側から上向きに1画素幅ずつオフセットさせながら順次行う。これにより、自車両の右側領域及び左側領域のそれぞれに車線候補点を検出する。   The lane detection processing executed by the lane detection processing unit 3B includes a reference image as a bright image (that is, one of the first captured image data and the second captured image data set in advance) and the above three-dimensional position. Based on the three-dimensional position information generated by the information generation process (including the distance Z for each pixel as a corresponding point), this is a process for detecting a lane formed on the road surface on which the host vehicle travels. Specifically, in the lane detection process, first, a lane candidate point is detected on the reference image based on the luminance value of each pixel of the reference image and the distance Z of each pixel in the real space, and based on the detected lane candidate point. The left and right lane positions of the host vehicle are detected. For example, a search is performed by offsetting a horizontal line having a width of one pixel on the reference image by one pixel in the left-right direction, and the luminance differential value (= edge strength) of each pixel is a threshold value based on the luminance value of each pixel of the reference image. Pixels that satisfy the conditions that change greatly as described above are detected as lane candidate points. This process is sequentially performed while offsetting the horizontal line to be searched for by one pixel width upward, for example, from the lower side of the reference image. Thereby, a lane candidate point is detected in each of the right region and the left region of the host vehicle.

車線モデル形成処理部3Cが実行する車線モデル形成処理は、上記の車線検出で検出された左右の車線候補点の情報に基づき、X,Y,Zの各軸で定義される三次元空間上における車線モデルを形成する処理である。具体的には、車線検出部で検出された車線候補点の三次元位置(X,Y,Z)を例えば最小二乗法等で直線近似して、三次元空間上における車線モデルを形成する。このように形成された車線モデルにより、自車両が走行する路面の高さ情報も得られたことになる。   The lane model formation processing executed by the lane model formation processing unit 3C is based on the information on the left and right lane candidate points detected by the above lane detection and is in a three-dimensional space defined by the X, Y, and Z axes. This is a process for forming a lane model. Specifically, the three-dimensional position (X, Y, Z) of the lane candidate point detected by the lane detection unit is linearly approximated by, for example, the least square method to form a lane model in the three-dimensional space. With the lane model formed in this way, the height information of the road surface on which the host vehicle travels can also be obtained.

先行車両検出処理部3Dが実行する先行車両検出処理は、明画像としての基準画像と三次元位置情報とに基づき自車両の前方に存在する先行車両を検出する処理である。この先行車両検出処理では、先ず、三次元位置情報に基づき物体検出処理を行い、画像内に存在する物体を該物体までの距離Zの情報も含めて検出する。例えばこの物体検出処理では、先の視差dpの算出過程で検出された各対応点をその距離Zの値を対応づけて画像上に表した距離画像を生成し、該距離画像を縦方向に仕切る複数の縦領域に分割し、縦領域ごとに画像縦方向(j方向)の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離Zをその縦領域内に存在する物体の代表距離とする。そして、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離Zや方向などの関係性から、同一物体とみなされる画素範囲をグループ化し、画像内に存在する各物体の範囲を特定する。これにより、画像内に存在する物体が該物体までの距離Zの情報も含めて検出される。
ここで、上記の距離画像はフレームごとに順次得られるものである。先行車両検出処理では、複数フレームにわたって検出物体の距離Zの情報をモニタすることで、自車両の走行路上に存在する物体であって、自車両と略同じ方向に所定の速度で移動するものを先行車両として抽出する。このとき、車両以外の物体の誤検出を抑制するために、基準画像を用いたパターンマッチング(例えばブレーキランプ部分等の車両の特徴点に基づくパターンマッチング)も併せて行う。
先行車両を検出した場合は、先行車両検出情報として先行車距離(=自車両との車間距離)、先行車速度(=車間距離の変化割合+自車速)、先行車加速度(=先行車速の微分値)を算出・保持する。
なお、上記の先行車両検出処理の手法は特開2012−66759号公報に開示された手法と同様であり、詳しくは該文献を参照されたい。
The preceding vehicle detection process executed by the preceding vehicle detection processing unit 3D is a process for detecting a preceding vehicle existing ahead of the host vehicle based on the reference image as a bright image and the three-dimensional position information. In the preceding vehicle detection process, first, an object detection process is performed based on the three-dimensional position information, and an object present in the image is detected including information on the distance Z to the object. For example, in this object detection process, a distance image is generated in which each corresponding point detected in the previous parallax dp calculation process is associated with the value of the distance Z on the image, and the distance image is partitioned in the vertical direction. Divide into multiple vertical areas, create a distance histogram that represents the distance distribution in the vertical direction of the image (j direction) for each vertical area, and the distance Z (corresponding point) where the frequency is maximum exists in that vertical area This is the representative distance of the target object. Then, for each corresponding point having the maximum frequency for which the representative distance is obtained, pixel ranges that are regarded as the same object are grouped from the relationship such as the distance Z and direction to each adjacent corresponding point, and exist in the image. Specify the range of each object. Thereby, an object existing in the image is detected including information on the distance Z to the object.
Here, the distance image is obtained sequentially for each frame. In the preceding vehicle detection process, by monitoring the information of the distance Z of the detected object over a plurality of frames, an object that exists on the traveling path of the own vehicle and moves at a predetermined speed in substantially the same direction as the own vehicle. Extract as a preceding vehicle. At this time, in order to suppress erroneous detection of an object other than the vehicle, pattern matching using the reference image (for example, pattern matching based on a feature point of the vehicle such as a brake lamp portion) is also performed.
When the preceding vehicle is detected, the preceding vehicle detection information includes the preceding vehicle distance (= inter-vehicle distance), the preceding vehicle speed (= change ratio of the inter-vehicle distance + own vehicle speed), and the preceding vehicle acceleration (= differential of the preceding vehicle speed). Value).
Note that the method of the preceding vehicle detection process is the same as the method disclosed in Japanese Patent Application Laid-Open No. 2012-66759. For details, refer to this document.

また、先行車両検出処理部3Dは、先行車両の入れ替わりを検出可能とされている。先行車両の入れ替わりとは、検出中であった先行車両が自車両の前方から離脱したことに伴いその前方にある車両が新たに先行車両として検出された場合や、検出中であった先行車両と自車両との間に他の車両が割り込んで当該他の車両が新たに先行車両として検出されるなど、検出中であった先行車両に変わって他の車両が新たに先行車両として検出された場合を意味する。   The preceding vehicle detection processing unit 3D can detect the replacement of the preceding vehicle. Replacement of a preceding vehicle means that a preceding vehicle that was being detected has left the front of the host vehicle and a vehicle in front of the preceding vehicle is newly detected as a preceding vehicle, When another vehicle is detected as a preceding vehicle instead of the preceding vehicle being detected, such as when another vehicle interrupts the host vehicle and the other vehicle is newly detected as a preceding vehicle. Means.

視差オフセット値補正処理部3Eが実行する視差オフセット値補正処理は、先行車両検出処理部3Dにより検出された先行車両の視差及び見かけの大きさの変化に基づいて、視差dpから距離Zを算出する計算式(すなわち先の[式3])についての補正を行う処理である。前述のように、カメラの取付状態の経時的な変化に起因して[式3]における視差オフセット値DPには現実のカメラ取付状態に対応した最適値からの誤差が発生してしまうため、これを補正するものである。   In the parallax offset value correction processing executed by the parallax offset value correction processing unit 3E, the distance Z is calculated from the parallax dp based on the parallax of the preceding vehicle detected by the preceding vehicle detection processing unit 3D and the change in the apparent size. This is processing for correcting the calculation formula (that is, the previous [Formula 3]). As described above, since the parallax offset value DP in [Equation 3] has an error from the optimum value corresponding to the actual camera mounting state due to the change with time of the camera mounting state. Is to correct.

ここで、視差オフセット値補正処理として実行する具体的な処理内容の説明に先立ち、本例で行われる視差オフセット値DPの補正処理の概要について説明しておく。
撮像画像中に検出された先行車両の視差及び見かけの大きさの変化に基づいて補正を行う点は先に挙げた特許文献1の場合と同様であるが、本例では、先行車両の見かけの大きさについては先行車両の左右ブレーキランプ間の幅の情報を用いる。
ここで、「先行車両の見かけの大きさ」とは、自車位置を基準として見える先行車両の大きさを意味するものである。
Here, prior to description of specific processing contents executed as the parallax offset value correction processing, an outline of the parallax offset value DP correction processing performed in this example will be described.
The point of performing correction based on the change in the parallax and the apparent size of the preceding vehicle detected in the captured image is the same as in the case of Patent Document 1 mentioned above. Regarding the size, information on the width between the left and right brake lamps of the preceding vehicle is used.
Here, the “apparent size of the preceding vehicle” means the size of the preceding vehicle that can be seen with reference to the vehicle position.

また、本例の補正処理は、特許文献1に記載の補正手法のように異なる2つの時点においてそれぞれ先行車両の見かけの大きさと視差の計4値(大きさb1、b2、視差dp1、dp2)を少なくとも取得し、それらの値から視差オフセット値DPの補正値を算出するという概念は共通するが、特許文献1のように視差誤差εを求めて該視差誤差εにより視差オフセット値DPを補正するものではない。
本例においては、少なくとも異なる2つの時点において先行車両の見かけの大きさとしてのブレーキランプ間幅と先行車両の視差(本例では後述するブレーキランプ視差)の計4値を取得し、取得した少なくとも4値を、横軸/縦軸にそれぞれ見かけの大きさ(ブレーキランプ間幅)/視差をとった二次元座標空間上に展開した際に得られる少なくとも2点の座標に基づく近似直線(y=ax+b)を求め、当該近似直線の切片(b)の値により視差オフセット値DPの補正を行う。
Further, the correction processing of this example is a total of four values of the apparent magnitude and the parallax of the preceding vehicle (magnitudes b 1 , b 2 , parallax dp 1) at two different times as in the correction method described in Patent Document 1. , Dp 2 ) at least, and the concept of calculating the correction value of the parallax offset value DP from these values is common, but as in Patent Document 1, the parallax error ε is obtained and the parallax offset value is calculated based on the parallax error ε. It does not correct DP.
In this example, at least two different time points are acquired, and a total of four values of the brake lamp width and the parallax of the preceding vehicle (brake lamp parallax described later in this example) as the apparent size of the preceding vehicle are acquired, Approximate straight lines based on coordinates of at least two points obtained when the four values are developed on a two-dimensional coordinate space in which the horizontal axis / vertical axis are the apparent size (width between brake lamps) / parallax, respectively (y = ax + b) is obtained, and the parallax offset value DP is corrected by the value of the intercept (b) of the approximate straight line.

図3は、ブレーキランプ間幅とブレーキランプ視差(先行車両のブレーキランプの視差dp)との関係を例示した図である。なお、図中の◆印は、複数の異なる時点でそれぞれ取得した[ブレーキランプ間幅,ブレーキレーキランプ視差]の組を縦軸/横軸にそれぞれブレーキランプ間幅/ブレーキランプ視差をとった二次元座標空間上に展開して表したものである。   FIG. 3 is a diagram illustrating the relationship between the brake lamp width and the brake lamp parallax (the parallax dp of the brake lamp of the preceding vehicle). In the figure, the ◆ marks indicate the combinations of [brake lamp width, brake rake lamp parallax] obtained at a plurality of different time points, with the brake lamp width / brake lamp parallax on the vertical and horizontal axes, respectively. It is expressed in a dimensional coordinate space.

先行車両のブレーキランプ間幅は、先行車両が自車両に対して近いほどその値が大きくなり、逆に自車両から遠いほどその値が小さくなる。同様に、ブレーキランプ視差としても、先行車両が自車両に対して近いほどその値が大きくなり、自車両から遠いほどその値が小さくなる。このため、ブレーキランプ間幅とブレーキランプ視差との間には概ね比例関係が成り立つとみなすことができ、ブレーキランプ間幅とブレーキランプ視差との関係は「y=ax+b」としての一次関数で表すことができる。   The width between brake lamps of the preceding vehicle increases as the preceding vehicle becomes closer to the own vehicle, and conversely decreases as the distance from the own vehicle increases. Similarly, the value of the brake lamp parallax increases as the preceding vehicle becomes closer to the host vehicle, and decreases as the distance from the host vehicle increases. For this reason, it can be considered that a proportional relationship is generally established between the brake lamp width and the brake lamp parallax, and the relationship between the brake lamp width and the brake lamp parallax is expressed by a linear function as “y = ax + b”. be able to.

ここで、先行車両が無限遠点にあるときは、ブレーキランプ間幅の値は「0」である。また、先行車両が無限遠点にあるとき、ブレーキランプ視差の値は理想的には「0」である。このため、理想的には、上記のようにブレーキランプ間幅とブレーキランプ視差との関係を表す一次関数においては、切片bの値が「0」となるべきである。
しかしながら、上述のようにカメラの取付状態の経時的な変化が生じると、先行車両が無限遠点にあるときのブレーキランプ視差の値は「0」にならず、切片bの値に所要のオフセットが生じる。
Here, when the preceding vehicle is at an infinite point, the value of the brake lamp width is “0”. Further, when the preceding vehicle is at the infinity point, the value of the brake lamp parallax is ideally “0”. For this reason, ideally, the value of the intercept b should be “0” in the linear function representing the relationship between the brake lamp width and the brake lamp parallax as described above.
However, when the camera mounting state changes with time as described above, the value of the brake lamp parallax when the preceding vehicle is at the infinity point does not become “0”, and the required offset to the value of the intercept b Occurs.

そこで、本例の補正処理では、前述のように少なくとも異なる2つの時点においてブレーキランプ間幅とブレーキランプ視差を取得し、取得したブレーキランプ間幅とブレーキランプ視差に基づいてブレーキランプ間幅とブレーキランプ視差との関係を表す直線を一次近似により求め、求めた近似直線の切片bの値に基づいて視差オフセット値DPを補正する。具体的には、切片bの符号を反転させた値を補正値として、「DP+(−b)」により視差オフセット値DPを補正する。   Therefore, in the correction process of this example, the brake lamp width and the brake lamp parallax are acquired at least at two different times as described above, and the brake lamp width and the brake light are calculated based on the acquired brake lamp width and the brake lamp parallax. A straight line representing the relationship with the lamp parallax is obtained by primary approximation, and the parallax offset value DP is corrected based on the value of the intercept b of the obtained approximate straight line. Specifically, the parallax offset value DP is corrected by “DP + (− b)” using a value obtained by inverting the sign of the intercept b as a correction value.

<3.実施の形態の補正処理>
上記した補正処理の概要を踏まえ、以下、画像処理部3が視差オフセット値補正処理として実行する具体的な処理の手順を説明する。
図4は、画像処理部3が実行する視差オフセット値補正処理におけるメイン処理のフローチャートである。なお、図4に示すメイン処理は、明画像と暗画像が一組得られるごとに繰り返し実行されるものである。
<3. Correction Processing of Embodiment>
Based on the outline of the correction process described above, a specific process procedure executed by the image processing unit 3 as the parallax offset value correction process will be described below.
FIG. 4 is a flowchart of the main process in the parallax offset value correction process executed by the image processing unit 3. Note that the main process shown in FIG. 4 is repeatedly executed each time a set of bright and dark images is obtained.

先ず、画像処理部3はステップS101で、自車両が旋回中であるか否かを判別する。自車両が旋回中であるか否かの判別は、舵角センサ10Dやヨーレートセンサ10Eによる検出信号に基づき行う。
自車両が旋回中であるとの肯定結果が得られた場合、画像処理部3は図4に示すメイン処理を終える。
First, in step S101, the image processing unit 3 determines whether or not the host vehicle is turning. Whether the host vehicle is turning is determined based on detection signals from the steering angle sensor 10D and the yaw rate sensor 10E.
If a positive result is obtained that the host vehicle is turning, the image processing unit 3 ends the main process shown in FIG.

ここで、自車両が旋回中である場合は自車両が先行車両の後面と正対していないことから、先行車両の見かけの大きさが不正確となり、従ってそのような場合に得られたフレーム画像に基づき視差オフセット値DPを補正するための補正値を算出することは望ましくない。そこで、上記のようにメイン処理を終了して当該フレーム画像については処理対象から除外することで、補正値の精度の向上を図っている。   Here, when the host vehicle is turning, since the host vehicle does not face the rear surface of the preceding vehicle, the apparent size of the preceding vehicle becomes inaccurate. Therefore, the frame image obtained in such a case It is not desirable to calculate a correction value for correcting the parallax offset value DP based on the above. Therefore, the accuracy of the correction value is improved by terminating the main processing as described above and excluding the frame image from the processing target.

一方、画像処理部3は、自車両が旋回中でないとの否定結果が得られた場合は、ステップS102に進んで先行車両があり且つ入れ替わりがないか否かを判別する。すなわち、上述した先行車両検出処理によって先行車両が検出され且つ先行車両の入れ替わりが検出されていないか否かを判別する。
先行車両があり且つ入れ替わりがないとの条件が満たされていないとして否定結果が得られた場合、画像処理部3はステップS107に進んで蓄積データをクリアし、図4に示すメイン処理を終える。すなわち、次に説明するステップS103で蓄積したブレーキランプ視差及びブレーキランプ間幅の蓄積データをクリア(消去)し、メイン処理を終える。
これにより、異なる先行車両についてそれぞれ蓄積されたブレーキランプ視差及びブレーキランプ間幅のデータに基づいて不正確な補正値が算出されてしまうことが防止され、補正精度の向上が図られる。
On the other hand, if a negative result is obtained that the host vehicle is not turning, the image processing unit 3 proceeds to step S102 and determines whether there is a preceding vehicle and there is no replacement. That is, it is determined whether or not a preceding vehicle has been detected by the above-described preceding vehicle detection process and a change in the preceding vehicle has not been detected.
If a negative result is obtained that the condition that there is a preceding vehicle and there is no replacement is not satisfied, the image processing unit 3 proceeds to step S107, clears the accumulated data, and ends the main processing shown in FIG. That is, the accumulated data of the brake lamp parallax and the brake lamp width accumulated in step S103 to be described next is cleared (erased), and the main process ends.
As a result, it is possible to prevent an incorrect correction value from being calculated based on the brake lamp parallax and brake lamp width data accumulated for different preceding vehicles, thereby improving the correction accuracy.

また、画像処理部3は、先行車両があり且つ入れ替わりがないとの条件が満たされているとして肯定結果が得られた場合には、ステップS103に進んでブレーキランプ視差及びブレーキランプ間幅蓄積処理を実行する。このステップS103の蓄積処理は、複数の時点で先行車両についてのブレーキランプ視差及びブレーキランプ間幅のデータを蓄積するための処理であるが、詳細は後述する。   Further, when a positive result is obtained that the condition that there is a preceding vehicle and there is no replacement is satisfied, the image processing unit 3 proceeds to step S103 and performs brake lamp parallax and brake lamp width accumulation processing. Execute. The accumulation process in step S103 is a process for accumulating data on the brake lamp parallax and the brake lamp width for the preceding vehicle at a plurality of times, which will be described in detail later.

画像処理部3は、ステップS103の蓄積処理を実行したことに応じて、ステップS104でデータ蓄積数が所定数以上となったか否かを判別する。すなわち、ブレーキランプ視差及びブレーキランプ間幅のデータの蓄積数が所定数以上となったか否かを判別する。先の説明から理解されるように、ブレーキランプ間幅とブレーキランプ視差の関係を表す近似直線を算出するにあたっては、ブレーキランプ間幅とブレーキランプ視差のサンプル数は少なくとも2以上であればよく、上記の「所定数」としては少なくとも「2」以上を設定すればよい。なお、補正精度向上のためには「所定数」の値としては多い方が望ましい。   In response to the execution of the accumulation process in step S103, the image processing unit 3 determines whether or not the data accumulation number has reached a predetermined number or more in step S104. That is, it is determined whether or not the number of accumulated brake lamp parallax and brake lamp width data has reached a predetermined number or more. As understood from the above description, in calculating the approximate straight line representing the relationship between the brake lamp width and the brake lamp parallax, the number of samples of the brake lamp width and the brake lamp parallax may be at least two, The “predetermined number” may be set to at least “2” or more. In order to improve the correction accuracy, it is desirable that the “predetermined number” is larger.

データ蓄積数が所定数以上でないとの否定結果が得られた場合、画像処理部3は図4に示すメイン処理を終える。   If a negative result is obtained that the data accumulation number is not equal to or greater than the predetermined number, the image processing unit 3 finishes the main process shown in FIG.

一方、データ蓄積数が所定数以上であるとの肯定結果が得られた場合、画像処理部3はステップS105に進んで近似直線算出処理を実行する。ステップS105の近似直線算出処理は、ステップS103の処理で蓄積したデータに基づいて前述したブレーキランプ間幅とブレーキランプ視差の関係を表す近似直線を算出する処理である。なお、近似直線算出処理の詳細は後述する。   On the other hand, when an affirmative result is obtained that the number of accumulated data is greater than or equal to the predetermined number, the image processing unit 3 proceeds to step S105 and executes approximate straight line calculation processing. The approximate straight line calculation process of step S105 is a process of calculating an approximate straight line representing the relationship between the brake lamp width and the brake lamp parallax based on the data accumulated in the process of step S103. Details of the approximate straight line calculation process will be described later.

画像処理部3は、ステップS105で近似直線を算出したことに応じて、ステップS106で近似直線の切片bの値に基づき視差オフセット値を補正する処理を実行し、図4に示すメイン処理を終える。上記もしたように、本例の補正処理では、切片bの符号を反転させた値を補正値として算出し「DP+(−b)」により視差オフセット値DPを補正する。   In response to the calculation of the approximate line in step S105, the image processing unit 3 executes a process of correcting the parallax offset value based on the value of the intercept b of the approximate line in step S106, and the main process shown in FIG. 4 is completed. . As described above, in the correction processing of this example, a value obtained by inverting the sign of the intercept b is calculated as a correction value, and the parallax offset value DP is corrected by “DP + (− b)”.

図5は、ブレーキランプ視差及びブレーキランプ間幅データ蓄積処理(S103)のフローチャートである。
画像処理部3は、先ずステップS201で、先行車両の左右ブレーキランプが点灯しているか否かを判別する。このステップS201の判別処理は、前述した暗画像を用いて行う。具体的には、暗画像中における先行車両が検出されている画像範囲と同じ画像範囲内において、赤色の輝度値が所定値以上となる画像部分が二箇所以上存在するか否かを判別する。
FIG. 5 is a flowchart of the brake lamp parallax and brake lamp width data accumulation process (S103).
First, in step S201, the image processing unit 3 determines whether the left and right brake lamps of the preceding vehicle are lit. The discrimination process in step S201 is performed using the above-described dark image. Specifically, it is determined whether or not there are two or more image portions where the red luminance value is equal to or greater than a predetermined value within the same image range as the preceding vehicle in the dark image.

先行車両の左右ブレーキランプが点灯しているとの肯定結果が得られた場合、画像処理部3はステップS202に処理を進める。すなわち、以降で説明するブレーキランプ視差とブレーキランプ間幅のデータ蓄積のための処理が実行される。
一方、左右ブレーキランプが点灯していないとの否定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、以降で説明するブレーキランプ視差とブレーキランプ間幅のデータ蓄積のための処理は実行されない。
If a positive result is obtained that the left and right brake lamps of the preceding vehicle are lit, the image processing unit 3 advances the process to step S202. That is, processing for accumulating data on the brake lamp parallax and the brake lamp width, which will be described later, is executed.
On the other hand, if a negative result is obtained that the left and right brake lamps are not lit, the image processing unit 3 ends the process shown in FIG. That is, the process for accumulating data of the brake lamp parallax and the brake lamp width described below is not executed.

ここで、前述のような近似直線を精度良く求めるにあたっては、先行車両の視差に相当するブレーキランプ視差、及び先行車両の見かけの大きさに相当するブレーキランプ間幅についてはできるだけ離散した値を取得できることが望ましい。すなわち、先行車両との車間距離が比較的大きく変化する際に取得できることが望ましい。
この点に鑑み、本実施の形態では、視差オフセット値DPの補正値の算出にあたって上記のように先行車両のブレーキランプが点灯しているか否かを判定し、当該判定結果に基づいて補正値の算出に係る処理を開始する(又は開始しない)こととしている。これにより、先行車両が減速状態となる、すなわち先行車両の視差及び見かけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能となり、先行車両の視差及び見かけの大きさについて離散した値を効率的に取得することができる。
Here, when accurately obtaining the approximate straight line as described above, the brake lamp parallax corresponding to the parallax of the preceding vehicle and the brake lamp width corresponding to the apparent size of the preceding vehicle are obtained as discrete values as possible. It is desirable to be able to do it. That is, it is desirable that the distance can be acquired when the inter-vehicle distance from the preceding vehicle changes relatively large.
In view of this point, in the present embodiment, in calculating the correction value of the parallax offset value DP, it is determined whether the brake lamp of the preceding vehicle is lit as described above, and the correction value is calculated based on the determination result. The processing related to the calculation is started (or not started). As a result, it becomes possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a deceleration state, that is, when the parallax and the apparent magnitude of the preceding vehicle can be reliably expected. It is possible to efficiently acquire discrete values for the parallax and the apparent size.

画像処理部3は、ステップS201で肯定結果が得られた場合は、ステップS202で左右のブレーキランプ幅、左右ブレーキランプ中心座標、ブレーキランプ間画像上幅、ブレーキランプ視差をそれぞれ計算する。
ここで、左右のブレーキランプ幅は、図6に示すように先行車両の左側のブレーキランプの幅WL、右側ブレーキランプの幅WRである。これら幅WL、WRについては、暗画像における先行車両の画像範囲と同範囲内に検出された赤色輝度値が所定値以上の画像部分(赤色発光部分)の幅をそれぞれ求める。
なお、先行車両の車種によってはハイマウントストップランプなど左右ブレーキランプの間に赤色発光体が検出される場合もある。先行車両の画像範囲内に3以上の赤色発光部分が検出されている場合は、そのうちの左右の両端にある赤色発光部分のみを抽出してこれを左右ブレーキランプと定める。
If an affirmative result is obtained in step S201, the image processing unit 3 calculates left and right brake lamp widths, left and right brake lamp center coordinates, an upper image width between brake lamps, and a brake lamp parallax in step S202.
Here, the left and right brake lamp widths are the left brake lamp width WL and the right brake lamp width WR of the preceding vehicle as shown in FIG. For these widths WL and WR, the widths of the image portions (red light emission portions) in which the red luminance value detected in the same range as the image range of the preceding vehicle in the dark image is equal to or greater than a predetermined value are obtained.
Depending on the type of the preceding vehicle, a red light emitter may be detected between the left and right brake lamps such as a high-mount stop lamp. When three or more red light emitting portions are detected in the image range of the preceding vehicle, only the red light emitting portions at the left and right ends of them are extracted and defined as left and right brake lamps.

また、左右ブレーキランプ中心座標は、図6において黒丸により表すものであり、上記のように求めた左右ブレーキランプとしての赤色発光部分それぞれの中心座標である。
さらに、ブレーキランプ間画像上幅は、図6において「BW」で表すものであり、上記のように求めた左右ブレーキランプ中心座標間の幅を意味する。
また、ブレーキランプ視差は、前述もしたように先行車両のブレーキランプの視差dpである。本例では、ブレーキランプ視差として、左右ブレーキランプそれぞれの視差dpの平均値を計算する。このとき、左右ブレーキランプそれぞれの視差dpは、左側ブレーキランプの中心座標と右側ブレーキランプの中心座標を第1撮像画像データ側と第2撮像画像データ側の双方で求め、それら中心座標間の視差dpとしてそれぞれ求める。
なお、ブレーキランプ視差は、左右ブレーキランプのうち一方の視差dpとしてもよい。
Further, the left and right brake lamp center coordinates are represented by black circles in FIG. 6, and are the center coordinates of the red light emitting portions as the left and right brake lamps obtained as described above.
Further, the upper image width between brake lamps is represented by “BW” in FIG. 6, and means the width between the left and right brake lamp center coordinates obtained as described above.
The brake lamp parallax is the parallax dp of the brake lamp of the preceding vehicle as described above. In this example, the average value of the parallax dp of each of the left and right brake lamps is calculated as the brake lamp parallax. At this time, the parallax dp of each of the left and right brake lamps is obtained by obtaining the center coordinates of the left brake lamp and the center coordinates of the right brake lamp on both the first captured image data side and the second captured image data side. It calculates | requires as dp, respectively.
The brake lamp parallax may be the parallax dp of one of the left and right brake lamps.

画像処理部3は、ステップS202で左右のブレーキランプ幅、左右ブレーキランプ中心座標、ブレーキランプ間画像上幅、ブレーキランプ視差をそれぞれ計算したことに応じて、ステップS203でブレーキランプ間実空間上幅を計算し、ステップS204でブレーキランプ間実空間上幅が所定値以下であるか否かを判別する。ブレーキランプ間実空間幅は、ステップS202で計算したブレーキランプ間画像幅を実空間上(三次元空間上)での幅に換算したものである。そして、ステップS204の判別処理では、ブレーキランプ間実空間上幅が例えば1m以下であるか否かを判別する。
ステップS204においてブレーキランプ間実空間上幅が所定値以下であるとの肯定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、ブレーキランプ間実空間上幅が所定値以下であると判定されたフレーム画像については、後述する補正値算出用のブレーキランプ視差及びブレーキランプ間幅の計算(S207)やその蓄積(S208)が行われず、補正値の算出に係る処理の対象から除外される。
In step S202, the image processing unit 3 calculates the left and right brake lamp width, the left and right brake lamp center coordinates, the brake lamp image upper width, and the brake lamp parallax in step S203. In step S204, it is determined whether or not the actual width between the brake lamps is equal to or smaller than a predetermined value. The real space width between brake lamps is obtained by converting the image width between brake lamps calculated in step S202 into a width in real space (three-dimensional space). Then, in the determination process in step S204, it is determined whether or not the actual width between the brake lamps is, for example, 1 m or less.
If an affirmative result is obtained in step S204 that the upper space between the brake lamps is equal to or smaller than the predetermined value, the image processing unit 3 ends the process shown in FIG. That is, for a frame image in which it is determined that the actual space between the brake lamps is equal to or less than a predetermined value, calculation of a brake lamp parallax and brake lamp width for calculating a correction value, which will be described later (S207), and accumulation (S208). Is not performed, and is excluded from the processing related to the calculation of the correction value.

ここで、点灯中の左右ブレーキランプとして検出された物体間の幅があまりにも狭い場合には当該左右の物体は同一先行車両の左右ブレーキランプでない可能性が高い。或いは、同一先行車両の左右ブレーキランプを検出しているものの、例えば外部環境やシステム上の不具合等による何らかの一時的な検出誤差要因が生じている可能性もある。そこで、上記のように左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像については処理対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。   Here, if the width between the objects detected as the left and right brake lamps that are lit is too narrow, there is a high possibility that the left and right objects are not the left and right brake lamps of the same preceding vehicle. Alternatively, although the left and right brake lamps of the same preceding vehicle are detected, there may be some temporary detection error factors due to, for example, an external environment or a malfunction in the system. Therefore, as described above, the correction of the correction value based on the low-reliability frame image is performed by excluding the frame image that is determined to have the upper real space width between the left and right brake lamps equal to or less than the predetermined value. This prevents the breakage and improves the accuracy of the correction value.

画像処理部3は、ステップS204でブレーキランプ間実空間上幅が所定値以下ではないとの否定結果が得られた場合は、ステップS205に進んで左右のブレーキランプ幅の差(図6におけるWLとWRの差)が所定値以上であるか否か、例えば2画素以上であるか否かを判別する。
左右のブレーキランプ幅の差が所定値以上であるとの肯定結果が得られた場合、画像処理部3は図5に示す処理を終える。すなわち、現在のフレーム画像は補正値の算出に係る処理対象から除外される。
If a negative result is obtained in step S204 that the upper space between the brake lamps is not less than or equal to the predetermined value, the image processing unit 3 proceeds to step S205 and determines the difference between the left and right brake lamp widths (WL in FIG. 6). It is determined whether or not (difference between WR and WR) is a predetermined value or more, for example, 2 pixels or more.
If a positive result is obtained that the difference between the left and right brake lamp widths is greater than or equal to a predetermined value, the image processing unit 3 finishes the process shown in FIG. That is, the current frame image is excluded from the processing target related to the correction value calculation.

通常、ブレーキランプは左右対称形状で設けられているため、自車両が先行車両の後面に対して正対していれば検出サイズは同等となるべきである。これに反して左右のブレーキランプ幅に差があるということは、何らかの異常が生じているとみなすことができる。例えば、早朝や夕方の時間帯等において先行車両の一方のブレーキランプにのみ比較的強く順光が当たっているケースなどでは一方のブレーキランプの検出サイズが大きくなる場合がある。或いは、上記の順光等の外部環境のみでなく、システム上の不具合等による何らかの一時的な検出誤差要因が生じている場合にも左右ブレーキランプの幅に差が生じ得る。左右ブレーキランプの幅に差があるということは、前述した左右ブレーキランプ中心座標のうち少なくとも一方は不正確であり、これに伴い先行車両の見かけの大きさに相当するブレーキランプ間幅の値も不正確になる。
そこで、上記のように先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を処理対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。
Usually, since the brake lamp is provided in a symmetrical shape, the detection size should be equal if the host vehicle is facing the rear surface of the preceding vehicle. On the other hand, if there is a difference between the left and right brake lamp widths, it can be considered that some abnormality has occurred. For example, in a case where only one brake lamp of the preceding vehicle is relatively strongly lit in the early morning or evening time zone, the detection size of one brake lamp may be large. Alternatively, the width of the left and right brake lamps may be different not only in the external environment such as the above-mentioned direct light but also in the case where some temporary detection error factor is generated due to a problem on the system. The difference in the width of the left and right brake lamps means that at least one of the left and right brake lamp center coordinates described above is inaccurate, and accordingly, the value of the width between the brake lamps corresponding to the apparent size of the preceding vehicle is also obtained. Become inaccurate.
Therefore, the correction value is calculated based on the unreliable frame image by excluding the frame image determined as having the difference between the left and right brake lamp widths of the preceding vehicle being equal to or greater than the predetermined value as described above. This prevents the breakage and improves the accuracy of the correction value.

画像処理部3は、ステップS205で左右ブレーキランプの幅の差が所定値以上ではないとの否定結果が得られた場合は、ステップS206に進んで左右ブレーキランプの縦位置の差が所定値以上であるか否かを判別する。ここで、左右個々のブレーキランプの縦位置は、図6にそれぞれ「JL」「JR」と示すように前述した中心座標の縦位置(j座標)とする。ステップS206ではこれら縦位置の差が例えば4画素以上であるか否かを判別する。
画像処理部3は、左右のブレーキランプ幅の差が所定値以上であるとの肯定結果が得られた場合は図5に示す処理を終える。すなわち、現在のフレーム画像は補正値の算出に係る処理対象から除外される。
If a negative result is obtained in step S205 that the difference between the left and right brake lamp widths is not equal to or greater than the predetermined value, the image processing unit 3 proceeds to step S206, and the difference between the vertical positions of the left and right brake lamps is equal to or greater than the predetermined value. It is determined whether or not. Here, the vertical positions of the left and right brake lamps are the above-described vertical positions (j coordinates) of the center coordinates as indicated by “JL” and “JR” in FIG. In step S206, it is determined whether or not the difference between the vertical positions is, for example, 4 pixels or more.
When a positive result is obtained that the difference between the left and right brake lamp widths is equal to or greater than a predetermined value, the image processing unit 3 ends the process illustrated in FIG. That is, the current frame image is excluded from the processing target related to the correction value calculation.

ここで、検出した左右ブレーキランプの縦位置に差がある場合には、自車両や先行車両が旋回中でロール角をもち撮像画像内でブレーキランプが斜めに配置されていたり、同一先行車両の左右ブレーキランプとして検出したはずの左右一対の物体のうちの一方がブレーキランプ以外の赤色発光体であったなど、先行車両のブレーキランプ以外が誤検出されている可能性がある。或いは、同一先行車両の左右ブレーキランプを検出しているものの外部環境やシステム上の不具合等による何らかの一時的な検出誤差要因が生じている可能性もある。これらの場合において補正値を算出するのは望ましくないため、上記のように縦位置の差が所定値以上であると判定したフレーム画像を補正値の算出に係る処理の対象から除外することで、信頼性の低いフレーム画像に基づく補正値の算出が行われてしまうことを防止し、補正値の精度の向上を図っている。   Here, when there is a difference in the detected vertical position of the left and right brake lamps, the host vehicle or the preceding vehicle is turning, has a roll angle, and the brake lamp is arranged obliquely in the captured image, or the same preceding vehicle There is a possibility that other than the brake lamp of the preceding vehicle is erroneously detected, such as one of the pair of left and right objects that should have been detected as the left and right brake lamps is a red light emitter other than the brake lamp. Alternatively, although the left and right brake lamps of the same preceding vehicle are detected, there may be some temporary detection error factors due to an external environment or a problem on the system. Since it is not desirable to calculate the correction value in these cases, by excluding the frame image determined that the difference in the vertical position is equal to or greater than the predetermined value as described above from the processing target related to the calculation of the correction value, The calculation of the correction value based on the frame image with low reliability is prevented, and the accuracy of the correction value is improved.

画像処理部3は、ステップS206で左右ブレーキランプの縦位置の差が所定値以上でないとの否定結果が得られた場合は、ステップS207に進んで補正値算出用ブレーキランプ視差、及び補正値算出用ブレーキランプ間幅を計算する。補正値算出用ブレーキランプ視差は、ステップS202で求めたブレーキランプ視差の値を用いて下記のように計算する。

補正値算出用ブレーキランプ視差=基線長/(画素ピッチ*焦点距離)/ブレーキランプ視差+視差オフセット値DP …[式4]

また、補正値算出用ブレーキランプ間幅は、ステップS202で求めたブレーキランプ間画像幅の値を用いて下記のように計算する。

補正値算出用ブレーキランプ間幅=(基線長*ブレーキランプ間画像幅)/{基線長/(画素ピッチ*焦点距離)}/距離 …[式5]

但し、[式5]において、「距離」は先行車両までの距離を意味し、例えばステップS202で求めたブレーキランプ視差の値を用いて先の[式3]で計算される距離Zの値を用いる。或いは、前述した先行車検出処理で求めた先行車距離の値を用いてもよい。
If a negative result is obtained in step S206 that the difference between the vertical positions of the left and right brake lamps is not equal to or greater than a predetermined value, the image processing unit 3 proceeds to step S207 and calculates the correction value calculation brake lamp parallax and the correction value calculation. Calculate the brake lamp width. The brake lamp parallax for calculating the correction value is calculated as follows using the value of the brake lamp parallax obtained in step S202.

Brake lamp parallax for calculating correction value = base line length / (pixel pitch * focal length) / brake lamp parallax + parallax offset value DP [Equation 4]

Also, the brake lamp width for calculating the correction value is calculated as follows using the value of the brake lamp image width obtained in step S202.

Correction value calculation brake lamp width = (base line length * brake lamp image width) / {base line length / (pixel pitch * focal length)} / distance [Equation 5]

However, in [Expression 5], “distance” means the distance to the preceding vehicle. For example, the value of the distance Z calculated in [Expression 3] using the brake lamp parallax value obtained in step S202 is used. Use. Or you may use the value of the preceding vehicle distance calculated | required by the preceding vehicle detection process mentioned above.

ここで、上記のように計算される補正値算出用ブレーキランプ視差及び補正値算出用ブレーキランプ間幅としては、共に視差オフセット値DPを取り入れた値とされている(補正値算出用ブレーキランプ間幅は最終的に距離で除算しているため視差オフセット値DPが取り入れられている)。本実施の形態では、このようにブレーキランプ視差とブレーキランプ間幅の値として、画素数単位によるブレーキランプ視差及びブレーキランプ間幅(ブレーキランプ間画像幅)の値をそのまま用いるものとはせず、それらの値を視差オフセット値DPを取り入れたかたちに換算し、それら換算した値を用いてステップS105での近似直線の算出(つまり補正値の算出)を行う。これにより、画素数単位によるブレーキランプ視差及びブレーキランプ間幅の値をそのまま用いた近似直線の算出を行う場合よりも補正値の精度の向上が図られる。   Here, the correction value calculation brake lamp parallax and the correction value calculation brake lamp parallax calculated as described above are both values incorporating the parallax offset value DP (between the correction value calculation brake lamps). Since the width is finally divided by the distance, the parallax offset value DP is taken in). In this embodiment, as described above, the values of the brake lamp parallax and the brake lamp width (the image width between brake lamps) are not used as they are as the values of the brake lamp parallax and the brake lamp width. These values are converted into a form in which the parallax offset value DP is taken in, and an approximate straight line is calculated (that is, a correction value is calculated) in step S105 using the converted values. Thereby, the accuracy of the correction value can be improved as compared with the case of calculating an approximate straight line using the values of the brake lamp parallax and the brake lamp width in units of the number of pixels as they are.

なお、確認のため述べておくと、補正値算出用ブレーキランプ間幅は、[式5]で最終的に距離で除算されていることからも理解されるように、先行車両が自車両から遠ざかるほど値が小さくなり、逆に近づくほど値が大きくなる。従って、補正値算出用ブレーキランプ間幅としても、先行車両の見かけの大きさを表すものであることに変わりはない。   For confirmation, as will be understood from the fact that the distance between the brake lamps for calculating the correction value is finally divided by the distance in [Equation 5], the preceding vehicle moves away from the own vehicle. The value decreases as the value approaches, and the value increases as the value approaches. Therefore, the width between the brake lamps for calculating the correction value still represents the apparent size of the preceding vehicle.

画像処理部3は、ステップS207で補正値算出用ブレーキランプ視差、及び補正値算出用ブレーキランプ間幅を計算したことに応じて、ステップS208でそれら計算した補正値算出用ブレーキランプ視差と補正値算出用ブレーキランプ間幅をメモリ4に蓄積する処理を実行し、図5に示す処理を終える。   The image processing unit 3 calculates the correction value calculation brake lamp parallax and the correction value calculation brake lamp parallax in step S207, and calculates the correction value calculation brake lamp parallax and the correction value calculated in step S208. The process of accumulating the calculation brake lamp width in the memory 4 is executed, and the process shown in FIG.

図7は、近似直線算出処理(S105)のフローチャートである。
画像処理部3は、先のステップS104でデータ蓄積数が所定数以上であるとの肯定結果が得られたことに応じて、図7に示すステップS301で処理回数カウント値nを0リセットし、ステップS302で蓄積データに基づき最小自乗法ににより近似直線を計算する。すなわち、先のステップS208の処理によって蓄積された[補正値算出用ブレーキランプ視差,補正値算出用ブレーキランプ間幅]のデータに基づき、ブレーキランプ視差とブレーキランプ間幅の関係を表す近似直線(y=ax+b)を最小自乗法によって計算する。
FIG. 7 is a flowchart of the approximate line calculation process (S105).
The image processing unit 3 resets the processing count value n to 0 in step S301 shown in FIG. 7 in response to obtaining an affirmative result that the data accumulation number is equal to or greater than the predetermined number in the previous step S104. In step S302, an approximate straight line is calculated by the least square method based on the accumulated data. That is, based on the data of [correction value calculating brake lamp parallax, correction value calculating brake lamp parallax] accumulated by the processing of the previous step S208, an approximate straight line ( y = ax + b) is calculated by the method of least squares.

ステップS302で近似直線を計算したことに応じ、画像処理部3はステップS303に進んで蓄積データのうち近似直線に対して残差が過大なデータとブレーキランプ間幅の値が逸脱しているデータを除去する処理を実行する。すなわち、複数蓄積された[補正値算出用ブレーキランプ視差,補正値算出用ブレーキランプ間幅]のデータのうち、ステップS302で計算した近似直線に対する残差が過大とされるデータ(残差が所定値以上のデータ)と、補正値算出用ブレーキランプ間幅の値が他のデータにおける補正値算出用ブレーキランプ間幅の値に対して逸脱しているとされるデータとを除去する。このとき、補正値算出用ブレーキランプ間幅の値が逸脱しているか否かは、例えば蓄積された複数の補正値算出用ブレーキランプ間幅の値の平均値を求め、該平均値との差が所定値以上であるか否かにより判別する。   In response to the calculation of the approximate straight line in step S302, the image processing unit 3 proceeds to step S303, and among the accumulated data, data having an excessive residual with respect to the approximate straight line and data in which the value of the brake lamp width deviates. Execute the process to remove. That is, among the accumulated data of [correction value calculation brake lamp parallax, correction value calculation brake lamp width], data in which the residual with respect to the approximate straight line calculated in step S302 is excessive (residual is predetermined). Data greater than or equal to the value) and data for which the value of the correction value calculating brake lamp width deviates from the value of the correction value calculating brake lamp width of the other data. At this time, whether or not the value of the correction value calculation brake lamp width is deviated is obtained, for example, by calculating an average value of a plurality of accumulated correction value calculation brake lamp width values and calculating a difference from the average value. Is determined by whether or not is equal to or greater than a predetermined value.

続くステップS304で画像処理部3は、蓄積データに基づき最小自乗法により近似直線を再計算する。すなわち、ステップS303で除去したデータを除いた蓄積データに基づいて近似直線を再計算する。   In subsequent step S304, the image processing unit 3 recalculates the approximate line by the least square method based on the accumulated data. That is, the approximate straight line is recalculated based on the accumulated data excluding the data removed in step S303.

次のステップS305で画像処理部3は、処理回数カウント値nが上限値N以上であるか否かを判別し、否定結果が得られた場合はステップS306で処理回数カウント値をインクリメント(n←n+1)し、ステップS303に戻る。一方、ステップS305で肯定結果が得られた場合、画像処理部3は図7に示す処理を終える。
これにより、処理回数カウント値nが上限値Nに達するまでステップS303によるデータ除去処理とステップS304による近似直線の再計算処理とが繰り返される。この繰り返しにより、近似直線としてより精度の高い直線を算出でき、従って補正値の精度の向上が図られる。なお、本例では上限値N=1として、最小自乗法による近似直線の算出が計3回行われるようにしている。
In the next step S305, the image processing unit 3 determines whether or not the processing count value n is greater than or equal to the upper limit value N. If a negative result is obtained, the processing count value is incremented in step S306 (n ← n + 1), and the process returns to step S303. On the other hand, when a positive result is obtained in step S305, the image processing unit 3 ends the process illustrated in FIG.
As a result, the data removal process in step S303 and the approximate straight line recalculation process in step S304 are repeated until the processing count value n reaches the upper limit value N. By repeating this, a straight line with higher accuracy can be calculated as the approximate straight line, and thus the accuracy of the correction value can be improved. In this example, the upper limit value N = 1, and the approximate straight line is calculated three times by the least square method.

画像処理部3は、上記のようなステップS105の近似直線算出処理を実行したことに応じて、前述したステップS106の補正処理を実行する。この場合のステップS106の処理では、上記のような繰り返し処理によって最終的に算出された近似直線の切片bの値に基づいて視差オフセット値DPの補正が行われる。
これにより、カメラの取付状態の経時的な変化に伴い生じる視差オフセット値DPの誤差を適正に補正することができる。すなわち、視差dpから距離Zを算出する計算式の補正を適正に行うことができる。
In response to the execution of the approximate straight line calculation process of step S105 as described above, the image processing unit 3 executes the correction process of step S106 described above. In the process of step S106 in this case, the parallax offset value DP is corrected based on the value of the intercept b of the approximate straight line finally calculated by the above-described iterative process.
Thereby, the error of the parallax offset value DP caused by the change with time of the camera mounting state can be corrected appropriately. That is, the calculation formula for calculating the distance Z from the parallax dp can be appropriately corrected.

<4.実施の形態のまとめ>
上記のように本実施の形態の画像処理装置(画像処理部3)は、自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて算出した被写体の視差に基づき前記被写体までの距離を算出する距離算出手段(三次元位置情報生成処理部3A)と、前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段(先行車両検出処理部3D)と、前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段(視差オフセット値補正処理部3E)とを備えている。
そして、前記補正手段は、前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始する。
<4. Summary of Embodiment>
As described above, the image processing apparatus (image processing unit 3) according to the present embodiment is able to reach the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle. A preceding vehicle existing in the traveling direction of the host vehicle is detected based on the distance calculation means (three-dimensional position information generation processing unit 3A) for calculating the distance of the vehicle, and the captured image and the distance calculated by the distance calculation means Based on the parallax corresponding to the preceding vehicle detected by the preceding vehicle detecting means and the apparent magnitude of the preceding vehicle, based on the change in the apparent size of the preceding vehicle. And a correction unit (parallax offset value correction processing unit 3E) that corrects the calculation formula for calculating the distance.
And the said correction | amendment means starts the process which concerns on calculation of the correction value for correct | amending the said calculation formula based on the result of having determined whether the brake lamp of the said preceding vehicle is lighting.

これにより、先行車両が減速状態となる、すなわち先行車両の視差及び見かけの大きさの変化が確実に期待できる場合に対応して補正値の算出に係る処理を開始することが可能とされる。
従って、視差から距離を算出する計算式の補正を行うシステムにおいて、補正に要する時間の短縮化及び補正に係る処理負担の軽減を図ることができる。
Accordingly, it is possible to start the process related to the calculation of the correction value in response to the case where the preceding vehicle is in a deceleration state, that is, when the parallax and the apparent magnitude of the preceding vehicle can be reliably expected.
Therefore, in the system that corrects the calculation formula for calculating the distance from the parallax, the time required for the correction can be shortened and the processing load related to the correction can be reduced.

また、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、例えば点灯中の左右ブレーキランプとして検出された物体が同一先行車両の左右ブレーキランプでない可能性が高い場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Further, in the image processing apparatus according to the present embodiment, the correction unit relates to the calculation of the correction value for a frame image determined that the real space width between the left and right brake lamps of the preceding vehicle is equal to or less than a predetermined value. Exclude from processing.
As a result, for example, there is a high possibility that the object detected as the left and right brake lamps that are lit is not the left and right brake lamps of the same preceding vehicle, or there is a possibility that some detection error factor has occurred. Frame images are excluded from processing targets related to calculation of correction values.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.

さらに、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、例えば一方のブレーキランプのみに順光が当たっているケースなどで左右ブレーキランプの幅に差が生じている信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Furthermore, in the image processing apparatus according to the present embodiment, the correction unit performs processing related to calculation of the correction value for a frame image that is determined that the difference in width between the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. Exclude from the target.
As a result, for example, a frame image with low reliability in which the width of the left and right brake lamps is different in a case where only one brake lamp is lit, etc., is excluded from the processing related to the calculation of the correction value. Is done.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.

さらにまた、本実施の形態の画像処理装置においては、前記補正手段は、前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、自車両や先行車両が旋回中でロール角をもっていたり左右ブレーキランプの一方にブレーキランプ以外の赤色発光体を誤検出している場合や何らかの検出誤差要因が生じている可能性がある場合等での信頼性の低いフレーム画像については、補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
Furthermore, in the image processing apparatus according to the present embodiment, the correction means relates to the calculation of the correction value for a frame image that has been determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value. Exclude from processing.
As a result, if the host vehicle or the preceding vehicle is turning and has a roll angle, or if a red light emitter other than the brake lamp is erroneously detected on one of the left and right brake lamps, or there may be some detection error factor For example, a frame image with low reliability such as the above is excluded from processing targets related to calculation of correction values.
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.

加えて、本実施の形態の画像処理装置においては、前記補正手段は、自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外する。
これにより、自車両が先行車両の後面と正対しておらず先行車両の見かけの大きさが不正確となる場合に得られたフレーム画像については補正値の算出に係る処理の対象から除外される。
従って、補正値の精度の向上が図られ、距離Zの算出精度を向上できる。
In addition, in the image processing apparatus according to the present embodiment, the correction unit excludes the frame image when it is determined that the host vehicle is turning from the processing target related to the calculation of the correction value.
As a result, the frame image obtained when the host vehicle is not directly facing the rear surface of the preceding vehicle and the apparent size of the preceding vehicle is inaccurate is excluded from the processing related to the calculation of the correction value. .
Accordingly, the accuracy of the correction value can be improved, and the calculation accuracy of the distance Z can be improved.

<5.変形例>
以上、本発明の実施の形態について説明したが、本発明は上記で説明した具体例に限定されず、多様な変形例が考えられるものである。
例えば、補正値の算出に係る処理の対象から除外するフレーム画像の条件は、上記で例示したものに限定されない。例えば、自車両の前/後ピッチ量が所定値以上の場合には補正値の算出精度の低下が懸念されるため、そのような場合に得られたフレーム画像は処理対象から除外することもできる。なお、自車両の前/後ピッチ量はGセンサ10Fの検出信号に基づき得ることができる。また、自車両がブレーキON状態では前方向へのピッチが生じるため、ブレーキスイッチ10BがONであることが判定された場合のフレーム画像を処理対象から除外してもよい。
さらに、自車両が旋回中であるか否かの判定(ステップS101)に代えて、自車両の進行路上の所定距離内にカーブがあるか否かを判定してもよい。
<5. Modification>
While the embodiments of the present invention have been described above, the present invention is not limited to the specific examples described above, and various modifications can be considered.
For example, the conditions of the frame image excluded from the processing target related to the calculation of the correction value are not limited to those exemplified above. For example, when the front / rear pitch amount of the host vehicle is greater than or equal to a predetermined value, there is a concern that the calculation accuracy of the correction value may be reduced. Therefore, the frame image obtained in such a case can be excluded from the processing target. . The front / rear pitch amount of the host vehicle can be obtained based on the detection signal of the G sensor 10F. In addition, since the forward pitch is generated when the host vehicle is in the brake ON state, the frame image when it is determined that the brake switch 10B is ON may be excluded from the processing target.
Further, instead of determining whether the host vehicle is turning (step S101), it may be determined whether there is a curve within a predetermined distance on the traveling path of the host vehicle.

また、上記で例示した距離の計算式の補正手法は一例に過ぎず、例えば特許文献1に記載のように視差誤差εを補正値として算出する補正手法を採ることもできる。また、補正値算出用のブレーキランプ視差、ブレーキランプ間幅を計算せずに、画素数単位によるブレーキランプ視差及びブレーキランプ間幅(ブレーキランプ間画像幅)の値をそのまま用いて近似直線を算出することもできる。   Moreover, the correction method of the distance calculation formula illustrated above is only an example, and a correction method for calculating the parallax error ε as a correction value as described in Patent Document 1, for example, can be employed. In addition, without calculating the brake lamp parallax and the brake lamp width for calculating the correction value, the approximate straight line is calculated using the values of the brake lamp parallax and the brake lamp width (image width between brake lamps) in units of pixels. You can also

1…車両制御システム、2…撮像部、3…画像処理部、3A…三次元位置情報生成処理部、3D…先行車両検出処理部、3E…視差オフセット値補正処理部   DESCRIPTION OF SYMBOLS 1 ... Vehicle control system, 2 ... Imaging part, 3 ... Image processing part, 3A ... Three-dimensional position information generation processing part, 3D ... Prior vehicle detection processing part, 3E ... Parallax offset value correction processing part

Claims (5)

自車両の進行方向をステレオ撮像して得られた一対の撮像画像に基づいて算出した被写体の視差に基づき前記被写体までの距離を算出する距離算出手段と、
前記撮像画像と前記距離算出手段により算出された前記距離とに基づいて自車両の進行方向に存在する先行車両を検出する先行車両検出手段と、
前記先行車両検出手段により検出された先行車両に対応する前記視差及び前記先行車両の見かけの大きさの変化に基づいて、前記視差から前記距離を算出する計算式の補正を行う補正手段とを備え、
前記補正手段は、
前記先行車両のブレーキランプが点灯しているか否かを判定した結果に基づき、前記計算式を補正するための補正値の算出に係る処理を開始する
画像処理装置。
Distance calculating means for calculating a distance to the subject based on the parallax of the subject calculated based on a pair of captured images obtained by stereo imaging of the traveling direction of the host vehicle;
Preceding vehicle detection means for detecting a preceding vehicle existing in the traveling direction of the host vehicle based on the captured image and the distance calculated by the distance calculation means;
Correction means for correcting a calculation formula for calculating the distance from the parallax based on the parallax corresponding to the preceding vehicle detected by the preceding vehicle detection means and a change in the apparent size of the preceding vehicle. ,
The correction means includes
An image processing apparatus that starts processing related to calculation of a correction value for correcting the calculation formula based on a result of determining whether or not a brake lamp of the preceding vehicle is lit.
前記補正手段は、
前記先行車両の左右ブレーキランプ間の実空間上幅が所定値以下であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1に記載の画像処理装置。
The correction means includes
The image processing apparatus according to claim 1, wherein a frame image that is determined to have an upper real space width between the left and right brake lamps of the preceding vehicle that is equal to or less than a predetermined value is excluded from processing targets related to the calculation of the correction value.
前記補正手段は、
前記先行車両の左右ブレーキランプの幅の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1又は請求項2に記載の画像処理装置。
The correction means includes
The image processing apparatus according to claim 1, wherein a frame image that is determined that a difference in width between left and right brake lamps of the preceding vehicle is equal to or greater than a predetermined value is excluded from processing targets related to calculation of the correction value.
前記補正手段は、
前記先行車両の左右ブレーキランプの縦位置の差が所定値以上であると判定したフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1乃至請求項3の何れかに記載の画像処理装置。
The correction means includes
The frame image determined that the difference between the vertical positions of the left and right brake lamps of the preceding vehicle is greater than or equal to a predetermined value is excluded from the processing related to the calculation of the correction value. Image processing device.
前記補正手段は、
自車両が旋回中であると判定したときのフレーム画像を前記補正値の算出に係る処理の対象から除外する
請求項1乃至請求項4の何れかに記載の画像処理装置。
The correction means includes
The image processing apparatus according to any one of claims 1 to 4, wherein a frame image when it is determined that the host vehicle is turning is excluded from processing targets related to the calculation of the correction value.
JP2013227356A 2013-10-31 2013-10-31 Image processing device Active JP6169949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013227356A JP6169949B2 (en) 2013-10-31 2013-10-31 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013227356A JP6169949B2 (en) 2013-10-31 2013-10-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2015087323A JP2015087323A (en) 2015-05-07
JP6169949B2 true JP6169949B2 (en) 2017-07-26

Family

ID=53050236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227356A Active JP6169949B2 (en) 2013-10-31 2013-10-31 Image processing device

Country Status (1)

Country Link
JP (1) JP6169949B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6600177B2 (en) * 2015-06-19 2019-10-30 株式会社Subaru Image processing device
JP6619590B2 (en) * 2015-09-02 2019-12-11 株式会社Subaru Image processing device
US11222218B2 (en) 2019-03-11 2022-01-11 Subaru Corporation Vehicle exterior environment detection apparatus
JP6990222B2 (en) * 2019-03-11 2022-01-12 株式会社Subaru External environment detection device
JP7307699B2 (en) * 2020-03-31 2023-07-12 株式会社Soken object detector

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241500A (en) * 1995-03-07 1996-09-17 Hitachi Ltd Front vehicle recognition device and alarm device on vehicle
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP5234894B2 (en) * 2007-06-28 2013-07-10 富士重工業株式会社 Stereo image processing device

Also Published As

Publication number Publication date
JP2015087323A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
US9690995B2 (en) Image processing apparatus
JP5893601B2 (en) Vehicle control system
US10518772B2 (en) Vehicle position detecting apparatus
JP6169949B2 (en) Image processing device
JP5863536B2 (en) Outside monitoring device
JP4714104B2 (en) Object tilt detection device
WO2014091877A1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP4937933B2 (en) Outside monitoring device
JP5363920B2 (en) Vehicle white line recognition device
JP6936098B2 (en) Object estimation device
JP6828602B2 (en) Target detection device
JP2016068684A (en) Drive support control device
JP6185367B2 (en) Driving assistance device
JP6828603B2 (en) Target detection device
JP2019156308A (en) Parking support device
JP6178632B2 (en) Engine surge control device
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP2010018223A (en) Device for detecting vehicle traveling road surface
JP2015088049A (en) Vehicle control system
JP6082293B2 (en) Vehicle white line recognition device
JP6404609B2 (en) Steering support control device
JP6222768B2 (en) Lane departure warning control device
JP2014123301A (en) White line detection device
JP2012185665A (en) Vehicle external monitoring device
US20240051535A1 (en) Vehicle control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170629

R150 Certificate of patent or registration of utility model

Ref document number: 6169949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250