JP2013051736A - Vehicle periphery supervision device - Google Patents

Vehicle periphery supervision device Download PDF

Info

Publication number
JP2013051736A
JP2013051736A JP2012249246A JP2012249246A JP2013051736A JP 2013051736 A JP2013051736 A JP 2013051736A JP 2012249246 A JP2012249246 A JP 2012249246A JP 2012249246 A JP2012249246 A JP 2012249246A JP 2013051736 A JP2013051736 A JP 2013051736A
Authority
JP
Japan
Prior art keywords
image
vehicle
captured image
correction value
control cycle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012249246A
Other languages
Japanese (ja)
Other versions
JP5544408B2 (en
Inventor
Morimichi Nishigaki
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012249246A priority Critical patent/JP5544408B2/en
Publication of JP2013051736A publication Critical patent/JP2013051736A/en
Application granted granted Critical
Publication of JP5544408B2 publication Critical patent/JP5544408B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery supervision device having a function capable of performing pitching correction even in a monocular camera without a pitch detector.SOLUTION: The vehicle periphery supervision device acquires an image imaged by a camera mounted on a vehicle at each predetermined control period, calculates displacement magnitude of the imaged image at the present control period from the previous control period, and using the displacement magnitude, calculates a pitching correction value to cancel the displacement of the imaged image caused by a vehicle behavior, generates a corrected image by correcting the present imaged image by the pitching correction value, and detects an object from the corrected image. From the imaged image, by cutting out, as a supervision area, a predetermined area upper than the horizon, a predetermined area between lower and upper than the horizon including the horizon, or a predetermined area from the self-vehicle to and inclusive of a preceding vehicle within a predetermined distance, the displacement magnitude is obtained between the supervision area of the imaged image at the present control period and the supervision area of the imaged image at the previous control period.

Description

本発明は、車両に設けられたカメラによる撮像画像から、車両周辺の監視対象物を検出する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that detects a monitoring object around a vehicle from an image captured by a camera provided in the vehicle.

車両に設けられたカメラを用いて走行中に車両周辺を監視する場合、ピッチング(鉛直方向の車両の揺れ)等によりカメラの視軸が変位したときであっても、監視対象物を安定して検出できることが望ましい。   When monitoring the surroundings of a vehicle while traveling using a camera provided on the vehicle, even if the visual axis of the camera is displaced due to pitching (vertical vehicle shake) or the like, It is desirable that it can be detected.

そこで、ジャイロセンサ等のピッチ検出器を車両に備えて、このピッチ検出器により検出した鉛直方向の変位量により、ピッチングによる画像のずれ量を補正するようにした移動車の環境認識装置が提案されている(例えば、特許文献1参照)。   Accordingly, an environment recognition device for a mobile vehicle is proposed in which a pitch detector such as a gyro sensor is provided in a vehicle and an image shift amount due to pitching is corrected based on a vertical displacement amount detected by the pitch detector. (For example, refer to Patent Document 1).

また、車両に備えられたステレオカメラによる撮像画像の視差に基いて、自車両と対象物との距離を算出し、この距離のサンプル周期毎の変化から自車両と対象物の相対速度及び相対加減速度を算出して、所定量以上のピッチング変化が生じたことを判定するようにした車両用距離測定装置が提案されている(例えば、特許文献2参照)。この車両用距離測定装置においては、自車両と対象物との相対加速度に基づいてピッチングの程度に応じた画像位置の補正量を算出している。   Also, based on the parallax of the image captured by the stereo camera provided in the vehicle, the distance between the host vehicle and the object is calculated, and the relative speed and relative adjustment between the host vehicle and the object are calculated from the change of the distance for each sampling period. There has been proposed a vehicle distance measuring device that calculates a speed and determines that a pitching change of a predetermined amount or more has occurred (see, for example, Patent Document 2). In this vehicle distance measuring device, the correction amount of the image position corresponding to the degree of pitching is calculated based on the relative acceleration between the host vehicle and the object.

特開平3−118611号公報Japanese Patent Laid-Open No. 3-118611 特開平11−51645号公報Japanese Patent Laid-Open No. 11-51645

上述した特許文献1に記載された構成によりピッチング補正を行うためには、ピッチ検出器が必要になるため、装置のコストがアップすると共に、装置の構成が複雑になるという不都合がある。さらに、ピッチ検出器により検出された変位量を撮像画像に反映させて補正をするタイミングのずれにより、ピッチング補正が不適切なものとなるおそれがある。   In order to perform pitching correction with the configuration described in Patent Document 1 described above, a pitch detector is required, which increases the cost of the device and complicates the configuration of the device. Furthermore, there is a possibility that the pitching correction becomes inappropriate due to a shift in timing for correcting the displacement amount detected by the pitch detector in the captured image.

また、上記特許文献2に記載された構成は、ステレオカメラによる対象物との距離を測定するものであるため、単眼カメラによる構成には適用できないという不都合がある。   In addition, the configuration described in Patent Document 2 is for measuring the distance from an object with a stereo camera, and thus has a disadvantage that it cannot be applied to a configuration with a monocular camera.

そこで、本発明は、ピッチ検出器を用いることなく、単眼カメラによる構成においてもピッチング補正を行うことができる機能を備えた車両周辺監視装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a vehicle periphery monitoring device having a function capable of performing pitching correction even in a configuration using a monocular camera without using a pitch detector.

第1発明の車両周辺監視装置は、所定の制御周期毎に、車両に搭載されたカメラによる撮像画像を取得する画像取得部と、今回の制御周期での撮像画像の前回の制御周期からの変位量を算出し、該変位量を用いて車両の挙動に起因する撮像画像の変位分を相殺するためのピッチング補正値を算出するピッチング補正値算出部と、今回の撮像画像に対して、前記ピッチング補正値による補正を行った補正画像を生成する補正画像生成部と、前記補正画像から対象物を検出する対象物検出部とを備え、前記ピッチング補正値算出部は、撮像画像から、地平線より上側の所定領域、地平線を含み地平線より下側から上側までの所定領域、又は自車両から所定距離内の先行車両を含む所定領域を監視領域として切出し、今回の制御周期における撮像画像の監視領域と前回の制御周期における撮像画像の監視領域間で前記変位量を求めることを特徴とする。   The vehicle periphery monitoring device according to the first aspect of the present invention includes an image acquisition unit that acquires a captured image by a camera mounted on a vehicle every predetermined control period, and a displacement of the captured image in the current control period from the previous control period. A pitching correction value calculating unit for calculating a pitching correction value for calculating a pitching correction value for offsetting a displacement of the captured image caused by the behavior of the vehicle using the displacement amount, and for the current captured image, the pitching A correction image generation unit that generates a correction image corrected by a correction value; and an object detection unit that detects an object from the correction image, wherein the pitching correction value calculation unit is above the horizon from the captured image. A predetermined region including the horizon, including a horizon, from a lower side to an upper side of the horizon, or a predetermined region including a preceding vehicle within a predetermined distance from the host vehicle as a monitoring region. And obtaining the amount of displacement between the monitoring region of the captured image in the monitor area and the control period of the previous.

第1発明によれば、ピッチ検出器を用いることなく、単眼カメラによる構成においてもピッチング補正を行うことができる。   According to the first aspect of the invention, pitching correction can be performed even in a configuration using a monocular camera without using a pitch detector.

第2発明の車両周辺監視装置は、第1発明において、前記ピッチング補正値算出部は、前回の制御周期での撮像画像の監視領域と今回の制御周期での撮像画像の監視領域とにおける上下移動しない対象物の画像部分の相対変位量の相関値に基づいて、前記変位量を算出することを特徴とする。   In the vehicle periphery monitoring device according to a second aspect of the present invention, in the first aspect, the pitching correction value calculating unit moves up and down in a monitoring region of the captured image in the previous control cycle and a monitoring region of the captured image in the current control cycle. The displacement amount is calculated based on the correlation value of the relative displacement amount of the image portion of the object not to be processed.

車両周辺監視装置の構成図。The block diagram of a vehicle periphery monitoring apparatus. 車両周辺監視処理のフローチャート。The flowchart of a vehicle periphery monitoring process. ピッチング補正値による撮像画像の補正の説明図。Explanatory drawing of correction | amendment of the captured image by a pitching correction value. ピッチング補正値算出処理のフローチャート。The flowchart of a pitching correction value calculation process. 監視領域の設定態様の説明図。Explanatory drawing of the setting aspect of a monitoring area. 位相相関関数の逆フーリエ変換マップに対する変位量の座標系の再配置の説明図。Explanatory drawing of rearrangement of the coordinate system of the displacement amount with respect to the inverse Fourier transform map of a phase correlation function. 改良した位相相関関数を用いることによる効果の説明図。Explanatory drawing of the effect by using the improved phase correlation function. 改良した位相相関関数を用いた場合の検証データ。Verification data when improved phase correlation function is used. 他の改良した位相相関関数を用いることによる効果の説明図。Explanatory drawing of the effect by using another improved phase correlation function.

本発明の実施形態について、図1〜図9を参照して説明する。   An embodiment of the present invention will be described with reference to FIGS.

図1を参照して、本実施形態の車両周辺監視装置は車両に搭載して使用され、ECU(Electronic Control Unit)10と、ECU10に接続された赤外線カメラ20(本発明のカメラに相当する)、ヨーレートセンサ21、車速センサ22、ディスプレイ30、スピーカ31、及びアクチュエータ32とにより構成されている。   With reference to FIG. 1, the vehicle periphery monitoring device of the present embodiment is used by being mounted on a vehicle, and an ECU (Electronic Control Unit) 10 and an infrared camera 20 connected to the ECU 10 (corresponding to the camera of the present invention). , A yaw rate sensor 21, a vehicle speed sensor 22, a display 30, a speaker 31, and an actuator 32.

ECU10は図示しないCPU、メモリ等により構成された電子ユニットであり、メモリに保持された車両周辺監視用プログラムをCPUに実行させることによって、ECU10は、所定の制御周期毎に赤外線カメラ20による撮像画像を取り込む画像取得部11、画像取得部11により取得された今回の制御周期での撮像画像fについて、車両挙動による変位量を相殺するためのピッチング補正値PYを算出するピッチング補正値算出部12、ピッチング補正値PYにより撮像画像fを補正した補正画像f3を生成する補正画像生成部13、補正画像f3から対象物(歩行者等)を検出する対象物検出部14、警報対象となる対象物が検出されたときにディスプレイ30とスピーカ31による警報を行う警報制御部15、及び対象物との接触を回避するためにアクチュエータ32(ブレーキ機構、操舵機構等)を作動させる車両制御部16として機能する。   The ECU 10 is an electronic unit configured by a CPU, a memory, and the like (not shown). By causing the CPU to execute a vehicle periphery monitoring program held in the memory, the ECU 10 captures an image captured by the infrared camera 20 every predetermined control period. A pitching correction value calculation unit 12 that calculates a pitching correction value PY for canceling the displacement amount due to the vehicle behavior for the captured image f in the current control cycle acquired by the image acquisition unit 11. A corrected image generating unit 13 that generates a corrected image f3 obtained by correcting the captured image f with the pitching correction value PY, an object detecting unit 14 that detects an object (such as a pedestrian) from the corrected image f3, and an object that is an alarm target. Alarm control unit 15 that gives an alarm by display 30 and speaker 31 when detected, and contact with object The actuator 32 (brake mechanism, steering mechanism, etc.) in order to avoid serving as a vehicle control unit 16 to operate the.

次に、図2に示したフローチャートに従って、ECU10による車両周辺監視処理の実行手順について説明する。ECU10は、運転者による車両周辺監視処理の開始操作がなされたときに、図2に示したフローチャートによる車両周辺開始処理を開始する。   Next, the execution procedure of the vehicle periphery monitoring process by the ECU 10 will be described according to the flowchart shown in FIG. The ECU 10 starts the vehicle periphery start process according to the flowchart shown in FIG. 2 when the driver performs an operation for starting the vehicle periphery monitoring process.

ECU10は、STEP1で初期化処理を行った後、STEP10で運転者による車両周辺監視処理の停止操作がなされるまで、STEP2〜STEP9の処理を所定の制御周期により繰り返し実行する。STEP2は画像取得部11による処理であり、画像取得部11は、赤外線カメラ20から出力される1フレーム分のアナログの映像信号をデジタル信号に変更して画像メモリ(図示しない)に保持する。   After performing the initialization process in STEP 1, the ECU 10 repeatedly executes the processes of STEP 2 to STEP 9 at a predetermined control cycle until the driver performs a stop operation of the vehicle periphery monitoring process in STEP 10. STEP 2 is a process performed by the image acquisition unit 11. The image acquisition unit 11 converts an analog video signal for one frame output from the infrared camera 20 into a digital signal and holds it in an image memory (not shown).

続くSTEP3〜STEP6は、ピッチング補正値算出部12及び補正画像生成部13による処理である。ピッチング補正値算出部12は、STEP3で車速センサ22による検出速度から走行停止中でないと判断され、且つ、STEP4でヨーレートセンサ21により車両が旋回中でないと判断されたときに、STEP5で車両挙動(ピッチング等)に起因する撮像画像の変位分を補正するためのピッチング補正値PYを算出する。ピッチング補正値PYは、撮像画像の変位分を相殺するためのシフト量(ピクセル値)である。   Subsequent STEP 3 to STEP 6 are processes performed by the pitching correction value calculation unit 12 and the corrected image generation unit 13. The pitching correction value calculation unit 12 determines that the vehicle behavior (step 5) is determined in STEP 3 when it is determined in STEP 3 that the vehicle is not stopped from the speed detected by the vehicle speed sensor 22 and the yaw rate sensor 21 determines that the vehicle is not turning in STEP 4. A pitching correction value PY for correcting the displacement of the captured image due to pitching or the like is calculated. The pitching correction value PY is a shift amount (pixel value) for canceling out the displacement of the captured image.

また、補正画像生成部13は、STEP3で車速センサ22による検出速度から走行中であると判断され、且つ、STEP4でヨーレートセンサ21により車両が旋回中でないと判断されて、STEP5でピッチング補正値算出部12によりピッチング補正値PYが算出されたときに、今回の撮像画像f1をピッチング補正値PY分シフトさせて補正画像f3を生成し、STEP7に進む。   Further, the correction image generation unit 13 determines that the vehicle is running from the speed detected by the vehicle speed sensor 22 in STEP 3, and determines that the vehicle is not turning by the yaw rate sensor 21 in STEP 4, and calculates the pitching correction value in STEP 5. When the pitching correction value PY is calculated by the unit 12, the current captured image f1 is shifted by the pitching correction value PY to generate a corrected image f3, and the process proceeds to STEP7.

これにより、例えば、図3に示したように、今回の制御周期での撮像画像fがピッチングにより上側に変位しているときに、fをピッチング補正値PY分だけ下方向にシフトした補正画像f3が生成される。この場合、撮像画像fでは対象物の検索領域Eから外れていた歩行者の画像部分50の上側が、補正画像f3では検索領域E内に入るため、補正画像f3から歩行者の画像部分50を検出することができる。   Thus, for example, as shown in FIG. 3, when the captured image f in the current control cycle is displaced upward due to pitching, the corrected image f3 is shifted downward by the pitching correction value PY. Is generated. In this case, since the upper side of the pedestrian image portion 50 that has deviated from the object search area E in the captured image f falls within the search area E in the corrected image f3, the pedestrian image portion 50 is displayed from the corrected image f3. Can be detected.

また、STEP3で車両が停止中であると判断されたとき、及び、STEP4で車両が旋回中であると判断されたときにはSTEP10に分岐する。この場合は、補正画像f3は生成されず、また、後述するSTEP7〜STEP9による警報及び接触回避制御も実行されない。   Further, when it is determined in STEP 3 that the vehicle is stopped and when it is determined in STEP 4 that the vehicle is turning, the process branches to STEP 10. In this case, the corrected image f3 is not generated, and an alarm and contact avoidance control by STEP7 to STEP9 described later are not executed.

STEP7は対象物検出部14による処理であり、対象物検出部14は、STEP6で補正画像f3が生成されたときは補正画像f3から、また、補正画像f3が生成されなかったときには撮像画像fから、監視対象物(歩行者等)を検出する。   STEP 7 is processing by the object detection unit 14. The object detection unit 14 starts from the corrected image f 3 when the corrected image f 3 is generated in STEP 6, and from the captured image f when the corrected image f 3 is not generated. Detecting an object to be monitored (such as a pedestrian).

続くSTEP8〜STEP9は、警報制御部15及び車両制御部16による処理である。警報制御部15は、STEP8で対象物検出部14により検出された対象物が警報対象であるか否かを判断し(自車両からの距離や対象物の進行方向等により判断される)、警報対象であると判断したときにはSTEP9に進む。   Subsequent STEP 8 to STEP 9 are processes by the alarm control unit 15 and the vehicle control unit 16. The alarm control unit 15 determines whether or not the object detected by the object detection unit 14 in STEP 8 is an alarm object (determined based on the distance from the own vehicle, the traveling direction of the object, etc.), and the alarm When it is determined that it is the target, the process proceeds to STEP9.

そして、警報制御部15は、ディスプレイ30に対象物の位置を示して警告表示をし、また、スピーカ31から対象物の存在を報知する音声を出力する。また、車両制御部16は、警報対象である対象物との接触を回避するために、必要に応じてアクチュエータ(ブレーキ機構、操舵機構等)を作動させる。   Then, the alarm control unit 15 displays a warning on the display 30 by indicating the position of the target object, and outputs a sound for notifying the presence of the target object from the speaker 31. Further, the vehicle control unit 16 activates an actuator (brake mechanism, steering mechanism, etc.) as necessary in order to avoid contact with an object that is an alarm target.

一方、STEP8で、対象物検出部14により検出された対象物が警報対象ではないと判断されたとき、STEP10に分岐し、警報制御部15及び車両制御部16によるSTEP9の処理は行われない。   On the other hand, when it is determined in STEP8 that the object detected by the object detection unit 14 is not an alarm target, the process branches to STEP10, and the process of STEP9 by the alarm control unit 15 and the vehicle control unit 16 is not performed.

次に、図4に示したフローチャートに従って、ピッチング補正値算出部12によるピッチング補正値の設定処理について説明する。   Next, the pitching correction value setting process by the pitching correction value calculation unit 12 will be described with reference to the flowchart shown in FIG.

ピッチング補正値算出部12は、STEP20で、今回の制御サイクルでの撮像画像fから監視領域Wを切出す。ここで、監視領域Wは、図5(a)に示したように、撮像画像fの中央部に設定されている。   In STEP 20, the pitching correction value calculation unit 12 cuts out the monitoring region W from the captured image f in the current control cycle. Here, the monitoring area W is set at the center of the captured image f as shown in FIG.

なお、上下移動しない対象物の画像が監視領域内に含まれるようにするという観点から、図5(b)に示したように、監視領域Wを空側(地平線Hの上側、通常は建物や先行車両が撮像される)に設定してもよい。また、自車両の前後方向の移動に応じた画像上での移動量が小さいという観点から、図5(c)に示したように、監視領域Wを地平線H付近をより広範囲に監視する領域に設定してもよい。   From the viewpoint of including an image of an object that does not move up and down in the monitoring area, as shown in FIG. 5B, the monitoring area W is placed on the sky side (above the horizon H, usually a building or The preceding vehicle may be imaged). Further, from the viewpoint that the amount of movement on the image corresponding to the movement of the host vehicle in the front-rear direction is small, the monitoring area W is changed to an area where the vicinity of the horizon H is monitored more extensively as shown in FIG. It may be set.

或いは、前回の制御周期での撮像画像から、自車両に近い先行車両の画像部分が検出されたときには、この先行車両は撮像画像上での上下変位が少ない対象物であるので、この画像部分を含むように監視領域を設定してもよい。   Alternatively, when an image portion of a preceding vehicle close to the host vehicle is detected from the captured image in the previous control cycle, the preceding vehicle is an object with a small vertical displacement on the captured image, so this image portion is The monitoring area may be set so as to include it.

続くSTEP21で、監視領域にハミング窓(Hamming window)等による2次元のオペーレータを作用させる。ここで、監視領域に2次元のオペレータを作用させるのは、監視領域の境界が後述する高速フーリエ変換の結果に影響を及ぼすことを防ぐためである。そして、STEP22で、ピッチング補正値算出部12は、今回の制御周期での撮像画像fの監視領域に対して、高速フーリエ変換を行ってフーリエ変換画像Fを生成する。   In the subsequent STEP 21, a two-dimensional operator such as a Hamming window is applied to the monitoring area. Here, the reason why the two-dimensional operator is applied to the monitoring region is to prevent the boundary of the monitoring region from affecting the result of the fast Fourier transform described later. In STEP 22, the pitching correction value calculation unit 12 performs a fast Fourier transform on the monitoring area of the captured image f in the current control cycle to generate a Fourier transform image F.

次のSTEP23で、ピッチング補正値算出部12は、撮像画像fが初期画像(図2のフローチャートによる処理が開始されてから最初の撮像画像、及び、図2のSTEP3,4で車両が停止中又は旋回中であると判断されてから最初の撮像画像)であるか否かを判断する。そして、撮像画像fが初期画像であったときはSTEP40に分岐し、ピッチング補正値算出部12は、フーリエ変換画像FをF1(前回の制御周期でのフーリエ変換画像)としてメモリに保持する。続くSTEP41で、ピッチング補正値算出部12は、フレームカウンタのカウント値FRをクリア(0→FR)し、STEP42でピッチング補正値PYをゼロに設定してSTEP29に進み、処理を終了する。   At the next STEP 23, the pitching correction value calculation unit 12 determines that the captured image f is an initial image (the first captured image after the processing according to the flowchart of FIG. 2 is started and the vehicle is stopped at STEPs 3 and 4 of FIG. It is determined whether or not it is the first captured image after it is determined that the vehicle is turning. When the captured image f is an initial image, the process branches to STEP 40, and the pitching correction value calculation unit 12 stores the Fourier transform image F in the memory as F1 (Fourier transform image in the previous control cycle). In subsequent STEP 41, the pitching correction value calculation unit 12 clears the count value FR of the frame counter (0 → FR), sets the pitching correction value PY to zero in STEP 42, proceeds to STEP 29, and ends the process.

一方、STEP23で撮像画像fが初期画像でなかったときには、STEP24に進み、ピッチング補正値算出部12は、フーリエ変換画像FをF2(今回の制御周期でのフーリエ変換画像)としてメモリに保持する。そして、続くSTEP25で、ピッチング補正値算出部12は、以下の式(1)の位相相関関数Ra(ω)の逆フーリエ変換IRaを求めて、前回の制御周期での撮像画像に対する今回の撮像画像の変位量を求める。   On the other hand, when the captured image f is not the initial image in STEP 23, the process proceeds to STEP 24, and the pitching correction value calculation unit 12 holds the Fourier transform image F in the memory as F 2 (Fourier transform image in the current control cycle). Then, in subsequent STEP 25, the pitching correction value calculation unit 12 obtains the inverse Fourier transform IRa of the phase correlation function Ra (ω) of the following equation (1) and obtains the current captured image with respect to the captured image in the previous control cycle. The amount of displacement is obtained.

但し、F1:前回の制御周期でのフーリエ変換画像、F2:今回の制御周期でのフーリエ変換画像、ε1:今回の制御周期での撮像画像に含まれる前回の制御周期での撮像画像の残像分の影響を低減するための定数。   However, F1: Fourier transform image in the previous control cycle, F2: Fourier transform image in the current control cycle, ε1: Afterimage portion of the captured image in the previous control cycle included in the captured image in the current control cycle Constant to reduce the effect of.

上記式(1)による位相相関関数Ra(ω)の逆フーリエ変換IRaは、監視領域として切出した画像と同じサイズの複素数要素の2次元マップとなる。この2次元マップの要素の位置を、図6(a),図6(b)に示したように入れ替えて、水平位置がM/2よりも大きいとき及び垂直位置がN/2よりも大きいときに負の座標値で示すようにする。   The inverse Fourier transform IRa of the phase correlation function Ra (ω) according to the above equation (1) is a two-dimensional map of complex elements having the same size as the image cut out as the monitoring region. When the positions of the elements of the two-dimensional map are switched as shown in FIGS. 6A and 6B, the horizontal position is larger than M / 2 and the vertical position is larger than N / 2. Is indicated by a negative coordinate value.

このようにして座標を設定したIRaのマップにおいて、実部が最大となる要素の水平位置ix及び垂直位置iyを求めると、水平位置ix及び垂直位置iyが、それぞれピクセル単位の撮像画像の変位量の水平成分及び垂直成分となる。なお、IRaのマップの(ix,iy)近傍の要素の値を用いて、IRaが離散系ではなく連続系としたときに実部が最大となるサブピクセル単位の位置を推定し、この位置を撮像画像の変位量の水平及び垂直成分としてもよい。   When the horizontal position ix and the vertical position iy of the element having the maximum real part are obtained in the IRa map in which the coordinates are set in this way, the horizontal position ix and the vertical position iy are respectively the displacement amounts of the captured image in pixel units. The horizontal and vertical components of It should be noted that by using the values of elements in the vicinity of (ix, iy) of the map of IRa, the position of the sub-pixel unit at which the real part is maximum when IRa is a continuous system instead of a discrete system is estimated, and this position is calculated. The horizontal and vertical components of the displacement amount of the captured image may be used.

ここで、赤外線カメラ20に用いられている赤外線撮像素子は、入射される赤外線を熱に変換して吸収し、吸収した熱量に応じて電気抵抗が変化する赤外線吸収膜を用いて構成されている。そして、一旦赤外線吸収膜に吸収された熱が放熱されるまでには、赤外線吸収膜の熱容量C及び周囲回路の熱コンダクタンスGにより定まる熱時定数τに依存した時間を要する。   Here, the infrared imaging element used in the infrared camera 20 is configured using an infrared absorption film that converts incident infrared rays into heat and absorbs them, and changes in electrical resistance in accordance with the amount of absorbed heat. . Then, it takes time depending on the thermal time constant τ determined by the heat capacity C of the infrared absorption film and the thermal conductance G of the surrounding circuit until the heat once absorbed by the infrared absorption film is released.

そのため、赤外線吸収膜に入力される赤外線のレベルの変化に対する赤外線検出信号の応答遅れにより、今回の制御周期での撮像画像に前回の制御周期での撮像画像が残像として重なる現象が生じる場合がある。   Therefore, there may be a phenomenon in which the captured image in the previous control cycle overlaps the captured image in the previous control cycle as an afterimage due to a delay in response of the infrared detection signal to the change in the level of the infrared light input to the infrared absorption film. .

ここで、図7(a)は、一般的な位相相関関数である以下の式(2)のR(ω)を求めて、その逆高速フーリエ変換IRのマップを、底面を複素数要素の2次元(x−y)座標とし、高さを複素数要素の実部の大きさとして示した3次元表示であり、実部が最大となる複数数要素(ピーク点)が2個(P1,P2)存在している。   Here, FIG. 7A shows a general phase correlation function R (ω) of the following formula (2), and shows a map of the inverse fast Fourier transform IR, with the base of the two-dimensional complex element. This is a three-dimensional display with (xy) coordinates and the height as the size of the real part of the complex element, and there are two (P1, P2) plural elements (peak points) with the maximum real part. doing.

この場合、2個のピーク点のうちの1個は車両の挙動による撮像画像の変位に応じたものであり、もう1個は前回の制御周期での撮像画像の残像に応じたものであるが、この2個のうちのいずれが車両の挙動による撮像画像の変位に応じたものであるかを、実部の大きさから区別することはできない。   In this case, one of the two peak points corresponds to the displacement of the captured image due to the behavior of the vehicle, and the other corresponds to the afterimage of the captured image in the previous control cycle. It cannot be distinguished from the size of the real part which one of the two corresponds to the displacement of the captured image due to the behavior of the vehicle.

そこで、本実施形態では、上記式(2)のR(ω)に代えて、上記式(1)のRa(ω)を求めている。上記式(1)のε1は、赤外線カメラ20の赤外線撮像素子が有する熱容量の影響により生じる残存分の影響を低減するための定数であり、実験やコンピュータシミュレーションにより決定される。残像分の影響の程度は、赤外線カメラ20の特性に依るものであるため、一度適切なε1を設定すれば後は変更する必要がない。   Therefore, in the present embodiment, Ra (ω) in the above equation (1) is obtained instead of R (ω) in the above equation (2). In the above equation (1), ε1 is a constant for reducing the influence of the remaining amount caused by the influence of the heat capacity of the infrared imaging element of the infrared camera 20, and is determined by experiment or computer simulation. Since the degree of the influence of the afterimage depends on the characteristics of the infrared camera 20, once an appropriate ε1 is set, it does not need to be changed later.

図7(b)は、図7(a)と同一のF1(前回の制御周期での高速フーリエ変換画像)及びF2(今回の制御周期での高速フーリエ変換画像)について、上記式(1)のRa(ω)の逆フーリエ変換IRaのマップを、上述した図7(a)と同様に示したものであり、図7(a)で見られたピーク点P2が消失している。そのため、残ったピーク点P1のマップ中心からのずれ量を、今回の制御周期での撮像画像の前回の制御周期での撮像画像からの変位量として求めることができる。   FIG. 7B shows the same equation (1) for F1 (Fast Fourier transform image in the previous control cycle) and F2 (Fast Fourier transform image in the current control cycle) as in FIG. The map of the inverse Fourier transform IRa of Ra (ω) is shown in the same manner as in FIG. 7A, and the peak point P2 seen in FIG. 7A has disappeared. Therefore, the amount of deviation of the remaining peak point P1 from the map center can be obtained as the amount of displacement from the captured image in the previous control cycle of the captured image in the current control cycle.

次のSTEP26で、ピッチング補正値算出部12は、今回の制御周期のフーリエ変換画像F2で、前回の制御周期のフーリエ変換画像F1を更新する。また、STEP27で、フレームカウンタをカウントアップ(FR+1→FR)し、以下の式(3)により、ピッチング補正値PYに誤差が蓄積することを防ぐための減衰係数αを算出する。   In the next STEP 26, the pitching correction value calculation unit 12 updates the Fourier transform image F1 of the previous control cycle with the Fourier transform image F2 of the current control cycle. In STEP 27, the frame counter is counted up (FR + 1 → FR), and an attenuation coefficient α for preventing an error from accumulating in the pitching correction value PY is calculated by the following equation (3).

但し、α:減衰係数、D:αの最大値(FXが示す期間が経過した後のαの値)、FR:フレームカウンタのカウント値、FX:ピッチング補正値PYを抑制する期間(旋回直後等の車両姿勢が不安定になる期間)に相当するフレーム数。   Where α is the attenuation coefficient, D is the maximum value of α (the value of α after the period indicated by FX), FR is the count value of the frame counter, and FX is the period during which the pitching correction value PY is suppressed (immediately after turning, etc.) The number of frames corresponding to the period during which the vehicle posture becomes unstable.

続くSTEP28で、ピッチング補正値算出部12は、以下の式(4)によりピッチング補正値PYを算出(更新)する。そして、STEP29に進み、ピッチング補正値算出部12は処理を終了する。   In subsequent STEP 28, the pitching correction value calculation unit 12 calculates (updates) the pitching correction value PY by the following equation (4). Then, proceeding to STEP 29, the pitching correction value calculation unit 12 ends the process.

PY:ピッチング補正値、SY:画像変位量、α:減衰係数。   PY: pitching correction value, SY: image displacement amount, α: attenuation coefficient.

ここで、図8は、実際のピッチング量(図中a)と、上記式(2)の位相相関関数R(ω)を用いて算出したピッチング補正値(図中b)と、上記式(1)の位相相関関数Ra(ω)を用いて算出したピッチング補正値(図中c)を、縦軸をピッチング量(ピクセル数)に設定し、横軸を撮像画像のフレーム番号に設定して示した比較グラフである。図8から明らかなように、上記式(1)の定数項ε1を加えた位相相関関数Ra(ω)を用いることによって、ピッチング補正値と実際のピッチング量との差を減少させることができる。   Here, FIG. 8 shows an actual pitching amount (a in the figure), a pitching correction value (b in the figure) calculated using the phase correlation function R (ω) of the above equation (2), and the above equation (1). The pitching correction value (c in the figure) calculated using the phase correlation function Ra (ω) of) is shown with the vertical axis set to the pitching amount (number of pixels) and the horizontal axis set to the frame number of the captured image. It is a comparative graph. As is apparent from FIG. 8, the difference between the pitching correction value and the actual pitching amount can be reduced by using the phase correlation function Ra (ω) to which the constant term ε1 of the above equation (1) is added.

なお、上記式(1)の位相相関関数Fa(ω)に代えて、以下の式(5)の位相相関関数Fb(ω)を用いてもよい。   Instead of the phase correlation function Fa (ω) in the above formula (1), a phase correlation function Fb (ω) in the following formula (5) may be used.

但し、F1:前回の制御周期でのフーリエ変換画像、F2:今回の制御周期でのフーリエ変換画像、ε2:今回の制御周期での撮像画像に含まれる前回の制御周期での撮像画像の残像分の影響を低減するための定数。   However, F1: Fourier transform image in the previous control cycle, F2: Fourier transform image in the current control cycle, ε2: Afterimage portion of the captured image in the previous control cycle included in the captured image in the current control cycle Constant to reduce the effect of.

ここで、図9(a)は、上述した図7(a)と同様に、上記式(2)の位相相関関数R(ω)の逆高速フーリエ変換IRのマップを、底面を複素数要素の2次元(x−y)座標とし、高さを複素数要素の実部の大きさとして示した3次元表示であり、実部が最大となる複数数要素(ピーク点)が2個(P3,P4)存在している。   Here, FIG. 9 (a) shows a map of the inverse fast Fourier transform IR of the phase correlation function R (ω) of the above equation (2), and the bottom surface of the complex element 2 as in FIG. 7 (a). 3D display with dimension (xy) coordinates and height as the size of the real part of the complex number element, two multiple elements (peak points) with the maximum real part (P3, P4) Existing.

それに対して、図9(b)は、図9(a)と同一のF1(前回の制御周期での高速フーリエ変換画像)とF2(今回の制御周期での高速フーリエ変換画像)について、上記式(4)の位相相関関数Rb(ω)を求めて、その逆高速フーリエ変換IRbのマップを図9(a)と同様にして示したものである。   On the other hand, FIG. 9B shows the above formulas for F1 (Fast Fourier transform image in the previous control cycle) and F2 (Fast Fourier transform image in the current control cycle) as in FIG. 9A. The phase correlation function Rb (ω) of (4) is obtained, and the map of the inverse fast Fourier transform IRb is shown in the same manner as in FIG. 9A.

図9(b)では、P4の実部の大きさが減少して、ピーク点が1個(P5)になっている。そのため、ピッチング補正値算出部12は、P5の中心(0,0)からのずれ量を、今回の制御周期での撮像画像の前記の制御周期での撮像画像からの変位量として求めることができる。   In FIG. 9 (b), the size of the real part of P4 is reduced to one peak point (P5). Therefore, the pitching correction value calculation unit 12 can obtain the amount of deviation from the center (0, 0) of P5 as the amount of displacement from the captured image in the control cycle of the captured image in the current control cycle. .

なお、本実施の形態では、赤外線カメラ20を用いた場合の残像の影響を抑制するために、上記式(1)又は上記式(5)の位相相関関数を用いることを説明したが、可視カメラを含むカメラ一般において、撮像素子の特定の位置(定位置)に常時生じる固定ノイズによる画像の影響を抑制するときにも、上記式(1)又は上記式(5)の位相相関関数を用いることが有効である。   In the present embodiment, it has been described that the phase correlation function of the above formula (1) or the above formula (5) is used in order to suppress the influence of the afterimage when the infrared camera 20 is used. In general cameras including the above, the phase correlation function of the above formula (1) or the above formula (5) is also used to suppress the influence of the image due to the fixed noise always generated at a specific position (fixed position) of the image sensor. Is effective.

また、上記式(1)及び式(5)の位相相関関数を用いずに、上記式(2)の一般的な位相相関関数を用いて、撮像画像の変位量を求める場合にも、本発明の効果を得ることができる。この場合に、図7(a),図9(a)に示したように、ピーク点が複数存在するときには、逆高速フーリエ変換のマップの中心から最も離れたピーク点(図7(a)ではP1、図9(a)ではP2)の複素数要素の位置を、今回の制御周期での撮像画像の前回の制御周期での撮像画像からの変位量とすればよい。   The present invention is also applicable to the case where the displacement amount of the captured image is obtained using the general phase correlation function of the above equation (2) without using the phase correlation function of the above equations (1) and (5). The effect of can be obtained. In this case, as shown in FIGS. 7A and 9A, when there are a plurality of peak points, the peak point farthest from the center of the inverse fast Fourier transform map (in FIG. 7A) The position of the complex element of P1, FIG. 9 (a) P2) may be the amount of displacement of the captured image in the current control cycle from the captured image in the previous control cycle.

また、本実施の形態では、車両挙動に起因する撮像画像の変位を、x(左右)及びy(上下)という2方向について補正したが、上下方向についての位相相関を求めて、上下方向についてのみ補正をするようにしてもよい。   In the present embodiment, the displacement of the captured image caused by the vehicle behavior is corrected in two directions, x (left and right) and y (up and down), but the phase correlation in the up and down direction is obtained and only in the up and down direction. You may make it correct | amend.

10…ECU、11…画像取得部、12…変位量算出部、13…補正画像生成部、14…対象物検出部、20…赤外線カメラ。 DESCRIPTION OF SYMBOLS 10 ... ECU, 11 ... Image acquisition part, 12 ... Displacement amount calculation part, 13 ... Correction | amendment image generation part, 14 ... Object detection part, 20 ... Infrared camera.

Claims (2)

所定の制御周期毎に、車両に搭載されたカメラによる撮像画像を取得する画像取得部と、
今回の制御周期での撮像画像の前回の制御周期からの変位量を算出し、該変位量を用いて車両の挙動に起因する撮像画像の変位分を相殺するためのピッチング補正値を算出するピッチング補正値算出部と、
今回の撮像画像に対して、前記ピッチング補正値による補正を行った補正画像を生成する補正画像生成部と、
前記補正画像から対象物を検出する対象物検出部と
を備え、
前記ピッチング補正値算出部は、撮像画像から、地平線より上側の所定領域、地平線を含み地平線より下側から上側までの所定領域、又は自車両から所定距離内の先行車両を含む所定領域を監視領域として切出し、今回の制御周期における撮像画像の監視領域と前回の制御周期における撮像画像の監視領域間で前記変位量を求めることを特徴とする車両周辺監視装置。
An image acquisition unit that acquires a captured image by a camera mounted on the vehicle for each predetermined control period;
Pitching that calculates the amount of displacement of the captured image in the current control cycle from the previous control cycle, and calculates the pitching correction value for offsetting the displacement of the captured image due to the behavior of the vehicle using the amount of displacement A correction value calculation unit;
A corrected image generation unit that generates a corrected image obtained by performing correction using the pitching correction value for the current captured image;
An object detection unit for detecting an object from the corrected image,
The pitching correction value calculation unit monitors a predetermined region above the horizon, a predetermined region including the horizon from the lower side to the upper side, or a predetermined region including a preceding vehicle within a predetermined distance from the host vehicle, from the captured image. The vehicle periphery monitoring device is characterized in that the displacement amount is obtained between the monitoring region of the captured image in the current control cycle and the monitoring region of the captured image in the previous control cycle.
請求項1記載の車両周辺監視装置において、
前記ピッチング補正値算出部は、前回の制御周期での撮像画像の監視領域と今回の制御周期での撮像画像の監視領域とにおける上下移動しない対象物の画像部分の相対変位量の相関値に基づいて、前記変位量を算出することを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The pitching correction value calculation unit is based on the correlation value of the relative displacement amount of the image portion of the object that does not move up and down in the monitoring region of the captured image in the previous control cycle and the monitoring region of the captured image in the current control cycle. The vehicle periphery monitoring device characterized in that the displacement amount is calculated.
JP2012249246A 2012-11-13 2012-11-13 Vehicle periphery monitoring device Expired - Fee Related JP5544408B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012249246A JP5544408B2 (en) 2012-11-13 2012-11-13 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012249246A JP5544408B2 (en) 2012-11-13 2012-11-13 Vehicle periphery monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010045775A Division JP5139459B2 (en) 2010-03-02 2010-03-02 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2013051736A true JP2013051736A (en) 2013-03-14
JP5544408B2 JP5544408B2 (en) 2014-07-09

Family

ID=48013377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012249246A Expired - Fee Related JP5544408B2 (en) 2012-11-13 2012-11-13 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5544408B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935197A (en) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd Vehicle recognizing method
JP2001084497A (en) * 1999-07-13 2001-03-30 Honda Motor Co Ltd Position detector
JP2002112252A (en) * 2000-09-28 2002-04-12 Toshiba Corp Image processing apparatus and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935197A (en) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd Vehicle recognizing method
JP2001084497A (en) * 1999-07-13 2001-03-30 Honda Motor Co Ltd Position detector
JP2002112252A (en) * 2000-09-28 2002-04-12 Toshiba Corp Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP5544408B2 (en) 2014-07-09

Similar Documents

Publication Publication Date Title
CN106470877B (en) Vehicle display device and vehicle display method
JP6110256B2 (en) Object estimation apparatus and object estimation method
JP5710752B2 (en) Detection apparatus, method and program
JP2008113296A (en) Vehicle environment monitoring apparatus
WO2015145543A1 (en) Object detection apparatus, object detection method, and mobile robot
JP6291866B2 (en) Driving support device and driving support method
JP6563050B2 (en) System and method for image motion compensation
CN102985958A (en) Vehicle surroundings monitoring device
JP5418661B2 (en) Vehicle periphery monitoring device
JP6396729B2 (en) Three-dimensional object detection device
JP2021525423A (en) Driving assistance methods, control units, driving assistance systems, and operating devices
JP2018142884A (en) Bird's eye video creation device, bird's eye video creation system, bird's eye video creation method, and program
JP6213359B2 (en) Drive recorder and acceleration correction program for drive recorder
JP2013054399A (en) Vehicle periphery monitoring device
JP5544408B2 (en) Vehicle periphery monitoring device
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP5139459B2 (en) Vehicle periphery monitoring device
JP2022190173A (en) Position estimating device
JP2017184136A5 (en)
JP2020064029A (en) Mobile body controller
JPWO2019003771A1 (en) Imaging device
JP2009104363A (en) Object identification device
JP2006163569A (en) Object detector and object detection method
JP5455037B2 (en) Plane detection apparatus and detection method for detecting a plane from an image
JP5272818B2 (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140512

R150 Certificate of patent or registration of utility model

Ref document number: 5544408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees